Docker
Теория: Введение
Docker — программа, позволяющая операционной системе запускать процессы в изолированном окружении на базе специально созданных образов. Несмотря на то, что технологии, лежащие в основе Docker появились до него, именно Docker произвел революцию в том, как сегодня создается инфраструктура проектов, собираются и запускаются сервисы.
В этом курсе рассматриваются основы работы с Docker. Разбираются темы запуска и управления контейнерами. Рассказывается о том как опубликовать свой собственный образ на hub.docker.com.
Зачем нужен Docker
Docker — универсальный способ доставки приложений на машины (локальный компьютер или удаленные сервера) и их запуска в изолированном окружении.
Если вам приходилось собирать программы из исходников, то вы помните, что этот процесс включает в себя следующие шаги:
- Установить все необходимые зависимости под вашу операционную систему (их список еще надо найти)
- Скачать архив, распаковать
- Запустить конфигурирование
make configure - Запустить компиляцию
make compile - Установить
make install
Этот процесс нетривиальный и далеко не всегда быстрый. Иногда даже невыполнимый из-за непонятных ошибок. И это не говоря про загрязнение операционной системы.
Docker позволяет упростить эту процедуру до запуска одной команды, причем с почти 100%-й гарантией успеха.
Предположим, что мы решили разработать статический сайт на основе Jekyll. Jekyll — популярный генератор статических сайтов, написанный на Ruby. Например, гайды Хекслета находятся (вернее находились, но это не столь важно) на статическом сайте, сгенерированном с его помощью. И при его генерации использовался Docker (об этом можно прочитать в гайде: как делать блог на Jekyll).
Старый способ использования Jekyll требовал установки на вашу основную систему как минимум Ruby и самого Jekyll в виде гема (gem — название пакетов в Ruby). Причем, как и всегда в подобных вещах, Jekyll работает только с определенными версиями Ruby, что вносит свои проблемы при настройке. С Docker запуск Jekyll сводится к одной команде, выполняемой в директории с блогом.
Docker стал универсальным средством доставки софта независимо от его структуры, зависимостей и способа установки. Все, что нужно программам, распространяемым через Docker, находится внутри образа и не пересекаться с основной системой и другими контейнерами. Важность этого факта невозможно переоценить. Теперь обновление версий программ никак не задействует ни саму систему, ни другие программы. Сломаться больше ничего не может. Все, что нужно сделать, это скачать новый образ той программы, которую требуется обновить. Другими словами, Docker убрал проблему dependency hell и сделал инфраструктуру неизменяемой (immutable).
Больше всего Docker повлиял именно на серверную инфраструктуру. До эры Docker управление серверами было очень болезненным мероприятием, хотя уже существовали такие программы по управлению конфигурацией, как Chef, Puppet и Ansible.
Основная причина всех проблем — изменяемое состояние. Программы ставятся, обновляются, удаляются. Все это происходит в разное время на разных серверах и немного по-разному. Например, обновить версию PHP, Ruby или Python — это целое рискованное приключение. Проще поставить рядом новый сервер и переключиться на него. Идейно Docker позволяет сделать именно такое переключение, забыть про старое и поставить новое. Каждый запущенный контейнер живет в своем окружении, причем откат в такой системе очень прост: нужно всего лишь остановить новый контейнер и поднять старый на базе предыдущего образа.
.png)


















