Оглавление

Введение

В данной документации представлены разделы с инструкциями для установки и запуска стенда ПК СВ Брест в сценариях:


Документация не дает исчерпывающей информации по настройке сопутствующих систем, таких, как контроллеры домена, СУБД, сетевая инфраструктура и т.д. Приводятся только достаточные конфигурации этих сервисов для запуска ПК СВ Брест в рамках стендирования.


Требования

Как читать эту документацию

Документация написана модульно, и для развертывания облака в конкретном выбранном сценарии нужны только отдельные ее части. Поэтому документация представляет собой набор связанных гиперссылками инструкций, в разных местах которых администратору предлагается выбор из двух или нескольких вариантов дальнейших действий в зависимости от выбранной конфигурации стенда.

Рекомендуется каждую новую ссылку открывать в отдельной вкладке браузера и после прочтения открывшейся статьи возвращаться к месту, откуда данная статья была вызвана. Так, навигация по документации начинается на этой странице и после завершения действий по настройке всей инфраструктуры предполагается, что администратор вернется на эту же страницу для прочтения заключительных разделов.

Условные обозначения

В инструкциях данной документации принят ряд условных обозначений, как для терминологии, так и для указания значений различных параметров, специфичных для узлов кластера.


Термины и определения:

ТерминОпределениеОбозначение на схемах

РепозиторийСервис FTP для предоставления инсталляционных пакетов.

Контроллер доменаСервер, выполняющий службы аутентификации и авторизации.DC-N

Фронтальная машинаСервер, выполняющий роль управления Узлами виртуализации. Также предоставляет веб-интерфейс администратора облака ПК СВ Брест.FRONT-N

Узел виртуализацииГипервизор. Сервер, обеспечивающий работу виртуальных машин.NODE-N

ВМВиртуальная машина.vm

СХДСистема хранения данных – аппаратное (или эмулируемое программно) устройство, предоставляющее блочные данные по сети.SAN

Узел CephСервер распределенной системы хранения Ceph.CEPH-N

АРМАвтоматизированное рабочее место – рабочая станция администратора или пользователя.


В листингах команд и конфигурационных файлов будут встречаться условные обозначения устанавливаемых параметров. Такие обозначения всегда заключаются в угловые скобки так: <параметр-N>. При этом в названии самого условного обозначения может стоять символ N, обозначающий порядковый номер. Например, узлов виртуализации обычно больше 1-го, поэтому их IP-адреса могут обозначаться как <node-1-ip>, <node-2-ip> и т.д., или <node-N-ip>. 


В следующей таблице приведены все условные обозначения, используемые в документации:

Условное обозначениеНазначение

<local-admin>Локальный администратор – пользователь, созданный при установке ОС.

<domain-admin>Администратор домена.

<network>Сеть, например 192.168.1.0.

<netmask>Маска подсети, например 255.255.255.0.

<domain>Имя домена, например brest.local.

<hostname>Имя текущего узла, на котором выполняется настройка.

<server-N-ip>IP-адрес N-го сервера – обобщенное название для разных серверов – фронтальной машины, узлов виртуализации и др.

<server-N-hostname>Имя (hostname) N-го сервера – обобщенное название для разных серверов – фронтальной машины, узлов виртуализации и др.

<dc-N-ip>IP-адрес N-ного контроллера домена.

<dc-N-hostname>Имя (hostname) N-ного контроллера домена.

<ftp-ip>IP-адрес FTP-сервера.

<ftp-hostname>Имя (hostname) FTP-сервера.

<front-N-ip>IP-адрес N-ной Фронтальной машины.

<front-N-hostname>Имя (hostname) N-ной Фронтальной машины.

<floating-ip>Плавающий IP-адрес. Используется в высокодоступных конфигурациях фронтальных машин.

<floating-name>Плавающее доменное имя. Используется в высокодоступных конфигурациях фронтальных машин.

<node-N-ip>IP-адрес N-ного Узла виртуализации.

<node-N-hostname>Имя (hostname) N-ного Узла виртуализации.

<san-ip>IP-адрес СХД.

<ceph-N-hostname>Имя (hostname) N-ного узла кластера Ceph.

<OS-ISO>Имя ISO-образа установочного диска ОС

<OS-upd-ISO>Имя ISO-образа диска обновления ОС

<OS-dev-ISO>Имя ISO-образа диска разработчика для ОС

<OS-dev-upd-ISO>Имя ISO-образа обновления диска разработчика для ОС

<brest-ISO>Имя ISO-образа дистрибутива ПК СВ Брест

Сценарии развертывания

Облако ПК СВ Брест может быть развернуто на любом количестве узлов. Однако, при небольшом количестве узлов возникают очевидные ограничения. Например, если облако развернуто на 1-ом узле, при выходе его из строя вся виртуализованная инфраструктура станет недоступна. Или, если развернута только одна фронтальная машина, то при выходе ее из строя управление облаком станет невозможным, однако, виртуальные машины продолжат работать.

Также ПК СВ Брест позволяет гибко объединять роли узлов в пределах одного сервера. Например, фронтальная машина может быть объединена с узлом виртуализации на одном сервере. На данный момент существует только одно ограничение:

Объединение фронтальной машины и контроллера домена FreeIPA на одном узле не поддерживается.


Ниже приводятся типовые конфигурации стендов и их свойства:

Облако с хранилищем на СХД

Данный сценарий рекомендуется для первого знакомства с продуктом.

Поддерживается живая миграция и высокая доступность ВМ. Для обеспечения отказоустойчивости облака возможно последующее развертывание дополнительных фронтальных машин.

Облако с распределённым хранилищем Ceph

Вариант развертывания облака с хранением данных в распределенной системе хранения Ceph.

Поддерживается живая миграция и высокая доступность ВМ. Для обеспечения отказоустойчивости облака возможно последующее развертывание дополнительных фронтальных машин.

1 сервер

Данный сценарий применим, когда необходимо управление ВМ через веб-интерфейс, но в наличии только 1 сервер.

В этом случае роли хранилища, фронтальной машины, узла виртуализации и контроллера домена разворачиваются на единственном сервере. Нет необходимости иметь СХД.

В сценарии возможно использование только домена ALD

Не поддерживается миграция и высокая доступность ВМ.


Аппаратное обеспечение

Облако ПК СВ Брест может быть развернуто как на группе физических серверов, так и на виртуальных машинах в пределах одного сервера или рабочей станции для стендирования. Для разворачивания сценариев, включающих хранение данных на СХД, желательно наличие СХД, однако, в случае ее отсутствия, для стендирования допускается настройка программной СХД. В этом разделе статьи приводятся минимальные рекомендованные характеристики серверов (виртуальных машин) для стендирования и другие условия.

Серверы

В таблице перечислены минимальные рекомендованные характеристики серверов или виртуальных машин для разворачивания стенда:

НазначениеПроцессорОЗУОбъем диска

Репозиторий1 ядро512 Мб20 Гб

Контроллер домена3 ядра2 Гб20 Гб

Фронтальная машина2 ядра2 Гб20 Гб

Узел виртуализации4 ядра с поддержкой Intel VT-x или AMD-V4 Гб20 Гб

СХД (в случае отствутствия аппаратной СХД)2 ядраот 1 Гб

20 Гб - ОС

2 диска по 100 Гб для данных облака


Узел ceph2 ядраот 1 Гб

20 Гб - ОС

200 Гб для данных облака

Для работы механизма высокой доступности ВМ облака узлы виртуализации должны быть оборудованы модулем удаленного администрирования IPMI.

Если развертывание осуществляется на виртуальных машинах, на хостовой ОС должна быть включена вложенная виртуализация, см. статью Включение вложенной (nested) аппаратной виртуализации в KVM.

Сеть

В инструкциях данной документации все узлы объединяются в одну физическую или виртуальную одноранговую сеть и имеют по одному IP-адресу. В продуктовых инсталляциях рекомендуется использовать как минимум 2 сети для разделения трафика блочных данных и остального трафика кластера.


Планирование

После выбора сценария развертывания рекомендуется составить таблицу-план с указанием имен узлов, адресов и других данных. К такой таблице будет удобно обращаться по ходу выполнения инструкций для поиска необходимых значений. Желательно предполагать возможное развитие стенда и выбрать унифицированную схему именования узлов, а также зарезервировать ip-адреса для дальнейшего применений.

Важной функцией этой таблицы будет являться сопоставление условных обозначений принятых в документации адресов и имен ролей серверов их реальным значениям на Вашем оборудовании. Например, Вы решили объединить роль узла виртуализации и узла кластера ceph на одном сервере с действительным именем myhost2 и зафиксировали это в плане. Теперь, если в документации встретится действие, которое нужно выполнить на узле <ceph-2-hostname> будет очевидно, что его нужно сделать на myhost2.

Для примера ниже приводится план стенда по рекомендованному сценарию Облако с хранилищем на СХД:

УзелРольУсловное имяДействительное имя узлаДоменное имя полноеIP-адресПримечание

Сервер №1

Контроллер домена

Репозиторий

<dc-1-hostname>

<ftp-hostname>

dc1

dc1.brest.local192.168.1.1






192.168.1.2Зарезервировано для вторичного контроллера домена dc2






192.168.1.3Зарезервировано для вторичного контроллера домена dc3

Сервер №2Фронтальная машина<front-1-hostname>front1front1.brest.local192.168.1.5






192.168.1.6Зарезервировано для второй фронтальной машины front2






192.168.1.7Зарезервировано для третьей фронтальной машины front3






192.168.1.8Зарезервировано для "плавающего" высокодоступного адреса RAFT

Сервер №3Узел виртуализации<node-1-hostname>node1node1.brest.local192.168.1.11

Сервер №4Узел виртуализации<node-2-hostname>node2node2.brest.local192.168.1.12






192.168.1.13 -

192.168.1.19

Зарезервированы для дополнительных узлов виртуализации

Сервер №5СХД-san-192.168.1.20

Итого, на начальном этапе для реализации облака в данном сценарии нужно 4 сервера (+1, если нет СХД).

Порядок развертывания

Сначала на серверах необходимо развернуть ОС Astra Linux Special Edition 1.6 с необходимыми обновлениями и настроить сеть. Кратко шаги по установке изложены в инструкции Установка ОС

. Детально об установке можно почитать на соответствующем разделе Справочного центра.

Далее в соответствии с тем, как распределены роли по узлам в определенном ранее плане, последовательно переходите к разделам по настройке данных ролей на конкретных серверах.

  1. Создайте сетевой репозиторий по статье Настройка репозитория.
  2. Разверните контроллер домена в соответствии с разделом Контроллер домена.
  3. После настройки домена разверните фронтальную машину - Фронтальная машина.
  4. Подготовьте Узлы виртуализации.
  5. Далее перейдите к разделу Хранилище данных.

После выполнения соответствущих вашему сценарию инструкций, указанных разделов, развертывание облака ПК СВ Брест закончено.

Дальнейшие действия

После развертывания облака ознакомьтесь с тем, как настраиваются виртуальные сети, хранилища, виртуальные машины, например, по статье Управление виртуализацией ПК СВ Брест. Для проверки работоспособности облака создайте ВМ, запустите ее и выполните миграцию на другой узел виртуализации.

Так же для работы в облаке нескольких пользователей или администраторов, необходимо добавить в домен рабочие места и использовать их для подключения к веб-интерфейсу управления облаком. В статье Назначение прав пользователям для запуска ВМ opennebula описан процесс организации подобной работы в части настройки ПК СВ Брест.

С другими статьями вы можете ознакомиться в Справочном центре по ссылке Программный Комплекс Средств Виртуализации "Брест"

Обновление

При выходе новых версий ПК СВ Брест, или обновлений ОС, узлы кластера необходимо обновить. Рекомендации по обновлению приведены на странице Обновление.