Предварительная настройка Ceph
Для обозначения серверов Ceph в статье используются термины "узлы" и "кластер". Эти термины не относятся к узлам и кластерам VMmanager.
Перед подключением хранилища Ceph к кластеру VMmanager необходимо провести предварительную настройку узлов кластера Ceph. В этой статье приведена общая информация об установке. Рекомендуется создавать кластер Ceph в соответствии с официальной документацией.
Перед созданием кластера убедитесь, что используемое оборудование соответствует системным требованиям. Рекомендуется использовать программное обеспечение Ceph версии не ниже 13.2.0.
Требования к узлам кластера
В составе кластера должны быть следующие физические или виртуальные серверы:
- сервер с данными (OSD);
- не менее трёх серверов-мониторов (MON);
- административный сервер (ADM);
- сервис мониторинга (MGR);
- сервер метаданных (MDS). Необходим, если вы используете файловую систему CephFS.
Серверы должны отвечать следующим требованиям:
- не используйте сервер с платформой VMmanager или узлы кластера VMmanager в качестве узлов Ceph;
- рекомендуется использование серверов, находящихся в одной стойке и в одном сегменте сети;
- рекомендуется использовать высокоскоростное сетевое подключение между узлами кластера;
- на всех серверах должна быть установлена одна операционная система;
- на серверах-мониторах должен быть открыт доступ к порту 6789/TCP, на серверах с данными — к диапазону портов 6800..7300/TCP;
- на всех узлах кластера должен быть непримонтированный раздел или диск для установки программного обеспечения (ПО) Ceph.
Пример подготовки узлов кластера
В примере рассматривается создание кластера в сети 172.31.240.0/20 с использованием серверов:
- ceph-cluster-1 с IP-адресом 172.31.245.51. Назначение — MON, OSD, ADM, MGR.
- ceph-cluster-2 с IP-адресом 172.31.246.77. Назначение — MON, OSD.
- ceph-cluster-3 с IP-адресом 172.31.246.82. Назначение — MON, OSD.
Если при выполнении команды ceph-deploy появляется ошибка "RuntimeError: NoSectionError: No section: 'ceph'", выполните команду повторно.
На всех серверах
- Установите ПО Ceph. Для этого:
Выполните команду:
CODEСоздайте файл /etc/yum.repos.d/ceph.repo и добавьте в него строки:
CODEВыполните команду:
CODE
Установите ПО для работы NTP. Это предотвратит проблемы, возникающие из-за сдвига системного времени:
CODEСоздайте пользователя ceph и установите для него необходимые права:
CODEСоздайте алиасы для узлов кластера в файле /etc/hosts:
CODEДобавьте службы Ceph в настройки firewalld:
CODE
На административном сервере
Установите пакеты ceph-deploy и python-setuptools:
CODEСоздайте ключи ssh и скопируйте их на все узлы кластера:
CODEДобавьте в файл ~/.ssh/config строки:
CODEСоздайте директорию my-cluster для конфигурационных файлов и файлов ceph-deploy и перейдите в неё:
CODEСоздайте конфигурационный файл кластера:
CODEПри использования Ceph-хранилища с одним узлом кластера замените в конфигурационном ceph.conf значение параметра "osd_crush_chooseleaf_type" на 0.
Добавьте информацию о сети узлов кластера в конфигурационный файл ceph.conf:
CODEУстановите ceph-deploy на узлы кластера:
CODEСоздайте сервис мониторинга:
CODEСоздайте и проведите инициализацию серверов-мониторов:
CODEСкопируйте конфигурационные файлы на узлы кластера:
CODEДобавьте в кластер серверы с данными:
CODEОчистите диски /dev/sdb на серверах с данными:
BASH
Может быть полезно
Связанные статьи: