Установка без использования инсталляторов#
Создание виртуальных машин для серверов управления и контроллеров домена#
В рекомендованном варианте развертывания узлы управления ПК СВ (далее фронтальные машины, фронты) и узлы контроллера домена (далее КД) разворачиваются как ВМ на 3-х физических серверах, которые будут являться узлами виртуализации ПК СВ.
На каждом из 3 серверов создается виртуальная машина (далее ВМ) с 1 узлом управления и 1 узлом КД (рекомендуется использовать не 3 узла КД, а 2. Соответственно на третьем сервере будет развернута только ВМ с третьим узлом управления ПК СВ).
Необходимые для изменения переменные#
Пример вида файла /home/astra/aic-code/ansible/playbooks/group_vars/all.yml
:
######################################
# VM for Brest fronts, ALD Pro hosts #
######################################
management_bridge: "br200"
backup_bridge: "br169"
storage_bridge: "br170"
mgmtnetwork: "192.168.22.0/24"
bckpnetwork: "10.22.22.0/24"
stornetwork: "10.205.17.0/24"
frnthost1_in_kvm: true
aldphost1_in_kvm: true
frnthost2_in_kvm: true
aldphost2_in_kvm: true
frnthost3_in_kvm: true
aldphost3_in_kvm: false
...
aldpro_domain: "aicstand.ru"
...
local_web_ip: "192.168.22.21"
Где:
Переменная |
Описание |
---|---|
management_bridge |
имя сетевого моста на физических серверах который имеет выход в менеджмент сеть |
backup_bridge |
имя сетевого моста на физических серверах который имеет выход в сеть для трафика СРК |
storage_bridge |
имя сетевого моста на физических серверах который имеет выход в сеть для трафика СХД |
mgmtnetwork |
адрес менеджмент сети с указанием префикса |
bckpnetwork |
адрес сети СРК с указанием префикса |
stornetwork |
адрес сети СХД с указанием префикса |
aldpro_domain |
доменное имя будущего домена |
local_web_ip |
адрес bootstrap сервера из менеджмент сети |
Примечание
Указание доменного имени на этом этапе необходимо для корректного внесения автоматизацией записей серверам друг о друге.
Предупреждение
Доменное имя не должно оканчиваться на .local
.
Следующие переменные отвечают за создание ВМ на физических серверах. Узлы управления ПК СВ и узлы Контроллера Домена могут быть развернуты на отдельных серверах или на виртуальных машинах (рекомендуется развертывать как ВМ). Значение true
указывает на использование ВМ.
Переменная |
Описание |
---|---|
frnthost1_in_kvm |
будет ли ВМ для первого фронта ПК СВ развернута на 1-м физическом сервере |
aldphost1_in_kvm |
будет ли ВМ для первого узла КД развернута на 1-м физическом сервере |
frnthost2_in_kvm |
будет ли ВМ для второго фронта ПК СВ развернута на 2-м физическом сервере |
aldphost2_in_kvm |
будет ли ВМ для второго узла КД развернута на 2-м физическом сервере |
frnthost3_in_kvm |
будет ли ВМ для третьего фронта ПК СВ развернута на 3-м физическом сервере |
aldphost3_in_kvm |
будет ли ВМ для третьего узла КД развернута на 3-м физическом сервере |
Пример вида части файла-инвентаря отвечающего за создание ВМ для фронтов ПК СВ, узлов КД (/home/astra/aic-code/inventory.yml
):
aic_default_infra:
hosts:
dc1-test:
ansible_host: 192.168.22.230
dc2-test:
ansible_host: 192.168.22.231
# dc3-test:
# ansible_host: 192.168.22.232
node1-test:
ansible_host: 192.168.22.233
node2-test:
ansible_host: 192.168.22.234
node3-test:
ansible_host: 192.168.22.235
aichost1:
ansible_host: 192.168.22.74
ansible_user: aicadmin
aichost2:
ansible_host: 192.168.22.75
ansible_user: aicadmin
aichost3:
ansible_host: 192.168.22.76
ansible_user: aicadmin
############################
# VM on 3 physical servers #
############################
vm_hosts:
hosts:
aichost1:
aichost2:
aichost3:
Блок aic_default_infra
содержит узлы, используемые AIC кроме ВМ под управлением ПК СВ.
Требуется указать имена и адреса узлов КД (dc1-test
, dc2-test
), фронтов ПК СВ (node1-test
, node2-test
, node3-test
), а также указать 3 сервера на которых будут созданы ВМ для этих ресурсов.
Как видно из примера файла — узел с именем dc3-test
(третий узел контроллера домена) закомментирован, а в файле с переменным, переменная aldphost3_in_kvm
имеет значение false
. Это означает что используется только 2 узла КД.
Если планируется использовать 3 узла, то необходимо раскомментировать строки узлы dc3-test
, а переменной aldphost3_in_kvm
задать значение true
.
Только для 3-х физических серверов помимо имени и адреса также указывается пользователь, из-под которого на серверах будет выполняться автоматизация.
Примечание
В случае если пользователь не указывается, предполагается, что имя пользователя — astra
. Если для каких-либо ресурсов будут использованы не ВМ, а физические сервера, нужно указать в инвентаре имя пользователя, в случае если он отличается от astra
.
Предупреждение
Имена 3-х физических серверов в блоке aic_default_infra
на которых будут созданы ВМ должны быть такими же, как и hostname этих серверов.
В ином случае ВМ не будут развертываться, и все узлы контроллера домена и узлы управления ПК СВ будут вынесены на отдельные физические серверы, вместо параметров серверов предназначенных для ВМ нужно указать параметры 3-х основных узлов виртуализации ПК СВ.
Блок переменных vm_hosts
, отвечает за указание серверов, на которых будут развернуты ВМ. В нем нужно указать заданные ранее имена всех трех серверов.
Примечание
Необходимо предварительно обеспечить беспарольный доступ по SSH пользователю «astra» до указанного в файле-инвентаре пользователя на каждом их 3-х серверов
После заполнения обоих файлов можно запускать развертывание ВМ, для этого перейти в директорию /home/astra/aic-code/
и выполнить команду:
task vm_deploy
Это запустит развертывание всех ВМ.
Помимо общего развертывания, есть возможности более детально развертывания.
Чтобы узнать все аргументы команды task
, находясь в директории /home/astra/aic-code/
следует выполнить:
task info
Пример вывода после выполнения команды:
Ниже представлен полный список аргументов с их описанием для команды task
Для создания ВМ - будущих узлов КД и узлов управления Брест запустите task vm_deploy
Для добавления на все физические серверы и ВМ расположенные на них репозитории с текущего бутстрапа запустите task add_repos
Для полной инсталляции ALD Pro запустите task aldpro_deploy
Для полной инсталляции Брест запустите task brest_deploy
Для получения IQN инициаторов iSCSI таргета запустите task iscsi_iqn
Для подключения iSCSI LUN запустите task iscsi_connect
Для подключения 2 iSCSI LUN как хранилищ Брест запустите task iscsi_datastore
Для подготовки автоматизации перед развертыванием сетей и ВМ Брест запустите task terraform_config
Для развертывания сетей и ВМ Брест запустите task terraform_deploy
Для полной инсталляции RuBackup запустите task rubackup_deploy
Для полной инсталляции Astra Monitoring запустите task astra_monitoring_deploy
Для полной инсталляции BILLmanager запустите task bill_manager_deploy
Для полной инсталляции DCImanager запустите task dci_manager_deploy
Запуск команд в вышеописанной последовательности приведет к полному развертыванию AIC
task: Available tasks for this project:
* add_repos: Добавление репозиториев с bootstrap сервера
* aldpro_client: Инсталляция клиентской части ALD Pro
* aldpro_deploy: Полная инсталляция ALD Pro
* aldpro_deploy_replica: Инсталляция реплики ALD Pro. На будущей реплике сперва должна быть выполнена клиентская часть ALD
* aldpro_server: Инсталляция севера ALD Pro
* astra_monitoring_client: Инсталляция клиентов Astra Monitoring
* astra_monitoring_deploy: Инсталляция сервера и клиентов Astra Monitoring
* astra_monitoring_server: Инсталляция сервера Astra Monitoring
* bill_manager_deploy: Инсталляция сервера BillManager
* brest_deploy: Полная инсталляция ПК СВ Брест (front, kvm, raft)
* brest_front: Инсталляция узлов управления ПК СВ Брест
* brest_kvm: Инсталляция узлов виртуализации ПК СВ Брест
* brest_post_scripts: Донастройка Брест после его развертывания
* brest_raft: Инсталляция RAFT для всех узлов управления. Если RAFT уже существует, добавить в него дополнительный узел управления автоматизацией нельзя
* dci_manager_deploy: Инсталляция сервера DCIManager
* iscsi_connect: Подключение iSCSI LUN
* iscsi_datastore: Создание 2 хранилища в Брест из 2 наибольших подключенных LUN
* iscsi_iqn: Установка пакетов iSCSI, получение IQN инициаторов
* rubackup_api: Инсталляция модуля REST API RuBackup
* rubackup_client: Инсталляция клиенсткой части RuBackup
* rubackup_deploy: Инсталляция сервера и клиентов RuBackup
* rubackup_post_install: Авторизация, настройка клиентов RuBackup
* rubackup_server: Инсталляция сервера RuBackup
* rubackup_token: Генерация свежего токена для RuBackup
* terraform_clean: Обнуление состояния terraform
* terraform_config: Настройка переменных и VM для создания в Брест
* terraform_deploy: Создание ВМ в ПК СВ Брест
* terraform_destroy: Удаление всех ВМ в ПК СВ Брест
* terraform_post_scripts: Донастройка ВМ в ПК СВ Брест, после их развертывания
* vm_deploy: Полное развертывание на 3 серверах ВМ для фронтов Брест и ALD Pro
* vm_first_host: Создание ВМ на первом хосте
* vm_prepare_hosts: Подготовка 3 хостов перед созданием ВМ для фронтов Брест и ALD Pro
* vm_second_host: Создание ВМ на втором хосте
* vm_third_host: Создание ВМ на третьем хост
Здесь описаны все основные и дополнительные аргументы команды "task".
Как видно из вывода — помимо аргумента vm_deploy
есть 4 других аргументы относящиеся к развертыванию ВМ для фронтов ПК СВ, узлов КД:
task vm_prepare_hosts
task vm_first_host
task vm_second_host
task vm_third_host
Запуск общего развертывания аналогичен поочередному запуску этих аргументов task
.
Аргумент |
Описание |
---|---|
vm_prepare_hosts |
подготовка 3 хостов перед созданием ВМ для фронтов ПК СВ и ALD Pro |
vm_first_host |
создание ВМ на первом хосте |
vm_second_host |
создание ВМ на втором хосте |
vm_third_host |
создание ВМ на третьем хосте |
После общего запуска развертывания для каждого физического сервера выполняются следующие действия:
Копируется qcow2 образ ВМ.
Указываются репозитории ALSE с bootstrap сервера.
Происходит проверка наличия пакетов для работы libvirt QEMU с их установкой при их отсутствии.
Выполняется остановка ненужных сетевых служб, таких как
firewalld
,dnsmaq
,ModemManager
и удаление пакетов этих сетевых служб.Осуществляется синхронизация времени серверов с bootstrap сервером.
Устанавливаются нужные для работы Ansible ролей пакеты.
Генерируется и перезаписывается UUID для
libvirt
, чтобы обеспечить живую миграцию ВМ под управлением ПК СВ.Останавливается и удаляется стандартная сеть
libvirt
, так как она не будет использоваться.Создаются 3 виртуальные сети
libvirt
с параметрами, указанными ранее в файле/home/astra/aic-code/inventory.yml
.В файле
/etc/hosts
добавляются записи о других физических серверах с их доменным именем
На каждом из трех серверов выполняются следующие действия:
Скопированный ранее образ перемещается в директорию для образов
libvirt
с нужными правами.Создаются ВМ, согласно указанным переменным в файле
group_vars/all.yml
.Используя инструменты libvirt в каждой ВМ, задаются статичные IP-адреса, копируется публичный SSH-ключ с bootstrap сервера.
В результате разворачиваются ВМ с заданными IP-адресами и публичным ключом SSH (для возможности беспарольного доступа), то есть полностью готовые ВМ для развертывания на них остальных ресурсов AIC.
В названии виртуальных машин, расположенных на первом сервере, стоит цифра 1, на втором — цифра 2, на третьем — цифра 3, например: aldphost1
, frnthost2
.
Добавление репозиториев на созданные ВМ#
После развертывания ВМ на них необходимо добавить локальные репозитории с bootstrap сервера — репозитории ALSE 1.7.4 с оперативным обновлением uu1 на всех узлы используемые AIC, а также репозиторий ПК СВ 3.3.1 на узлы, предназначенные для ПК СВ.
Репозиторий ALD Pro будет добавлен автоматизацией во время инсталляции этого компонента.
Для запуска автоматизации добавления репозиториев необходимо, находясь в директории /home/astra/aic-code
, выполнить команду:
task add_repos
После этого можно переходить к развертыванию компонентов AIC.
Установка контроллеров домена#
На предыдущем этапе были подготовлены узлы, в том числе для развертывания на них КД.
Перед запуском развертывания необходимо указать переменные в файле /home/astra/aic-code/ansible/playbooks/group_vars/all.yml
:
###########
# ALD Pro #
###########
aldpro_domain: "aicstand.ru"
aldpro_admin_password: "=mvp1CL@st="
aldpro_version: 2.3.0
Где:
Переменная |
Описание |
---|---|
aldpro_domain |
Доменное имя |
aldpro_admin_password |
Пароль администратора домена |
aldpro_version |
Версия ALD Pro |
Значение переменной aldpro_domain
заполнялось на этапе развертывание ВМ для фронтов ПК СВ, узлов КД. Повторно менять ее значение не нужно, так как на 3 физических серверах в файле /etc/hosts
уже есть записи содержащие указанное в этой переменной доменное имя.
Для входа в веб-интерфейс ALD Pro необходимо использовать пароль указанный в переменной aldpro_admin_password
.
Предупреждение
Значение переменной «aldpro_version» необходимо оставить без изменений.
Пароль администратора домена не должен содержать в себе символа $.
После заполнения файла с переменными необходимо внести изменения в файл-инвентарь (/home/astra/aic-code/inventory.yml
):
aic_default_infra:
hosts:
dc1-test:
ansible_host: 192.168.22.230
dc2-test:
ansible_host: 192.168.22.231
# dc3-test:
# ansible_host: 192.168.22.232
...
#################
# ALD Pro hosts #
#################
aldpro_server:
hosts:
dc1-test:
aldpro_replica:
hosts:
dc2-test:
# dc3-test:
aldpro_clients:
children:
aldpro_replica:
brest_kvm_nodes:
brest_fronts:
Имена и адреса узлов КД указывались при создании ВМ, необходимо проверить, что с bootstrap сервера обеспечен беспарольный доступ по SSH до этих узлов.
Как видно из примера файла — используются 2 узла КД, третий узел закомментирован. На этапе создания ВМ, третий узел КД тоже был закомментиован, ВМ для него не была создана.
В группе aldpro_server
всегда указывается только 1 хост, лидер КД.
В группе aldpro_replica
указываются «реплики» КД.
В группе aldpro_clients
указываются группы, которые будут являться клиентами КД, то есть «реплики» КД, узлы управления и виртуализации ПК СВ. Менять имя этой группы или значения не рекомендуется. В случае изменения имени какой-либо группы, необходимо проверить что все ее упоминания также были изменены на новое значение. Клиенты ALD Pro после выполнения автоматизации развертывания получат hostname равные имени узлов в файле инвентаре.
Примечание
Все узлы КД равноправны, несмотря на разделение узлов КД на лидера и реплик. Между ними будет настроена двунаправленная репликация с периодичностью синхронизации баз данных примерно раз в 5-10 минут.
Такое разделение представлено исключительно для удобства заполнения файла инвентаря и работы автоматизации.
Для запуска развертывания КД ALD Pro необходимо в директории /home/astra/aic-code/
выполнить команду:
task aldpro_deploy
Команда запустит автоматизацию для полной инсталляции клиентской и серверной частей ALD Pro.
Дополнительные, более подробные команды запуска инсталляции этапов развертывания ALD Pro:
task aldpro_server
task aldpro_client
task aldpro_deploy_replica
В этом порядке команды должны быть выполнены чтобы прийти к результату команды task aldpro_deploy
. На узлах будущих реплик КД сперва должна выполниться установка клиентской части, после чего эти узлы будут «повышены» по полноценнных серверов КД.
Описание команд:
Команда |
Описание |
---|---|
aldpro_server |
инсталляция серверной части ALD Pro, лидера КД |
aldpro_client |
инсталляция клиентской части ALD Pro |
aldpro_deploy_replica |
инсталляция реплик ALD Pro |
После успешного развертывания КД, следует перейти в веб-интерфейс ALD Pro, чтобы убедиться, что все нужные узлы вошли в домен. Для этого в браузере, например одного из 3 серверов, на которых были развернуты ВМ следует перейти по адресу:
https://dc1-test.aicstand.ru
Авторизовавшись, перейти во вкладку Компьютеры и убедиться, что в представленном списке указаны все узлы из группы файла инвентаря aic_default_infra
.
Примечание
Состояние настроенной репликации будет отображаться только через 5-10 минут после завершения развертывания реплик, первая синхронизации БД лидера и реплик КД также произойдет через 5-10 минут.
Установка сервиса виртуализации#
Развернув КД следует перейти к развертыванию сервиса виртуализации — ПК СВ.
Перед запуском развертывания нужно изменить значения переменных,относящиеся к ПК СВ, в файле /home/astra/aic-code/ansible/playbooks/group_vars/all.yml
:
#########
# Brest #
#########
freeipa_admin_pass: "{{ aldpro_admin_password }}"
freeipa_brestadmin: "badmin"
freeipa_brestadmin_pass: "=mvp1CL@st="
db_name: "brest"
db_user: "dbuser"
db_user_pass: "=mvp1CL@st="
raft_floating_name: "raftleader"
raft_floating_ip: "192.168.22.100"
Где:
Переменная |
Описание |
---|---|
freeipa_admin_pass |
пароль администратора FreeIpa, необходимо оставить без изменений |
freeipa_brestadmin |
имя администратора ПК СВ (он будет добавлен в домен) |
freeipa_brestadmin_pass |
пароль администратора ПК СВ |
db_name |
имя основной БД ПК СВ |
db_user |
имя администратора основной БД ПК СВ |
db_user_pass |
пароль администратора основной БД ПК СВ |
raft_floating_name |
короткое плавающее имя кластера управления ПК СВ (эта A-запись будет добавлена в DNS ALD Pro) |
raft_floating_ip |
адрес короткого плавающего имени кластера управления ПК СВ (RAFT) |
Предупреждение
Указываемые пароли должны:
состоять минимум из 8 символов;
содержать спецсимволы, цифры, буквы нижнего и верхнего регистра.
Адрес короткого плавающего имени кластера управления ПК СВ должен быть в менеджмент сети.
Основная БД ПК СВ хранит в себе все данные о кластере ПК СВ:
Пользователи и группы — информация о пользователях, их ролях и группах, а также права доступа.
Виртуальные машины — данные о конфигурациях виртуальных машин, их состояниях, использовании ресурсов и связанных образах.
Ресурсы — информация о ресурсах, таких как хосты, хранилища, сети и другие элементы, которые составляют облачную инфраструктуру.
Шаблоны — настройки и параметры шаблонов для виртуальных машин, которые используются для их создания.
Мониторинг — данные о производительности, статистике и событиях, связанных с работой виртуальных машин и хостов.
Заполнив переменные, следует внести правки в файл инвентарь (/home/astra/aic-code/inventory.yml
):
aic_default_infra:
hosts:
...
brest1:
ansible_host: 192.168.22.233
brest2:
ansible_host: 192.168.22.234
brest3:
ansible_host: 192.168.22.235
aichost1:
ansible_host: 192.168.22.74
ansible_user: aicadmin
aichost2:
ansible_host: 192.168.22.75
ansible_user: aicadmin
aichost3:
ansible_host: 192.168.22.76
ansible_user: aicadmin
...
###############
# Brest hosts #
###############
brest_fronts:
hosts:
brest1:
brest2:
brest3:
brest_raft:
children:
brest_fronts:
brest_kvm_nodes:
hosts:
aichost1:
aichost2:
aichost3:
Имена и адреса узлов управления ПК СВ указывались при создании ВМ, необходимо проверить что с bootstrap сервера обеспечен беспарольный доступ по SSH до этих узлов.
Примечание
3 сервера на которых были развернуты ВМ — фронты ПК СВ и узлы КД являются и узлами виртуализации ПК СВ.
В случае, если узлы виртуализации планируется вынести на отдельные серверы, или использовать большее количество узлов виртуализации, их следует добавить в группу aic_default_infra
по аналогии с текущем примером файла (такая же табуляция, указание не только имена и адреса, но и имени пользователя), а также указать их имена в группе brest_kvm_nodes
.
В группе brest_fronts
указываются имена узлов управления ПК СВ (далее — фронты, фронтальные машины).
В группе brest_raft
указывается группа узлов, на которой будет развернут RAFT, то есть узлы управления ПК СВ. Менять значения этой группы не нужно.
В группе brest_kvm_nodes
указываются имена узлов виртуализации ПК СВ.
Заполнив оба файла, можно переходить к развертыванию сервиса виртуализации.
Для этого в директории /home/astra/aic-code
выполнить команду:
task brest_deploy
Эта команда запустит автоматизацию для полной инсталляции сервиса виртуализации, как и узлов управления, так и узлов виртуализации.
Дополнительные, более подробные команды запуска инсталляции этапов развертывания сервиса виртуализации:
task brest_front
task brest_kvm
task brest_raft
task brest_post_scripts
В таком порядке команды должны быть выполнены чтобы прийти к результату выполнения команды task brest_deploy
.
Описание команд:
Команда |
Описание |
---|---|
brest_front |
инсталляция узлов управления ПК СВ |
brest_kvm |
инсталляция узлов виртуализации ПК СВ |
brest_raft |
настройка механизма RAFT |
brest_post_scripts |
выполнение пост-установочных действий |
Одним из пост-установочных действий является добавления в директории /root
на трех серверах управления ПК СВ скрипта backup_db.sh
, который выполняет резервное копирование базы данных кластера при условии, что текущий сервер является лидером кластера управления ПК СВ. Резервная копия базы данных помещается в каталог /backup
расположенный на этих же узлах. Также скрипт ротирует резервные копии, с периодичностью в 15 дней. Выполнение скрипта добавляется в таблицу планировщика задач cron, с периодичностью запуска скрипта каждый день, в 00:05.
После успешного развертывания сервиса виртуализации необходимо проверить его работоспособность.
Для проверки корректности настройки механизма RAFT на любом из узлов управления ПК СВ из-под пользователя root
выполнить команду:
onezone show 0
Пример вывода команды:
root@node1-test:~# onezone show 0
ZONE 0 INFORMATION
ID : 0
NAME : OpenNebula
ZONE SERVERS
ID NAME ENDPOINT
0 node1-test.aics http://192.168.22.233:2633/RPC2
1 node2-test.aics http://192.168.22.234:2633/RPC2
2 node3-test.aics http://192.168.22.235:2633/RPC2
HA & FEDERATION SYNC STATUS
ID NAME STATE TERM INDEX COMMIT VOTE FED_INDEX
0 node1-test.aics leader 51 65 65 2 -1
1 node2-test.aics follower 51 65 65 -1 -1
2 node3-test.aics follower 51 65 65 2 -1
ZONE TEMPLATE
ENDPOINT="http://localhost:2633/RPC2"
root@node1-test:~#
Узел с именем node1-test
является лидером кластера RAFT. Если бы RAFT был некорректно настроен, то все узлы имели бы значение STATE - follower
.
Далее необходимо зайти в его веб-интерфейс, для этого в браузере, например одного из 3 серверов, на которых были развернуты ВМ следует перейти по имени RAFT:
https://raftleader.aicstand.ru
После авторизации необходимо проверить, что узлы виртуализации были корректно инициализированны.
Подключение iSCSI к сервису виртуализации#
Для хранилищ образов и данных ВМ под управлением ПК СВ рекомендуется использовать либо iSCSI, либо Ceph.
Автоматизация установки AIC 1.2 базовой редакции не предоставляет автоматизацию для развертывание и подключения к ПК СВ кластера Ceph.
Подключение iSCSI к сервису виртуализации разбито на 3 этапа:
установка пакетов iSCSI и получение IQN инициаторов;
подключения iSCSI LUN;
добавление 2 iSCSI LUN как хранилищ ПК СВ.
iSCSI LUN подключаются к узлам управления и виртуализации ПК СВ.
Перед переходом к первому этапу подключения iSCSI следует в файле с переменными (/home/astra/aic-code/ansible/playbooks/group_vars/all.yml
) указать адрес портала, который раздает минимум 2 iSCSI LUN. За адрес портала отвечает соответствующая переменная:
################
# iSCSI portal #
################
iscsi_portal:
- 10.205.17.90
# - 10.205.17.90
Можно указать несколько порталов. В примере выше представлено 2 портала, но так как строка со вторым порталом закомментирована, будет использоваться только 1, первый портал.
Вносить изменения в файл инвентарь необходимости нет, заполнив переменную, отвечающую за порталы — можно запускать первый этап подключения iSCSI.
Для этого в директории /home/astra/aic-code
выполнить команду:
task iscsi_iqn
После вызова этой команды на узлы управления и виртуализации ПК СВ будут установлены пакеты open-iscsi
и lvm2
, а также на экране будут следующий вывод с IQN каждого из узлов:

Необходимо добавить эти узлы по полученным IQN как инициаторов таргета ISCSI групп. У iSCSI есть возможность настроить iSCSI таргет для приема подключений от любых инициаторов без необходимости добавлять IQN каждого инициатора вручную. Это может быть реализовано путем настройки таргета на анонимный доступ или выставления более широких правил доступа, все индивидуально.
После добавления узлов как инициаторов при таковой необходимости, следует перейти ко второму этапу работы с iSCSI — подключению LUN.
Для этого в директории /home/astra/aic-code
выполнить команду:
task iscsi_connect
После выполнении автоматизации вызываемой этой командой, ко всем узлам будут подключены iSCSI LUN. Будут подключены все LUN раздаваемые указанным адресом, но для хранилищ ПК СВ будут использованы только 2 LUN с наибольшим объемом.
Примечание
Рекомендуется использовать предварительно очищенные LUN, то есть необходимо удалить всю содержащуюся на них информацию перед подключением их как хранилищ ПК СВ.
Для подключения 2 LUN как хранилищ ПК СВ в директории /home/astra/aic-code
выполнить команду:
Во время работы автоматизации на лидера RAFT будут скопированы 2 шаблона для хранилищ, выбраны 2 наибольших по объему подключенных iSCSI LUN, которые и будут использованы как хранилища для данных и образов ПК СВ.
Примечание
ПК СВ не сразу определяет корректные параметры хранилищ, после подключения 2 LUN следует подождать 5 минут, чтобы все хранилища корректно инициализировались.
Убедиться, что хранилища подключились успешно, можно посмотрев на их список в самом веб-интерфейсе ПК СВ в меню Хранилища, либо же зайдя на лидера RAFT, и из-под пользователя root
выполнив команду:
onedatastore list
Если хранилища подключились успешно, после выполнение команды в консоли должен быть следующий вывод:
root@node1-test:~# onedatastore list
ID NAME SIZE AVA CLUSTERS IMAGES TYPE DS TM STAT
101 lvm-lvm-system 200.0G 100 0 0 sys - lvm_lvm on
100 lvm-images 200.0G 100 0 0 img lvm lvm_lvm on
2 files 28.7G 78% 0 0 fil fs ssh on
1 default 28.7G 78% 0 0 img fs ssh on
0 system - - 0 0 sys - ssh on
В примере вывода были подключены 2 LUN, каждый из которых имеет размер в 200 ГБ. Левее имени хранилища указан его ID. Он будет необходим для следующего этапа развертывания AIC.
Создание сетей и ВМ под управлением ПК СВ#
Создание сетей и ВМ под управлением ПК СВ также осуществляется автоматизацией.
В ПК СВ будут созданы 2 сети — менеджмент сеть и сеть СРК. Количество виртуальных машин что будут созданы можно задать вручную, изменяя файл инвентарь.
Примечание
Имя сетевых мостов будет взято из переменных management_bridge
, backup_bridge
, которые заполнялись на этапе создания ВМ для узлов управления ПК СВ и КД.
Блок файла /home/astra/aic-code/ansible/playbooks/group_vars/all.yml
, отвечающий за этап создания ресурсов ПК СВ:
#############
# Terraform #
#############
def_infra_vms_network_name_mgmt: "Management"
def_infra_net_size_mgmt: "5"
def_infra_vms_network_name_bkp: "Backup"
def_infra_net_size_bkp: "5"
def_infra_vms_image_url: "http://{{ local_web_ip }}/images/alse-1.7.4uu1-base-brest-mg13.1.1-amd64.qcow2"
def_infra_vms_image_ds_id: "100"
def_infra_vms_system_ds_id: "101"
Где:
Параметр |
Описание |
---|---|
def_infra_vms_network_name_mgmt |
имя, которое будет назначено менеджмент сети в ПК СВ |
def_infra_net_size_mgmt |
количество адресов менеджмент сети в ПК СВ |
def_infra_vms_network_name_bkp |
имя, которое будет назначено сети СРК в ПК СВ |
def_infra_net_size_bkp |
количество адресов сети СРК в ПК СВ |
def_infra_vms_image_url |
путь до qcow2 образа для ВМ под управлением ПК СВ на bootstrap сервере (необходимо оставить без изменений) |
def_infra_vms_image_ds_id |
ID хранилища образов ПК СВ |
def_infra_vms_system_ds_id |
ID хранилища данных ПК СВ |
Количество адресов обоих сетей (диапазон адресов) рекомендуется указывать одно значение для обоих сетей, также значение должно быть числом равным или превышающим количество развертываемых ВМ (3, либо 4 если планируется инсталляция DCImanager).
Необходимые для изменений блоки файла инвентаря (/home/astra/aic-code/inventory.yml
):
brest_default_infra:
hosts:
rubackup-server:
ansible_host: 192.168.22.240
monitoring:
ansible_host: 192.168.22.241
bill-manager:
ansible_host: 192.168.22.242
# dci-manager:
# ansible_host: 192.168.22.243
...
####################
# Astra Monitoring #
####################
mon_server:
hosts:
monitoring:
mon_clients:
children:
aic_default_infra:
rubackup_server:
###############
# BillManager #
###############
bill_server:
hosts:
bill-manager:
###############
# DCI Manager #
###############
#dci_server:
# hosts:
# dci-manager:
############
# RuBackup #
############
rubackup_server:
hosts:
rubackup-server:
rubackup_client:
children:
aldpro_server:
aldpro_replica:
brest_raft:
В блоке brest_default_infra
указываются все ВМ под управлением ПК СВ. В этом блоке нужно указать имена и адреса узлов. ВМ получат hostname равные заданным в этом файле именам.
Если какой-то компонент развертывать не планируется, необходимо закомментировать имя и адрес такого компонента в блоке brest_default_infra
, а также закомментировать соответствующую компоненту группу узлов. На примере файла выше — ВМ для DCImanager развернута не будет.
Кроме блока brest_default_infra
в файле инвентаре есть блоки для соответствующих компонентов AIC, которые будут развернуты на ВМ под управлением ПК СВ:
mon_server
— группа узлов, в которой должно быть указано имя ВМ предназначенной для Astra Monitoring;mon_clients
— группа узлов, в которой должно быть указано имя группы всех узлов (aic_default_infra
), а также имя ВМ предназначенной для RuBackup;bill_server
— группа узлов, в, которой должно быть указано имя ВМ предназначенной для BILLmanager;dci_server
— группа узлов, в которой должно быть указано имя ВМ предназначенной для DCImanager;rubackup_server
— группа узлов, в которой должно быть указано имя ВМ предназначенной для RuBackup;rubackup_client
— группа узлов, в которой указываются имена групп в которых содержаться клиенты СРК, это группы всех узлов КД (aldpro_server
,aldpro_replica
), группа узлов на которых был настроен RAFT (brest_raft
).
Примечание
После смены имени ВМ, необходимо изменить имя в соответствующих группах, в которые должна входить эта ВМ.
Например, изменив имя ВМ для RuBackup сервера в блоке brest_default_infra
, имя ВМ также нужно изменить в блоках rubackup_server
и mon_clients
.
Имена групп изменять нельзя.
При создании сетей ПК СВ, первым адресом их диапазона будет являться адрес первой ВМ из группы узлов brest_default_infra
указанной в файле инвентаре.
При заполнении обоих файлов необходимо обратить внимание на значение переменных def_infra_net_size_mgmt
и def_infra_net_size_bkp
, а также на указанные адреса ВМ в группе узлов brest_default_infra
.
Так как первый адрес диапазона равен адресу первой ВМ из группы brest_default_infra
- необходимо проверить, что остальные адреса будут входить в указанный диапазон адресов сети.
Примечание
Для ВМ под управлением ПК СВ рекомендуется задавать адреса последовательно, для избежания потенциальных ошибок и дальнейшего удобства пользования.
У каждом ВМ под управлением ПК СВ будет 2 сети — основная сеть (менеджмент) и сеть для трафика СРК.
Развертывание сетей и ВМ под управлением сетей состоит из двух частей — конфигурирование файлов автоматизации после заполнения файла с переменными и файла инвентаря, и само развертывание.
Для конфигурирования файлов автоматизации после изменений обоих файлов, в директории /home/astra/aic-code
выполнить команду:
task terraform_config
Предупреждение
Команду необходимо запускать при любом изменения адресов или переменных описанных в этом разделе, так как выполнение этой команды конфигурирует файлы автоматизации для развертывания сетей и ВМ под управлением ПК СВ.
Для непосредственно развертывания, в директории /home/astra/aic-code
выполнить команду:
task terraform_deploy
После выполнения команды сети и ВМ под управлением ПК СВ будут развернуты.
Последним этапом работы является донастройка созданных ВМ, для этого выполнить команду:
task terraform_post_scripts
Подготовительные действия включают в себя добавления репозиториев ALSE с bootstrap сервера, удаление утилиты «one-context» и удаление записи «127.0.1.1» из файла «/etc/hosts». Эти действия также будут выполнены при развертывание компонентов ОП в ВМ под управлением ПК СВ при запуске развертывания этих компонентов, на указанной для компонента ВМ, что позволяет не выполнять эти действия вручную в случае создания ВМ для компонентов не используя автоматизацию.
Примечание
Повторный запуск команды task terraform_deploy
в случае ручного удаления части созданных развертыванием ресурсов, возможен только после полного ручного удаления всех ресурсов, развернутых ранее командой task terrform_deploy
, а также выполнения команды task terraform_clean
.
При развертывании ресурсов ПК СВ также создается файл «состояния» развертываемой инфраструктуры. За счет этого, в случае ручного удаления части развертываемых ресурсов — реальное стояние инфраструктуры и состояние, описанное в файле, будет отличным друг от друга. Из-за этого при выполнении команды task terraform_deploy
будут возникать ошибки с текстом *NO EXIS*T, что и будет обозначать различия между реальным состоянием инфраструктуры, и состоянием описанным в файле. Реальное состояние инфраструктуры и состояние, описанное в файле, всегда должно быть идентичным.
Команда task terraform_clean
удаляет файл с состоянием инфраструктуры, что сообщает автоматизации развертывания о том, что никакие ресурсы ПК СВ не были развернуты. Так как реальное состояние инфраструктуры и состояние в файле должны быть идентичными, нужно также удалить все созданные ранее в ПК СВ ресурсы.
Ошибка с тексом ALLOCATED обозначает что ресурс уже был создан, но он имеет другой ID. В случае возникновения этой ошибки, также нужно вручную удалить развертываемые командой task terrform_deploy
ресурсы, а после запустить команду task terraform_clean
.
Для полного удаления созданных в ПК СВ ресурсов выполнить команду:
task terraform_destroy
Эта команда будет выполнена успешно только в случае, если никакие развернутые командой task terraform_deploy
ресурсы не были удалены вручную.
Установка RuBackup под управлением ПК СВ#
После успешного выполнения развертывания сетей и ВМ под управлением ПК СВ, следует переходить к следующему этапу развертыванию AIC — СРК RuBackup.
СРК RuBackup является виртуальной машиной под управлением ПК СВ. ВМ для этого компонента AIC была создана на предыдущем этапе, перед развертыванием СРК нужно только изменить относящиеся к нему переменные (файл /home/astra/aic-code/ansible/playbooks/group_vars/all.yml
):
############
# Rubackup #
############
rubackup_version: 2.1.0.45-1
rubackup_clnt_eth: "eth1"
rubackup_server_psql_password: "ABC_1234567890"
rubackup_server_psql_password_rubackup: "ABC_1234567890"
rbdbuser: "rubackup"
Где:
Клиентами СРК являются узлы КД ALD Pro и узлы управления ПК СВ.
У всех клиентов СРК должен быть настроен сетевой интерфейс из выделенной для СРК сети с одинаковым для всех клиентов именем, имя этого интерфейса необходимо указать как значение переменной rubackup_clnt_eth
.
Примечание
Если клиенты СРК развернуты как ВМ согласно пункту Создание виртуальных машин для серверов управления и контроллеров домена, имя сетевого интерфейса сети СРК будет равным eth1
.
Если некоторые клиенты СРК находятся на отдельных серверах и имеют разные имена сетевых интерфейсов в рамках сети СРК, необходимо сначала развернуть серверную часть СРК. Затем в группе узлов клиентов СРК (в файле инвентаре) нужно указать только те узлы, чье имя сетевого интерфейса соответствует значению переменной rubackup_clnt_eth
. После этого следует запустить автоматизацию клиентской части СРК. Далее нужно изменить значение переменной rubackup_clnt_eth
и внести в группу клиентов другие узлы, для которых это значение актуально. Этот процесс следует повторять до тех пор, пока все клиенты СРК не будут установлены.
Например, только для узлов ALD Pro имя сетевого интерфейса в сети СРК — eth4
. В файле с переменными нужно задать соответствующее значение данной переменной, а в файле инвентаре изменить значения клиентской группы СРК:
rubackup_client:
children:
aldpro_server:
aldpro_replica:
# Другой, более точный вариант указания только узлов КД:
rubackup_client:
hosts:
dc1-test:
dc2-test:
Завершив автоматизацию клиентской части, снова измените значение переменной и имена узлов в группе клиентов СРК, после снова запустить развертывание клиентской части.
Примечание
Пароль администратора БД СРК должен состоять минимум из 12 символов и содержать минимум 1 цифру, а также 1 заглавную букву и минимум 1 специальный символ.
Для удобства рекомендуется задавать пользователю «postgres» и администратору БД СРК одинаковый пароль.
Заполнив файл с переменными, для запуска развертывания СРК RuBackup (в директории /home/astra/aic-code
) нужно выполнить команду:
task rubackup_deploy
На последнем этапе развертывания выполняются следующие действия:
Все клиенты RuBackup автоматически авторизуются.
Создаются клиентские группы:
dc
,brest
,rubackup
, по ним распределяются все клиенты.В клиентскую группу
rubackup
переносится клиент самого сервера RuBackup, в группуdc
— контроллер домена и его реплики, в группу «brest» - серверы управления ПК СВ.
Для каждого клиента (кроме клиента самого сервера RuBackup) создаются правила глобального расписания резервного копирования каталогов и файлов содержащих конфигурационные файлы AIC.
Также в конце вывода будут указаны сгенерированные API токены RuBackup, на экран будет выведен CSRF токен:

Токен из вывода автоматизации также для удобства записывается в файл /home/astra/api-tokens
на сервере СРК, пример содержания этого файла:
astra@rubackup-server:~$ cat /home/astra/api-tokens
# BEGIN ANSIBLE MANAGED BLOCK
csrf_token: 2904dcc7-7749-4a81-b860-2cbf08162dad
# END ANSIBLE MANAGED BLOCK
Полученный CSRF токен REST API необходимо авторизовать, для этого в веб-браузер ВМ с СРК нужно перейти по адресу https://api.rubackup.local:5656/api/v1
, в самом верху справа будет кнопка Authorize:

Нажав на нее, ввести полученный в выводе CSRF токен.
API необходим для возможности сборка метрик Astra Monitoring.
Подключение к ВМ
Для подключения к удаленному столу ВМ рекомендуется использовать VNC-подключение. Для этого необходимо установить соответствующий пакет:
sudo apt install virt-viewer
Далее в веб-интерфейсе ПК СВ выбрать Подключение через VNC, после открыть загруженный файл командой:
remote-viewer имя_скаченного_файла.vv
Дополнительные, более подробные команды запуска инсталляции СРК RuBackup:
task rubackup_server
task rubackup_client
task rubackup_api
task rubackup_post_install
task rubackup_token
В таком порядке эти команды должны быть выполнены чтобы прийти к результату выполнения команды task rubackup_deploy
.
Описание команд:
Команда |
Описание |
---|---|
rubackup_server |
инсталляция серверной части СРК |
rubackup_client |
инсталляция клиентской части СРК |
rubackup_api |
инсталляция и настройка модуля REST API на сервер СРК |
rubackup_post_install |
авторизация клиентов СРК, настройка глобального расписания для них |
rubackup_token |
генерация CSRF токен REST API RuBackup |
Примечание
При перезагрузке RuBackup сервера, либо службы rubackup_server.service
— токен для REST API нужно генерировать и авторизовать заново. Используя команду task rubackup_token
можно сгенерировать новый токен не запуская весь процесс развертывания заново.
Для проверки работоспособности находясь в графической сессии виртуальной машины с сервером RuBackup следует в терминале выполнить команду:
rbm&
Эта команда запустит оконное приложение менеджера администратора RuBackup (rbm):

В окне приложения необходимо указать:
имя сервера, пользователя и тип аутентификации RuBackup DB;
в поле Имя сервера RuBackup можно указать либо localhost, либо IP-адрес самой ВМ;
значение Имя пользователя находится в переменной
rbdbuser
, а Пароль в переменнойrubackup_server_psql_password_rubackup
.
Находясь в оконном приложении менеджера администратора RuBackup, необходимо проверить что все клиенты СРК авторизованы, находятся в сети, а также что для каждого клиента есть расписание на создание РК директории /etc/
.
Установка Astra Monitoring под управлением ПК СВ#
Astra Monitoring развертывается под управлением ПК СВ, следовательно ВМ для AM уже была создана ранее.
Перед развертыванием необходимо изменить переменные в файле /home/astra/aic-code/ansible/playbooks/group_vars/all.yml
:
oneexporter_password: "{{ '=mvp1CL@st=' | b64encode }}"
exporterwebuser_password: "{{ '=mvp1CL@st=' | b64encode }}"
Где:
Переменная |
Описание |
---|---|
oneexporter_password |
пароль пользователя «exporteruser». Этот пользователь будет через API получать данные для метрик AM |
exporterwebuser_password |
пароль пользователя «exporterwebuser». Этот пользователь будет получать данные для метрик с веб-интерфейса ПК СВ |
Примечание
Значения переменных выше — =mvp1CL@st=
. Все символы левее и правее их изменять нельзя. Они предназначены для кодирования значения переменной в base64, именно значения в такой кодировки являются допустимыми для Astra Monitoring.
Изменив значения переменных, запустить развертывание можно в директории /home/astra/aic-code
выполнив команду:
task astra_monitoring_deploy
Для сбора метрик в ПК СВ, в процессе развертывания в FreeIPA будет создан специальный сервисный пользователь.
Клиентами Astra Monitoring являются узлы КД, узлы управления и виртуализации ПК СВ, сервер RuBackup. На каждого клиента AM будет установлен отдельный экспортер, позволяющий собирать нужные логи.
Кроме общего развертывания есть возможность отдельно развернуть серверную и клиентскую части:
task astra_monitoring_server
task astra_monitoring_client
При раздельной инсталляции, используя 2 команды выше — в первую очередь нужно развернуть серверную часть, после клиентскую.
После развертывания для проверки его корректности можно перейти в браузере по адресу ВМ с сервером AM.
Приняв лицензионное соглашения нужно ввести данные для входа, после перейти в раздел Объекты наблюдения, в нем выбрать Объекты:

Для доступа к визуализации сбора информации нужно перейти в браузере по адресу ВМ с сервером AM (http) указав порт 3000
. В разделе Dashboards можно найти все доски, объединенные по логическим группам.
Данные для входа в веб-интерфейс Astra Monitoring:
логин:
admin-internal
;пароль:
admin
.
Данные для входа в Grafana (сервис визуализации собираемой информации):
логин:
admin
;пароль:
password
.
Это значения по умолчанию, поменять их можно вручную после развертывания
Установка BILLmanager#
BILLmanager также развертывается под управлением ПК СВ, следовательно виртуальная машина для него уже была развернута.
Переменных для автоматизации установки BILLmanager не предусмотрено, следовательно можно запускать его развертывание без внесения изменений в конфигурационные файлы.
Для запуска автоматизации развертывания в директории /home/astra/aic-code
выполнить команду:
task bill_manager_deploy
После выполнения команды будет развернут BILLmanager.
Предупреждение
Для работы BILLmanager необходима лицензия.
Редакция развертываемого BILLmanager — Hosting&Cloud.
В конце вывода развертывания на экран будет выведено значение параметра inode_id
:

В случае утери этого значение, узнать его повторно можно выполнив на узле с установленным BILLmanager команду:
ls -i /usr/local/mgr5/etc/billmgr.lic | cut -d' ' -f1
В поддержке ISPsystem необходимо получить номер лицензии, обычно номер из набора символов, длиной около 34 символов.
Далее, поддержке ISPsystem нужно передать значение inode_id
и номер лицензии. В ответ будет получена лицензия BILLmanager. Лицензия имеет длину около 2000 символов.
Примечание
Номер лицензии и сама лицензия — разные сущности.
После получения лицензии на узле с установленным BILLmanager от пользователя root
выполнить команду:
echo "полученная_лицензия" > /usr/local/mgr5/etc/billmgr.lic
Предупреждение
Необходимо выполнять именно команду echo, использовать текстовые редакторы нельзя.
Использование текстовых редакторов изменит уникальный номер инсталляции «inode_id».
После этого нужно перезапустить службы BILLmanager командой:
killall core
Или же командой:
/usr/local/mgr5/sbin/mgrctl -m billmgr exit
Для входа в веб-интерфейс BILLmanager необходимо перейти в браузере по адресу ВМ с установленным BILLmanager. Логин — root, пароль равен паролю пользователя root
в самой ВМ. Если он не задан вручную, (по умолчанию пароль для пользователя root
не задается), его необходимо задать.
В случае если зайти в веб-интерфейс BILLmanager до активации лицензии, веб интерфейс не откроется, вместо этого будет отображаться ошибка:

Это не является ошибкой инсталляции. После добавления лицензии и перезапуске служб BILLmanager веб-интерфейс будет открываться корректно.
Развертывание DCImanager#
DCImanager также развертывается под управлением ПК СВ, следовательно виртуальная машина для него уже была развернута.
Так как DCImanager не является обязательным компонентом AIC, перед началом работы с файлами для развертывания необходимо скачать 2 образа, расположить их в директорию «/rep/iso» на bootstrap сервере. Первый ISO содержит установочный образ DCImanager, второй образ содержит репозиторий необходимый для установки DCImanager.
Оба образа можно скачать в личном кабинете, в директории с файлами для «AIC 1.1» — dci6_repo.iso
, dci_latest.iso
.
Предупреждение
Имена образов изменять нельзя.
Перед развертыванием нужно изменить файл /home/astra/aic-code/ansible/playbooks/group_vars/all.yml
:
###############
# DCI Manager #
###############
email: "admin1@example.com"
password: "123!@#qweASD"
platform_name: "Platform_04"
DataCenter_name2: "DC1"
unit: "1"
default_gw_ip: "192.168.22.1"
mac: "AA:BB:C1:AD:EE:F2"
rack_name: "rack31"
srv_name: "srv124"
ipmi_address: "10.10.10.10"
ipmi_user: "user"
ipmi_pass: "passw0rd"
Где:
Переменная |
Описание |
---|---|
логин для подключения к DCImanager, указывается именно адрес электронной почты |
|
password |
пароль для подключения к DCImanager |
platform_name |
наименование платформы |
DataCenter_name2 |
наименование локации |
unit |
номер юнита в стойке, в этом юните должен располагаться управляющий локацией сервер |
default_gw_ip |
шлюз для менеджмент сети. При создании ВМ шлюз не указывался, а он необходим для корректной работы DCImanager |
default_gw_dev |
наименования сетевой интерфейса менеджмент сети |
mac |
MAC-адрес управляющего локацией сервера |
rack_name |
наименование стойки, в которой должен располагаться управляющий локацией сервер |
srvname |
имя управляющего локацией сервера |
ipmi_address |
IPMI адрес управляющего локацией сервера |
ipmi_user |
IPMI логин управляющего локацией сервера |
ipmi_pass |
IPMI пароль управляющего локацией сервера |
Для понимания переменных, нужно знать основные определения DCImanager.
Администратор может подключить к DCImanager 6 оборудование независимо от его территориального расположения и дата-центра, в котором оно находятся. Для этого в платформе есть локации.
Локация — интерфейс, через который DCImanager 6 управляет оборудованием из одного дата-центра. Под каждую локацию в дата-центре отводится специальный сервер, который служит DHCP-сервером и хранилищем шаблонов операционных систем (ОС) для всех серверов в локации. Именно параметры этого сервера задаются в переменных для развертывания.
DCImanager 6 позволяет систематизировать оборудование в локации по стойкам, в которых оно расположено. При создании локации указывается необходимое количество стоек и их размер в юнитах.
Все переменные кроме email
, password
, default_gw_ip
и default_gw_dev
являются шаблонными. Для развертывания с отсутствием подготовленных для DCImanager серверов достаточно поменять только 4 ранее указанных переменных
Для запуска развертывания в директории /home/astra/aic-code
выполнить команду:
task dci_manager_deploy
Для DCImanager необходима лицензия. Во время работы автоматизации будет выведен уникальный «отпечаток».
После вывода «отпечатка», автоматизация будут ожидать ввода лицензии. Для получения лицензии необходимо зайти на сайт ISP System. Авторизовавшись нужно запросить лицензию по полученному в выводе «отпечатку».
После чего полученную лицензию (она имеет текстовый вид) вставить в консоль, нажать Enter, после чего развертывание будет продолжено.