Skip to main content

Обновление/Установка KUMA версии от 2.1.Х

Информация, приведенная на данной странице, является разработкой команды pre-sales и/или community KUMA и НЕ является официальной рекомендацией вендора.

Официальная документация по данному разделу приведена в Онлайн-справке на продукт: https://support.kaspersky.com/KUMA/2.1/ru-RU/217904.htm

Пункты 9, 10 и 1615 данного раздела требуются только при обновлении с версии 2.0 на версию 2.1.0, рекомендуемая версия 2.1.3.49

Убедитесь, что все пункты из статьи подготовки в системе соблюдены

При установке / обновлении на версию 3.2.х если имя хоста НЕ должно начинаться с цифры

    1.

  1. Создайте резервную копию ресурсов и сертификатов, см. советующий раздел в этой книге.

  2. 2. Распакуйте архив (операции выполняются на ядре системы KUMA): 

    tar -xvf kuma-ansible-installer-(ВЕРСИЯ).tar.gz
  3. 3.

  4. Перейдите в распакованную папку: 

    cd kuma-ansible-installer
  5. 4.

  6. Добавить файл лицензии в папку kuma-ansible-installer/roles/kuma/files и переименовать на license.key: 

    cp ПУТЬ_ДО_КЛЮЧА*.key roles/kuma/files/license.key
  7. 5.

  8. ВАЖНО! Регистр написания хостнеймов в inventory должен совпадать с выводом значения на хостах команды 

    hostname -f

    6. ВАЖНО! Хостнейм при команде hostname -f должен содержать хотя бы одну точку, пример: kuma.local

    7. Выполните команду копирования шаблона (либо подставьте ранее использованный файл single или distributed при обновлении, в случае первичной установки смотрите пример заполенения тут): 

    В случае ручной правки файла старайтесь не добавлять лишних пробелов. Если деморесурсы НЕ нужно разворачивать укажите в файле single/distributed.inventory.yml в строке (значение false) deploy_example_services: false

    Установка все в одном (single) (AiO)

    Выполните команду копирования шаблона: 

    cp single.inventory.yml.template single.inventory.yml

    Для автоподстановки имени хоста в конфигурацию, используйте команду ниже: 

    sed -i "s/kuma.example.com/$(hostname -f)/g" single.inventory.yml
    Распределенная установка (distributed)
    cp distributed.inventory.yml.template distributed.inventory.yml

    Про устройство кластера хранилища можно почитать тут.


    8.
  9. ВАЖНО! Регистр написания хостнеймов в inventory должен совпадать с выводом значения на хостах команды 
    hostname -f
  10. ВАЖНО! Хостнейм при команде hostname -f должен содержать хотя бы одну точку, пример: kuma.local
  11. На серверах хранилищ, где используется роль Keeper, включите использование ipv6.
     ВАЖНО! С сервера хранилища до ядра должен быть доступен 7220 порт.

  12. 9. (при обновлении с версии 2.0 на версию 2.1.0) Измените конфигурацию сервиса хранилища /usr/lib/systemd/system/kuma-storage-<ID хранилища>.service пропишите: 

    TimeoutSec=57600
    systemctl daemon-reload
  13. 10.

  14. (при обновлении с версии 2.0 на версию 2.1.0) При наличии доменных пользователей в системе выполните следующие команды:

    /opt/kaspersky/kuma/mongodb/bin/mongo localhost/kuma 
    db.users.updateMany({"accessMatrix":null},{$set: {"accessMatrix":{ "GET /resources" : false, "POST /resources/export" : false, "GET /services" : false, "POST /dictionaries/update" : false, "GET /assets" : false, "GET /dictionaries" : false, "POST /assets/import" : false, "POST /resources/upload" : false, "GET /users/whoami" : false, "GET /alerts" : false, "POST /events" : false, "GET /resources/download/:id" : false, "POST /alerts/close" : false, "GET /events/clusters" : false, "POST /resources/import" : false, "GET /activeLists" : false, "GET /tenants" : false, "POST /assets/delete" : false, "POST /resources/toc" : false, "POST /activeLists/import" : false}}}) 
    systemctl restart kuma-core  

  15. 11.

  16. Активируйте (если он деактивирован) пользователя по умолчанию admin в веб интерфейсе и вспомните его пароль, он потребуется в процессе установки. Либо если используется пароль по умолчанию, можно запустить установку так: 
  17. ./install.sh ./inventory.yml -e "accept_eula=yes default_admin_password=yes"
  18. 12.

  19. Входим в ОС из-под суперпользователя (root), если это не было сделано ранее: 

    sudo -i
  20. 13.

  21. Запустите установку: 

    ./install.sh distributed.inventory.yml
  22. 14.

  23. При наличии ошибки в конце установки TASK [Start not orphaned KUMA storage services] считаем установку успешной. Эта ошибка связана с таймаутом запуска ClickHouse, время старта процесса занимает ~10 минут. Убедитесь, что служба clickhouse потребляет ресурсы командой top.

      • Лог хранилища ведется в: /opt/kaspersky/kuma/storage/<ID хранилища>/log/storage

    15. (при обновлении с версии 2.0 на версию 2.1.0) Если в KUMA была настроена интеграция с Active Directory и были заданы группы ролей пользователя, сразу после обновления программы необходимо выполнить на машине с Ядром KUMA запрос в монго. В противном случае параметры групп ролей пользователей могут быть потеряны:

    /opt/kaspersky/kuma/mongodb/bin/mongo localhost/kuma
    var tenantID = db.tenants.findOne({ main: true })._id;
    db.settings.insert({_id: "f371fa1b-948e-45d2-a47c-86ddd67029ee", tenantID: tenantID, disabled: true, roleGroups: [], kind: 'adfs'}); 
  24. 16.

  25. Зайдите на веб интерфейс ядра KUMA по адресу ядра - https://<FQDN_CORE or IP_CORE>:7220 Учетные данные для входа по умолчанию: admin / mustB3Ch@ng3d!

В случае, если при установке произошел сбой (НЕ обновлении), перед последующей установкой рекомендуется выполнить uninstall.sh.

cp distributed.inventory.yml.template distributed.inventory.yml