Уведомление об ИИ-переводе

Этот документ был переведён с помощью ИИ. Для получения точной информации обратитесь к английской версии.

Настройка LLM-сервиса

Перед использованием AI-сотрудников необходимо настроить доступные LLM-сервисы.

На данный момент поддерживаются OpenAI, Gemini, Claude, DeepSeek, Qwen, Kimi, а также локальные модели Ollama.

Создание сервиса

Перейдите в Настройки системы -> AI-сотрудники -> LLM-сервис.

  1. Нажмите Add New, чтобы открыть окно создания.
  2. Выберите Provider (Провайдера).
  3. Заполните Title (Название), API Key и Base URL (необязательно).
  4. Настройте Enabled Models (Включенные модели):
    • Recommended models: использовать официально рекомендованные модели.
    • Select models: выбрать модели из списка, предоставленного провайдером.
    • Manual input: вручную ввести ID модели и отображаемое имя.
  5. Нажмите Submit, чтобы сохранить изменения.

llm-service-create-provider-enabled-models.png

Включение и сортировка сервисов

В списке LLM-сервисов вы можете:

  • Использовать переключатель Enabled для включения или выключения сервиса.
  • Перетаскивать сервисы для изменения их порядка (это влияет на порядок отображения моделей).

llm-service-list-enabled-and-sort.png

Проверка доступности

Используйте кнопку Test flight в нижней части окна конфигурации сервиса, чтобы проверить доступность сервиса и моделей.

Рекомендуется сначала провести тест, прежде чем использовать сервис в рабочих процессах.