Этот документ был переведён с помощью ИИ. Для получения точной информации обратитесь к английской версии.
Перед использованием AI-сотрудников необходимо настроить доступные LLM-сервисы.
На данный момент поддерживаются OpenAI, Gemini, Claude, DeepSeek, Qwen, Kimi, а также локальные модели Ollama.
Перейдите в Настройки системы -> AI-сотрудники -> LLM-сервис.
Add New, чтобы открыть окно создания.Provider (Провайдера).Title (Название), API Key и Base URL (необязательно).Enabled Models (Включенные модели):
Recommended models: использовать официально рекомендованные модели.Select models: выбрать модели из списка, предоставленного провайдером.Manual input: вручную ввести ID модели и отображаемое имя.Submit, чтобы сохранить изменения.
В списке LLM-сервисов вы можете:
Enabled для включения или выключения сервиса.
Используйте кнопку Test flight в нижней части окна конфигурации сервиса, чтобы проверить доступность сервиса и моделей.
Рекомендуется сначала провести тест, прежде чем использовать сервис в рабочих процессах.