logologo
Начало
Руководство
Разработка
Плагины
API
Главная
English
简体中文
日本語
한국어
Español
Português
Deutsch
Français
Русский
Начало
Руководство
Разработка
Плагины
API
Главная
logologo
Обзор
Быстрый старт

Возможности

Настройка LLM-сервиса
Включение AI-сотрудников
Сотрудничество с AI-сотрудниками
Добавление контекста — Блоки
Поиск в интернете
Использование навыков
Быстрые задачи
Встроенные AI-сотрудники
Создание AI-сотрудников
Контроль доступа
Управление файлами

База знаний AI

Обзор
Векторная база данных
Векторное хранилище
База знаний
RAG

Рабочий процесс

Узлы LLM

Текстовый чат
Мультимодальный чат
Структурированный вывод

Практика применения

Viz: Настройка сценария CRM
Руководство по промптам
Previous PageRAG
Next PageМультимодальный чат
Уведомление об ИИ-переводе

Этот документ был переведён с помощью ИИ. Для получения точной информации обратитесь к английской версии.

#Текстовый диалог

AI-сотрудникиCommunity Edition+

#Введение

Используя LLM-узел рабочего процесса, вы можете инициировать диалог с онлайн-сервисом LLM, задействуя возможности больших моделей для помощи в выполнении ряда бизнес-процессов.

#Создание LLM-узла

Поскольку диалог с LLM-сервисом обычно занимает много времени, LLM-узел можно использовать только в асинхронных рабочих процессах.

#Выбор модели

Сначала выберите подключенный LLM-сервис. Если вы еще не подключили LLM-сервис, необходимо сначала добавить конфигурацию LLM-сервиса. См.: Управление LLM-сервисами

После выбора сервиса приложение попытается получить список доступных моделей из LLM-сервиса для выбора. Интерфейсы получения моделей некоторых онлайн-сервисов LLM могут не соответствовать стандартному протоколу API, поэтому пользователи также могут ввести ID модели вручную.

#Настройка параметров вызова

Вы можете настроить параметры вызова LLM-модели по мере необходимости.

#Response format

Среди них стоит обратить внимание на настройку Response format, которая используется для указания формату содержимого ответа большой модели: это может быть текст или JSON. Если выбран режим JSON, следует учесть:

  • Соответствующая LLM-модель должна поддерживать вызов в режиме JSON, при этом пользователю необходимо явно указать в Prompt, чтобы LLM ответила в формате JSON, например: "Tell me a joke about cats, respond in JSON with `setup` and `punchline` keys". В противном случае ответ может отсутствовать, и возникнет ошибка 400 status code (no body).
  • Результат ответа представляет собой JSON-строку. Пользователю необходимо использовать возможности других узлов рабочего процесса для ее парсинга, прежде чем можно будет использовать структурированное содержимое. Также можно воспользоваться функцией Структурированный вывод.

#Сообщения

Массив сообщений, отправляемых LLM-модели, может содержать набор исторических сообщений. Сообщения поддерживают три типа:

  • System — обычно используется для определения роли и поведения LLM-модели в диалоге.
  • User — содержимое, введенное пользователем.
  • Assistant — содержимое ответа модели.

Для пользовательских сообщений, при условии поддержки моделью, в одну подсказку можно добавить несколько элементов содержимого, что соответствует параметру content. Если используемая модель поддерживает параметр content только в виде строки (к этой категории относится большинство моделей, не поддерживающих мультимодальные диалоги), разделите сообщение на несколько подсказок, оставив в каждой только один элемент содержимого — так узел отправит содержимое в виде строки.

В содержимом сообщений можно использовать переменные для ссылки на контекст рабочего процесса.

#Использование содержимого ответа LLM-узла

Содержимое ответа LLM-узла можно использовать в качестве переменной в других узлах.