logologo
スタート
マニュアル
開発
プラグイン
API
ホーム
English
简体中文
日本語
한국어
Español
Português
Deutsch
Français
Русский
スタート
マニュアル
開発
プラグイン
API
ホーム
logologo
概要
クイックスタート

機能紹介

LLMサービスの設定
AI従業員の有効化
AI従業員とのコラボレーション
コンテキストの追加 - ブロック
ウェブ検索
スキルの使用
ショートカットタスク
組み込みAI従業員
新規AI従業員
権限コントロール
ファイル管理

AIナレッジベース

概要
ベクトルデータベース
ベクトルストレージ
ナレッジベース
RAG

ワークフロー

LLMノード

テキスト対話
マルチモーダル対話
構造化出力

実践事例

Viz: CRMシナリオ設定
プロンプトガイド
Previous PageRAG
Next Pageマルチモーダル対話
AI翻訳通知

このドキュメントはAIによって翻訳されました。正確な情報については英語版をご参照ください。

#テキストチャット

AI 従業員Community Edition+

#はじめに

ワークフローのLLMノードを使用すると、オンラインのLLMサービスと会話を開始し、大規模モデルの能力を活用して一連のビジネスプロセスを支援できます。

#LLMノードの作成

LLMサービスとの会話は一般的に時間がかかるため、LLMノードは非同期ワークフローでのみ使用可能です。

#モデルの選択

まず、接続済みのLLMサービスを選択します。まだLLMサービスが接続されていない場合は、先にLLMサービスの設定を追加する必要があります。参照:LLM サービス管理

サービスを選択すると、アプリケーションはLLMサービスから利用可能なモデルのリストを取得し、選択肢として表示します。一部のオンラインLLMサービスでは、モデル取得用のAPIが標準のAPIプロトコルに準拠していない場合があります。その場合、ユーザーは手動でモデルIDを入力することもできます。

#呼び出しパラメーターの設定

必要に応じて、LLMモデルを呼び出すためのパラメーターを調整できます。

#Response format

特に注目すべきは、Response formatの設定です。この設定項目は、大規模モデルにレスポンスの内容形式(テキストまたはJSON)を指示するために使用されます。JSONモードを選択した場合、以下の点に注意してください。

  • 対応するLLMモデルがJSONモードでの呼び出しをサポートしている必要があります。また、ユーザーはプロンプト内でLLMにJSON形式で応答するよう明確に指示する必要があります。例えば、「Tell me a joke about cats, respond in JSON with `setup` and `punchline` keys」のように指定します。そうしないと、応答結果が得られず、`400 status code (no body)`のエラーが発生する可能性があります。
  • 応答結果はJSON文字列です。ユーザーは、その構造化された内容を使用するために、ワークフローの他のノードの機能を利用して解析する必要があります。また、構造化出力機能を使用することもできます。

#メッセージ

LLMモデルに送信されるメッセージの配列には、一連の履歴メッセージを含めることができます。メッセージは以下の3つのタイプをサポートしています。

  • System - 通常、会話におけるLLMモデルの役割と振る舞いを定義するために使用されます。
  • User - ユーザーが入力する内容です。
  • Assistant - モデルが応答する内容です。

ユーザーメッセージについては、モデルがサポートしている場合、`content`パラメーターに対応する複数の内容を1つのプロンプトに追加できます。使用しているモデルが`content`パラメーターを文字列形式でのみサポートしている場合(ほとんどのマルチモーダル会話をサポートしないモデルがこれに該当します)、メッセージを複数のプロンプトに分割し、各プロンプトに1つの内容のみを含めてください。これにより、ノードは内容を文字列として送信します。

メッセージの内容では、ワークフローのコンテキストを参照するために変数を使用できます。

#LLMノードの応答内容の使用

LLMノードの応答内容を、他のノードで変数として使用できます。