logologo
Démarrer
Manuel
Développement
Plugins
API
Accueil
English
简体中文
日本語
한국어
Español
Português
Deutsch
Français
Русский
Démarrer
Manuel
Développement
Plugins
API
Accueil
logologo
Aperçu
Démarrage rapide

Fonctionnalités

Configurer le service LLM
Activer les employés AI
Collaborer avec les employés AI
Ajouter du contexte - Blocs
Recherche en ligne
Utiliser des compétences
Tâches rapides
Employés AI intégrés
Nouvel employé AI
Contrôle des permissions
Gestion des fichiers

Base de connaissances AI

Aperçu
Base de données vectorielle
Stockage vectoriel
Base de connaissances
RAG

Flux de travail

Nœuds LLM

Chat textuel
Chat multimodal
Sortie structurée

Pratiques d'application

Viz : Configuration du scénario CRM
Guide d'ingénierie des prompts
Previous PageDémarrage rapide
Next PageActiver les employés AI
Avis de traduction IA

Ce document a été traduit par IA. Pour des informations précises, veuillez consulter la version anglaise.

#Configurer le service LLM

Avant d'utiliser les Employés AI, vous devez d'abord configurer les services LLM disponibles.

Les fournisseurs pris en charge incluent OpenAI, Gemini, Claude, DeepSeek, Qwen, Kimi, ainsi que les modèles locaux Ollama.

#Créer un service

Accédez à Paramètres du système -> Employés AI -> LLM service.

  1. Cliquez sur Add New pour ouvrir la fenêtre de création.
  2. Sélectionnez le Provider.
  3. Remplissez le Title, l'API Key et l'Base URL (facultatif).
  4. Configurez les Enabled Models :
    • Recommended models : utiliser les modèles recommandés officiellement.
    • Select models : sélectionner dans la liste retournée par le fournisseur.
    • Manual input : saisir manuellement l'ID du modèle et son nom d'affichage.
  5. Cliquez sur Submit pour enregistrer.

llm-service-create-provider-enabled-models.png

#Activation et tri des services

Dans la liste des services LLM, vous pouvez directement :

  • Utiliser l'interrupteur Enabled pour activer ou désactiver un service.
  • Faire glisser pour réorganiser l'ordre des services (ceci affecte l'ordre d'affichage des modèles).

llm-service-list-enabled-and-sort.png

#Test de disponibilité

Utilisez Test flight au bas de la fenêtre de configuration du service pour vérifier la disponibilité du service et des modèles.

Il est recommandé de tester le service avant de l'utiliser en production.