Ce document a été traduit par IA. Pour des informations précises, veuillez consulter la version anglaise.
Avant d'utiliser les Employés AI, vous devez d'abord configurer les services LLM disponibles.
Les fournisseurs pris en charge incluent OpenAI, Gemini, Claude, DeepSeek, Qwen, Kimi, ainsi que les modèles locaux Ollama.
Accédez à Paramètres du système -> Employés AI -> LLM service.
Add New pour ouvrir la fenêtre de création.Provider.Title, l'API Key et l'Base URL (facultatif).Enabled Models :
Recommended models : utiliser les modèles recommandés officiellement.Select models : sélectionner dans la liste retournée par le fournisseur.Manual input : saisir manuellement l'ID du modèle et son nom d'affichage.Submit pour enregistrer.
Dans la liste des services LLM, vous pouvez directement :
Enabled pour activer ou désactiver un service.
Utilisez Test flight au bas de la fenêtre de configuration du service pour vérifier la disponibilité du service et des modèles.
Il est recommandé de tester le service avant de l'utiliser en production.