Este documento ha sido traducido por IA. Para información precisa, consulte la versión en inglés.
Antes de utilizar los Empleados de IA, debe configurar los servicios LLM disponibles.
Actualmente se admiten OpenAI, Gemini, Claude, DeepSeek, Qwen, Kimi y modelos locales de Ollama.
Diríjase a Configuración del sistema -> Empleados de IA -> Servicio LLM.
Add New para abrir el cuadro de diálogo de creación.Provider (Proveedor).Title (Título), la API Key y la Base URL (opcional).Enabled Models (Modelos habilitados):
Recommended models: utilice los modelos recomendados oficialmente.Select models: seleccione de la lista devuelta por el proveedor.Manual input: ingrese manualmente el ID del modelo y el nombre a mostrar.Submit para guardar.
En la lista de servicios LLM, puede directamente:
Enabled para activar o desactivar el servicio.
Utilice Test flight en la parte inferior del cuadro de diálogo de configuración para verificar la disponibilidad del servicio y del modelo.
Se recomienda realizar esta prueba antes de poner el servicio en producción.