Este documento foi traduzido por IA. Para informações precisas, consulte a versão em inglês.
Antes de usar os Funcionários de IA (AI Employees), você precisa configurar os serviços de LLM disponíveis.
Atualmente, são suportados OpenAI, Gemini, Claude, DeepSeek, Qwen, Kimi e modelos locais do Ollama.
Acesse Configurações do sistema -> AI Employees -> LLM service.
Add New para abrir a janela de criação.Provider (Provedor).Title (Título), API Key e Base URL (opcional).Enabled Models (Modelos habilitados):
Recommended models: usa os modelos recomendados oficialmente.Select models: seleciona a partir da lista retornada pelo provedor.Manual input: insira manualmente o ID do modelo e o nome de exibição.Submit para salvar.
Na lista de serviços de LLM, você pode:
Enabled para ativar ou desativar o serviço.
Use o botão Test flight na parte inferior da janela de configuração para verificar a disponibilidade do serviço e do modelo.
Recomenda-se realizar o teste antes de colocar o serviço em uso na produção.