Dieses Dokument wurde von KI übersetzt. Für genaue Informationen lesen Sie bitte die englische Version.
Bevor Sie AI-Mitarbeiter verwenden, müssen Sie zunächst die verfügbaren LLM-Dienste konfigurieren.
Derzeit werden OpenAI, Gemini, Claude, DeepSeek, Qwen, Kimi sowie lokale Ollama-Modelle unterstützt.
Gehen Sie zu Systemeinstellungen -> AI-Mitarbeiter -> LLM-Dienst.
Neu hinzufügen, um das Erstellungsfenster zu öffnen.Anbieter aus.Titel, API-Schlüssel und Basis-URL (optional) ein.Aktivierten Modelle:
Empfohlene Modelle: Verwendung der offiziell empfohlenen Modelle.Modelle auswählen: Auswahl aus der vom Anbieter bereitgestellten Liste.Manuelle Eingabe: Manuelle Eingabe der Modell-ID und des Anzeigenamens.Absenden, um zu speichern.
In der Liste der LLM-Dienste können Sie direkt:
Aktiviert verwenden, um Dienste zu starten oder zu stoppen.
Verwenden Sie Testflug am Ende des Konfigurationsfensters, um die Verfügbarkeit des Dienstes und der Modelle zu prüfen.
Es wird empfohlen, diesen Test durchzuführen, bevor Sie den Dienst im Geschäftsbetrieb einsetzen.