Mit Lina und lokalem HY-MT1.5-1.8B Lokalisierungseinträge übersetzen
KI-MitarbeiterCommunity Edition+Diese Anleitung beschreibt eine Praxis für Lokalisierungsübersetzung: Ein kleines spezialisiertes Übersetzungsmodell wird lokal bereitgestellt, als OpenAI-kompatibler Dienst veröffentlicht und für Lina konfiguriert, um NocoBase-Lokalisierungseinträge stapelweise zu übersetzen.
Überblick
Diese Anleitung verwendet:
- Modell:
tencent/HY-MT1.5-1.8B-GGUF - Inferenzdienst:
llama-server - Integration: OpenAI-compatible API
- AI-Mitarbeiter: Lina
- Einstiegspunkt: Localization Management
HY-MT1.5-1.8B ist ein kleines spezialisiertes Übersetzungsmodell. Es eignet sich besser für kurze Einträge, UI-Texte und Batch-Übersetzung als allgemeine Chatmodelle.
Voraussetzungen
- Das Plugin Lokalisierungsverwaltung ist aktiviert.
- Die Zielsprache ist aktiviert.
- Lokalisierungseinträge wurden synchronisiert.
- Die lokale Maschine oder der Server kann
llama-serverausführen. - Der NocoBase-Dienst kann die HTTP-Adresse von
llama-servererreichen.
HY-MT GGUF bereitstellen
llama.cpp installieren
Unter macOS können Sie Homebrew verwenden:
Sie können auch ein vorgefertigtes Binary verwenden oder llama.cpp aus dem Quellcode bauen. Wichtig ist, dass llama-server verfügbar ist.
OpenAI-kompatiblen Dienst starten
Starten Sie den Dienst mit dem GGUF-Modell von Hugging Face:
Modelldienst testen
Prüfen Sie nach dem Start den Dienstzustand:
Testen Sie anschließend die Übersetzung über die OpenAI-kompatible API:
Wenn Sie mit einer lokalen Modelldatei starten, ändern Sie model auf den tatsächlichen Modellnamen des Dienstes.
LLM-Dienst in NocoBase konfigurieren
Gehen Sie zu System Settings -> AI Employees -> LLM service und fügen Sie einen LLM-Dienst hinzu.
Verwenden Sie nach der Konfiguration Test flight, um das Modell zu prüfen.
Wenn NocoBase in Docker läuft, zeigt 127.0.0.1 auf den Container selbst. Verwenden Sie Host-IP, Container-Netzwerkadresse oder host.docker.internal.
Dediziertes Modell für Lina konfigurieren
Öffnen Sie Lina unter System Settings -> AI Employees -> AI employees und wechseln Sie zu Model settings.
- Aktivieren Sie
Enable dedicated model configuration. - Wählen Sie das lokale HY-MT-Modell unter
Models. - Speichern Sie die Konfiguration.
Danach verwendet Lina dieses Modell für Lokalisierungsübersetzungen und verhindert den Wechsel auf allgemeine Chatmodelle.
Übersetzungsparallelität konfigurieren
Die Parallelität der Lokalisierungsübersetzung wird über AI_LOCALIZATION_CONCURRENCY gesteuert:
- Standard:
10 - Minimum:
1 - Maximum:
20 - Werte außerhalb des Bereichs verwenden den Standardwert.
Die beste Parallelität hängt von CPU, GPU, Speicher, Quantisierung und llama-server -np ab. Beginnen Sie niedrig und erhöhen Sie nur, wenn die Ausführung stabil ist.
Lokalisierungsübersetzung ausführen
Gehen Sie zu System Management -> Localization Management.
- Zur Zielsprache wechseln.
- Auf
Synchronizeklicken, um Einträge zu synchronisieren. - Linas Avatar anklicken.
- Aufgabenumfang auswählen: inkrementelle, ausgewählte oder vollständige Übersetzung.
- Anzahl, Anbieter und Modell im Bestätigungsdialog prüfen.
- Bestätigen, um die asynchrone Aufgabe zu erstellen.
- Nach Abschluss Übersetzungen prüfen und veröffentlichen.
Starten Sie mit Selected translation für einige Einträge, um Stil und Geschwindigkeit zu prüfen.
Wie Lina Übersetzungsanfragen erstellt
Lina erstellt Anfragen aus Einträgen und Referenzübersetzungen. Für kurze Einträge werden vorhandene Referenzen genutzt, um Konsistenz zu verbessern:
- Integrierte Einträge verwenden bevorzugt chinesische Übersetzungen als Referenz.
- Nicht integrierte Einträge verwenden bevorzugt die Standardsprache des Systems.
- Wenn eine englische Referenz vorhanden ist, wird Englisch als Quelltext verwendet.
- Übersetzungsergebnisse werden in die Zielsprache geschrieben, aber nicht automatisch veröffentlicht.
Die Prompt-Semantik ähnelt:
Fehlerbehebung
- Wenn nach dem Erstellen einer Aufgabe kein Fortschritt sichtbar ist, prüfen Sie, ob
llama-serverAnfragen erhalten hat. Senken Sie bei langen WartezeitenAI_LOCALIZATION_CONCURRENCY,llama-server -npundllama-server -c. - Wenn das Modell Erklärungen statt Übersetzungen zurückgibt, testen Sie denselben Prompt mit
curlund reduzieren Sie ggf. Sampling-Parameter wie Temperature. - Wenn NocoBase den Dienst nicht erreicht, prüfen Sie
/v1in der Base URL, Netzwerk, Firewall, Containeradresse und obllama-serverläuft.
Prüfung vor Veröffentlichung
Nach der AI-Übersetzung vor der Veröffentlichung prüfen:
- Nach Modul filtern und kurze Einträge wie Menüs, Buttons, Feldnamen und Status prüfen.
- Variablen, Platzhalter, HTML-Tags und Formatierungssymbole prüfen.
- Wichtige Geschäftsterminologie auf Konsistenz prüfen.
- Wenn integrierte Übersetzungen überschrieben wurden, erneut synchronisieren und
Reset system built-in entry translationsauswählen. Für Beiträge siehe Translation Contribution. - Zuerst in einer Testumgebung veröffentlichen, dann nach Produktion synchronisieren.

