Usar Lina y HY-MT1.5-1.8B local para traducir entradas de localización
Empleado de IACommunity Edition+Esta guía describe una práctica de traducción de localización: desplegar localmente un modelo pequeño especializado en traducción, exponerlo como servicio compatible con OpenAI y configurarlo para que Lina traduzca entradas de localización de NocoBase por lotes.
Resumen
Esta guía usa:
- Modelo:
tencent/HY-MT1.5-1.8B-GGUF - Servicio de inferencia:
llama-server - Integración: OpenAI-compatible API
- Empleado de IA: Lina
- Punto de entrada: Localization Management
HY-MT1.5-1.8B es un modelo pequeño especializado en traducción. Es más adecuado para entradas cortas, textos de interfaz y traducción por lotes que un modelo de chat general.
Requisitos previos
- El plugin Gestión de Localización está habilitado.
- El idioma de destino está habilitado.
- Las entradas de localización se han sincronizado.
- La máquina local o servidor puede ejecutar
llama-server. - El servicio NocoBase puede acceder a la dirección HTTP de
llama-server.
Desplegar HY-MT GGUF
Instalar llama.cpp
En macOS puede usar Homebrew:
También puede usar un binario precompilado o compilar llama.cpp desde el código fuente. Lo importante es que llama-server esté disponible.
Iniciar un servicio compatible con OpenAI
Inicie el servicio con el modelo GGUF de Hugging Face:
Probar el servicio del modelo
Después de iniciar, compruebe el estado del servicio:
Luego pruebe la traducción mediante la API compatible con OpenAI:
Si usa un archivo local, cambie model al nombre real del modelo expuesto por el servicio.
Configurar un servicio LLM en NocoBase
Vaya a System Settings -> AI Employees -> LLM service y agregue un servicio LLM.
Después de configurar, use Test flight para verificar el modelo.
Si NocoBase se ejecuta en Docker, 127.0.0.1 apunta al propio contenedor. Use la IP del host, la red del contenedor o host.docker.internal.
Configurar el modelo dedicado de Lina
Abra Lina en System Settings -> AI Employees -> AI employees y cambie a Model settings.
- Active
Enable dedicated model configuration. - Seleccione el modelo HY-MT local en
Models. - Guarde la configuración.
Después de esto, Lina usará este modelo para la traducción de localización y evitará cambiar a modelos de chat generales.
Configurar la concurrencia de traducción
La concurrencia de traducción se controla con AI_LOCALIZATION_CONCURRENCY:
- Predeterminado:
10 - Mínimo:
1 - Máximo:
20 - Los valores fuera del rango usan el predeterminado.
La mejor concurrencia depende de CPU, GPU, memoria, cuantización y llama-server -np. Empiece bajo y aumente solo si es estable.
Ejecutar la traducción de localización
Vaya a System Management -> Localization Management.
- Cambie al idioma de destino.
- Haga clic en
Synchronizepara sincronizar entradas. - Haga clic en el avatar de Lina.
- Elija traducción incremental, seleccionada o completa.
- Revise cantidad, proveedor y modelo en el diálogo de confirmación.
- Confirme para crear la tarea asíncrona.
- Al finalizar, revise y publique las traducciones.
Empiece con Selected translation para algunas entradas y compruebe estilo y velocidad.
Cómo Lina construye solicitudes de traducción
Lina construye solicitudes a partir de entradas y traducciones de referencia. Para entradas cortas usa referencias existentes para mejorar la consistencia:
- Las entradas integradas prefieren traducciones chinas como referencia.
- Las entradas no integradas prefieren el idioma predeterminado del sistema.
- Si existe una referencia inglesa, se usa como texto fuente.
- Los resultados se escriben en el idioma de destino, pero no se publican automáticamente.
La semántica del prompt es similar a:
Solución de problemas
- Si no hay progreso, compruebe si
llama-serverrecibió solicitudes. Si tarda demasiado, reduzcaAI_LOCALIZATION_CONCURRENCY,llama-server -npyllama-server -c. - Si el modelo devuelve explicaciones en lugar de traducciones, pruebe el mismo prompt con
curly reduzca parámetros de muestreo como temperature. - Si NocoBase no puede conectar, compruebe
/v1en Base URL, red, firewall, dirección del contenedor y quellama-serversiga ejecutándose.
Revisión antes de publicar
Después de la traducción con IA, revise antes de publicar:
- Filtre por módulo y revise menús, botones, campos y estados.
- Revise variables, marcadores, etiquetas HTML y símbolos de formato.
- Compruebe la consistencia de términos de negocio.
- Si se sobrescriben traducciones integradas, resincronice y seleccione
Reset system built-in entry translations. Para contribuir traducciones, consulte Translation Contribution. - Publique primero en un entorno de prueba y luego sincronice a producción.

