使用 Lina 和本地 HY-MT1.5-1.8B 翻译本地化词条
AI 员工社区版+本文介绍一种本地化翻译实践:在本地部署翻译专用小模型,将其作为 OpenAI 兼容服务接入 NocoBase,再配置给 Lina 执行本地化词条翻译任务。
这个方案适合需要批量翻译大量系统词条、插件文案、菜单、数据表和字段标题的场景。相比在线模型,本地模型不会受到外部 API RPM、TPM 或并发限流影 响,可以根据机器性能和模型能力调整并发数,整体任务耗时更可控。
方案概览
本方案使用:
- 翻译模型:
tencent/HY-MT1.5-1.8B-GGUF - 推理服务:
llama-server - 接入方式:OpenAI 兼容接口
- AI 员工:Lina
- 应用入口:本地化管理页面
说明
HY-MT1.5-1.8B 是翻译专用小模型,更适合短词条、界面文案和批量翻译场景。对于本地化任务,不建议优先使用普通聊天模型。
前置条件
开始前,需要准备:
- 已安装并启用 本地化管理 插件。
- 已启用目标语言。
- 已同步本地化词条。
- 本机或服务器可以运行
llama-server. - NocoBase 服务可以访问
llama-server的 HTTP 地址。
部署 HY-MT GGUF 模型
安装 llama.cpp
在 macOS 上,可以通过 Homebrew 安装:
也可以使用 llama.cpp 的预编译二进制或从源码构建。只要最终能使用 llama-server 即可。

