本地离线翻译自由:Ollama + TranslateGemma 极简上手指南

把你电脑里的翻译软件都卸载了吧,搞一个自己独有的翻译软件玩玩。
不想依赖在线翻译、担心隐私泄露?
用 Ollama 搭配 TranslateGemma 模型,一键搭建本地离线翻译工具,无网可用、翻译精准,全程可控。


一、Ollama:本地大模型一键运行工具

Ollama 是开源的本地 AI 模型管理平台,支持 Windows/Mac/Linux,无需复杂环境配置,一条命令即可拉取、运行、管理各类开源大模型;Windows 端自带桌面UI,小白也能轻松操作,堪称本地 AI 部署神器。

核心安装与基础命令

  1. 安装 Ollama:访问官网https://ollama.com,下载对应系统安装包,双击安装即可;Linux 可执行一键安装命令。

  2. 验证安装:打开终端/CMD,输入 ollama --version,显示版本号即成功。

  3. 常用命令

    1. ollama pull 模型名:拉取模型到本地

    2. ollama run 模型名:运行并对话模型

    3. ollama list:查看本地已装模型

    4. ollama rm 模型名:删除本地模型

Windows 桌面UI:设置模型保存到固态硬盘

Ollama 默认将模型存到 C 盘,占用空间大;建议迁移到固态硬盘(SSD),加载更快、不占系统盘空间,步骤如下:

  1. 新建存储文件夹:在固态硬盘(如 D 盘/E 盘)新建文件夹,示例路径:D:\Ollama\Models

  2. 设置环境变量

    1. 右键「此电脑」→ 属性 → 高级系统设置 → 环境变量

    2. 在「用户变量」点击新建,变量名填写 OLLAMA_MODELS,变量值填写刚才的 SSD 路径

    3. 点击确定保存,关闭所有窗口

  3. 重启 Ollama 生效:退出系统托盘 Ollama 程序,重新打开桌面UI,后续拉取的模型会自动保存到固态硬盘


二、TranslateGemma:专为翻译优化的开源模型

TranslateGemma 是谷歌推出的专用翻译模型,支持多语言互译,针对中英等语种优化,流畅度、准确率远超通用模型,轻量化版本适合本地运行。

模型拉取(推荐轻量版)

终端执行以下命令,按需选择版本,低配设备优先 4b;Windows UI 也可直接在界面搜索模型拉取:

1
2
3
4
5
6
# 推荐:4b参数(低配电脑流畅运行)
ollama pull translategemma:4b

# 高配设备可选(效果更优)
ollama pull translategemma:8b
ollama pull translategemma:12b

拉取完成后,Windows 桌面UI直接选择 translategemma 打开对话;终端输入 ollama run translategemma 也可进入翻译模式。

模型网址

https://ollama.com/library/translategemma

三、中文翻译专用提示词(直接复制用)

固定提示词可大幅提升翻译准确率,避免机翻生硬、漏译,以下为中英互译通用模板,运行模型后直接粘贴使用。

1. 英文 → 中文(流畅自然)

1
2
请将以下内容精准翻译成地道中文,保持语句通顺、专业严谨,不添加额外解释:
【待翻译内容】

2. 中文 → 英文(标准规范)

1
2
请将以下内容精准翻译成标准英文,语法正确、表达地道,不添加额外解释:
【待翻译内容】

3. 精简速译模板

1
2
翻译:【内容】
目标语言:中文

使用小贴士:运行模型后粘贴提示词+待翻译文本,回车即可获取译文;退出对话输入 /bye

这套组合无需联网、无广告、不收费,模型存固态硬盘加载更快,适合文档翻译、学术资料、日常文本等场景,低配电脑也能流畅使用,轻松实现本地翻译自由。

原文链接: https://www.17you.com/tool/local-offline-translation-ollama-translategemma/ 已复制!
脚本编程和自动化工具

寻找技术支持帮助和技术合伙人一起搞事。

请点击联系我


相关内容