本地离线翻译自由:Ollama + TranslateGemma 极简上手指南
把你电脑里的翻译软件都卸载了吧,搞一个自己独有的翻译软件玩玩。
不想依赖在线翻译、担心隐私泄露?
用 Ollama 搭配 TranslateGemma 模型,一键搭建本地离线翻译工具,无网可用、翻译精准,全程可控。
一、Ollama:本地大模型一键运行工具
Ollama 是开源的本地 AI 模型管理平台,支持 Windows/Mac/Linux,无需复杂环境配置,一条命令即可拉取、运行、管理各类开源大模型;Windows 端自带桌面UI,小白也能轻松操作,堪称本地 AI 部署神器。
核心安装与基础命令
安装 Ollama:访问官网https://ollama.com,下载对应系统安装包,双击安装即可;Linux 可执行一键安装命令。
验证安装:打开终端/CMD,输入
ollama --version,显示版本号即成功。常用命令:
ollama pull 模型名:拉取模型到本地ollama run 模型名:运行并对话模型ollama list:查看本地已装模型ollama rm 模型名:删除本地模型
Windows 桌面UI:设置模型保存到固态硬盘
Ollama 默认将模型存到 C 盘,占用空间大;建议迁移到固态硬盘(SSD),加载更快、不占系统盘空间,步骤如下:
新建存储文件夹:在固态硬盘(如 D 盘/E 盘)新建文件夹,示例路径:
D:\Ollama\Models设置环境变量:
右键「此电脑」→ 属性 → 高级系统设置 → 环境变量
在「用户变量」点击新建,变量名填写
OLLAMA_MODELS,变量值填写刚才的 SSD 路径点击确定保存,关闭所有窗口
重启 Ollama 生效:退出系统托盘 Ollama 程序,重新打开桌面UI,后续拉取的模型会自动保存到固态硬盘
二、TranslateGemma:专为翻译优化的开源模型
TranslateGemma 是谷歌推出的专用翻译模型,支持多语言互译,针对中英等语种优化,流畅度、准确率远超通用模型,轻量化版本适合本地运行。
模型拉取(推荐轻量版)
终端执行以下命令,按需选择版本,低配设备优先 4b;Windows UI 也可直接在界面搜索模型拉取:
| |
拉取完成后,Windows 桌面UI直接选择 translategemma 打开对话;终端输入 ollama run translategemma 也可进入翻译模式。
模型网址
https://ollama.com/library/translategemma
三、中文翻译专用提示词(直接复制用)
固定提示词可大幅提升翻译准确率,避免机翻生硬、漏译,以下为中英互译通用模板,运行模型后直接粘贴使用。
1. 英文 → 中文(流畅自然)
| |
2. 中文 → 英文(标准规范)
| |
3. 精简速译模板
| |
使用小贴士:运行模型后粘贴提示词+待翻译文本,回车即可获取译文;退出对话输入 /bye。
这套组合无需联网、无广告、不收费,模型存固态硬盘加载更快,适合文档翻译、学术资料、日常文本等场景,低配电脑也能流畅使用,轻松实现本地翻译自由。
寻找技术支持帮助和技术合伙人一起搞事。
相关内容
- Open WebUI自托管AI平台指南
- OpenClaw大龙虾v2026.3.12发布:支持GPT-5.4与插件化架构的AI助手
- GEO分析工具全功能指南:AI搜索引擎与传统SEO同步优化
- Jina Reader + Crawl4AI 双引擎零门槛网页抓取与去噪
- OpenClaw远程上门部署与安全加固全套服务
- Tabbit AI 浏览器:免费助手+默认浏览器即享会员特权