高效屏幕翻译工具:OCR识别与跨平台实时翻译解决方案
解决屏幕文本翻译难题,提升多语言信息获取效率
▸ 快速屏幕取词翻译
只需框选屏幕任意区域,工具自动完成截图、OCR识别与翻译流程,3秒内获取译文,无需手动输入任何文本。支持100+语言互译,满足学术文献、海外游戏、外语网站等多场景需求。
▸ 精准OCR字符识别
基于Tesseract引擎深度优化,可识别复杂背景、斜体/艺术字体,识别准确率达95%以上。内置拼写纠错功能,自动修正识别误差,确保翻译文本质量。
▸ 跨平台无缝体验
完美适配Windows与Linux系统,提供一致的操作逻辑与性能表现。采用Qt 5框架构建,资源占用低至50MB,兼容老旧设备与新系统。
▸ 高度个性化配置
支持自定义快捷键、翻译引擎优先级、译文显示样式,可保存常用翻译区域。开启"便携模式"后,所有配置与资源文件自动存储于程序目录,方便U盘携带使用。

图:屏幕翻译工具主界面,展示区域选择、OCR识别与翻译结果一体化流程
多场景使用指南
学术研究场景
遇到PDF文献中的生僻术语时,直接框选即可获取专业释义,支持批量识别整段文本,配合翻译历史记录功能,轻松整理双语对照笔记。
游戏娱乐场景
海外游戏无中文界面?使用快捷键激活翻译,实时转换技能说明、任务对话,不影响游戏帧率,让沉浸式体验不受语言障碍干扰。
跨境工作场景
处理外文合同、产品说明时,通过自定义识别区域功能固定翻译窗口位置,实现文档与译文的同步对照,提升跨语言协作效率。
个性化配置技巧
优化识别准确率
在设置界面"OCR引擎"选项卡中,根据文本类型选择对应语言包(如日语需同时启用"日语"与"日语竖排"包),勾选"增强模式"可提升低分辨率文本识别效果。
提升翻译速度
在"翻译服务"设置中,优先启用DeepL、Google等AI翻译引擎,禁用低速服务。开启"预加载常用语言包"功能,可将首次翻译响应时间缩短至1秒内。
自定义快捷键组合
进入"热键设置"面板,建议将"区域翻译"绑定为Ctrl+Alt+T,"全屏翻译"绑定为Ctrl+Shift+T,避免与其他软件快捷键冲突。
常见问题解决
Q:为什么翻译结果显示乱码?
A:可能是缺少对应语言包导致。进入设置→更新→语言资源,下载所需语言的OCR数据包与翻译词典,重启程序即可生效。
Q:Linux系统下无法启动怎么办?
A:尝试在终端执行QTWEBENGINE_DISABLE_SANDBOX=1 ./ScreenTranslator.AppImage命令,部分发行版需安装libxcb-xinerama0依赖库。
Q:如何导出翻译历史记录?
A:在系统托盘菜单中选择"历史记录",点击右下角"导出"按钮,支持TXT与JSON格式保存,文件默认存储于~/Documents/ScreenTranslator/history目录。
适用系统环境
- Windows:Windows 7及以上(需安装VC++运行库)
- Linux:Ubuntu 18.04+/Fedora 30+(推荐使用AppImage格式)
- 硬件要求:1GHz处理器,1GB内存,支持DirectX 9的显卡
📌 项目仓库:git clone https://gitcode.com/gh_mirrors/sc/ScreenTranslator
社区支持:通过项目Issue系统提交问题,开发者会定期处理关键bug修复请求。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00