3步搭建本地翻译接口:DeepLX无限制API服务部署指南
DeepLX是一款将DeepL免费服务转换为本地API的工具,无需Token即可使用,支持第三方程序调用。通过搭建本地DeepLX服务,用户可以获得更稳定的翻译体验和更高的响应速度,适用于开发集成、日常翻译等多种场景。
准备环境 → 获取源码 → 启动服务
准备运行环境
在开始部署前,请确保系统已安装Go 1.18或更高版本。Go是一种开源的编程语言,适合构建高效、可靠的软件。可以通过官方渠道下载并安装适合您操作系统的Go版本。
获取项目源码
执行以下命令将项目代码克隆到本地:
git clone https://gitcode.com/gh_mirrors/de/DeepLX
cd DeepLX
安装依赖并启动服务
首先安装Go模块依赖:
go mod download
然后直接运行服务:
go run main.go
首次运行会自动使用默认配置(IP: 0.0.0.0,端口: 1188),服务启动后可通过 http://localhost:1188 访问。
自定义服务参数 → 配置访问控制 → 验证服务可用性
自定义服务运行参数
DeepLX支持通过命令行参数或环境变量自定义配置,以下是常用配置项的详细说明:
| 参数名称 | 命令行参数格式 | 环境变量设置 | 默认值 | 适用场景 |
|---|---|---|---|---|
| 绑定IP | -ip 127.0.0.1 |
IP=127.0.0.1 |
0.0.0.0 | 限制服务仅本地访问或允许局域网访问 |
| 服务端口 | -port 8080 |
PORT=8080 |
1188 | 解决端口冲突或使用常用端口便于记忆 |
| 访问令牌 | -token yourkey |
TOKEN=yourkey |
无 | 保护API接口,防止未授权访问 |
例如,使用自定义端口和访问令牌启动服务:
go run main.go -port 8080 -token abc123
配置访问控制
当设置了访问令牌后,客户端在请求API时需要在Header中携带 Authorization: Bearer 你的令牌,以确保只有授权用户能够使用翻译服务。
验证服务可用性
服务启动后,可以通过访问 http://localhost:1188 来验证服务是否正常运行。如果看到服务欢迎页面或相关提示信息,说明服务已成功启动。
识别问题现象 → 分析可能原因 → 实施解决方案 → 采取预防措施
服务启动后无法访问
- 问题现象:启动服务后,无法通过浏览器或客户端访问API接口。
- 可能原因:端口被其他程序占用;防火墙设置阻止了该端口的访问;服务绑定的IP地址不正确。
- 解决方案:更换未被占用的端口,如使用
-port 8081;检查系统防火墙设置,开放对应端口;确认绑定的IP地址是否为正确的网络接口地址。 - 预防措施:在启动服务前,使用
netstat或lsof命令检查端口占用情况;在防火墙中预先配置好端口规则。
翻译请求返回403错误
- 问题现象:发送翻译请求后,服务器返回403 Forbidden错误。
- 可能原因:DL Session配置错误;DeepL服务连接问题;访问令牌验证失败。
- 解决方案:通过
-s参数设置有效的DL Session;检查网络是否能正常访问DeepL官网;确认请求中的访问令牌是否正确。 - 预防措施:定期检查DL Session的有效性;确保网络环境能够正常访问DeepL服务;妥善保管访问令牌,避免泄露。
编译时报依赖错误
- 问题现象:执行
go run main.go命令时,出现依赖相关的编译错误。 - 可能原因:Go版本过低;依赖未完全下载;本地依赖缓存损坏。
- 解决方案:升级Go至1.18+版本;执行
go clean modcache清理依赖缓存后,重新执行go mod download;检查网络连接,确保能够正常下载依赖。 - 预防措施:定期更新Go版本;在网络稳定的环境下进行依赖下载;避免随意修改依赖配置文件。
配置翻译工具 → 实现批量翻译 → 与自动化工作流集成
为翻译软件提供API支持
将DeepLX作为本地API服务,在沉浸式翻译等工具中配置自定义API地址。如图所示,在沉浸式翻译的基本设置中,将翻译服务选择为"DeepLX(Beta)",并填写API URL为"http://127.0.0.1:1188/translate",验证成功后即可使用。

批量文档翻译脚本
结合curl命令可以实现简单的批量翻译功能。例如,将英文文本翻译为中文:
curl -X POST http://localhost:1188/translate \
-d '{"text":"Hello World","source_lang":"EN","target_lang":"ZH"}'
与自动化工作流集成
可以将DeepLX的翻译API集成到自动化工作流中,例如在文档生成过程中自动翻译内容。通过编写简单的脚本,监控指定目录下的文件变化,当有新文件生成时,自动调用DeepLX API进行翻译,并将翻译结果保存到指定位置。
服务配置与使用问答
🔍 Q:如何设置访问密码保护API?
A:使用 -token 参数设置访问令牌,请求时需在Header中携带 Authorization: Bearer 你的令牌。
🔍 Q:是否支持Docker部署?
A:项目提供Dockerfile,可通过 docker build -t deeplx . 构建镜像后运行。
🔍 Q:如何查看API请求日志?
A:当前版本暂不支持日志输出,可通过第三方工具(如Wireshark)监控网络请求。
🔍 Q:移动设备如何访问本地DeepLX服务?
A:确保移动设备与运行DeepLX服务的计算机在同一局域网内,在移动设备上使用计算机的局域网IP地址和服务端口访问API,如 http://192.168.1.100:1188/translate。
通过以上步骤,您可以成功搭建DeepLX本地API服务,并根据实际需求进行配置和使用。DeepLX为您提供了免费、便捷的翻译API解决方案,无论是个人日常使用还是开发集成,都能满足您的需求。
在使用过程中,您还可以根据项目源码中的 service/config.go 文件了解更多高级配置选项,或通过 -h 参数获取完整的命令帮助信息。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust039
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
ERNIE-ImageERNIE-Image 是由百度 ERNIE-Image 团队开发的开源文本到图像生成模型。它基于单流扩散 Transformer(DiT)构建,并配备了轻量级的提示增强器,可将用户的简短输入扩展为更丰富的结构化描述。凭借仅 80 亿的 DiT 参数,它在开源文本到图像模型中达到了最先进的性能。该模型的设计不仅追求强大的视觉质量,还注重实际生成场景中的可控性,在这些场景中,准确的内容呈现与美观同等重要。特别是,ERNIE-Image 在复杂指令遵循、文本渲染和结构化图像生成方面表现出色,使其非常适合商业海报、漫画、多格布局以及其他需要兼具视觉质量和精确控制的内容创作任务。它还支持广泛的视觉风格,包括写实摄影、设计导向图像以及更多风格化的美学输出。Jinja00