SakuraLLM:专为ACGN领域打造的日中翻译大模型
SakuraLLM是一款专门针对ACGN(动画、漫画、游戏、轻小说)领域开发的开源翻译模型,能够精准地进行日语到中文的轻小说和Galgame翻译。该项目基于一系列开源大模型构建,在通用日文语料与轻小说/Galgame等领域的中日语料上进行继续预训练与微调,旨在提供开源可控可离线自部署的、ACGN风格的日中翻译模型。
技术特性与优势
SakuraLLM采用了先进的语言模型技术,充分利用了Qwen模型系列的知识,特别是最新版本Qwen1.5和Qwen2.5的成果。通过持续的预训练和专门针对轻小说和Galgame领域的微调,模型在以下方面表现出色:
- 人称代词准确性:能够联系上下文正确使用人称代词,不擅自添加原文中没有的代词
- 领域专业性:专门针对轻小说和Galgame文风进行优化,保持原作的风格特点
- 术语一致性:支持GPT字典功能,保持专有名词和人称的一致性
- 格式保留能力:对控制符、行内换行等特殊符号具有较好的保留能力
模型版本与规格
SakuraLLM提供了多个不同规模的模型版本,满足不同硬件需求:
- Sakura-14B-Qwen2.5-v1.0:14B参数规模,推荐11G-16G显存
- Sakura-7B-Qwen2.5-v1.0:7B参数规模,推荐8G-10G显存
- Sakura-1.5B-Qwen2.5-v1.0:1.5B参数规模,适合资源受限环境
所有模型均采用CC BY-NC-SA 4.0协议,仅供学习交流使用,禁止任何形式的商用。
应用场景
SakuraLLM在多个ACGN相关场景中都有出色表现:
轻小说翻译
能够流畅地将日文轻小说翻译成简体中文,保持原有的文学风格和表达方式。模型特别擅长处理轻小说中常见的第一人称叙述、对话场景和情感表达。
Galgame实时翻译
通过与LunaTranslator等工具集成,可以实现Galgame的实时翻译,让玩家能够无障碍体验全语音的日系游戏。
视觉小说翻译
专门的Galtransl版本针对视觉小说脚本中的行内换行、控制符、ruby注音等符号具有较好的保留能力,适合制作内嵌式翻译补丁。
部署与使用
SakuraLLM支持多种推理引擎,满足不同部署需求:
llama.cpp部署
支持GGUF量化模型,可以在各种硬件环境下运行:
python server.py --model_name_or_path ./models/sakura-14b-qwen2.5-v1.0.gguf --llama_cpp --use_gpu --model_version 1.0 --no-auth
vLLM部署
支持全量模型和量化模型,适合多GPU环境:
python server.py --model_name_or_path SakuraLLM/Sakura-14B-Qwen2.5-v1.0 --vllm --model_version 1.0 --tensor_parallel_size 2 --no-auth
Ollama部署
使用Docker容器化部署,安装运行简便:
python server.py --model_name_or_path onekuma/sakura-14b-qwen2.5-v1.0 --ollama --model_version 1.0 --no-auth
生态系统集成
SakuraLLM已经与多个流行的ACGN翻译工具集成:
- LunaTranslator:支持Galgame实时翻译,可通过本地API后端配置
- GalTransl:用于制作Galgame内嵌式翻译补丁
- AiNiee:RPG游戏翻译工具集成
- 轻小说机翻机器人:在线轻小说翻译平台
技术实现细节
模型采用先进的提示词格式,支持术语表功能:
gpt_dict = [{
"src": "原文",
"dst": "译文",
"info": "注释信息"
}]
推理参数经过精心调优:
- Temperature: 0.1
- Top p: 0.3
- Max new tokens: 512
- Repetition penalty: 1
项目特点
- 开源可控:遵循CC BY-NC-SA 4.0协议,确保透明度和自由度
- 高效兼容:适应各种使用场景,支持在线API服务和离线部署
- 专属性强:针对ACGN领域定制,准确理解并翻译特定领域文本
- 持续进化:不断更新升级,为用户提供最佳的翻译效果
SakuraLLM为ACGN爱好者提供了一个强大的翻译工具,帮助打破语言壁垒,让更多人能够享受日本轻小说和Galgame的魅力。无论是个人阅读还是内容创作,都能从中获得极大的便利。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust098- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00