如何让明日方舟干员住进你的桌面?Ark-Pets桌宠神器完整指南
想让《明日方舟》的干员突破次元壁,成为你工作学习时的贴心伙伴吗?Ark-Pets桌宠工具让这一切成为现实!这款专为明日方舟玩家打造的开源桌面宠物应用,能将你喜爱的游戏角色以生动动画形式呈现在电脑屏幕上,带来沉浸式互动体验。无论你是忙碌的上班族还是专注的学生党,都能通过这款免费工具为桌面注入泰拉世界的独特魅力。
🌈 为什么选择Ark-Pets桌宠?
厌倦了单调的桌面背景?Ark-Pets通过智能物理引擎和细腻动画系统,让干员不再是静态图片:
- 当你切换窗口时,他们会做出可爱的反应
- 工作累了?点击桌宠还能触发特殊互动动作
- 支持多显示器部署,让干员"巡视"你的所有屏幕
🚀 超简单安装指南(3步上手)
1. 获取项目源码
git clone https://gitcode.com/gh_mirrors/ar/Ark-Pets
2. 运行启动程序
Windows用户直接双击 gradlew.bat,macOS/Linux用户在终端执行:
./gradlew run
3. 选择你的第一个干员
首次启动后,在模型选择界面(对应源码:core/src/cn/harryh/arkpets/assets/ModelsDataset.java)挑选喜欢的干员,点击"部署"即可完成设置。
⚙️ 个性化你的桌宠体验
Ark-Pets提供丰富的自定义选项,让每个桌宠都独一无二:
行为模式调整
在行为设置面板(对应源码:core/src/cn/harryh/arkpets/animations/GeneralBehavior.java)可调节:
- 活跃度:从"安静陪伴"到"活泼好动"
- 互动频率:设置干员主动互动的间隔时间
- 特殊动作触发条件:如鼠标悬停、键盘输入时的反应
外观定制
通过设置界面修改:
- 角色大小和透明度
- 时装切换(部分角色支持)
- 桌面层级(可设置穿透点击)
📚 进阶玩法与资源
官方文档
完整使用指南和高级技巧可查阅项目文档:docs/CustomModel.md
模型扩展
社区已制作数百种自定义模型,你也可以通过官方提供的模板制作专属桌宠(详见:docs/CustomModel.md)
❓ 常见问题解答
Q: 桌宠会影响电脑性能吗?
A: 采用轻量级渲染技术(对应着色器代码:assets/shaders/gl21/),普通办公本也能流畅运行,CPU占用通常低于3%。
Q: 支持哪些操作系统?
A: 完美支持Windows 10/11,Linux和macOS版本正在测试中(进度见:core/src/cn/harryh/arkpets/platform/)
Q: 会被杀毒软件误报吗?
A: 开源项目无任何恶意代码,若出现警告,可将 core/src/cn/harryh/arkpets/concurrent/ 目录添加到信任区。
🌟 为什么这款桌宠与众不同?
Ark-Pets采用独创的行为状态机系统(core/src/cn/harryh/arkpets/animations/Behavior.java),让桌宠拥有接近真实的"性格"。例如当检测到用户5分钟无操作时,干员会进入"休息模式";而在键盘密集输入时,则会表现出"加油打气"的动画组。
现在就通过Ark-Pets把明日方舟的干员带回家,让工作学习不再孤单!项目持续更新中,更多功能可关注官方更新日志:CHANGELOG.md。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00


