FGO-py:打造你的Fate/Grand Order自动化助手
作为一名热衷于Fate/Grand Order(命运-冠位指定)的开发者,我深知重复刷本、管理体力的枯燥。FGO-py正是为解决这些痛点而生——一个开源的游戏辅助工具,让我们把时间花在策略思考而非机械操作上。本文将带你从项目概览到实际应用,全方位掌握这个强大工具的使用方法。
概览项目架构
FGO-py采用模块化设计,核心功能围绕游戏自动化操作展开。整个项目就像一个精密的钟表,各组件协同工作,实现从设备连接到任务执行的全流程自动化。
FGO-py的图形化操作界面,展示了任务调度与日志监控功能
项目主要包含以下几部分:
- 核心运行模块:负责解析游戏画面、执行操作指令
- 配置系统:管理游戏策略和自动化参数
- 设备连接层:支持多种设备接入方式
- 用户界面:提供图形化和命令行两种操作方式
解析核心组件
设备交互层
这是FGO-py与游戏设备通信的桥梁,支持Android模拟器和物理设备连接。作为开发者,我特别欣赏它对多种连接方式的支持,无论是通过ADB(Android调试桥)还是网络连接,都能稳定工作。
🔍 3分钟快速验证:
# 检查设备连接状态
python fgoDevice.py --list
如果返回设备列表,说明连接成功。常见问题排查:
- 模拟器未开启USB调试模式
- ADB驱动未正确安装
- 网络连接时防火墙阻止了端口
图像识别引擎
游戏自动化的核心在于"看懂"屏幕内容。FGO-py使用模板匹配和OCR(光学字符识别)技术,能识别从菜单按钮到战斗界面的各种元素。
💡 实用技巧:定期更新fgoImage/目录下的图像资源,可以提高识别准确率,特别是在游戏版本更新后。
任务调度系统
这就像你的私人助理,负责安排各项自动化任务。无论是日常清体力、刷活动副本,还是定时抽卡,都能按计划自动执行。
通过命令行界面执行自动化任务的示例
快速上手指南
环境准备
首先克隆项目代码库:
git clone https://gitcode.com/GitHub_Trending/fg/FGO-py
cd FGO-py
安装依赖:
pip install -r requirements.txt
基础配置
项目配置文件采用YAML格式(一种层级式配置格式),位于项目根目录。主要配置项如下:
| 配置项 | 默认值 | 建议值 | 说明 |
|---|---|---|---|
device.adb_path |
adb |
实际ADB路径 | ADB工具路径 |
scheduler.interval |
5 | 3 | 任务检查间隔(秒) |
battle.auto_skill |
false | true | 自动释放技能 |
resource.update_check |
true | false | 开发环境可禁用资源更新 |
💡 多环境配置策略:创建config_dev.yaml和config_prod.yaml,通过启动参数--config指定使用哪个配置文件。
首次运行
启动图形界面:
python fgoGui.py
或命令行模式:
python fgoCli.py
> connect 127.0.0.1:5555 # 连接设备
> teamup load default # 加载队伍配置
> main # 开始主线任务
⚠️ 注意事项:首次运行前需确保游戏已登录并处于主界面,否则可能导致自动化流程异常。
核心功能体验
自动战斗
FGO-py最核心的功能,支持自定义技能释放顺序、宝具使用策略。在fgoTeamup.ini中配置你的队伍策略:
[team1]
name=常规刷图队
servant1=1001 # 从者ID
skill1=1,2,3 # 技能释放顺序
np_first=true # 优先释放宝具
地图导航
系统内置了游戏地图数据,能自动识别当前位置并规划最优路径。
FGO游戏内地图,FGO-py可基于此实现自动导航
进阶学习路径
掌握基础使用后,你可以深入探索这些高级特性:
- 自定义脚本:通过
fgoScript.txt编写复杂战斗逻辑 - AI决策系统:研究
fgoKernel.py中的战斗决策算法 - 多设备管理:修改
fgoDevice.py实现多账号同时操作 - Web界面开发:扩展
fgoWebUI/目录下的前端代码
社区资源导航
- 问题反馈:项目issue系统(请搜索项目仓库的issue页面)
- 脚本分享:社区论坛的"脚本交流"板块
- 更新日志:
doc/versions.md文件记录了各版本新特性 - 开发文档:代码注释包含详细的模块说明
FGO-py不仅是一个工具,更是一个开源社区的智慧结晶。作为使用者,我们可以通过提交issue、贡献代码等方式参与项目改进。希望这篇指南能帮助你开启FGO自动化之旅,让游戏体验更加轻松愉快!
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
HY-Embodied-0.5这是一套专为现实世界具身智能打造的基础模型。该系列模型采用创新的混合Transformer(Mixture-of-Transformers, MoT) 架构,通过潜在令牌实现模态特异性计算,显著提升了细粒度感知能力。Jinja00
LongCat-AudioDiT-1BLongCat-AudioDiT 是一款基于扩散模型的文本转语音(TTS)模型,代表了当前该领域的最高水平(SOTA),它直接在波形潜空间中进行操作。00
ERNIE-ImageERNIE-Image 是由百度 ERNIE-Image 团队开发的开源文本到图像生成模型。它基于单流扩散 Transformer(DiT)构建,并配备了轻量级的提示增强器,可将用户的简短输入扩展为更丰富的结构化描述。凭借仅 80 亿的 DiT 参数,它在开源文本到图像模型中达到了最先进的性能。该模型的设计不仅追求强大的视觉质量,还注重实际生成场景中的可控性,在这些场景中,准确的内容呈现与美观同等重要。特别是,ERNIE-Image 在复杂指令遵循、文本渲染和结构化图像生成方面表现出色,使其非常适合商业海报、漫画、多格布局以及其他需要兼具视觉质量和精确控制的内容创作任务。它还支持广泛的视觉风格,包括写实摄影、设计导向图像以及更多风格化的美学输出。Jinja00


