MaaAssistantArknights基建自定义计划中组别优先级问题分析
问题背景
在MaaAssistantArknights项目中,基建自定义计划功能允许用户通过配置文件设置干员分组和排班顺序。用户可以通过设置"use_operator_groups"为true来启用分组功能,并在"operators"数组中指定组别名称及其优先级顺序。然而,在实际使用中发现,制造站的组别选择逻辑与预期不符,存在优先级混乱的情况。
问题现象
用户配置了多个制造站组别,包括"古+银"、"清流"、"自动化"、"多白赫"、"红云组"和"散装2"等。按照配置文件的设定,系统应该按照以下逻辑工作:
- 优先选择"古+银"组中的干员
- 当该组干员心情低于阈值时,使用"清流"组
- 依此类推按照配置顺序选择后续组别
然而实际运行中出现了以下异常现象:
- 制造站第一个位置的选择逻辑正常
- 制造站第二、第三位置的选择逻辑与配置不符,固定选择特定组别
- 制造站第四个位置的选择逻辑又恢复正常
- 贸易站的选择逻辑完全正常
问题分析
经过深入测试和分析,发现问题可能源于以下几个方面:
-
效率计算干扰:系统可能内置了自动计算效率的功能,这会影响组别选择的优先级。当某些组合的效率值较高时,系统可能会优先选择这些组合,而忽略用户配置的顺序。
-
组别定义顺序影响:在groups定义中,组别的上下顺序也会影响选择结果。当两个组别在operators中的顺序与在groups中的顺序不一致时,选择结果可能出现不可预测的行为。
-
制造站特殊处理:制造站可能存在特殊的处理逻辑,与贸易站不同,导致相同配置在两个设施中表现不一致。
-
心情阈值判断:系统在判断干员心情是否低于阈值时可能存在逻辑缺陷,导致组别切换不及时或不准确。
解决方案与建议
针对这一问题,可以采取以下解决方案:
-
简化组别配置:如测试所示,减少组别数量可以避免优先级冲突,系统会回退到默认的替换逻辑。
-
明确优先级规则:开发团队需要明确并文档化组别选择的优先级规则,包括:
- operators数组中的顺序优先级
- groups定义中的顺序影响
- 效率计算的权重
- 心情阈值的精确判断
-
统一设施逻辑:确保制造站和贸易站使用相同的组别选择算法,避免特殊处理导致的差异。
-
优化选择算法:可以考虑以下优化方向:
- 严格遵循用户配置的顺序
- 添加明确的效率计算开关
- 提供更详细的选择日志以便调试
实施建议
对于希望使用自定义基建计划的用户,建议:
- 保持组别配置简洁明了
- 在groups和operators中保持一致的组别顺序
- 进行充分的测试验证
- 关注选择过程中的日志输出
- 考虑将大组别拆分为更小的单元以获得更精确的控制
总结
MaaAssistantArknights的基建自定义计划功能提供了强大的自动化能力,但在组别优先级处理上还存在优化空间。通过理解当前的选择逻辑并采取适当的配置策略,用户仍然可以实现高效的基建管理。期待未来版本能进一步完善这一功能,提供更稳定、更可预测的组别选择行为。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00