Rathena项目中Spiral Pierce技能伤害计算机制解析
技能概述
Spiral Pierce是《仙境传说》游戏中骑士领主(Rune Knight)职业的一项重要技能。该技能允许玩家对目标进行多次穿刺攻击,在战斗中具有强大的爆发伤害能力。在Rathena模拟器中,该技能的伤害计算机制存在一些与官方设定不符的问题,需要进行修正。
原问题分析
在Rathena模拟器的Renewal模式下,Spiral Pierce技能的伤害计算存在以下几个主要问题:
-
权重计算位置错误:原实现将武器重量乘以0.7后直接加到装备攻击力(EquipATK)上,这与官方设定不符。
-
体型修正系数错误:对小型目标的修正为115%,大型目标为85%,而官方应为小型130%,中型115%。
-
元素影响错误:原实现中武器重量受到元素属性影响,而官方设定重量不应受元素影响。
-
精通攻击未计入:武器精通提供的攻击力加成没有正确影响最终伤害。
官方正确机制
根据官方数据和测试结果,Spiral Pierce的正确伤害计算公式应为:
[floor(floor((ATK + Weight) × 0.7) × SizeModifier) + masteryATK) × SkillRatio × (BaseLvl ÷ 100)]
具体计算步骤如下:
-
基础攻击力计算:将状态攻击(StatusATK)、武器攻击(WeaponATK)和装备攻击(EquipATK)相加作为基础攻击力。
-
重量加成:将武器重量(以千克为单位除以10)加到基础攻击力上。
-
70%修正:对基础攻击力+重量的总和乘以70%的修正系数。
-
体型修正:
- 小型目标:130%
- 中型目标:115%
- 大型目标:100%
-
精通攻击加成:将武器精通提供的攻击力加到修正后的数值上。
-
最终计算:乘以技能比率和基于角色等级的修正。
实现修正方案
在Rathena模拟器中,正确的实现方式应调整伤害计算流程:
if (sd) {
battle_calc_damage_parts(wd, src, target, skill_id, skill_lv);
// 合并基础攻击力到装备攻击力
ATK_ADD2(wd->equipAtk, wd->equipAtk2, wd->statusAtk + wd->weaponAtk, wd->statusAtk2 + wd->weaponAtk2);
// 重置状态和武器攻击力
ATK_RATE(wd->statusAtk, wd->statusAtk2, 0);
ATK_RATE(wd->weaponAtk, wd->weaponAtk2, 0);
// 添加武器重量
short index = sd->equip_index[EQI_HAND_R];
if (index >= 0 &&
sd->inventory_data[index] &&
sd->inventory_data[index]->type == IT_WEAPON)
wd->equipAtk += sd->inventory_data[index]->weight / 10;
// 应用70%修正
ATK_RATE(wd->equipAtk, wd->equipAtk2, 70);
// 应用体型修正
switch (tstatus->size) {
case SZ_SMALL: // 小型: 130%
ATK_RATE(wd->equipAtk, wd->equipAtk2, 130);
break;
case SZ_MEDIUM: // 中型: 115%
ATK_RATE(wd->equipAtk, wd->equipAtk2, 115);
break;
}
}
测试验证数据
通过实际测试验证,修正后的计算结果与官方数据一致:
-
99级70转骑士领主使用狩猎长矛:
- 对非幽灵系假人:996-1070×5次伤害
- 对幽灵假人:964-1040×5次伤害
-
使用布里萨多卡:
- 对中立属性:814-900×5
- 对毒属性:766-834×5
- 对圣属性:612×5
- 对暗属性:864-978×5
-
175级70转符文骑士使用力量最大化后:
- 对小型目标伤害显著高于中型和大型目标
- 元素相克关系正确影响最终伤害
技术要点总结
-
计算顺序重要性:必须先合并基础攻击力,再加重量,最后应用70%修正,顺序错误会导致计算结果偏差。
-
体型修正机制:Spiral Pierce有独特的体型修正系统,不同于普通攻击的体型修正。
-
元素影响范围:武器重量不应受元素属性影响,只有基础攻击力部分参与元素相克计算。
-
精通攻击处理:需要确保武器精通提供的攻击力正确加入最终伤害计算。
这一修正确保了Rathena模拟器中Spiral Pierce技能的伤害计算与官方服务器完全一致,为玩家提供了准确的游戏体验。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00