如何用雀魂牌谱屋提升你的段位?超实用数据分析工具全攻略
雀魂牌谱屋(amae-koromo)是一款专为雀魂玩家打造的免费牌谱分析工具,能帮助你追踪对局数据、优化游戏策略,轻松提升段位水平。无论你是刚入玉之间的新手,还是冲击王座之间的高手,这款开源工具都能成为你的雀魂上分利器!
🌟 雀魂牌谱屋是什么?
雀魂牌谱屋是一个专注于雀魂(Mahjong Soul)游戏数据的开源项目,主要功能包括:
- 自动记录金之间、玉之间及王座之间的牌谱数据(自2019年11月起持续收集)
- 生成胜率、和牌率、放铳率等关键指标的可视化图表
- 支持玩家战绩查询与多维度数据对比
- 提供段位波动趋势与稳定等级估算
所有数据会在对局结束后数分钟至数小时内更新,让你及时掌握自己的游戏表现。
图:雀魂牌谱屋的玩家数据统计页面,展示段位走势与核心指标分析
🚀 3分钟快速上手指南
1️⃣ 一键部署本地服务
git clone https://gitcode.com/gh_mirrors/am/amae-koromo
cd amae-koromo
npm install
npm start
服务启动后,访问 http://localhost:3000 即可打开本地版雀魂牌谱屋。
2️⃣ 核心功能模块速览
- 战绩查询:在
src/components/gameRecords/模块中输入玩家ID,即可查看详细对局历史 - 数据统计:
src/components/statistics/目录下提供多种图表分析,包括:- 段位分布饼图(simplePieChart.tsx)
- 顺位率趋势图(rankRate.tsx)
- 役种和出统计(fanStats.tsx)
- 玩家对比:通过
src/components/playerDetails/功能,可同时分析多名玩家的对战风格
🎯 提升段位的4个实战技巧
1. 用放铳率数据优化防守策略
在「玩家详情」页面的「近期顺位」图表中(recentRank.tsx),重点关注放铳率 > 15% 的对局。通过牌谱回放分析:
- 哪些巡目容易做出错误判断?
- 面对不同对手时的防守效率差异?
2. 利用和率数据调整进攻节奏
当你的和牌率低于20% 时,可尝试:
- 在
filterPanel.tsx中筛选「和牌成功」的对局 - 分析高和率对局中的立直时机与牌型选择
- 对比低和率对局的差异点
3. 研究对手习惯的秘密武器
通过 sameMatchRate.tsx 功能查看与特定对手的交手记录,建立对手数据库:
- 记录常出役种(参考 fanStats.tsx 数据)
- 统计不同座位的胜负率(rankBySeats.tsx)
- 分析对手的舍牌习惯
4. 制定段位突破计划
使用 estimatedStableLevel.tsx 功能计算你的稳定段位:
- 若估算段位 > 当前段位:可适当增加进攻频率
- 若估算段位 < 当前段位:优先强化防守训练
🛠️ 进阶功能与生态扩展
数据同步与扩展
- 实时更新:配置
src/data/source/loader.ts中的定时任务,可自动同步最新对局数据 - 自定义指标:修改
src/components/statistics/dataByRank.tsx,添加个性化分析维度 - 移动端适配:通过
src/components/layout/container.tsx调整响应式布局
社区贡献指南
项目欢迎提交PR改进以下方向:
- 新增数据分析图表(扩展
src/components/charts/) - 优化移动端体验(改进
src/components/app/theme.tsx) - 增加多语言支持(完善
src/locales/目录下翻译文件)
❓ 常见问题解答
Q: 为什么我的对局数据没有显示?
A: 数据收集从2019年11月29日开始,之前的对局无法获取。新对局通常在结束后1小时内更新。
Q: 如何导出我的分析报告?
A: 目前可通过截图工具保存图表,后续版本将支持 src/utils/ 目录下的导出功能。
Q: 能否分析天凤/雀姬的数据?
A: 当前版本仅支持雀魂数据,多平台支持计划在后续版本开发。
🎁 写在最后
雀魂牌谱屋(amae-koromo)不仅是数据分析工具,更是每位雀魂玩家的「段位提升教练」。通过科学分析300+对局数据,大多数玩家能在1个月内实现至少1个段位的提升。
现在就用 npm start 启动你的数据分析之旅,让每一局都成为进步的阶梯!
注:本项目数据仅供学习交流,请勿用于商业用途。所有商标归原作者所有。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00

