Kazumi 跨平台番剧采集工具完整使用指南
Kazumi 是一款基于 Flutter 开发的番剧采集应用,通过自定义规则让你自由获取各类动漫资源,支持在线观看、弹幕互动等丰富功能,真正实现个性化追番体验。
快速入门概览
Kazumi 的核心价值在于其强大的自定义能力,你可以根据个人喜好配置视频源,打造专属的番剧观看平台。无论你是动漫爱好者还是普通用户,都能轻松上手这款工具。
平台兼容性与系统需求
支持设备类型:
- 移动端:Android 10+、iOS 13+(需自签名)、HarmonyOS 5.0+(分支仓库)
- 桌面端:Windows 10+、macOS 10.15+、Linux(实验性支持)
最低配置要求:
- 2GB 内存空间
- 稳定网络连接
- 现代浏览器内核支持
下载渠道与安装方法
多平台获取方式
Windows 用户:
- 直接下载官方安装包,双击运行安装向导
- 安装完成后在开始菜单启动应用
Android 用户:
- 通过 F-Droid 商店搜索安装
- 或下载 APK 文件手动安装
Linux 用户:
# Flathub 渠道
flatpak install flathub io.github.Predidit.Kazumi
# AUR 渠道(Arch 系)
yay -S kazumi
# 或
yay -S kazumi-bin
# archlinuxcn 源
sudo pacman -S kazumi
首次配置与界面导航
启动 Kazumi 后,你将看到清晰的主界面:
界面功能区域详解:
- 顶部导航区:用户信息、搜索功能
- 内容分类栏:按类型筛选动漫作品
- 核心展示区:推荐番剧和热门内容
- 底部功能区:快速访问核心操作
基础设置步骤:
- 导入视频源:使用预设规则或创建自定义规则
- 配置播放选项:设置默认画质、播放参数等
- 个性化主题:选择喜欢的界面配色方案
核心操作与特色功能
番剧浏览与搜索
Kazumi 提供三种主要浏览方式:
- 推荐内容:首页展示热门番剧
- 分类筛选:通过标签栏按类型浏览
- 关键词搜索:使用搜索框精确查找
搜索功能支持历史记录和热门推荐,相关实现位于lib/modules/search/
播放控制与弹幕互动
选择番剧后进入播放界面:
播放控制功能:
- 基础播放:播放/暂停、进度调节
- 画质切换:支持多种清晰度选择
- 弹幕管理:开启/关闭弹幕,调整显示效果
弹幕系统由lib/modules/danmaku/模块实现,提供丰富的自定义选项。
追番管理与历史记录
收藏番剧:
- 在详情页点击收藏按钮添加追番
- 相关功能代码:lib/bean/widget/collect_button.dart
查看观看历史:
- 通过底部工具栏访问历史记录
- 历史管理模块:lib/modules/history/
个性化设置与高级技巧
超分辨率增强
Kazumi 集成了 Anime4K 实时超分技术,显著提升画质体验。相关控制逻辑位于lib/shaders/shaders_controller.dart
超分模式选择:
- 性能优先:适合中低端设备
- 质量优先:为高性能设备提供极致画质
自定义规则编写
创建个人视频源的步骤:
- 了解 XPath 基础语法
- 参考现有规则文件结构
- 使用规则编辑器进行配置
规则编辑器位于lib/plugins/,主要控制器文件为 plugins_controller.dart。
基础规则模板:
{
"name": "自定义视频源",
"url": "https://example.com",
"search": "//div[@class='result-item']",
"title": ".//h3/text()",
"cover": ".//img/@src",
"detail": ".//a/@href"
}
一起看功能
与朋友同步观看的方法:
- 播放界面点击"一起看"按钮
- 创建新房间或加入已有房间
- 分享房间链接邀请好友加入
同步播放功能由lib/utils/syncplay.dart实现。
故障排除与优化建议
播放问题解决方案
视频卡顿处理:
- 降低播放画质设置
- 关闭超分辨率功能
- 切换其他视频源尝试
- 清理应用缓存数据
超分功能优化:
- 对低分辨率视频使用效果更佳
- 根据设备性能选择合适的模式
- 在高性能设备上启用质量优先
内容搜索技巧
找不到特定番剧:
- 尝试使用不同关键词组合
- 检查已添加的视频源范围
- 考虑创建新的自定义规则
进阶资源与社区支持
深入学习路径
源码结构分析:
- 核心模块:lib/
- 界面组件:lib/bean/
- 功能模块:lib/modules/
官方文档参考:
- 项目说明:README.md
- 开发文档:项目根目录下的配置文件
硬件加速配置
在设置中启用硬件加速选项,获得更流畅的播放体验。相关配置代码位于lib/request/query_manager.dart
总结与展望
Kazumi 作为开源番剧采集工具,通过自定义规则和丰富功能为你打造个性化的动漫观看体验。随着项目持续发展,更多实用功能将不断加入,让你的追番之旅更加精彩。
未来功能预告:
- 番剧下载功能
- 更新提醒系统
- 更多个性化选项
通过本指南,你已经掌握了 Kazumi 的核心使用方法,现在就可以开始你的个性化追番之旅了!
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00

