Switch大气层终极指南:wiliwili完整安装与配置教程
wiliwili是专为手柄控制优化的第三方B站客户端,完美适配Switch大气层系统,让你在掌机上享受流畅的B站视频浏览和播放体验。本教程将带你从零开始,完成wiliwili的安装、配置到高级自定义的全过程。
🚀 快速入门:10分钟搞定wiliwili安装
准备工作与环境检查
在开始安装前,请确保你的Switch满足以下条件:
- 已成功破解并运行大气层系统(推荐1.5.0以上版本)
- 安装最新签名补丁(sigpatches)
- 准备至少100MB存储空间
- 准备好microSD卡读卡器
一键构建wiliwili应用文件
使用项目提供的专用构建脚本,快速生成Switch可用的NRO文件:
git clone https://gitcode.com/GitHub_Trending/wi/wiliwili
cd wiliwili
./scripts/build_switch.sh
构建过程会自动下载所有依赖包并编译生成wiliwili.nro文件,这是Switch大气层系统的标准自制程序格式。
文件传输与基础安装
将生成的wiliwili.nro文件复制到microSD卡的switch/目录下,重启Switch后即可在自制程序菜单中找到wiliwili。
⚙️ 详细配置:优化你的wiliwili体验
手柄控制配置
wiliwili专为手柄操作设计,支持完整的Joy-Con和Pro Controller控制。关键控制映射可在wiliwili/include/utils/shortcut_helper.hpp中查看和调整。
主要操作方式:
- 左摇杆:导航菜单和选项
- A键:确认选择
- B键:返回上一级
- X/Y键:快捷操作
- L/R键:翻页和快速切换
网络与账号设置
首次启动wiliwili需要进行基础配置:
- 连接Wi-Fi网络
- 扫码登录B站账号(支持手机App扫码)
- 调整视频播放设置(画质、弹幕等)
个性化显示设置
根据你的使用习惯调整界面显示:
- 主题颜色选择
- 字体大小调整
- 弹幕显示设置
- 视频自动播放配置
🎨 高级技巧:自定义桌面图标与美化
生成NSP格式安装包
如果你希望将wiliwili安装到系统菜单,可以使用转发器打包功能:
cd scripts/switch-forwarder
./pack.sh
该脚本会生成包含自定义图标的NSP文件,可通过Goldleaf或Tinfoil安装到系统。
自定义桌面图标配置
通过修改scripts/switch-forwarder/wiliwili.json文件,你可以:
- 自定义应用显示名称
- 修改应用图标
- 调整系统权限设置
关键配置示例:
{
"name": "wiliwili",
"title_id": "0x010ff000ffff0001",
"main_thread_priority": 44
}
图标文件替换方法
- 准备128x128像素的PNG图标文件
- 修改打包脚本中的图标路径
- 重新生成NSP文件并安装
🔧 疑难解答:常见问题与解决方案
应用无法启动问题
症状:点击wiliwili图标后黑屏或报错 解决方案:
- 检查大气层签名补丁是否最新
- 确认NRO文件完整性,可重新构建
- 验证系统版本兼容性
手柄控制异常
症状:按键无响应或功能错乱 解决方案:
- 检查手柄连接状态
- 重启Switch系统
- 查看快捷键配置文件
网络连接问题
症状:无法加载视频或登录失败 解决方案:
- 检查Wi-Fi连接
- 尝试切换DNS服务器
- 验证B站服务器状态
视频播放卡顿
症状:播放过程中频繁缓冲或卡顿 解决方案:
- 降低视频画质设置
- 检查网络信号强度
- 关闭后台运行的其他应用
💡 使用技巧与最佳实践
高效浏览技巧
- 使用搜索功能快速定位内容
- 善用收藏夹管理感兴趣的视频
- 开启历史记录方便续看
电池优化设置
为了获得更长的续航时间:
- 调整屏幕亮度
- 关闭不必要的后台服务
- 使用耳机而非扬声器
📋 总结与下一步
通过本教程,你已经成功在Switch大气层系统上安装并配置了wiliwili。这个强大的B站客户端让你能够在掌机上享受丰富的视频内容,手柄优化的控制方式提供了独特的用户体验。
现在你可以:
- 浏览B站热门视频和直播
- 观看关注的UP主最新内容
- 参与弹幕互动和评论交流
如果在使用过程中遇到其他问题,建议查阅项目文档或参与社区讨论。祝你使用愉快!🎮
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00


