Chatty项目v0.27版本发布:全面适配Twitch EventSub API的重大更新
项目简介
Chatty是一款专为Twitch平台设计的开源聊天客户端,以其轻量级、功能丰富和高度可定制性著称。作为Twitch主播和观众的得力助手,Chatty提供了比官方网页版更强大的聊天管理功能,包括自定义标签页、高级消息过滤、热键操作等特性。
核心更新:从PubSub到EventSub的全面迁移
本次v0.27版本最重要的技术变革是完成了从Twitch PubSub API到EventSub API的全面迁移。由于Twitch官方决定弃用PubSub API,开发团队对Chatty进行了深度重构:
-
认证系统升级:用户需要重新连接Twitch账户,因为新API需要不同的访问权限范围(scope)。这一变化体现在"Main - Account"设置中。
-
功能替代方案:
- 管理员操作(Mod Actions)系统重构
- AutoMod功能适配新API
- 注意:目前频道积分兑换功能仅对主播可用,暂未在Chatty中实现
新增功能特性
社交互动增强
-
关注者/订阅者列表改进:新增手动刷新按钮,方便主播实时管理社区成员。
-
命令扩展:
- 新增
/warn警告命令 - 增强
/insert命令的上下文感知能力 - 引入更高级的
/insert2命令
- 新增
-
表情系统升级:支持超大型(gigantified)表情显示。
共享聊天支持
-
UI增强:
- 在聊天中显示来源频道logo和徽章
- 用户对话框中显示来源频道名称
-
配置选项:新增
config:shared匹配前缀。
高亮系统改进
新增多个高亮匹配前缀:
config:highlightedconfig:followupconfig:shared
自定义标签页优化
-
视觉定制:新增频道logo设置选项。
-
行为调整:不再将日志模式应用于自定义标签页。
系统集成
- 热键操作:新增与最小化到系统托盘相关的热键动作。
技术实现细节
本次更新涉及底层架构的重大调整,主要体现在:
-
API通信层重构:完全重写了与Twitch服务的通信模块,采用更现代的EventSub协议。
-
事件处理机制:优化了事件分发和处理流程,确保在API变更后仍能保持功能完整性。
-
权限管理系统:升级了OAuth集成,支持新的权限范围要求。
用户体验改进
-
错误处理:增强了各种边界条件的处理能力,提升稳定性。
-
文档更新:配套帮助文档全面更新,反映新功能和变更。
-
性能优化:通过API迁移带来的效率提升。
版本发布文件说明
提供多种分发格式满足不同用户需求:
-
基础版:标准JAR包,需预装JRE环境
- ZIP压缩包格式
- Windows安装程序格式
-
独立版:内置JRE的Windows版本
- 便携式ZIP压缩包
- 安装程序版本
所有发布文件均提供校验信息,确保下载安全。
总结
Chatty v0.27版本是一次重要的技术升级,不仅成功应对了Twitch API的变革,还引入了多项实用功能增强。这次更新体现了开发团队对技术趋势的快速响应能力,以及对用户体验的持续关注。对于Twitch社区用户,特别是内容创作者和频道管理员,升级到新版本将获得更稳定、功能更完善的聊天体验。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C089
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00