Expensify/App 9.1.58-4版本发布:全面优化与功能增强
项目简介
Expensify是一款广受欢迎的财务管理应用,专注于简化个人和企业的报销流程。作为一款全平台应用,Expensify提供了从费用跟踪、报告生成到审批流程的一站式解决方案。本次发布的9.1.58-4版本带来了多项性能优化、用户体验改进和功能增强。
核心优化与改进
性能提升
-
交易列表渲染优化:通过重构getTransactionsSections函数,显著提升了交易列表的渲染效率,特别是在处理大量交易数据时表现更为流畅。
-
快速搜索机制改进:引入了浅层比较(shallow compare)机制,避免不必要的搜索重建,降低了搜索操作时的计算开销。
-
左侧导航栏优化:将屏幕焦点管理移至LHNOptionsList组件,减少了不必要的重新渲染,提升了导航体验的流畅度。
-
表情选择器性能提升:通过减少绘制距离优化了表情选择器的性能,特别是在移动设备上体验更佳。
用户体验改进
-
拆分费用流程重构:重新设计了拆分费用流程,解决了之前版本中的多个问题,使费用分摊操作更加直观可靠。
-
报告标记为已读功能:新增了将所有报告标记为已读的快捷操作,方便用户批量管理未读状态。
-
搜索体验增强:
- 修复了在搜索查询中间添加过滤器导致查询失效的问题
- 改进了建议搜索功能,提供更智能的搜索建议
- 优化了离线删除后搜索状态的更新逻辑
-
移动端优化:
- 修复了Android工具按钮功能性问题
- 解决了iOS订阅页面滑动返回的问题
- 改进了小屏幕设备上的收据预览显示
功能增强
-
参会者追踪功能:新增了参会者追踪的开关和后端支持,为会议费用管理提供了更精细的控制。
-
私有域名验证:在OTP屏幕上添加了验证按钮,简化了私有域名配置流程。
-
二维码功能:在应用下载链接屏幕添加了二维码支持,方便用户快速下载应用。
-
费用报告视图改进:
- 修复了编辑时灰色行闪烁的问题
- 支持选择已离线删除的行项目
- 表格视图已对所有用户开放
问题修复
-
离线操作稳定性:
- 修复了离线删除后跟踪费用消失的问题
- 解决了离线创建报告时的问题
- 改进了离线删除后保存搜索状态的更新逻辑
-
费用审批流程:
- 修正了当其他费用被暂扣时待审批金额显示不正确的问题
- 修复了审批暂扣费用时出现的错误提示
-
UI一致性:
- 统一了类别在列表和费用页面中的显示顺序
- 修复了报告页面中箭头短暂显示的问题
- 解决了合并账户页面自动对焦的问题
-
多语言支持:修复了Netsuite连接失败时系统消息未正确翻译为西班牙语的问题。
技术实现亮点
-
FlashList应用:在费用列表中使用FlashList替代传统列表组件,显著提升了长列表的渲染性能。
-
本地化优化:重构了本地化函数,减少组件内部对preferredLocale的依赖,提高了国际化支持的效率。
-
Webinar集成:新增了帮助按钮和注册Webinar选项,增强了用户引导功能。
-
评论系统改进:确保发送到单一费用报告的所有评论都会进入底层交易线程,保持讨论上下文的完整性。
总结
Expensify/App 9.1.58-4版本通过一系列性能优化、用户体验改进和功能增强,进一步巩固了其作为财务管理解决方案的领先地位。从核心的财务处理流程到辅助功能,开发团队都投入了大量精力进行打磨。特别是对离线操作稳定性的改进和对移动端体验的优化,体现了团队对用户实际使用场景的深入理解。这些改进不仅提升了现有功能的可靠性,也为未来的功能扩展奠定了坚实的基础。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00