Vico图表库2.1.0版本发布:性能优化与跨平台支持
Vico是一个功能强大的Android图表库,专注于提供流畅、高效的图表展示体验。它采用声明式API设计,支持多种图表类型和丰富的自定义选项,能够满足移动端数据可视化的各种需求。本次2.1.0版本的发布,不仅带来了性能上的显著提升,还首次引入了对Compose Multiplatform的支持,标志着Vico向跨平台开发迈出了重要一步。
核心性能优化
在2.1.0版本中,Vico团队对核心模块进行了多项性能优化。其中最重要的改进是对ExtraStore机制的重新设计。在之前的版本中,所有通过CartesianLayer.transform添加的额外数据都存储在CartesianChartModel.extraStore中,这导致哈希计算变得非常耗时,因为这些数据对象通常体积较大。
新版本将这部分数据分离到了新引入的MeasuringContext.extraStore中,显著减少了主存储的哈希计算时间。这一改动虽然对自定义动画CartesianLayer实现构成了微小破坏性变更,但带来的性能提升非常可观。对于大多数标准使用场景,开发者无需做任何调整即可享受到这一优化带来的好处。
新增图表标记位置选项
为增强图表的可读性和美观性,2.1.0版本新增了DefaultCartesianMarker.LabelPosition.BelowPoint定位选项。这个新选项允许标记标签显示在标记点的下方,特别适用于数据点密集或标签较长的场景,可以有效避免标签重叠问题,提升图表的整体可读性。
跨平台支持里程碑
本次更新的重头戏是新增的multiplatform模块,它标志着Vico正式支持Compose Multiplatform技术栈。这个新模块基于原有的compose和coreAPI构建,但针对跨平台环境进行了适配和简化。开发者现在可以使用同一套代码在Android、iOS和桌面平台上绘制一致的图表。
multiplatform模块提供了两个可选的配套模块:multiplatform-m2和multiplatform-m3,分别对应Material Design 2和Material Design 3的样式主题。这种模块化设计让开发者可以根据项目需求灵活选择,同时保持代码的一致性。
需要注意的是,当前的跨平台支持仍处于实验阶段。与原生Android版本相比,multiplatform模块暂时缺少ComponentShader支持和ShapeComponent的阴影效果,这些功能将在后续版本中逐步完善。
其他改进与调整
在样式细节方面,2.1.0版本调整了虚线样式的默认短划线和间隙长度,使虚线图表看起来更加协调。对于Compose预览功能,新版本改进了在非交互式预览中的同步处理机制,确保图表能够正确显示,这对提高开发效率很有帮助。
此外,新版本正式弃用了旧的Maven Central坐标(1.6.2版本之前使用的),开发者应该更新到新的依赖坐标以避免未来可能出现的兼容性问题。
升级建议
对于现有项目,升级到2.1.0版本通常只需更新依赖版本号即可。如果项目中使用了自定义的动画CartesianLayer实现,则需要检查ExtraStore的使用方式,确保正确处理了新的MeasuringContext.extraStore。
对于考虑采用跨平台方案的新项目,可以开始尝试multiplatform模块,但需要留意其实验性状态和当前的功能限制。随着Vico跨平台支持的不断完善,未来将提供更稳定、功能更全面的多平台图表解决方案。
总的来说,Vico 2.1.0版本在性能、功能和跨平台支持方面都取得了显著进步,为开发者提供了更强大、更灵活的数据可视化工具。无论是优化现有Android应用中的图表性能,还是构建全新的跨平台应用,这个版本都值得考虑。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00