erxes 2.14.0-rc.0版本发布:客户门户与金融服务管理功能全面升级
erxes作为一款开源客户关系管理(CRM)和企业资源规划(ERP)系统,在2.14.0-rc.0版本中带来了多项重要功能更新和优化。本次更新主要集中在客户门户的多语言支持、金融服务管理系统的功能增强以及产品捆绑销售等核心业务场景的改进。
多语言支持与客户门户优化
erxes 2.14.0-rc.0版本显著增强了客户门户的多语言能力,为国际化部署提供了更好的支持。开发团队实现了客户门户和内容管理系统(CMS)的全面翻译功能,使得系统能够更好地服务于全球不同地区的用户。这一改进不仅提升了用户体验,也为企业在跨国业务场景中的应用扫清了语言障碍。
在客户门户配置方面,新版本引入了生产环境字段配置功能,使管理员能够更灵活地控制不同环境下的门户行为。这一改进特别适合需要在开发、测试和生产环境间保持不同配置的企业用户。
金融服务管理系统功能增强
金融服务管理是本次版本更新的重点改进领域之一。erxes团队对金融产品和服务功能进行了全面优化,主要体现在以下几个方面:
-
合同类型规则增强:新增了DanRule规则支持,使合同类型能够支持更复杂的业务规则配置。这一改进让金融机构能够根据自身业务需求定制更灵活的产品方案。
-
计算引擎优化:修复了金融计算中的多个问题,包括还款日计算、超额支付处理等核心算法。新的计算引擎能够更准确地处理各种场景,特别是针对不同类型的计划提供了更可靠的支持。
-
销售流程集成:金融研究数据现在能够直接与销售管道关联,为销售团队提供了更全面的客户背景信息。这一改进显著提升了销售团队的工作效率,使他们能够基于客户的实际情况提供更精准的产品推荐。
-
权限控制完善:新增了金融研究模块的权限控制,使企业能够更精细地管理不同角色对敏感数据的访问权限。
产品管理与销售功能改进
在产品管理方面,2.14.0-rc.0版本引入了产品捆绑销售功能。这一创新特性允许企业将多个产品组合成套餐进行销售,为营销策略提供了更多可能性。产品捆绑不仅支持简单的产品组合,还能配置组合价格策略,帮助企业实现更灵活的定价模式。
销售模块也获得了多项改进:
- 修复了合同应用按钮的功能问题
- 优化了交易编辑表单的用户体验
- 改进了销售管道界面的数据显示方式
- 增强了属性视图在完整编辑表单中的表现
技术优化与问题修复
除了功能增强外,本次更新还包含多项技术优化和问题修复:
-
卡片关联功能:改进了卡片(如交易、工单等)之间的关联机制,使不同业务对象间的关联更加稳定可靠。
-
Toki配置修复:解决了客户门户Toki配置中的若干问题,提高了配置的稳定性和可靠性。
-
同步功能优化:对Polaris系统的同步机制进行了改进,提升了数据同步的准确性和效率。
-
UI一致性改进:统一了多个模块的用户界面风格,特别是修复了Buren评分在销售详情页的显示问题。
-
通知系统增强:改进了旅游管理系统的通知机制,使业务提醒更加及时准确。
总结
erxes 2.14.0-rc.0版本通过增强客户门户的多语言支持、完善金融服务管理功能以及引入产品捆绑销售等创新特性,进一步巩固了其作为企业级CRM/ERP解决方案的竞争力。这些改进不仅提升了系统的功能性,也显著改善了用户体验,使erxes能够更好地满足不同规模企业的业务需求。
对于现有用户而言,升级到2.14.0-rc.0版本将获得更稳定、功能更丰富的使用体验;对于新用户,这一版本提供了更全面的业务场景支持,降低了系统部署和使用的门槛。随着这些改进的推出,erxes继续朝着成为开源企业软件领域领先解决方案的目标迈进。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00