Marten项目V7.37.2版本发布:事件溯源与投影优化详解
Marten是一个基于PostgreSQL的.NET事件溯源和文档数据库库,它结合了事件溯源和文档数据库的优势,为.NET开发者提供了强大的数据持久化解决方案。Marten的核心功能包括事件存储、文档存储、投影以及强大的查询能力。
版本核心改进
自定义投影会话的生命周期优化
在V7.37.2版本中,修复了一个关于自定义投影会话生命周期的重要问题。此前版本中,当自定义投影在第一个await操作后,会话会被意外释放,这会导致后续操作失败。新版本确保了会话在整个异步操作过程中保持活动状态,这对于长时间运行的投影操作尤为重要。
这个改进特别影响那些需要执行异步I/O操作(如调用外部API或执行复杂查询)的自定义投影场景。开发者现在可以放心地在投影中使用async/await模式,而不用担心会话被提前释放。
字符串ID的异步自定义投影修复
针对使用字符串作为ID类型的异步自定义投影,修复了"fetch latest"操作的可靠性问题。这个问题在尝试获取最新事件时可能导致不正确的结果或异常。新版本确保了无论ID类型如何,异步投影都能正确获取和处理最新事件。
投影包装器的事件过滤支持
ProjectionWrapper现在能够正确识别并应用基于EventFilterable的投影设置。这意味着开发者可以更灵活地控制哪些事件应该被哪些投影处理,特别是在复杂的多投影场景中。例如,可以创建只处理特定事件类型的投影,而忽略其他无关事件。
条件性文档修补增强
新增了对文档修补操作的谓词支持,允许开发者为修补操作添加条件逻辑。这个功能使得部分更新文档时能够基于特定条件执行,而不是无条件地应用所有修补操作。例如,可以只更新满足特定条件的文档字段,或者在满足业务规则时才应用修补。
重要功能详解
元数据跟踪改进
新版本完善了CreateBy元数据跟踪功能,并提供了相关文档说明。CreateBy元数据允许开发者跟踪记录是谁创建了特定文档或事件,这对于审计和多租户应用特别有用。文档中详细说明了如何配置和使用这一功能,包括如何与现有用户系统集成。
生成投影代码的执行顺序修复
解决了生成投影代码中的操作顺序问题,确保在并行处理事件时投影逻辑能够正确执行。这个修复特别影响那些依赖事件处理顺序的投影场景,如需要严格顺序处理的聚合投影。
自定义聚合投影文档完善
更新了示例和文档,更清晰地展示了如何在聚合场景中使用CustomProjection。新的文档提供了从基础到进阶的示例,帮助开发者理解如何构建复杂的业务逻辑投影,特别是在需要结合多个事件类型处理的情况下。
技术影响分析
这些改进共同提升了Marten在以下方面的能力:
-
可靠性增强:特别是异步投影处理的稳定性得到显著提升,减少了生产环境中可能出现的问题。
-
灵活性扩展:新增的条件修补和增强的事件过滤为复杂业务场景提供了更多实现选择。
-
开发者体验改善:更完善的文档和示例降低了学习曲线,帮助新用户更快上手高级功能。
对于已经使用Marten的项目,建议评估这些改进是否影响现有功能,特别是那些大量使用自定义投影或异步操作的部分。新项目则可以充分利用这些增强功能来构建更健壮的事件溯源系统。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00