TanStack DB Collections 0.0.8版本发布:更简洁的变更处理API
TanStack DB是一个现代化的前端数据管理解决方案,它提供了声明式的方式来处理应用状态和数据持久化。作为其核心组件之一,DB Collections模块专注于集合数据的操作和管理。在最新的0.0.8版本中,该模块引入了一套更加直观和简洁的变更处理API,显著简化了数据变更的流程。
新版本的核心改进
本次更新的核心在于重新设计了数据变更处理机制。开发者现在可以直接在集合配置中定义onInsert、onUpdate和onDelete处理器,而不必再依赖复杂的useOptimisticMutation钩子来处理简单的数据变更。
这种改进使得代码更加声明式和直观。当调用collection.insert()、.update()或.delete()方法时,如果这些操作不是在显式的事务中执行(即不在useOptimisticMutation回调内),库会自动创建一个单操作事务并调用相应的处理器来持久化变更。
主要变更点解析
-
直接处理器支持:现在可以在集合配置中直接定义变更处理器,这些处理器会在对应操作发生时自动触发。例如,定义一个
onInsert处理器后,调用collection.insert()就会自动触发这个处理器。 -
自动事务管理:对于简单的单操作变更,不再需要手动创建事务。库会自动处理事务的创建和管理,大大简化了代码。
-
查询自动刷新:在
queryCollectionOptions中使用这些处理器时,集合查询会在处理器成功完成后自动刷新。这一行为可以通过处理器返回{ refetch: false }来禁用。 -
Electric集合的特殊处理:对于Electric集合,处理器现在需要返回一个包含事务ID的对象(
{ txid: string })。集合会自动等待这个事务ID同步完成后再解析变更,确保数据一致性。 -
错误处理改进:如果没有配置相应的持久化处理器,直接调用变更方法将会抛出错误,这有助于开发者更早地发现问题。
迁移建议和注意事项
对于现有项目,需要注意这是一个破坏性变更。之前直接调用变更方法而不处理持久化的代码现在会抛出错误。迁移时,开发者需要:
- 检查所有直接调用
insert、update或delete的地方 - 为这些操作添加相应的处理器
- 对于简单场景,可以直接在集合配置中添加处理器
- 对于复杂场景(如跨集合事务),仍然可以使用
useOptimisticMutation
实际应用示例
假设我们有一个待办事项应用,更新后的代码会更加简洁:
const todosCollection = createCollection({
name: 'todos',
schema: todoSchema,
onInsert: async (newTodo) => {
// 持久化逻辑
return { txid: '...' }; // Electric集合需要返回txid
},
onUpdate: async (updatedTodo) => {
// 更新逻辑
return { refetch: true }; // 控制是否自动刷新查询
},
onDelete: async (deletedTodo) => {
// 删除逻辑
return { txid: '...' };
}
});
// 使用示例
function addTodo() {
todosCollection.insert({
id: '1',
text: 'Learn TanStack DB',
completed: false
});
}
总结
TanStack DB Collections 0.0.8版本的这一改进,使得数据变更处理变得更加直观和简洁。通过直接在集合配置中定义变更处理器,开发者可以减少样板代码,更专注于业务逻辑。同时,自动的事务管理和查询刷新机制进一步简化了开发流程。虽然这是一个破坏性变更,但它带来的代码清晰度和开发效率提升是值得的。
对于新项目,建议直接采用这种新模式;对于现有项目,可以逐步迁移,先处理简单的变更场景,再处理复杂的跨集合事务。这一改进标志着TanStack DB在提供更优雅、更声明式的数据管理解决方案上又迈出了重要一步。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00