Formily 自定义校验规则深度解析:获取上下文与覆盖全局规则
引言
在表单开发中,校验规则是确保数据有效性的重要环节。Formily 作为阿里巴巴开源的企业级表单解决方案,提供了强大的校验功能。但在实际开发中,我们经常会遇到两个典型问题:如何在自定义校验消息中获取当前表单项的上下文数据,以及如何覆盖全局定义的校验规则。本文将深入探讨这两个问题的解决方案。
自定义校验消息获取上下文数据
问题描述
在 Formily 中,我们经常需要为表单项定义校验规则。标准的做法是通过 x-validator 属性来定义校验器数组,每个校验器可以包含 rule 和 message 属性。然而,当前版本的 Formily 中,message 仅支持字符串类型,无法直接使用函数来动态生成校验消息,这限制了我们在校验消息中使用表单项上下文数据的能力。
解决方案
理想情况下,我们希望 message 能够支持函数类型,接收当前值和上下文作为参数,动态生成校验消息。这种设计将极大提升校验消息的灵活性。
'x-validator': [{
required: true,
message: (value, context) => {
console.log(value, context);
return context.field.title + ':请输入内容';
},
}]
这种实现方式允许我们:
- 访问当前输入值
- 获取表单项的完整上下文(包括标题、路径等信息)
- 根据业务逻辑动态生成校验消息
实现原理
要实现这一功能,Formily 需要在解析校验规则时,判断 message 是否为函数。如果是函数,则在执行校验时传入当前值和上下文对象。这种改进不会破坏现有功能,同时为开发者提供了更大的灵活性。
覆盖全局校验规则
问题描述
Formily 允许通过 registerValidateRules 注册全局校验规则,这在需要统一校验风格时非常有用。然而,当我们需要在特定场景下覆盖这些全局规则时,会遇到困难。当前机制下,局部定义的 x-validator 规则无法有效覆盖全局注册的规则。
解决方案
我们期望能够在表单项级别完全覆盖全局定义的校验规则,包括校验逻辑和消息格式。这可以通过以下方式实现:
'x-validator': {
required: `{{(value,context)=>{
console.log(value,context)
return "局部校验"
}}}`,
}
或者更简洁的函数语法(如果支持):
'x-validator': {
required: (value,context) => {
console.log(value,context)
return "局部校验"
}
}
实现考量
要实现这一功能,Formily 需要:
- 在规则合并时优先采用局部定义
- 确保函数类型的校验规则能够正确解析和执行
- 保持与现有字符串类型消息的兼容性
最佳实践建议
-
上下文感知的校验消息:当需要根据表单项属性(如title)动态生成消息时,推荐使用函数形式的message,这比字符串模板更灵活且类型安全。
-
全局与局部规则的平衡:对于全系统一致的校验(如必填提示风格),使用全局规则;对于特殊场景的需求,使用局部覆盖。
-
校验逻辑复用:复杂的校验逻辑可以封装为独立函数,既可以在全局注册,也可以在局部调用。
-
性能考虑:函数形式的校验消息会在每次校验时执行,应避免在其中包含复杂计算。
总结
Formily 的校验系统已经非常强大,但通过支持函数形式的校验消息和改善规则覆盖机制,可以进一步提升其灵活性和实用性。这些改进将使开发者能够更精细地控制表单校验行为,创建更具交互性和用户友好的表单体验。
在实际项目中,理解这些校验机制的内部原理,能够帮助开发者更好地应对各种复杂的表单校验需求,构建出既符合业务要求又具备良好用户体验的表单系统。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C0105
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python059
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00