Less.js 中 @starting-style 规则嵌套问题的解析与解决方案
Less.js 作为一款流行的 CSS 预处理器,在处理现代 CSS 新特性时偶尔会遇到兼容性问题。本文将深入探讨 Less.js 在处理 CSS 新增的 @starting-style 规则时出现的嵌套问题,以及社区如何解决这一问题。
问题背景
@starting-style 是 CSS 新增的一个功能规则,用于定义元素在首次应用样式时的初始状态。这个特性在实现平滑的过渡动画时非常有用,特别是在处理弹出框(popover)等元素的显示/隐藏状态时。
在 Less.js 4.2.0 版本中,开发者发现当尝试嵌套使用 @starting-style 规则时,预处理器无法正确保留嵌套结构。例如:
[popover]:popover-open {
opacity: 1;
transform: scaleX(1);
@starting-style {
opacity: 0;
transform: scaleX(0);
}
}
会被错误地编译为:
[popover]:popover-open {
opacity: 1;
transform: scaleX(1);
}
@starting-style {
opacity: 0;
transform: scaleX(0);
}
这种错误的编译结果破坏了 CSS 的结构和功能,导致 @starting-style 规则无法按预期工作。
技术分析
这个问题本质上源于 Less.js 对新型 CSS 规则的支持机制。Less.js 采用了一种保守的策略来处理未知的 @ 规则:默认情况下,它会将这些规则提升到顶层("bubbling"行为),而不是保留它们的嵌套位置。
这种行为对于传统的 CSS 预处理是合理的,但随着 CSS 规范的快速发展,越来越多的新 @ 规则被引入并支持嵌套结构。@starting-style 就是这样一个需要正确嵌套的现代 CSS 规则。
解决方案
社区开发者通过提交补丁解决了这个问题。解决方案的核心是:
- 在 Less.js 的解析器中明确识别 @starting-style 规则
- 确保解析器正确处理这类规则的嵌套结构
- 保持规则的嵌套位置不变
在 Less.js 4.3.0 版本中,这个问题得到了修复。现在 @starting-style 规则能够正确保留其嵌套结构,编译结果符合预期。
对开发者的启示
这个案例给前端开发者几个重要启示:
-
CSS 预处理器的局限性:即使是成熟的预处理器如 Less.js,也需要不断更新以适应 CSS 规范的变化
-
新特性的采用时机:在使用 CSS 新特性时,需要考虑预处理器的支持情况
-
社区协作的重要性:开源社区的积极参与能够快速解决这类兼容性问题
-
升级策略:定期更新项目依赖可以确保获得最新的兼容性修复
总结
Less.js 对 @starting-style 规则的支持问题展示了 CSS 生态系统不断演进的挑战。随着 4.3.0 版本的发布,开发者现在可以放心地在 Less 中使用这一现代 CSS 特性。这个案例也提醒我们,在前端开发中保持工具链的更新与对新特性的谨慎评估同样重要。
对于正在使用 Less.js 的项目,建议升级到 4.3.0 或更高版本以获得完整的 @starting-style 支持,从而充分利用这一强大的 CSS 过渡控制功能。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00