Linaria:零运行时的CSS-in-JS库
项目介绍
Linaria 是一个专注于提升开发体验并优化Web性能的CSS-in-JS库。它由Airbnb团队背后的支持,设计用于在不引入额外运行时开销的情况下提供样式功能。通过采用Wyw-in-js的基础设施,Linaria能够在构建时提取CSS,支持Webpack、Esbuild、Rollup、Vite甚至Svelte等不同的打包工具。该库使用MIT许可证发布,拥有活跃的社区贡献和支持。
项目快速启动
要快速开始使用Linaria,首先确保你的开发环境已准备好Node.js。接着,通过npm或yarn安装必要的包:
# 使用npm
npm install @linaria/core @linaria/react @wyw-in-js/babel-preset
# 或者使用yarn
yarn add @linaria/core @linaria/react @wyw-in-js/babel-preset
之后,你需要配置你的构建工具以支持Linaria。如果你使用的是Webpack,你可以参考Wyw-in-js的官方指南进行设置。
编写样式时,可以像下面这样导入css标签,并开始定义你的样式:
import { css } from '@linaria/core';
// 定义样式
const headerStyles = css`
font-family: ${fonts.sans};
color: #333;
font-size: modularScale(1);
@media (min-width: 600px) {
font-size: modularScale(2);
}
`;
然后,在React组件中应用这些样式:
import React from 'react';
import { useCss } from '@linaria/react';
function Header() {
const cx = useCss(headerStyles);
return <h1 className={cx}>Hello, World!</h1>;
}
应用案例和最佳实践
Linaria特别适合那些希望避免CSS全局命名冲突,且寻求简洁易维护的CSS解决方案的项目。其最佳实践包括利用模块化的CSS撰写方式,结合Polished库来实现响应式设计和视觉效果增强,以及通过Babel插件自动提取CSS到单独的文件中,保持JavaScript文件清爽。
典型生态项目
虽然Linaria本身提供了核心的CSS处理能力,但它通常与其他前端框架或库协同工作,例如React。由于它旨在任何支持JSX的环境中工作,因此也可以轻松集成到Vue或Angular项目中,尽管具体的示例和实践可能需要开发者根据各自框架的最佳实践调整。林尼亚纳(Linaria)的灵活性使得在多样化的前端生态中都能找到其应用场景,尤其适合追求高性能和开发效率的现代Web应用。
这个简短的指南为你介绍了如何开始使用Linaria,以及一些基本概念。深入探索林aria的官方文档将帮助你掌握更多高级特性和最佳实践,从而更高效地管理你的项目样式。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C0105
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python059
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00