【亲测免费】 TikZ 图形绘制指南
项目介绍
TikZ(发音为“TIK zeh”或“TIKZ”)是LaTeX中一个强大的图形包,它允许用户以一种直观的方式创建复杂的图形和图表。由 Till Tantau 开发,TikZ 的全称是 “TikZ ist kein Zeichenprogramm”(德语,意为“TikZ 不是一个绘图程序”),强调了其基于代码的图形设计哲学。这个开源项目在GitHub上可以找到,地址为:https://github.com/janosh/tikz.git。它通过简单的命令集,结合LaTeX的排版能力,使得数学图表、流程图、概念图等的制作变得既美观又高效。
项目快速启动
要开始使用TikZ,首先确保你的LaTeX环境已经安装了TikZ包。大多数现代LaTeX发行版如TeX Live或MiKTeX应该已经包含了它。下面是一个基本示例,展示了如何绘制一个简单的图形:
\documentclass{standalone}
\usepackage{tikz}
\begin{document}
\begin{tikzpicture}
\draw (0,0) rectangle (2,2); % 绘制一个2x2的矩形
\draw (1,0) -- (1,2); % 绘制中间的竖线
\draw (0,1) -- (2,1); % 绘制中间的横线
\node at (1,1) {起点}; % 在中心添加文本
\end{tikzpicture}
\end{document}
将上述代码保存为 .tex 文件,并通过LaTeX编译器运行,你会得到一个包含简单图案的PDF文件。
应用案例和最佳实践
图形元素与路径
TikZ的强大在于其对各种图形元素的支持。例如,绘制圆圈、箭头和多边形非常直观。
圆和填充:
\filldraw[color=blue!20, ultra thick, draw=blue] (0,0) circle (1);
箭头连接节点:
\node[circle, fill=red] (A) at (0,0) {};
\node[circle, fill=green] (B) at (3,0) {};
\draw[-stealth, thick] (A) -- (B);
最佳实践中,合理组织代码结构,利用库(如positioning库)来精确控制元素位置,以及注释代码以便于维护是非常重要的。
典型生态项目
TikZ的生态系统包括了许多社区贡献的库和样式,用于特定类型的图表。例如,“pgfplots”库专门用于绘制高质量的二维和三维图表,而“mindmap”则适合思维导图的创建。尽管直接指向的GitHub仓库可能主要是关于TikZ的基本使用,但通过社区的其他仓库和资源,如CTAN上的包,可以找到这些扩展功能。
为了深入学习和探索TikZ的全部潜力,推荐查阅官方文档以及在线教程,比如TikZ.net和相关论坛,其中充满了实例和进阶技巧。
以上就是TikZ图形绘制的基本指南,从快速入门到一些实践建议,希望这能帮助你开始你的LaTeX图形设计之旅。随着实践的深入,你将能够创造出既有深度又有美感的图形作品。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00