matplot2tikz 教程:从 matplotlib 到 LaTeX 的平滑过渡
1. 项目介绍
matplot2tikz 是一个 Python 工具,用于将 matplotlib 生成的图形转换为 TikZ/PGFplots 格式,以便无缝集成到 LaTeX 或 ConTeXt 文档中。TikZ/PGFplots 是基于 TeX 的库,可以描述图形的坐标轴、数据等,因此 matplot2tikz 的输出比原始 TikZ 输出更易于理解、编辑和保留更多信息。
2. 项目快速启动
安装
首先,需要安装 Python 和 matplotlib。然后,可以使用 pip 安装 matplot2tikz:
pip install matplot2tikz
创建 matplotlib 图形
使用 matplotlib 创建图形,例如:
import matplotlib.pyplot as plt
import numpy as np
t = np.arange(0.0, 2.0, 0.1)
s = np.sin(2 * np.pi * t)
s2 = np.cos(2 * np.pi * t)
plt.plot(t, s, 'o-', lw=4.1)
plt.plot(t, s2, 'o-', lw=4.1)
plt.xlabel('时间 (s)')
plt.ylabel('电压 (mV)')
plt.title('简单图形')
plt.grid(True)
转换为 TikZ 格式
在 matplotlib 图形上使用 matplot2tikz 的 save 函数将其转换为 TikZ 格式:
import matplot2tikz
matplot2tikz.save('mytikz.tex')
这将生成一个名为 mytikz.tex 的 TikZ 文件。
集成到 LaTeX
将生成的 TikZ 文件内容插入 LaTeX 文档中。确保在文档头部包含 PGFPlots 和适当的 Unicode 支持:
\usepackage[utf8]{inputenc}
\usepackage{pgfplots}
\DeclareUnicodeCharacter{2212}{-}
\usepgfplotslibrary{groupplots,dateplot}
\usetikzlibrary{patterns,shapes.arrows}
\pgfplotsset{compat=newest}
然后,使用 \input 命令将 TikZ 文件内容插入到文档中:
\input{mytikz.tex}
3. 应用案例和最佳实践
清理图形
在导出之前,可以使用 matplot2tikz 的 clean_figure 命令清理图形,例如删除超出坐标轴限制的点、简化曲线和降低点密度:
matplot2tikz.clean_figure()
matplot2tikz.save('mytikz.tex')
使用不同类型的文档
matplot2tikz 可以生成适用于 LaTeX 和 ConTeXt 的输出。可以使用 flavor 参数指定输出类型:
matplot2tikz.save('mytikz.tex', flavor='context')
获取预处理器
可以使用 Flavors 类获取不同类型的文档的预处理器:
import matplot2tikz
matplot2tikz.Flavors.latex.preamble()
matplot2tikz.Flavors.context.preamble()
4. 典型生态项目
matplot2tikz 是一个基于 matplotlib 的项目,因此它适用于任何可以使用 matplotlib 生成图形的场景。例如,可以使用 matplot2tikz 将科学计算、数据分析、机器学习等领域的图形转换为 TikZ 格式,以便在 LaTeX 或 ConTeXt 文档中进行展示和发布。
希望这份教程能够帮助您更好地理解和使用 matplot2tikz。如果您有任何问题或建议,请随时在 GitHub 上提出 issue 或 pull request。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00