thuthesis模板中图片标题与说明文字的排版技巧
引言
在学术论文写作中,图片和表格的排版规范是至关重要的环节。thuthesis作为清华大学学位论文的LaTeX模板,对图表排版有着明确的要求。本文将深入探讨如何在thuthesis模板中实现图片标题与说明文字的不同排版方式,特别是针对生物医学工程等学科的特殊需求。
传统排版方式的问题
thuthesis模板文档中明确指出:"国外的期刊习惯将图表的标题和说明文字写成一段,需要改写为标题只含图表的名称,其他说明文字以注释方式写在图表下方,或者写在正文中。"这种要求主要是为了符合国内学位论文的规范格式。
然而,在实际应用中,特别是对于生物医学工程等与国际期刊接轨较为紧密的学科,许多研究者更习惯于采用国际期刊的排版风格——将图片标题和详细说明合并为一段文字。这种排版方式在视觉上更为紧凑,也符合相关领域研究者的阅读习惯。
解决方案的实现
经过对LaTeX的caption宏包的深入研究,我们发现可以通过以下方式在thuthesis模板中实现国际期刊风格的图片排版:
\begin{figure}
\centering
\includegraphics[width=0.5\linewidth]{example-image-a.pdf}
\caption[简短的图片标题]{完整的图片标题和详细说明文字。这里可以包含对图片的详细解释,
包括图中各个部分的含义、实验条件、数据来源等所有必要信息。}
\label{fig:example}
\end{figure}
这种写法的核心在于利用了caption宏包提供的可选参数功能:
- 方括号
[]中的内容是出现在图片目录中的简短标题 - 大括号
{}中的内容则是显示在图片下方的完整标题和说明文字
技术原理分析
这种实现方式背后的技术原理是LaTeX的caption宏包对\caption命令的重定义。caption宏包允许用户通过可选参数来区分目录条目和实际显示的标题内容。
在thuthesis模板中,默认的图片标题样式是通过定义\caption命令的格式来实现的。当我们使用上述方法时:
- 模板会自动将方括号中的内容用于生成图片目录
- 同时保留大括号中的所有内容作为图片下方的完整说明
这种机制既满足了学校对图片目录简洁性的要求,又保留了研究者需要的详细说明文字。
实际应用建议
对于需要在thuthesis模板中使用国际期刊风格的研究者,我们建议:
-
保持一致性:整篇论文中应统一使用同一种图片说明格式,不要混合使用不同风格
-
说明文字规范:详细的说明文字应当包含足够的信息量,但也要避免过度冗长。通常应包括:
- 图片的核心内容描述
- 关键参数或条件
- 重要的标注解释
- 必要的参考文献引用
-
目录标题优化:方括号中的简短标题应当精炼且具有代表性,便于读者通过目录快速定位图片
-
跨学科协调:如果所在院系有特殊要求,建议提前与导师或学位委员会确认这种排版方式的可接受性
扩展应用
同样的技术也可以应用于表格的排版中:
\begin{table}
\centering
\caption[数据统计简表]{实验数据统计表。表中列出了三组实验在不同条件下的测量结果,
包括平均值、标准差和显著性水平(p值)。数据采集自2023年1月至6月期间进行的系列实验。}
\label{tab:stats}
\begin{tabular}{ccc}
% 表格内容
\end{tabular}
\end{table}
这种灵活的排版方式大大增强了学术论文的表达能力,使作者可以在遵守基本规范的同时,根据实际需要调整说明文字的详细程度。
结论
thuthesis模板虽然对图表排版有明确规范,但通过合理利用LaTeX的caption宏包功能,研究者仍然可以实现符合国际期刊习惯的图片说明排版风格。这种技术方案既尊重了学校的格式要求,又兼顾了学科特点和作者的表达需求,是学术论文写作中值得掌握的实用技巧。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00