Thuthesis模板中参考文献著者缩写格式问题解析
清华大学学位论文LaTeX模板Thuthesis在参考文献著者姓名缩写处理上存在与国家标准不完全一致的情况。本文将详细分析该问题产生的原因、技术背景以及解决方案。
问题背景
根据《研究生学位论文写作指南》要求,参考文献中著者姓名缩写应遵循GB/T 28039-2011标准:
- 汉语拼音人名:姓全写,名取每个汉字拼音的首字母
- 欧美著者:名可用缩写字母,省略缩写点
- 中译欧美著者:只著录其姓
- 同姓不同名欧美著者:需著录姓和名的首字母
然而,Thuthesis模板当前实现将所有著者名统一缩写为一个字母,这与标准要求存在差异。
技术原因分析
该问题的技术根源在于BibTeX处理机制的限制:
-
姓名识别困难:BibTeX无法自动判断一个名字是否属于"汉语拼音书写的人名"。外籍华人姓名可能符合拼音格式但不应视为汉语拼音,而某些西方人名(如Fatou、Fubini)也可能被误判。
-
格式处理机制:模板使用的BST文件(thuthesis-numeric.bst)中,姓名格式化函数默认采用单字母缩写方式,这是BibTeX的常见处理方式。
-
多字节字符处理:对于中文拼音姓名,BibTeX难以自动拆分汉字对应的拼音部分进行多字母缩写。
解决方案
方案一:禁用缩写(推荐)
最简单可靠的解决方案是禁用所有缩写,保持姓名完整。这完全符合标准要求,因为标准中缩写是"可选的"而非强制。
修改方法:在BST文件中找到姓名格式化行,修改为:
{ t #1 "{vv~}{ll}{ ff}" format.name$
方案二:手动拆分拼音姓名
如需保持缩写格式,对于中文拼音姓名,可在.bib文件中手动拆分名字:
Zhihao Jia → Zhi Hao, Jia
这样处理后,输出将为"Jia Z H",符合每个汉字取首字母的要求。
方案三:定制姓名处理函数
高级用户可修改BST文件,添加针对拼音姓名的特殊处理逻辑,但这需要较强的BibTeX编程能力,且仍无法完美解决所有边界情况。
实践建议
-
对于大多数用户,推荐采用方案一禁用缩写,既符合标准又简单可靠。
-
如需保持缩写格式,建议:
- 对中文文献作者采用方案二手动处理
- 接受西方作者单字母缩写的现状(实际影响较小)
-
在最终提交前,应人工检查参考文献格式是否符合学校要求。
总结
Thuthesis模板的姓名缩写处理虽然存在与国标的差异,但通过简单配置即可满足要求。用户应根据自身需求选择最适合的解决方案,在格式规范与实现复杂度之间取得平衡。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00