深入解析strangetom/ingredient-parser的后处理机制
本文将深入探讨strangetom/ingredient-parser项目中后处理模块的工作原理,该模块负责将模型输出的原始标签和分数转换为更有结构化的数据格式。
后处理概述
当模型处理完一个食材描述句子后,会输出每个token对应的标签和置信度分数。后处理模块的任务是将这些原始数据转换为易于使用的结构化数据,主要通过ParsedIngredient类来实现。
ParsedIngredient类定义了最终返回的数据结构,包含以下关键字段:
- 名称(name)
- 规格(size)
- 数量(amount)
- 准备方式(preparation)
- 用途(purpose)
- 备注(comment)
- 原始句子(sentence)
各类别数据的处理方式
规格、准备方式、用途和备注的处理
对于SIZE、PREP、PURPOSE和COMMENT这些标签,后处理过程遵循以下步骤:
- 识别对应标签及标点符号的位置
- 将连续的索引分组
- 将每组token用空格连接成字符串
- 可选地丢弃仅包含停用词的组
- 计算每组token的平均置信度
- 移除孤立的或无效的标点符号
- 用逗号连接所有组并修正标点
- 计算所有组的平均置信度
最终生成IngredientText对象,包含文本内容、置信度和在原始句子中的起始位置。
食材名称的特殊处理
名称处理相对复杂,因为涉及多种标签类型:
- B_NAME_TOK/I_NAME_TOK:基本名称标签
- NAME_VAR:名称变体
- NAME_MOD:名称修饰词
- NAME_SEP:名称分隔符
处理流程包括:
- 识别所有名称相关标签
- 按标签类型分组,B_NAME_TOK开始新组
- 反向遍历处理组间关系
- 应用与前述类似的文本合并和清理步骤
最终输出一个或多个IngredientText对象,取决于是否启用separate_names参数。
数量信息的精细处理
数量信息由QTY和UNIT标签组合而成,生成IngredientAmount对象,包含:
- 数量值(quantity)
- 最大数量(quantity_max,用于范围)
- 单位(unit)
- 文本表示(text)
- 置信度(confidence)
- 多种标志位
数量值的特殊处理
数量值以fractions.Fraction对象形式存储,保持精确计算能力。文本形式的数字(如"one")会被转换为数值形式,通过预定义的STRING_NUMBERS字典和预编译的正则表达式实现高效转换。
单位的标准化处理
使用Pint库进行单位标准化,例如:
- "g"、"gram"、"grams" →
<Unit('gram')> - 支持美制和英制单位切换(通过
imperial_units参数)
特殊数量标志
IngredientAmount包含多个标志位提供额外信息:
- APPROXIMATE:近似数量(如"about 2 cups")
- SINGULAR:单数指示(如"each")
- RANGE:数值范围(如"1-2 cups")
- MULTIPLIER:倍数表示(如"2x")
- PREPARED_INGREDIENT:处理后测量标志
复杂情况的特殊处理
嵌套数量处理
对于类似"2 14 ounce cans"的结构,系统能识别出:
- 外层数量:"2 cans"
- 内层数量:"14 ounce"(标记为SINGULAR)
复合数量处理
对于组合单位(如"1lb 2oz"),生成CompositeIngredientAmount对象,包含多个IngredientAmount实例及其组合关系。
技术实现要点
- 分数处理:使用Python的fractions模块保持精度
- 性能优化:预编译正则表达式加速文本转换
- 单位系统:基于Pint库实现灵活的单位转换能力
- 上下文感知:通过标志位捕获丰富的语义信息
通过这套后处理机制,strangetom/ingredient-parser能够将简单的文本输入转换为富含语义信息的结构化数据,为食谱分析、营养计算等应用提供了坚实的基础。
ERNIE-4.5-VL-28B-A3B-ThinkingERNIE-4.5-VL-28B-A3B-Thinking 是 ERNIE-4.5-VL-28B-A3B 架构的重大升级,通过中期大规模视觉-语言推理数据训练,显著提升了模型的表征能力和模态对齐,实现了多模态推理能力的突破性飞跃Python00
unified-cache-managementUnified Cache Manager(推理记忆数据管理器),是一款以KV Cache为中心的推理加速套件,其融合了多类型缓存加速算法工具,分级管理并持久化推理过程中产生的KV Cache记忆数据,扩大推理上下文窗口,以实现高吞吐、低时延的推理体验,降低每Token推理成本。Python03
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
Spark-Prover-7BSpark-Prover-7B is a 7B-parameter large language model developed by iFLYTEK for automated theorem proving in Lean4. It generates complete formal proofs for mathematical theorems using a three-stage training framework combining pre-training, supervised fine-tuning, and reinforcement learning. The model achieves strong formal reasoning performance and state-of-the-art results across multiple theorem-proving benchmarksPython00
MiniCPM-V-4_5MiniCPM-V 4.5 是 MiniCPM-V 系列中最新且功能最强的模型。该模型基于 Qwen3-8B 和 SigLIP2-400M 构建,总参数量为 80 亿。与之前的 MiniCPM-V 和 MiniCPM-o 模型相比,它在性能上有显著提升,并引入了新的实用功能Python00
Spark-Formalizer-7BSpark-Formalizer-7B is a 7B-parameter large language model by iFLYTEK for mathematical auto-formalization. It translates natural-language math problems into precise Lean4 formal statements, achieving high accuracy and logical consistency. The model is trained with a two-stage strategy combining large-scale pre-training and supervised fine-tuning for robust formal reasoning.Python00
GOT-OCR-2.0-hf阶跃星辰StepFun推出的GOT-OCR-2.0-hf是一款强大的多语言OCR开源模型,支持从普通文档到复杂场景的文字识别。它能精准处理表格、图表、数学公式、几何图形甚至乐谱等特殊内容,输出结果可通过第三方工具渲染成多种格式。模型支持1024×1024高分辨率输入,具备多页批量处理、动态分块识别和交互式区域选择等创新功能,用户可通过坐标或颜色指定识别区域。基于Apache 2.0协议开源,提供Hugging Face演示和完整代码,适用于学术研究到工业应用的广泛场景,为OCR领域带来突破性解决方案。00- HHowToCook程序员在家做饭方法指南。Programmer's guide about how to cook at home (Chinese only).Dockerfile014
Spark-Scilit-X1-13B科大讯飞Spark Scilit-X1-13B基于最新一代科大讯飞基础模型,并针对源自科学文献的多项核心任务进行了训练。作为一款专为学术研究场景打造的大型语言模型,它在论文辅助阅读、学术翻译、英语润色和评论生成等方面均表现出色,旨在为研究人员、教师和学生提供高效、精准的智能辅助。Python00- PpathwayPathway is an open framework for high-throughput and low-latency real-time data processing.Python00