Unstructured项目0.17.2版本发布:HTML解析与OCR处理能力升级
Unstructured是一个专注于非结构化数据处理的开源项目,它能够从各种文档格式中提取和结构化文本内容。该项目特别擅长处理HTML、PDF等复杂文档格式,并通过OCR技术识别图像中的文字。最新发布的0.17.2版本带来了一系列重要的功能增强和性能优化。
HTML解析能力增强
新版本在HTML解析方面有两个显著改进:
-
图像URL提取功能:现在,当解析HTML文档时,对于包含在
<img>标签中的非数据内容图像,解析器会自动提取并存储图像的URL地址。这个URL来自于src属性,并保存在新添加的image_url元数据字段中。这一改进使得用户可以更方便地追踪和获取文档中的原始图像资源。 -
图像元素分类优化:修复了一个关于
<div>标签内图像处理的问题。在之前的版本中,位于<div>或<span>标签内且没有伴随文本的图像可能会被错误地分类为"UncategorizedText"类型,且缺少.text属性。新版本确保了这类图像会被正确地识别和分类为图像元素。
hOCR数据处理性能提升
hOCR是一种用于表示OCR识别结果的HTML格式。在0.17.2版本中,项目团队对hOCR数据的解析进行了重大优化:
- 将解析引擎从BeautifulSoup(bs4)切换到了lxml。由于hOCR数据格式具有高度规律性(由程序生成保证),lxml在处理这种结构化数据时展现出更优异的性能表现。这一变更显著提高了处理hOCR数据的速度,特别是在处理大量OCR结果时,性能提升更为明显。
依赖项升级与兼容性改进
新版本对几个关键依赖项进行了升级:
-
NumPy升级:将NumPy的版本要求提升至2.x以上。NumPy作为Python科学计算的基础库,这次升级确保了项目能够利用NumPy最新版本带来的性能改进和新特性。
-
相关依赖同步升级:为了保持与NumPy 2.x的兼容性,同时升级了几个相关依赖包,包括
paddlepaddle(百度开源的深度学习平台)、unstructured-paddleocr(基于PaddleOCR的文本识别组件)和onnx(开放神经网络交换格式)。这些升级确保了整个技术栈的兼容性和稳定性。
技术意义与应用价值
这些改进从多个维度提升了Unstructured项目的实用价值:
-
数据完整性:图像URL的提取使得文档处理流程能够保留更多原始信息,方便后续的图像检索或验证。
-
处理效率:lxml替代bs4的变更直接提升了OCR结果的处理速度,对于需要处理大量扫描文档的用户尤其有益。
-
技术前瞻性:依赖项的升级确保了项目能够利用最新的库版本优势,同时为未来功能开发奠定了更稳固的基础。
对于需要从复杂文档中提取结构化信息的数据工程师和开发者来说,0.17.2版本提供了更强大、更高效的工具集,特别是在处理包含混合内容(文本+图像)的HTML文档时,新版本的表现更加出色和可靠。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00