DrissionPage 4.1.0.17版本发布:元素操作与错误处理的全面升级
项目简介
DrissionPage是一个基于Python的网页自动化工具库,它结合了浏览器自动化与直接HTTP请求的能力,为开发者提供了灵活高效的网页操作解决方案。该项目特别适合需要同时处理浏览器交互和网络请求的复杂场景,如数据采集、自动化测试等。
版本亮点
1. 元素操作功能增强
本次更新在元素操作方面做了多项改进:
-
新增child_count属性:现在可以直接通过
child_count属性获取元素的子元素数量,无需再通过len()计算子元素列表。这一改进使得代码更加简洁直观。 -
特殊DOM功能增强:
SpecialDOM对象现在能够返回xpath查询的文本或数字结果,解决了之前只能返回元素对象的问题。这对于需要直接获取特殊DOM内文本内容的场景特别有用。 -
元素属性处理优化:
SessionElement的attrs属性现在会返回未处理的链接属性,确保开发者能够获取到原始数据。同时,ChromiumElement的attr()方法参数名从attr改为更语义化的name,提高了代码可读性。 -
iframe内元素坐标修正:修复了在
iframe内的元素屏幕坐标不正确的问题,这对于需要精确定位页面元素的自动化操作至关重要。
2. 设置管理改进
Settings类现在为每个属性都增加了对应的set_****()方法,使得配置管理更加规范和方便。例如,原先可能需要直接修改属性值的操作,现在可以通过专门的设置方法来完成,提高了代码的健壮性和可维护性。
suffixes_list_path配置项更名为更简洁的suffixes_list,这一变更使得配置项命名更加一致和直观。
3. 错误处理机制完善
本次更新对错误处理系统进行了多项改进:
-
新增异常类型:引入了
LocatorError和UnknownError两种新的异常类型,使得错误分类更加细致,便于开发者针对不同情况进行处理。 -
错误类型调整:将
WrongURLError更名为更准确的IncorrectURLError,同时对部分报错类型进行了优化调整,使错误提示更加精准。 -
国际化支持:增加了英文版的报错和提示信息,为国际化使用场景提供了更好的支持。
4. 问题修复
版本修复了多个影响稳定性的问题:
-
修复了隐私模式下
new_tab()方法的异常问题,确保在隐私浏览模式下也能正常创建新标签页。 -
解决了某些情况下执行JavaScript报错的问题,提高了脚本执行的稳定性。
-
修正了设置
suffixes_list时可能出现的问题,确保配置能够正确生效。 -
修复了
SessionPage访问Linux本地路径时的兼容性问题,增强了跨平台支持。
技术价值分析
本次更新从多个维度提升了DrissionPage的实用性和稳定性:
-
开发者体验优化:通过新增属性和方法,减少了开发者需要编写的样板代码,使常见操作更加简洁。错误处理的完善也让调试过程更加高效。
-
功能完整性增强:特别是对SpecialDOM和iframe等复杂场景的支持改进,使得库能够应对更广泛的网页结构。
-
国际化准备:英文错误信息的加入为项目走向国际化社区奠定了基础。
-
底层稳定性提升:多个关键问题的修复显著提高了库在复杂环境下的可靠性。
升级建议
对于正在使用DrissionPage的项目,建议尽快升级到4.1.0.17版本以获取这些改进。升级时需要注意:
-
如果代码中使用了
WrongURLError,需要改为IncorrectURLError。 -
suffixes_list_path配置项需要更名为suffixes_list。 -
使用
ChromiumElement的attr()方法时,参数名应从attr改为name。
这些变更大多可以通过简单的查找替换完成,不会对现有功能造成影响。
DrissionPage持续通过这样的迭代更新,正逐步成为一个功能全面、稳定可靠的网页自动化解决方案,值得开发者关注和使用。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00