Prebid.js 9.47.0版本发布:广告竞价生态的重要更新
Prebid.js项目简介
Prebid.js是一个开源的头部竞价解决方案,广泛应用于数字广告领域。它允许发布商在广告服务器调用之前,同时向多个需求方平台(DSP)发起竞价请求,从而最大化广告收益。作为行业标准工具,Prebid.js通过模块化架构支持各种广告格式和交易模式,包括显示广告、视频广告和原生广告等。
9.47.0版本核心更新内容
新增适配器支持
本次版本引入了全新的Nativery Bid Adapter,为开发者提供了对接Nativery广告平台的能力。这个新增的适配器扩展了Prebid.js的生态系统,使发布商能够接入更多样化的广告需求来源。
核心功能优化
在用户身份识别方面,本次更新进行了重要调整:将用户eids(外部身份标识)从user.eids迁移至user.ext.eids位置。这一变更遵循了OpenRTB协议的最新规范,确保了与其他广告技术组件的更好兼容性。同时,UID1 Eids模块现在支持inserter和matcher功能,为用户身份匹配提供了更灵活的配置选项。
性能与稳定性提升
针对PBS(Prebid Server)适配器,修复了tmax参数必须为整数的关键问题,避免了因参数类型错误导致的竞价异常。Conversant适配器移除了对废弃的bidRequest.userid属性的依赖,使代码更加健壮。Kargo适配器则解决了Safari 15.6浏览器中存储模拟导致的错误问题。
测试与构建流程改进
开发团队对测试框架进行了多项优化:
- 删除了过时的Nightwatch测试工具
- 更新了端到端测试的日志配色方案
- 修复了Bliink适配器的间歇性测试失败问题
- 解决了Aduntius适配器在Safari 15.6上的测试失败问题
构建系统方面也进行了现代化改造:
- 移除了gulp-sourcemaps等过时依赖
- 用plugin-error和fancy-log替代了废弃的gutil
- 优化了覆盖率计算流程,现在只需单次执行即可完成
- 升级了Babel运行时插件并将其移至devDependencies
代码质量提升
本次发布清理了多个模块中不必要的polyfill导入,包括:
- 移除了find、findIndex和includes等现代JavaScript已原生支持方法的polyfill
- 删除了es5-shim等不再需要的兼容层
- Xe工具库移除了findIndex polyfill
- Advangelist工具库移除了includes polyfill
这些清理工作减小了最终打包体积,提升了运行时性能。
其他重要改进
- 捷克广告ID模块增加了ID格式验证,确保数据质量
- Cwire适配器现在会在竞价负载中包含网络带宽信息
- Mediasquare适配器支持ORTB协议和userIdAsEids
- Pubmatic适配器增加了前次竞价信息支持
- Blue BMS适配器将共享代码提取到工具类中,提高了代码复用性
- Adverxo适配器现在允许adUnitId为字符串类型,提高了灵活性
技术影响分析
9.47.0版本虽然是一个常规更新,但在几个关键方面为Prebid.js生态系统带来了实质性改进:
-
协议兼容性增强:通过将eids移至标准位置和遵循最新OpenRTB规范,确保了与其他广告技术栈的无缝集成。
-
性能优化:polyfill的移除和构建流程的现代化,将显著减小打包体积并提升运行时效率,特别有利于移动端用户。
-
测试可靠性提升:针对不同浏览器环境的测试修复,特别是Safari兼容性问题,将提高整体解决方案的稳定性。
-
开发者体验改善:构建工具的更新和共享代码的提取,使自定义开发和适配器开发更加高效。
这些改进共同推动了Prebid.js作为开源头部竞价解决方案的成熟度和可靠性,为数字广告生态的健康发展提供了坚实的技术基础。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00