Oban v2.19.0 发布:MySQL支持与自动化安装体验升级
Oban 是一个用 Elixir 编写的强大后台任务处理库,它提供了可靠的任务队列、调度和执行功能。最新发布的 v2.19.0 版本带来了多项重要更新,包括对 MySQL 数据库的官方支持、全新的自动化安装工具以及多项日志增强功能。
MySQL 数据库支持
Oban 现在正式支持 MySQL 数据库,通过新增的 Dolphin 引擎实现。这一支持针对 MySQL 8.4 及以上版本,这些版本提供了完整的 JSON 支持。值得注意的是,Oban 已经在高性能的 PlanetScale 数据库上进行了充分测试。
要使用 MySQL 作为 Oban 的后端存储非常简单,只需在配置中指定 Dolphin 引擎:
config :my_app, Oban,
engine: Oban.Engines.Dolphin,
queues: [default: 10],
repo: MyApp.Repo
这一变化使得 Oban 能够支持更多使用 MySQL 的 Elixir 应用程序。
自动化安装工具
新版本引入了基于 Igniter 的 mix 任务来简化 Oban 的安装过程。新的 oban.install 任务会自动处理标准 Oban 安装和配置,并根据数据库适配器自动推断正确的 engine 和 notifier。
安装命令非常简单:
mix igniter.install oban
这个安装任务还能与其他 Igniter 安装器组合使用,使得一次性安装多个组件成为可能:
mix igniter.install phoenix ash_phoenix ash_postgres ash_oban
日志功能增强
在繁忙的系统中,日志可能会因为作业事件而变得嘈杂。新版本增加了 events 选项到 attach_default_logger/1,允许选择性事件日志记录,这样可以在不记录所有作业活动的情况下接收重要通知。
新增的 peer:election 事件会记录领导权变更,帮助诊断节点何时获得或失去领导权:
[
message: "peer became leader",
source: "oban",
event: "peer:election",
node: "worker.1",
leader: true,
was_leader: false
]
此外,所有核心插件现在都会通过可选回调记录 plugin:stop 事件,而无论插件是否实现回调,都会记录 plugin:exception 事件。Cron、Lifeline、Pruner、Stager 和 Reindexer 插件现在都会记录运行时信息。
官方 JSON 支持
Oban 现在默认使用 Elixir v1.18+ 内置的官方 JSON 模块(如果可用)。新增的 Oban.JSON 模块会在编译时检测官方 Elixir JSON 模块是否可用。如果不可用,则回退到 Jason,如果 Jason 也不可用(这种情况极为罕见),则会发出缺少模块的警告。
其他重要改进
-
并行队列启动:现在启动时会并行初始化所有队列,显著减少了具有多个队列的应用程序的启动时间。
-
新增删除操作:添加了
delete_job/2和delete_all_jobs/2操作,使删除作业更加简单和安全。 -
队列关闭记录:队列生产者元数据现在包含
shutdown_started_at字段,用于指示队列不仅暂停,而且正在关闭。 -
测试辅助工具:新增
build_job/3辅助函数,简化了测试过程。 -
节点操作修复:修正了
scale_queue/2调用的:node选项处理问题。 -
迁移修复:修复了具有非唯一
oid的数据库的版本查询问题。 -
修剪器改进:根据作业状态使用特定字段查询可修剪作业。
-
时间处理:在测试中保留微秒时间精度,确保
scheduled_at测试的准确性。
Oban v2.19.0 的这些改进显著提升了其在生产环境中的可靠性和易用性,特别是对 MySQL 用户和需要更精细日志控制的开发者来说,这些新功能将大大改善他们的开发体验。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00