Readyset数据库代理1.13.0版本发布:增强多用户支持与SQL兼容性
Readyset是一款创新的数据库代理解决方案,它通过智能缓存和查询加速技术,为传统关系型数据库提供性能优化能力。作为PostgreSQL和MySQL的透明代理层,Readyset能够自动识别并缓存高频查询,显著提升数据库响应速度,同时保持与上游数据库的实时同步。
多用户认证支持
在1.13.0版本中,Readyset引入了一项重要的安全增强功能——多用户认证支持。通过新增的--allowed-users启动参数,管理员现在可以配置多个用户凭证,以逗号分隔的username:password形式指定允许连接的用户列表。这一改进使得Readyset能够更好地适应企业级部署场景,满足不同角色和权限的访问控制需求。
SQL功能扩展
本版本显著增强了SQL语法的兼容性支持,主要体现在以下几个方面:
-
JSON聚合函数:新增支持
json[b]_object_agg和json_objectagg函数,这些函数在构建JSON格式的聚合结果时非常有用,特别是在现代应用开发中处理复杂数据结构时。 -
元组比较操作:现在支持使用
=和IN运算符进行元组比较,使得开发者能够编写更简洁的条件表达式。例如:SELECT * FROM t WHERE (a,b) = (1,2) SELECT * FROM t WHERE (a,b) IN ((1,2), (3,4))同时,系统会自动参数化这类查询以优化性能。
-
CASE WHEN语法:增加了对
CASE <expr> WHEN <expr> THEN <expr>语法的支持,提供了更灵活的条件表达式编写方式。 -
STRAIGHT_JOIN操作符:新增对这一MySQL特有连接操作符的支持,满足特定查询优化需求。
连接管理改进
针对MySQL连接管理进行了多项优化:
-
本地连接策略调整:MySQL上游连接不再自动尝试通过Unix套接字重新连接已建立的TCP连接。如需使用套接字连接,需在连接字符串中明确指定
socket参数。 -
连接终止优化:在关闭MySQL连接时主动发送
COM_QUIT命令,避免了连接异常终止导致的日志泛滥问题。
数据类型处理增强
-
Decimal精度处理:调整了MySQL列定义处理逻辑,使其与原生MySQL行为保持一致。这一改进特别影响如ruby-mysql2等依赖列定义进行小数舍入的驱动程序。
-
日期默认值处理:完善了对无效日期
0000-00-00 00:00:00作为列默认值的处理能力,解决了相关场景下的兼容性问题。
复制与同步优化
-
最小行镜像模式修复:解决了在启用最小行镜像(Minimal Row Image)时的复制问题。当插入操作中省略大小写敏感的文本列时,系统现在能正确处理值的类型转换与默认值设置。
-
查询优化器改进:现在能够将包含函数调用的过滤条件提取到连接键中,这一优化可以显著提升特定查询模式的性能。
部署与兼容性
Readyset 1.13.0继续提供多样化的部署选项,包括Docker容器和针对主流Linux发行版的二进制包。支持的平台包括Ubuntu 22.04、Debian 12及更高版本、Fedora 39和Amazon Linux 2023,满足不同环境下的部署需求。
这一版本的发布进一步巩固了Readyset作为数据库加速层的地位,通过增强SQL兼容性和改进连接管理,为开发者提供了更强大、更灵活的工具来优化数据库性能。特别是多用户支持和元组比较等功能的加入,使得Readyset能够更好地适应复杂的生产环境需求。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00