CakePHP 4.6.0-RC1发布:Redis TLS支持与命令参数增强
项目简介
CakePHP是一个广受欢迎的PHP开源Web应用框架,以其简洁优雅的代码结构和"约定优于配置"的开发理念著称。它提供了完善的MVC架构、数据库抽象层、表单验证、安全防护等Web开发常用功能,帮助开发者快速构建稳健的Web应用。
4.6.0版本亮点
CakePHP核心团队近日发布了4.6.0的第一个候选版本(4.6.0-RC1)。虽然团队的主要精力已转向5.x系列,但4.6版本仍然从5.1和即将发布的5.2版本中反向移植了一些实用功能。这个版本虽然规模不大,但包含了几项值得关注的改进。
Redis引擎的TLS支持
在4.6.0版本中,RedisEngine新增了tls选项,允许开发者通过TLS加密连接与Redis服务器通信。这一改进显著提升了在非信任网络环境中使用Redis时的数据安全性。
对于需要安全连接的场景,现在可以这样配置Redis缓存:
'Cache' => [
'redis' => [
'className' => 'Redis',
'host' => 'secure.redis.example.com',
'port' => 6379,
'tls' => true, // 启用TLS加密
// 其他配置项...
]
]
命令参数默认值支持
命令行工具方面,4.6.0为可选命令参数增加了default值支持。这使得命令行工具的开发更加灵活,可以更好地处理用户未提供参数的情况。
例如,现在可以这样定义一个带有默认值的可选参数:
protected function buildOptionParser(ConsoleOptionParser $parser)
{
$parser->addArgument('filename', [
'help' => '要处理的文件',
'required' => false,
'default' => 'default.txt'
]);
return $parser;
}
数字格式化增强
在数字处理方面,Number::formatter()和currency()方法现在支持roundingMode选项,允许开发者更精确地控制舍入行为。这在金融计算等对精度要求较高的场景中特别有用。
新的舍入模式选项支持多种舍入方式,包括:
- 向上舍入(ROUND_UP)
- 向下舍入(ROUND_DOWN)
- 银行家舍入法(ROUND_HALF_EVEN)等
使用示例:
use Cake\I18n\Number;
// 使用银行家舍入法格式化货币
echo Number::currency(123.456, 'USD', [
'roundingMode' => Number::ROUND_HALF_EVEN
]);
升级建议
对于计划升级到4.6.0的用户,建议:
- 仔细阅读官方提供的迁移指南,了解所有变更点
- 在测试环境中先行验证应用兼容性
- 特别关注Redis连接配置的变更(如果需要使用TLS)
- 检查自定义命令行工具的参数处理逻辑
社区贡献
4.6.0版本的开发得到了社区成员的积极参与,包括错误报告、功能建议和代码贡献。这种开源协作模式正是CakePHP能够持续发展的重要动力。团队也鼓励更多开发者参与文档完善、功能测试和新特性开发等工作。
随着4.6.0正式版的临近,CakePHP继续为PHP开发者提供稳定、安全且功能丰富的框架选择,同时为向5.x系列的过渡做好准备。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00