Google Cloud Go Spanner 1.78.0版本发布:搜索索引与多路复用会话支持
Google Cloud Go Spanner是Google Cloud Platform提供的Spanner数据库服务的Go语言客户端库。Spanner是一个全球分布式的关系型数据库服务,提供强一致性、高可用性和水平扩展能力。最新发布的1.78.0版本带来了几项重要更新,包括对搜索索引的支持和会话多路复用功能的增强。
搜索索引功能支持
在1.78.0版本中,Spanner客户端库新增了对tokenlist和创建搜索索引的支持。这一功能扩展了Spanner的全文搜索能力,使开发者能够更高效地实现文本搜索功能。
搜索索引是数据库系统中用于加速文本搜索查询的特殊索引类型。与传统的B-tree索引不同,搜索索引专门为文本内容优化,支持模糊匹配、词干提取等高级搜索功能。tokenlist是搜索索引中用于存储和处理文本标记的数据结构,它能够将文本分解为可搜索的标记单元。
这一功能的加入意味着开发者现在可以直接通过Go客户端库创建和管理Spanner中的搜索索引,而无需依赖外部工具或手动操作。例如,开发者可以为一个包含产品描述的列创建搜索索引,然后使用Spanner的高效全文搜索功能来查找相关产品。
读写事务中的多路复用会话支持
另一个重要改进是对读写事务中会话多路复用功能的增强。会话多路复用(也称为会话池)是Spanner客户端库的一个重要特性,它允许多个客户端请求共享同一个底层会话,从而减少连接建立的开销并提高资源利用率。
在1.78.0版本中,这一功能被扩展到了ReadWriteStmtBasedTransaction类型的读写事务中。这意味着使用语句基础的事务API的应用程序现在也能受益于会话多路复用带来的性能优势。
会话多路复用的工作原理是维护一个可重用的会话池,而不是为每个请求创建新的会话。当应用程序发起请求时,客户端库会从池中获取一个可用会话,使用完毕后将其返回到池中以供后续请求使用。这种方式特别适合高并发的应用场景,可以显著减少连接建立和认证的开销。
安全更新与问题修复
本次发布还包含了一些重要的安全更新和问题修复:
- 更新了
golang.org/x/net依赖至0.37.0版本,修复了潜在的安全漏洞。 - 回滚了ALTS绑定令牌的启用,这可能是因为在某些环境下发现了兼容性问题或性能影响。
ALTS(Application Layer Transport Security)是Google内部使用的一种安全传输协议,用于服务间的认证和加密通信。虽然ALTS提供了高级别的安全性,但在某些部署环境中可能需要更细致的配置和测试。
总结
Google Cloud Go Spanner 1.78.0版本的发布为开发者带来了更强大的文本搜索能力和更高效的会话管理功能。搜索索引的支持使得实现复杂的全文搜索场景变得更加简单,而会话多路复用的扩展则进一步提升了高并发场景下的性能表现。
对于正在使用或考虑使用Google Cloud Spanner的Go开发者来说,升级到1.78.0版本可以获得这些新功能带来的优势。特别是在需要实现产品搜索、内容检索等功能的应用程序中,新的搜索索引支持将大大简化开发工作并提高查询效率。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00