Admin.Core v9.0.4版本发布:权限库与图片裁剪功能全面升级
项目介绍
Admin.Core是一个基于.NET平台开发的后台管理系统框架,提供了完整的权限管理、系统配置、模块化开发等核心功能。该框架采用前后端分离架构,后端基于.NET Core,前端采用Vue.js等技术栈,旨在为开发者提供一套开箱即用的企业级后台管理系统解决方案。
核心功能更新
权限库中间表联合主键支持
本次版本在权限库功能中新增了对中间表设置联合主键的支持。在数据库设计中,中间表常用于处理多对多关系,而联合主键可以确保数据的唯一性和完整性。这一改进使得权限系统的数据关系更加严谨,特别是在处理角色与权限、用户与角色等复杂关联时,能够提供更可靠的数据约束。
开发者现在可以通过简单的配置,为中间表指定多个字段作为联合主键,而无需额外编写复杂的验证逻辑。这一特性特别适合需要精细控制权限分配的场景,如某些特定条件下需要组合多个字段来唯一标识一条权限记录的情况。
图片裁剪组件升级至Cropper 2.0
Admin.Core v9.0.4将图片裁剪功能升级到了Cropper 2.0版本。Cropper是一个功能强大的图片裁剪库,新版本带来了以下改进:
- 更流畅的用户交互体验
- 更精确的裁剪控制
- 支持更多图片格式和操作
- 改进的响应式设计,适配不同设备
在实际应用中,这一升级特别适合用户头像上传、商品图片编辑等需要精确控制图片显示区域的场景。开发者可以轻松集成这一功能,为用户提供专业级的图片处理体验。
架构优化
基础实体类型扩展
本次更新引入了两种新的基础实体类型:
- EntityUpdateNoId:用于实体修改操作,不包含主键Id
- EntityAddNoId:用于实体创建操作,不包含主键Id
这些基础类型为系统提供了更清晰的业务语义划分,使得代码更加规范化和可维护。特别是在某些不需要暴露主键Id的业务场景下,这些类型能够提供更好的安全性和数据封装。
网关与RPC配置优化
在网关项目模板中,新增了访问上传文件代理配置,解决了之前版本中Yarp网关/upload路径未配置代理转发导致文件访问失败的问题。这一改进确保了文件上传功能的稳定性和可靠性。
对于RPC配置,app项目模板新增了appsettings.RpcConfig.Grpc.ServerAssemblyNames配置项,用于指定应用接口层的程序集名称。同时,将IM配置文件的端口从6010更改为17010,避免了可能的端口冲突问题。
问题修复与稳定性提升
本次版本修复了多个关键问题,包括:
- 修复了app项目模板发布后Grpc服务方法未自动生成的问题
- 解决了中间表多对多查询异常的问题
- 修正了前端websocket发布事件未发送数据的问题
这些问题修复显著提升了系统的稳定性和可靠性,特别是在分布式部署和实时通信场景下的表现。
依赖项升级
Admin.Core v9.0.4对多个依赖项进行了升级:
- 更新了所有npm包到最新版本
- 将admin模块的NuGet包升级至最新版本
- 更新了测试库的NuGet包
- 确保app项目模板完全兼容Admin.Core最新版本
这些升级不仅带来了性能改进和安全修复,还确保了项目能够利用各依赖项的最新特性和优化。
总结
Admin.Core v9.0.4版本在权限管理、图片处理、系统架构等多个方面进行了重要改进。新增的联合主键支持和图片裁剪升级为开发者提供了更强大的功能工具,而基础实体类型的扩展和配置优化则进一步提升了系统的可维护性和扩展性。多项关键问题的修复使得整个框架更加稳定可靠,适合用于生产环境的企业级应用开发。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00