Eclipse Che 7.100.0 版本发布:增强Azure DevOps支持与开发者体验优化
项目简介
Eclipse Che 是一个开源的云原生集成开发环境(IDE)和开发者工作空间平台。它采用容器化技术,为开发者提供即用型、可定制的工作空间,支持多种编程语言和框架。Eclipse Che 的核心优势在于其能够为团队提供一致的开发环境,消除"在我机器上能运行"的问题。
主要更新内容
Azure DevOps Server (TFS) 支持
本次7.100.0版本新增了对Microsoft Azure DevOps Server (TFS)的支持,这是一个重要的企业级功能扩展。开发团队现在可以通过配置个人访问令牌(PAT)来访问本地部署的Azure DevOps Server实例。
这一功能的实现考虑了企业环境中的安全需求,特别值得注意的是当前版本仅支持PAT方式,而不支持OAuth 2.0认证。这种设计选择是基于Azure DevOps Server当前的技术限制,为需要严格安全控制的企业环境提供了可行的集成方案。
TLS证书导入流程简化
安全性是云IDE平台的重要考量。新版本显著简化了不受信任TLS证书的导入流程。这一改进降低了企业用户在内部网络环境中使用Eclipse Che的门槛,特别是那些使用自签名证书的基础设施。
开发者体验优化
Python调试器扩展稳定性提升
修复了在使用开源版VS Code编辑器时,Python扩展(ms-python.python)在浏览器刷新后无法激活的问题。这一修复直接提升了Python开发者的工作效率,避免了因IDE刷新导致开发中断的情况。
工作空间启动性能优化
针对某些Kubernetes集群环境下,用户仪表板访问可能因超时而失败的问题,新版本将默认超时时间从15秒延长至30秒。同时引入了CHE_DASHBOARD_AXIOS_REQUEST_TIMEOUT环境变量,允许管理员根据实际集群性能进行更灵活的配置。
Git配置管理改进
优化了Git用户名和邮箱的获取逻辑。现在系统会优先检查工作空间用户数据中的现有配置,仅在必要时才向Git提供商请求信息。这一改变减少了不必要的网络请求,提升了系统响应速度。
技术细节修复
-
解决了父级devfile引用导致工作空间启动失败的问题,错误信息"无法添加属性attributes,对象不可扩展"已修复。
-
修正了Gitea仓库使用SSH URL启动工作空间时出现的"无法读取未定义的属性schemaVersion"警告中断问题。
-
改进了原始devfile在用户仪表板中的显示准确性,确保开发者能够查看未经修改的原始配置。
-
修复了Gitconfig页面在未配置PAT或OAuth时无法显示用户信息的界面问题。
总结
Eclipse Che 7.100.0版本在三个方面做出了显著改进:扩展了对企业级Git服务(Azure DevOps Server)的支持,优化了安全证书管理流程,并修复了多个影响开发者体验的关键问题。这些改进使得平台在企业环境中的适用性更强,同时为日常开发工作提供了更稳定、高效的环境。特别是对Python开发者和使用内部Git服务的团队来说,这个版本带来了实质性的体验提升。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00