VSTest 17.14预览版发布:全面拥抱.NET 8/9时代
VSTest项目简介
VSTest是微软提供的开源测试框架,全称为Visual Studio Test Platform。作为.NET生态中最重要的测试工具链之一,它为开发者提供了强大的单元测试和集成测试能力,支持多种测试框架如MSTest、xUnit和NUnit。VSTest不仅集成在Visual Studio IDE中,也可以通过命令行工具独立运行,是现代.NET开发中不可或缺的质量保障工具。
重大更新:.NET版本支持升级
本次发布的17.14预览版带来了一个标志性的变化——VSTest正式将基础框架升级到.NET 8和.NET 9。这意味着:
-
生命周期管理:项目移除了对已结束支持的.NET 6.0等旧版本的支持,开发者需要将测试项目升级到.NET 8或更新版本才能使用最新功能。
-
兼容性说明:
- 现有.NET 6.0测试项目可以继续使用17.13.0或更早版本的Microsoft.NET.Test.SDK
- 升级到最新Visual Studio后,仍然可以运行.NET 6.0测试项目
- .NET Framework项目不受影响,继续支持.NET Framework 4.6.2
-
技术前瞻性:这一变化体现了微软对技术栈生命周期的严格管理,鼓励开发者及时跟进最新的.NET版本,以获得更好的性能和安全保障。
平台支持增强
UWP和WinUI测试改进
针对Windows平台的特殊测试场景,新版本做出了重要优化:
-
进程查询标志:新增了对UWP .NET 9项目的支持,解决了在这些平台上运行测试时可能遇到的进程管理问题。
-
构建修复:专门解决了WinUI和UWP .NET 9项目在构建过程中的兼容性问题,使这些现代Windows应用框架的测试更加顺畅。
稳定性与诊断能力提升
-
通信错误处理优化:改进了测试发现过程中断时的错误报告机制,避免在不必要的情况下报告通信错误,减少了误报情况。
-
诊断工具增强:
- 在VSIX扩展中集成了dump minitool,为测试异常分析提供了更强大的工具支持
- 采用SHA2算法进行互斥锁的哈希计算,提高了并发控制的安全性
内部架构现代化
-
构建系统升级:
- 迁移到macOS 14构建环境
- 移除了过时的xcopy-msbuild方式
- 更新了内部依赖的IO.Redist组件
-
依赖管理优化:
- 统一使用Visual Studio发布版本的依赖项版本
- 将DependencyModel更新至6.0.2版本
- 特别处理了Testhost的打包逻辑,确保仅在Windows平台进行
开发者体验改进
-
文档完善:更新了诊断指南和测试过滤器文档,特别是增加了对NUnit框架过滤器的说明。
-
测试结果增强:实验性地将测试属性(Props)写入TRX报告文件,为测试结果分析提供更多上下文信息(注:此功能可能在正式版前调整)。
技术前瞻
从这次更新可以看出VSTest团队正在积极准备对.NET 9的全面支持,同时也在不断优化跨平台测试体验。特别是对Windows现代应用框架(UWP/WinUI)的持续投入,反映了微软对这些技术栈的长期承诺。
对于企业级开发者而言,建议开始规划测试项目向.NET 8的迁移,以充分利用最新的测试平台功能和性能改进。同时,关注测试诊断工具的增强,可以在复杂场景下更高效地定位问题。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00