Visual Studio Code 1.98版本发布:AI编程助手全面升级
Visual Studio Code(简称VS Code)是微软开发的一款轻量级但功能强大的源代码编辑器,支持多种编程语言,拥有丰富的扩展生态系统。作为目前最受欢迎的开发者工具之一,VS Code持续迭代更新,为开发者提供更高效的编码体验。
2025年2月发布的1.98版本带来了多项重要更新,特别是在AI编程辅助方面有显著增强。本文将详细介绍这些新特性及其技术实现。
AI编程助手Copilot功能强化
下一编辑建议(预览)
VS Code 1.98引入了"下一编辑建议"功能,Copilot能够预测开发者接下来可能进行的代码修改。这项功能基于深度学习模型分析当前代码上下文和开发者历史编辑模式,智能推荐后续可能的编辑操作。在技术实现上,它结合了代码补全和代码重构的能力,为开发者提供更流畅的编码体验。
代理模式(实验性)
代理模式是Copilot的重大升级,允许AI助手自主完成开发任务。开发者只需描述需求,Copilot就能分析代码库、理解上下文并执行相应修改。这一功能采用了更先进的LLM(大语言模型)技术,具备更强的代码理解和生成能力,能够处理更复杂的编程任务。
笔记本编辑支持(预览)
针对Jupyter Notebook等交互式编程环境,Copilot现在提供了专门的编辑支持。开发者可以快速迭代笔记本中的代码单元格,Copilot能够理解单元格间的依赖关系,提供更准确的修改建议。这对于数据科学和机器学习工作流特别有价值。
代码搜索增强
Copilot Chat现在集成了更强大的代码库搜索能力。当开发者在聊天中输入查询时,Copilot会自动查找相关代码文件作为参考。这项功能采用了语义搜索技术,不仅能匹配关键词,还能理解代码的语义和上下文关系。
终端与编辑器功能改进
终端智能感知(预览)
VS Code终端现在支持丰富的智能补全功能。基于对命令历史、当前工作目录和系统环境的分析,终端能够提供上下文相关的命令、参数和文件路径补全。这一功能显著提升了命令行操作的效率。
引用拖放支持
在代码导航方面,1.98版本增加了引用拖放功能。开发者现在可以直接将Peek视图中的引用拖到编辑器区域,快速在新标签页中打开相关代码。这一改进优化了代码浏览的工作流。
Linux自定义标题栏
Linux平台现在默认启用了自定义标题栏支持。这一变化使VS Code在Linux上的外观和行为与其他平台更加一致,提供了更统一的用户体验。技术实现上,它采用了Electron框架的定制能力,同时保持了良好的性能。
开发工作流优化
未解决诊断提示(实验性)
新版本引入了提交时的诊断检查功能。当代码中存在未解决的错误或警告时,系统会在提交前提示开发者。这一功能有助于提高代码质量,减少低级错误进入版本库的情况。
源代码管理改进
在源代码控制方面,1.98版本改进了对未跟踪文件的处理。现在,当开发者选择丢弃未跟踪的更改时,文件会被移动到回收站而非直接删除。这一安全机制防止了意外数据丢失。
自定义指令正式发布
Copilot的自定义指令功能现已正式发布。开发者可以设置个性化的指令模板,让Copilot更好地适应自己的工作风格和项目需求。这一功能基于对开发者偏好的长期学习和适应,提供了更精准的AI辅助。
总结
VS Code 1.98版本通过深度整合AI技术,显著提升了开发效率。从智能代码建议到自主任务完成,从终端增强到工作流优化,这些更新共同构建了更智能、更高效的开发环境。特别是Copilot系列功能的强化,标志着编程辅助工具正从简单的代码补全向更全面的AI协作方向发展。对于开发者而言,掌握这些新特性将有助于大幅提升日常编码的生产力。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00