【亲测免费】 OmniSharp for Visual Studio Code: 开源项目安装与使用指南
2026-01-17 09:23:09作者:牧宁李
项目目录结构及介绍
├── github/workflows # GitHub Actions 工作流相关文件
├── travis # Travis CI 相关配置,用于持续集成
├── vscode # VSCode 插件配置文件
│ ├── ...
├── RuntimeLicenses # 运行时许可文件夹
├── omnisharp # OmniSharp 核心组件及相关脚本
├── scripts # 启动或维护脚本
├── snippets # 代码片段
├── src # 源代码目录
├── tasks # 构建或任务相关的文件
├── test # 测试代码
├── themes # 编辑器主题相关
├── typings # 类型定义文件
├── .editorconfig # 编辑器配置文件
├── .gitignore # Git 忽略文件列表
├── travis.yml # Travis CI 的配置文件
├── CHANGELOG.md # 更新日志
├── ISSUE_TEMPLATE.md # 创建 issue 的模板
├── LICENSE.txt # 许可证文件
├── README.md # 项目的主要说明文档
├── ThirdPartyNotices.txt # 第三方通知文件
├── codecov.yml # Codecov 覆盖率报告配置
├── debugger-launchjson.md # 调试器配置文档
介绍:此项目是官方为Visual Studio Code提供的C#支持插件,核心围绕OmniSharp服务。主要文件包括VSCode插件配置、源码、自动化测试与构建脚本、以及一系列开发和维护所需的工具和资源。.gitignore和.editorconfig等文件负责版本控制与编辑器一致性设置。
项目启动文件介绍
虽然直接操作该仓库的“启动”涉及Node.js和VSCode插件开发环境,但从使用者角度,重要的是理解如何在VSCode中启动OmniSharp服务。这通常通过安装ms-vscode.csharp扩展自动完成,插件本身包含必要的启动逻辑。一旦安装并激活VSCode中的扩展,OmniSharp服务将在背景自动启动,提供诸如智能感知、代码补全和诊断等功能。
项目配置文件介绍
settings.json (用户或工作区级)
尽管这个文件不在OmniSharp项目内直接提供,但它对于用户配置OmniSharp行为至关重要。用户可在VSCode的工作区或全局settings.json中添加配置项,比如调整OmniSharp服务器的端口、自定义Roslyn分析器路径或者改变项目加载超时时间等:
{
"omnisharp.useGlobalMono": "never",
"omnisharp.path": "latest",
"omnisharp.serverType": "Regular",
"omnisharp.workingDirectory": "${workspaceFolder}"
}
.omnisharp/launch.json (自动生成)
当OmniSharp服务被VSCode调用时,它可能会生成特定于解决方案的配置文件来指导调试行为,但这不直接存在于OmniSharp项目仓库中。
其他配置
.editorconfig: 控制编码风格,影响整个项目或跨项目的编辑器行为。.gitignore: 确保不必要的文件不会被纳入Git版本控制。
总结,OmniSharp的核心在于其VSCode插件交互,通过用户配置和插件内部机制实现高效C#开发体验,而上述文件则是支撑这一流程的基础。正确配置这些元素能够极大提升开发效率和体验。
登录后查看全文
热门项目推荐
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust098- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
项目优选
收起
deepin linux kernel
C
28
16
Claude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed.
Get Started
Rust
568
98
暂无描述
Dockerfile
709
4.51 K
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
958
955
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.61 K
942
Ascend Extension for PyTorch
Python
572
694
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
413
339
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
1.42 K
116
暂无简介
Dart
951
235
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
2