MixedReality-SpectatorView 项目使用指南
1. 项目介绍
MixedReality-SpectatorView 是一个增强现实(AR)产品,旨在通过辅助设备(如手机、平板电脑等)观看 HoloLens 体验。该项目支持多种配置,适用于从快速原型制作到生产关键演示的多种场景。Spectator View 允许用户在不同的设备上同步和查看相同的 AR 内容,从而扩展了 HoloLens 的使用范围。
2. 项目快速启动
2.1 环境准备
在开始之前,请确保您的开发环境满足以下要求:
- Windows PC
- Visual Studio 2019
- Universal Windows Platform 开发工具
- Desktop 开发 with C++ 工具
- Windows 10 SDK (10.0.18362.0)
- Git
- NuGet
2.2 获取代码
首先,克隆 MixedReality-SpectatorView 仓库到本地:
git clone https://github.com/microsoft/MixedReality-SpectatorView.git
2.3 设置项目
进入项目目录并运行设置脚本:
cd MixedReality-SpectatorView
tools\Scripts\SetupRepository.bat
2.4 构建 Unity 包
在管理员权限的命令窗口中运行以下脚本以构建 Unity 包:
tools\scripts\CreateUnityPackage.bat
2.5 添加到 Unity 项目
将生成的 com.microsoft.mixedreality.spectatorview.* 文件夹复制到您的 Unity 项目中,并在 Package/manifest.json 文件中添加引用:
{
"dependencies": {
"com.microsoft.mixedreality.spectatorview": "path/to/com.microsoft.mixedreality.spectatorview"
}
}
2.6 配置 Unity 场景
在 Unity 中,将 MixedReality-SpectatorView/SpectatorView/Prefabs/SpectatorView.prefab 添加到主场景中。选择合适的 Spatial Alignment 策略,并根据需要更新 Unity 项目和播放器设置。
2.7 构建和部署
构建并部署主场景到 HoloLens 设备,然后构建并部署相应的 Spectator View 场景到辅助设备(如 Android 或 iOS 设备)。
3. 应用案例和最佳实践
3.1 快速原型制作
Spectator View 非常适合用于快速原型制作,开发者可以在短时间内创建并展示 AR 体验,同时通过辅助设备让更多人参与观看。
3.2 关键演示
在大型演示或会议中,Spectator View 可以确保所有观众都能看到 HoloLens 上的 AR 内容,从而提升演示效果。
3.3 团队协作
在开发过程中,团队成员可以通过 Spectator View 在不同设备上同步查看 AR 内容,有助于快速迭代和反馈。
4. 典型生态项目
4.1 Mixed Reality Toolkit (MRTK)
MRTK 是一个强大的工具包,为 HoloLens 和 Windows Mixed Reality 设备提供了一系列的组件和功能,Spectator View 可以与 MRTK 无缝集成,提供更丰富的 AR 体验。
4.2 Azure Spatial Anchors
Azure Spatial Anchors 是一个云服务,允许开发者创建持久化的 AR 体验,Spectator View 可以与 Azure Spatial Anchors 结合使用,实现跨设备的 AR 内容同步。
4.3 ARCore 和 ARKit
Spectator View 支持与 ARCore 和 ARKit 集成,使得开发者可以在 Android 和 iOS 设备上观看 HoloLens 的 AR 体验,扩展了应用的覆盖范围。
通过以上步骤,您可以快速上手 MixedReality-SpectatorView 项目,并将其应用于各种 AR 开发场景中。
ERNIE-4.5-VL-28B-A3B-ThinkingERNIE-4.5-VL-28B-A3B-Thinking 是 ERNIE-4.5-VL-28B-A3B 架构的重大升级,通过中期大规模视觉-语言推理数据训练,显著提升了模型的表征能力和模态对齐,实现了多模态推理能力的突破性飞跃Python00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
MiniMax-M2MiniMax-M2是MiniMaxAI开源的高效MoE模型,2300亿总参数中仅激活100亿,却在编码和智能体任务上表现卓越。它支持多文件编辑、终端操作和复杂工具链调用Python00
HunyuanVideo-1.5暂无简介00
MiniCPM-V-4_5MiniCPM-V 4.5 是 MiniCPM-V 系列中最新且功能最强的模型。该模型基于 Qwen3-8B 和 SigLIP2-400M 构建,总参数量为 80 亿。与之前的 MiniCPM-V 和 MiniCPM-o 模型相比,它在性能上有显著提升,并引入了新的实用功能Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00
GOT-OCR-2.0-hf阶跃星辰StepFun推出的GOT-OCR-2.0-hf是一款强大的多语言OCR开源模型,支持从普通文档到复杂场景的文字识别。它能精准处理表格、图表、数学公式、几何图形甚至乐谱等特殊内容,输出结果可通过第三方工具渲染成多种格式。模型支持1024×1024高分辨率输入,具备多页批量处理、动态分块识别和交互式区域选择等创新功能,用户可通过坐标或颜色指定识别区域。基于Apache 2.0协议开源,提供Hugging Face演示和完整代码,适用于学术研究到工业应用的广泛场景,为OCR领域带来突破性解决方案。00