NuScenes数据集中的未来自车轨迹可视化技术解析
2025-07-01 21:44:16作者:宣利权Counsellor
背景介绍
NuScenes数据集作为自动驾驶领域重要的开源数据集,提供了丰富的传感器数据和标注信息。在实际应用中,我们经常需要可视化自车(ego vehicle)的未来轨迹,这对于理解自动驾驶系统的行为预测和规划模块至关重要。
问题分析
在NuScenes数据集中,自车的未来轨迹信息可以通过连续采样点(sample)的ego_pose记录来获取。然而,直接将世界坐标系下的轨迹点投影到相机图像上会导致可视化结果不准确,这是因为:
- 坐标系不匹配:ego_pose记录的是车辆在世界坐标系中的位置,而相机图像是相机坐标系下的投影
- 缺少坐标转换:没有进行必要的坐标系转换就直接绘制
技术解决方案
正确的可视化流程应该包含以下步骤:
- 获取未来轨迹点:通过sample的next指针遍历未来帧,收集ego_pose信息
- 坐标系转换:将世界坐标系下的轨迹点转换到相机坐标系
- 投影到图像平面:使用相机内参将3D点投影到2D图像
实现细节
1. 坐标系转换原理
在NuScenes中,完整的坐标转换链为: 世界坐标系 → 自车坐标系 → 相机坐标系 → 图像坐标系
需要使用以下转换矩阵:
- 世界到自车的变换矩阵:从ego_pose获取
- 自车到相机的变换矩阵:从calibrated_sensor记录获取
2. 具体实现代码
import numpy as np
from nuscenes.utils.geometry_utils import view_points
# 获取相机内参和变换矩阵
cam_data = nusc.get('sample_data', sd_rec['data']['CAM_FRONT'])
calibrated_sensor = nusc.get('calibrated_sensor', cam_data['calibrated_sensor_token'])
K = np.array(calibrated_sensor['camera_intrinsic'])
# 转换轨迹点到相机坐标系
points = np.array(sdc_fut_traj).T # 2xN
points = np.vstack((points, np.zeros(points.shape[1]))) # 3xN (z=0)
points = np.vstack((points, np.ones(points.shape[1]))) # 齐次坐标
# 世界到自车的变换
ego_pose = nusc.get('ego_pose', cam_data['ego_pose_token'])
global_from_car = transform_matrix(ego_pose['translation'],
Quaternion(ego_pose['rotation']))
# 自车到相机的变换
car_from_sensor = transform_matrix(calibrated_sensor['translation'],
Quaternion(calibrated_sensor['rotation']))
# 组合变换
trans_matrix = np.dot(np.linalg.inv(car_from_sensor),
np.linalg.inv(global_from_car))
# 应用变换
transformed_points = np.dot(trans_matrix, points)
# 投影到图像
image_points = view_points(transformed_points[:3], K, normalize=True)
3. 可视化优化
对于更好的可视化效果,可以:
- 使用不同颜色表示时间序列
- 添加轨迹点之间的连线
- 调整点的大小表示时间远近
plt.figure(figsize=(12, 6))
plt.imshow(img)
colors = plt.cm.jet(np.linspace(0, 1, len(image_points[0])))
for i in range(len(image_points[0])-1):
plt.plot(image_points[0, i:i+2], image_points[1, i:i+2],
color=colors[i], linewidth=2)
plt.scatter(image_points[0, i], image_points[1, i],
color=colors[i], s=50*(i+1))
plt.axis('off')
plt.tight_layout()
应用场景
这种可视化技术在以下场景中特别有用:
- 自动驾驶系统调试:验证预测模块的输出
- 数据集分析:理解自车运动模式
- 算法评估:直观比较不同算法的预测结果
总结
在NuScenes数据集中正确可视化自车未来轨迹需要注意坐标系转换问题。通过将世界坐标系下的轨迹点转换到相机坐标系并正确投影,可以获得准确的图像可视化效果。这一技术在自动驾驶研发的多个环节都具有重要价值。
登录后查看全文
热门项目推荐
相关项目推荐
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00- QQwen3-Coder-Next2026年2月4日,正式发布的Qwen3-Coder-Next,一款专为编码智能体和本地开发场景设计的开源语言模型。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin08
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00
热门内容推荐
最新内容推荐
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
531
3.74 K
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
336
178
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
886
596
Ascend Extension for PyTorch
Python
340
403
暂无简介
Dart
772
191
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
1
openJiuwen agent-studio提供零码、低码可视化开发和工作流编排,模型、知识库、插件等各资源管理能力
TSX
986
247
本仓将收集和展示高质量的仓颉示例代码,欢迎大家投稿,让全世界看到您的妙趣设计,也让更多人通过您的编码理解和喜爱仓颉语言。
Cangjie
416
4.21 K
React Native鸿蒙化仓库
JavaScript
303
355