TUM数据集

TUM数据集TUM 数据集下载链接 https vision in tum de data datasets rgbd dataset download https vision in tum de data datasets visual inertial dataset 标定数据总共提供四种 1 calib cam1 8 相机标定

大家好,我是讯享网,很高兴认识大家。

TUM数据集下载链接
https://vision.in.tum.de/data/datasets/rgbd-dataset/download
https://vision.in.tum.de/data/datasets/visual-inertial-dataset

在这里插入图片描述
讯享网标定数据总共提供四种:
  1.calib-cam1~8:相机标定,本质矩阵以及两个相机之间的姿态变换
  2.calib-imu1~4:IMU标定,找到相机和IMU之间的最优姿态变换
  3.calib-vignette2~3:光晕标定??
  4.calib-imu-static2:IMU标定,只包含IMU数据,用于估计IMU噪声和随机游走。格式timestamp, gyro_x, gyro_y, gyro_z, accel_x, accel_y, accel_z, temperature

数据集序列总共5种:
  1.corridor1~5(走廊):在走廊和几个办公室拍摄,只在开始和结束有真实值。
  2.magistrale1~6(大厅):在校园内的一个大厅拍摄,只在开始和结束有真实值。
  3.outdoors1~8(户外):在校园内的室外场景拍摄,只在开始和结束有真实值。
  4.room1~6(室内):对应有5个图像序列,整个过程都带有运动捕捉系统提高的真实值。
  5.slides1~3(滑梯):在大厅中拍摄,包含一段光照极差的路程,只在开始和结束有真实值。

由于 TUM数据集是从实际环境中采集的,需要解释一下它的数据格式(数据集一般都有自己定义的格式)。在解压后,你将看到以下这些文件:

  1. rgb.txt 和 depth.txt 记录了各文件的采集时间和对应的文件名。
  2. rgb/ 和 depth/目录存放着采集到的 png 格式图像文件。彩色图像为八位三通道,深
    度图为 16 位单通道图像。文件名即采集时间。
  3. groundtruth.txt 为外部运动捕捉系统采集到的相机位姿,格式为
    (time, t x , t y , t z , q x , q y , q z , q w ),
    我们可以把它看成标准轨迹。

rgb和depth文件夹下存放着彩色图和深度图。在这里插入图片描述图像的文件名是以采集时间命名的。而rgb.txt和depth.txt则存储了所有图像的采集时间和文件名称,例如:
. rgb/..png
表示在机器时间.采集了一张RGB图像,存放于rgb/..png中。

这种存储方式的一个特点是,没有直接的rgb-depth一一对应关系。由于采集时间的差异,几乎没有两张图像是同一个时刻采集的。然而,我们在处理图像时,需要把一个RGB和一个depth当成一对来处理。所以,我们需要一步预处理,找到rgb和depth图像的一一对应关系。

请注意彩色图、深度图和标准轨迹的采集都是独立的,轨迹的采集频率比图像高很多。在使用数据之前,需要根据采集时间,对数据进行一次时间上的对齐,以便对彩色图和深度图进行配对。原则上,我们可以把采集时间相近于一个阈值的数据,看成是一对图像。并把相近时间的位姿,看作是该图像的真实采集位置。

python associate.py rgb.txt depth.txt 

讯享网

程序默认时间差在0.02内的就可以当成一对图像。为了保存这个结果,我们可以把它输出到一个文件中去,这样,只要有了这个associate.txt文件,我们就可以找到一对对的RGB和彩色图啦!如:

讯享网python associate.py rgb.txt depth.txt > associate.txt 

这段脚本会根据输入两个文件中的采集时间进行配对,最后输出到一个文件 associate.txt。输出文件含有被配对的两个图像的时间、文件名信息,可以作为后续处理的来源。

请注意彩色图、深度图和标准轨迹的采集都是独立的,轨迹的采集频率比图像高很多。在使用数据之前,需要根据采集时间,对数据进行一次时间上的对齐,以便对彩色图和深度图进行配对。
在这里插入图片描述关于ground truth

ground truth是TUM数据集提供的标准轨迹,它是由一个外部的(很高级的)运动捕捉装置测量的,基本上你可以把它当成一个标准答案喽!ground truth的记录格式也和前面类似,像这样:

.2496 -0.0730 -0.4169 1.5916 0.8772 -0.1170 0.0666 -0.4608

#!/usr/bin/env python # coding=utf-8 import numpy as np import matplotlib.pyplot as plt import mpl_toolkits.mplot3d f = open("./groundtruth.txt") x = [] y = [] z = [] for line in f: if line[0] == '#': continue data = line.split() x.append( float(data[1] ) ) y.append( float(data[2] ) ) z.append( float(data[3] ) ) ax = plt.subplot( 111, projection='3d') ax.plot(x,y,z) plt.show() 复制代码 

复制代码

把这部分代码复制存储成draw_groundtruth.py存放到数据目录中,再运行:

讯享网python draw_groundtruth.py 

就能看到轨迹的形状啦:
  在这里插入图片描述

第二件事,因为外部那个运动捕捉装置的记录频率比较高,得到的轨迹点也比图像密集很多,如何查找每个图像的真实位置呢?

可以用同样的方式来匹配associate.txt和groundtruth.txt中的时间信息:

python associate.py associate.txt groundtruth.txt > associate_with_groundtruth.txt 

这时,我们的新文件 associate_with_groundtruth.txt 中就含有每个帧的位姿信息了:

. rgb/..png . depth/..png . -0.8683 0.6026 1.5627 0.8219 -0.3912 0.1615 -0.3811

更多详情可参考https://www.cnblogs.com/gaoxiang12/p/5175118.html

小讯
上一篇 2025-04-06 14:39
下一篇 2025-01-15 20:09

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/120705.html