1. Tum数据集这个大家用的人都知道,RGB-D数据集,有很多个sequence,自带Ground-truth轨迹与测量误差的脚本(python写的,还有一些有用的函数)。有一些很简单(xyz, 360系列),但也有的很难(各个slam场景)。由于它的目标场景是机器人救援(虽然看不太出来),场景都比较空旷,许多时候kinect的深度只够看一个地板。对视觉算法可靠性的要求还是蛮高的。网址: http://vision.in.tum.de/data/datasets/rgbd-dataset2. MRPT坛友SLAM_xian已经给出了地址:见此贴含有多种传感器数据,包括双目,laser等等。MRPT本身是个机器人用的开发包(然而我还是没用过),有兴趣的同学可以尝试。3. Kitti坛友zhengshunkai给出了地址:见此贴著名的室外数据集,双目,有真值。场景很大,数据量也很大(所以在我这种流量限制的地方用不起……)。如果你做室外的请务必尝试一下此数据集。就算你不用审稿人也会让你用的。4. Oxford数据集含有一些Fabmap相关的数据集,用来验证闭环检测的算法。室外场景。它提供了ground-truth闭环(据说是手工标的,真是有耐心啊)。网址:http://www.robots.ox.ac.uk/~mobile/wikisite/pmwiki/pmwiki.php?n=Main.Datasets#userconsent#5. ICL-NUIM数据集(又)是帝国理工弄出来的,RGB-D数据集,室内向。提供ground-truth和odometry。网址:http://www.doc.ic.ac.uk/%7Eahanda/VaFRIC/iclnuim.html6. NYUV2 数据集一个带有语义标签的RGB-D数据集,原本是用来做识别的,也可以用来做SLAM。特点是有一个训练集(1400+手工标记的图像,好像是雇人弄的),以前一大堆video sequence。网址:http://cs.nyu.edu/silberman/datasets/nyu_depth_v2.html (似乎访问有问题,不知道会不会修复)7. KOS的3d scan数据集一个激光扫描的数据集。网址:http://kos.informatik.uni-osnabrueck.de/3Dscans/由于个人精力(和流量)有限,不可能挨个去测一遍。请使用过的同学们说说用后感想,没列到的也欢迎补充。
新闻热点
疑难解答