SLAM在无人驾驶、环境感知中的应用和发展讨论
报告人一: zhoujunqiao@tongji.edu.cn
主题:面向无人驾驶的环境感知
三个探索:
1、语言地标SLAM:主要利用地下车库的地标和二维码来增加定位的信息,帮助定位,
2、直接激光SLAM:利用2.5D的height map的思想进行定位和建图
3、多传感器融合SLAM:vins-vehicle方法,在VINS框架中加入了动力学框架
室外偏向Harris特征,室内偏向FAST特征
无人车中的SLAM问题
- 定位精度越高越好吗?
- 局部建图还是全局建图?
- SLAM能够用于其他用途吗?
- 如何适应各种环境条件和工况?(此为最重要的问题)
- 计算、存储和共享代价?
语义地标SLAM:(1) CubeSLAM (2)QuadricSLAM (3)
全天候传感器: Navitech Radar
融合检测、追踪和SLAM: 动静态地标联合关联、优化
深度学习视觉定位与运动自学习:(1)增强泛化抽象能力而非依赖图像检索(2)构建一致性约束实现自学习
报告人二:廖胜才 https://liaosc.wordpress.com/
交通场景的人车检测
1、基于锚点框的目标检测:
两阶段:
* Faster RCNN
* R-FCN
* …
单阶段:
* SSD
* FPN+Focal Loss
* …
2、无锚点框的目标检测
* YOLO v1
* DenseBox
* …
监控视频中的高校目标检测
监控视频中的场景记忆模型和运动检测
图像目标检测的发展趋势
- 越来越复杂的网络用于提升检测精度,但面向实际应用,速度的提升变得越来越重要
- 两阶段的检测器几乎已经过气,单阶段的高效检测器逐渐成为主流
- 抛弃锚点框是大势所趋
- 基于全卷积神经网络,逐渐向像素级语义理解
- 视频里的目标检测仍需加强研究
激光里用三维CNN做分割和目标提取,激光点云标注的代价很高,激光点云的目标检测和识别这一块的研究开始变多,但是难度确实很大
目前有思路是从单目来对三维物体进行检测做到三维框
通过单目,深度和运动同时估计,通过视频自学习的方法同时得到相机的位姿和轨迹