培训对象: 自动驾驶感知算法工程师、计算机视觉研发人员、深度学习算法工程师、AI应用开发者。
培训目标:
掌握基于深度学习的图像目标检测算法(YOLO、SSD、Faster R-CNN)。
能够实现多目标跟踪(SORT、DeepSORT)。
掌握激光雷达点云目标检测算法(PointPillars、VoxelNet)。
具备感知算法部署和优化能力。
培训内容介绍:
二、卷积神经网络基础: 回顾CNN的基础知识(卷积层、池化层、全连接层、激活函数),掌握ResNet、MobileNet等骨干网络。
三、目标检测算法(YOLO): 掌握YOLO系列算法的原理(锚框、边界框回归、置信度、类别预测),使用YOLOv5/v8训练目标检测模型。
四、目标检测算法(Faster R-CNN): 了解Faster R-CNN的双阶段检测原理(RPN、RoI Pooling、分类回归),对比与YOLO的差异。
五、模型训练与数据集: 使用自动驾驶公开数据集(KITTI、nuScenes、Waymo),进行数据预处理、模型训练、超参数调优。
六、多目标跟踪(SORT): 掌握SORT算法(卡尔曼滤波预测、匈牙利算法匹配),实现视频序列中的目标关联和跟踪。
七、多目标跟踪(DeepSORT): 在SORT基础上加入外观特征(ReID),减少ID切换,提高遮挡情况下的跟踪鲁棒性。
八、激光雷达点云处理: 了解点云的数据特点(稀疏、无序、密度不均),掌握点云预处理(滤波、降采样、地面分割)。
九、点云目标检测(PointPillars): 掌握PointPillars算法(点云转换为柱体、2D CNN检测),实现点云中的3D目标检测。
十、点云目标检测(VoxelNet): 了解VoxelNet的体素化方法和3D卷积网络,处理稀疏点云中的特征提取。
十一、多模态融合: 实现摄像头与激光雷达的目标级融合(目标匹配、卡尔曼融合)或特征级融合,提升检测精度。
十二、实战项目:感知算法部署: 完成目标检测模型训练、跟踪算法集成,在自动驾驶数据集上评估算法性能。