本书介绍计算机视觉在智能车中的应用,分三个部分共13章。**部分(第1、2章),供初学者学习,介绍计算机视觉的定义、研究内容、发展历程、在智能车中的主要应用,以及智能车视觉常用的图像预处理方法。第二部分(第3~5章),是智能车视觉技术的基础内容,介绍智能车视觉认知硬件平台和软件开发环境的搭建与配置,以及在实际应用中经常使用的摄像机标定方法和视觉测距技术。第三部分(第6~13章),介绍计算机视觉在智能车中的具体应用和问题解决,包括车道线的识别与跟踪、停止线检测与测距、斑马线、导向箭头、交通信号灯、交通标志牌等识别方法和视觉定位技术,使读者进一步了解智能车视觉的具体应用,以及解决问题的难点和思路。 本书适合从事计算机视觉、图像处理、智能车研究的人员学习,尤其适合从事无人驾驶智能车图像处理研究和开发的人员学习,也可作为相关专业研究生的教学用书。
目前实际应用中只通过计算机视觉解决其他传感器难以解决的科学和工程问题,如车道线检测、停止线检测、红绿灯识别等。随着智能车产业化进程的临近,由于智能车研发中视觉传感器所需要的设备成本较低,因此,用计算机视觉来解决智能驾驶中遇到的问题成为目前和未来的发展趋势。
刘宏哲,博士,副教授,北京联合大学信息学院软件工程系主任,北京市信息服务工程重点实验室副主任兼办公室主任,硕士研究生导师,软件工程学位分委会副主任,中国计算机用户学会网络应用分会副秘书长。主要研究方向为图像处理、社群媒体语义计算、数字博物馆,具有较强的科研能力和较扎实的理论基础,是北京联合大学李德毅院士智能车团队骨干成员。近几年主持或作为骨干参加多项***和省部级课题,国家自然科学基金项目2项、国家科技支撑课题1项,北京市文化科技创新工程项目1项,北京市创新团队2项,北京市教委面上项目2项,北京市中青年骨干教师1项。近年来以**作者发表高水平研究论文30余篇,其中知名SCI期刊论文4篇、EI检索论文20余篇,CSCD核心期刊7篇,申请专利和软件著作权16项,专著1部,科研成果显著。
第1章 计算机视觉简介1
1.1 计算机视觉的发展历程1
1.2 计算机视觉研究现状2
1.3 计算机视觉在智能车的应用3
第2章 视觉预处理技术7
2.1 灰度化处理7
2.2 颜色空间变换8
2.2.1 RGB颜色空间8
2.2.2 HSV颜色空间9
2.2.3 RGB与HSV相互转换10
2.3 阈值处理12
2.3.1 全局阈值处理方法13
2.3.2 局部阈值处理方法14
2.3.3 自适应阈值处理方法14
2.4 霍夫变换15
2.5 平滑滤波16
2.5.1 邻域平滑滤波16
2.5.2 中值滤波18
2.6 边缘检测19
2.6.1 Canny算子边缘检测20
2.6.2 Sobel算子边缘检测21
第3章 智能车视觉平台搭建24
3.1 硬件平台的设计与搭建24
3.1.1 硬件平台的设计24
3.1.2 硬件平台的搭建27
3.2 开发环境的搭建29
3.2.1 开发工具介绍29
3.2.2 OpenCV下载与安装29
3.2.3 环境配置30
第4章 标定39
4.1 摄像机标定方法39
4.1.1 摄像机成像模型39
4.1.2 摄像机内外参数40
4.1.3 机器视觉标定板说明41
4.1.4 单目摄像机标定43
4.2 逆透视标定方法45
4.2.1 逆透视变换原理45
4.2.2 传统的逆透视标定方法46
4.2.3 一种用于智能车的逆透视标定方法47
4.2.4 逆透视图像的特点及应用51
第5章 单目视觉测距53
5.1 基于映射关系表的单目视觉测距53
5.1.1 方法的实现53
5.1.2 实验结果55
5.1.3 等距标记的优缺点56
5.2 基于几何关系的距离计算方法56
5.2.1 方法的实现56
5.2.2 实验与结果分析62
5.3 基于逆透视变换的平面测距方法65
第6章 车道线检测与跟踪67
6.1 车道线检测方法67
6.1.1 车道线特性及类型67
6.1.2 国内外近年研究成果68
6.1.3 车道线检测的难点69
6.1.4 自适应二值化算法69
6.2 基于透视图像的检测方法73
6.2.1 透视模型73
6.2.2 一种基于透视图像的车道线检测方法76
6.3 基于IPM的检测方法79
6.3.1 逆透视模型79
6.3.2 一种基于IPM的车道线检测方法80
6.4 车道虚拟中心线的计算方法86
6.5 车道线跟踪技术89
6.5.1 基于卡尔曼滤波的车道线跟踪90
6.5.2 基于粒子滤波的车道线跟踪90
第7章 斑马线识别92
7.1 斑马线的特征及其作用92
7.2 斑马线识别方法94
7.3 基于时空关联的斑马线识别方法99
第8章 停止线识别与测距103
8.1 停止线的特征及其作用103
8.1.1 停止线的特征103
8.1.2 停止线的作用104
8.2 停止线识别方法105
8.3 基于时空关联的停止线识别方法108
8.4 停止线测距112
第9章 导向箭头识别114
9.1 导向箭头的特征和类型114
9.2 导向箭头的识别方法115
9.3 基于时空关联的导向箭头识别方法116
第10章 交通信号灯识别122
10.1 交通信号灯识别简述122
10.1.1 交通信号灯识别的意义122
10.1.2 交通信号灯识别的方法123
10.2 交通信号灯检测方法124
10.2.1 颜色空间选取125
10.2.2 图像分割126
10.3 交通信号灯识别方法129
10.3.1 区域选择129
10.3.2 特征提取130
10.3.3 分类器训练132
第11章 交通标志牌识别133
11.1 交通标志牌识别简述133
11.2 交通标志牌类型135
11.3 交通标志牌识别现状139
11.4 交通标志牌识别的难点140
11.4.1 天气环境的影响140
11.4.2 空间变化的影响141
11.5 交通标志牌识别的方法143
11.5.1 基于模板匹配的方法143
11.5.2 基于机器学习的方法146
第12章 无人自主车视觉定位150
12.1 视觉定位的意义和应用150
12.2 视觉定位方法152
12.2.1 基于路标库和图像匹配的全局定位152
12.2.2 同时定位与地图构建的SLAM155
12.2.3 基于局部运动估计的视觉里程计156
12.3 定位算法性能分析159
第13章 基于视觉的路口定位161
13.1 路口定位的实现流程161
13.2 基于路口场景识别的粗定位162
13.2.1 建立路口场景特征库162
13.2.2 基于SURF的快速路口场景识别164
13.3 基于IPM的高精度实时定位166
13.3.1 逆透视变换(IPM)166
13.3.2 停止线检测与测距169
13.3.3 车道线检测172
13.3.4 位置坐标计算175
参考文献178