《一种视线跟踪及疲劳预警方法.pdf》由会员分享,可在线阅读,更多相关《一种视线跟踪及疲劳预警方法.pdf(12页珍藏版)》请在专利查询网上搜索。
1、(10)申请公布号 CN 103886307 A (43)申请公布日 2014.06.25 CN 103886307 A (21)申请号 201410148043.4 (22)申请日 2014.04.15 G06K 9/00(2006.01) G06T 7/00(2006.01) (71)申请人 王东强 地址 401123 重庆市北部新区黄山大道中段 杨柳路 2 号 (72)发明人 王东强 (74)专利代理机构 重庆市前沿专利事务所 ( 普 通合伙 ) 50211 代理人 郭云 (54) 发明名称 一种视线跟踪及疲劳预警方法 (57) 摘要 本发明公开了一种视线跟踪及疲劳预警方 法, 属于智能。
2、交通技术领域, 特别是涉及。本发明 根据微型摄像头获取驾驶员脸部信息, 控制近轴 和远轴红外可控光源的开关, 在奇数帧打开近轴 红外灯光源, 在偶数帧打开远轴红外灯光源, 利用 人眼瞳孔反光特性, 差分计算后确定视频序列中 人眼瞳孔的位置。在利用基于红外光下的红外效 应进行图像差频进行瞳孔定位后, 利用瞳孔中心 位置结合根据车载显示器的特征识别点, 反向推 算出视线投射位置, 其推算可以按用户个体差异 进行微调或者进行精细定标。相比较其他控制方 法, 本发明中方法可有效减少驾驶员眼部特征获 取的时间, 同时避免由于环境光变换所引起的干 扰, 从而保障驾驶员视线信息的快速准确获取。 (51)In。
3、t.Cl. 权利要求书 2 页 说明书 7 页 附图 2 页 (19)中华人民共和国国家知识产权局 (12)发明专利申请 权利要求书2页 说明书7页 附图2页 (10)申请公布号 CN 103886307 A CN 103886307 A 1/2 页 2 1. 一种视线跟踪及疲劳预警方法, 其特征在于包括以下步骤 : 步骤一、 通过车载视线跟踪器屏幕附近的红外 LED 标定显示器的特征识别点 ; 步骤二、 通过微型摄像头获取驾驶员脸部的RGB彩色图像, 所述RGB彩色图像中包括驾 驶员眼睛瞳孔信息及视线方向信息 ; 步骤三、 将所述 RGB 彩色图像转化为灰度图像, 获取灰度图像中各帧图像的最。
4、佳动态 阈值并进行图像分割, 得到二值图像 ; 步骤四、 控制近轴和远轴红外可控光源的开关, 在奇数帧打开近轴红外灯光源, 在偶数 帧打开远轴红外灯光源, 确定视频序列中人眼瞳孔的位置 ; 步骤五、 利用瞳孔中心位置结合根据车载显示器的特征识别点, 反向推算出视线投射 位置 ; 步骤六、 对驾驶时的眼动特征参数进行统计, 建立动态视觉差异性模板库 ; 步骤七、 利用所述动态视觉差异性模板库与二值图像中眼睛区域进行匹配, 提取眼睛 特征参数 ; 步骤八、 根据获取的眼睛特征参数判断是否疲劳驾驶 ; 当疲劳驾驶时, 进行报警提示 ; 当没有疲劳驾驶时, 返回执行步骤二。 2. 如权利要求 1 所述。
5、的一种视线跟踪及疲劳预警方法, 其特征是 : 步骤五中所述反向 推算出视线投射位置按以下步骤进行 : 找到瞳孔的中心和反射点的位置, 得到瞳孔中心反射点向量 : 计算瞳孔中心与反射点 的位置, 对红外眼睛图像进行归一化处理, 对归一化图像进行基于瞳孔的二值化, 通过计算 图像的质心得到瞳孔的位置, 对归一化图像瞳孔周围的局部图像重新进行基于反射点二值 化, 通过对反射点二值化图像的质心计算确定反射点的位置。 3. 如权利要求 1 所述的一种视线跟踪及疲劳预警方法, 其特征是 : 步骤六中所述眼动 特征参数包括注视行为表征参数和扫视行为表征参数 ; 所述注视行为表征参数包括 : 注视点、 注视点。
6、数目、 注视点顺序、 注视持续时间、 瞳孔大 小、 水平方向的视角、 垂直方向的视角、 视觉搜索广度、 注视点间距离和累积注视时间 ; 所述扫视行为表征参数包括扫视持续时间、 扫视幅度、 扫视平均速度。 4. 如权利要求 1 所述的一种视线跟踪及疲劳预警方法, 其特征是 : 步骤八中所述判断 是否疲劳驾驶按以下步骤进行 : A1、 初始化眼睛最大值 M左、 M右和最小值 m左、 m右; 设左右两眼面积随时间的变化函数分 别为 S左(t) 和 S右(t) , M左、 M右由 S(t) 的频数统计直方图最大值对应的 S 确定, m左、 m右则 由初始化阶段 S 的频数统计直方图除 0 位置之外的起。
7、始位置确定 ; A2、 设定左眼睁开程度为 p左(t) , 右眼睁开程度为 p右(t) ; 计算所述左眼睁开程度和右 眼睁开程度 : p左(t) =(S左(t) -m左) (/M左-m左) ; p右(t) =(S右(t) -m右) (/M右-m右) ; A3、 计算 p(t) =p 左 (t) +p 右 (t) /2, 得到眼睛睁开的程度 : A4、设 定 一 定 的 时 间 内 眼 睛 闭 合 时 所 占 的 时 间 比 例 为 PERCLOS,计 算 得到 PERCLOS, 所述 t 为眼睛从最大闭合到完全张开所 权 利 要 求 书 CN 103886307 A 2 2/2 页 3 用时间。
8、 ; A5、 判断 PERCLOS 是否大于 40% 且眼睛闭合时间是否大于 3s ; 当 PERCLOS 大于 40% 且 眼睛闭合时间大于 3s 时, 为疲劳驾驶 ; 否则为没有疲劳驾驶。 权 利 要 求 书 CN 103886307 A 3 1/7 页 4 一种视线跟踪及疲劳预警方法 技术领域 0001 本发明属于智能交通技术领域, 特别是涉及一种视线跟踪及疲劳预警方法。 背景技术 0002 驾驶员的视觉行为是影响道路交通安全的主要因素之一, 因此驾驶员视线追踪技 术已成为智能交通领域的研究热点。 本专利将基于先进汽车主动安全和现代控制理论的最 新成果, 通过开展车载微型视线跟踪及预警技。
9、术研究, 对不同道路条件下驾驶员动态视觉 进行差异性分析。通过对不同行驶环境下的驾驶员眼动特征参数进行统计, 分析不同路段 上驾驶员注视和扫视行为的总体特征, 进一步分析驾驶员动态视觉对汽车主动安全控制参 数影响的显著性, 从而使整个汽车控制系统具有良好的舒适性及鲁棒性。 0003 智随着经济的迅猛发展, 道路交通越来越便捷的同时, 汽车数量迅速增加而引发 道路交通高事故率、 高伤亡、 高损失问题同样愈发严重。驾驶员作为车辆的操作者, 道路的 使用者, 环境条件的感受者, 是道路交通系统活动的主体, 在这个道路交通动态系统中处于 主导地位, 因此对驾驶员行为的研究对提高道路交通安全显得尤为重要。
10、。驾驶员的视觉特 性与行车安全有必然联系, 对于保证系统的稳定性有着较大的能动性, 是影响交通安全的 首要因素。表 1 列出了道路交通系统中各种因素与交通事故的关系。 0004 影响交通肇事的因素各种因素所占百分比 纯系人的因素58% 纯系车的因素2% 纯系道路、 环境因素4% 人与环境的综合因素26% 人与车的综合因素6% 车与环境综合因素1% 人、 车、 环境综合因素3% 0005 表 1 交通肇事与影响因素的关系 0006 从表 1 中可以看出, 驾驶员因素是引发交通事故的第一因素, 如果将与驾驶员有 关的因素结合统计, 比例将达到交通事故总量的 90% 以上, 由此可见对驾驶员驾驶行为。
11、的 研究, 是提高道路交通安全性的必要手段。 0007 驾驶员动态视野与车速的关系是国内外学者关注的问题。静止时视野未发生变 化, 而车辆运行时视野的深度、 宽度、 视野内画面都在不断变化, 驾驶员正是根据不断变化 说 明 书 CN 103886307 A 4 2/7 页 5 的视野内容来操作车辆的。 驾驶员在驾驶过程中, 95%的视觉信息是动态的, 在驾驶过程中, 随着汽车行驶速度的提高, 驾驶员的注视点前移, 视野变窄, 周界感减少, 给驾驶安全带来 一定的影响, 驾驶员视野变窄, 周界感减少即视野缺损, 视野敏感度下降, 意味着感知信息 能力降低, 极易造成交通事故。 0008 在智能交。
12、通领域, 利用眼动技术实现驾驶员视线追踪是目前国际热点研究方向, 视线追踪技术分为视线特征参数提取和视线估计模型建立两个组成部分, 它利用眼动技术 获得眼球位置变化特征, 然后通过几何模型或映射模型获取视线方向。视线追踪可获取人 的注视方向, 在人机交互和疾病诊断等领域有着广泛的应用 , 目前主要应用于如虚拟现 实、 车辆辅助驾驶、 人因分析等。眼动关键技术对智能驾驶人车交互界面有独特的应用价 值。 自然、 高效、 智能是人车交互界面的发展趋势, 所视即所指, 视线应用于人车交互具有直 接性、 自然性和双向性特点, 视线跟踪技术必然会在智能驾驶信息交互领域具有广泛和深 入的研究及应用价值。 0。
13、009 国内在交通领域研究交通工具的操作者视觉的很少, 其中北京航空航天大学开展 了飞行员的视觉研究 ; 而在公路交通领域研究汽车驾驶员视觉的主要集中在几所高校里。 西南交通大学的张殿业在对驾驶员动态视野与行车安全可靠度的研究中, 建立了驾驶员动 态视野行为模式, 提出驾驶员视野随车速的增大而变窄。研究还分析了驾驶员视野机理与 测试方法, 建立了动态视野量化指标评价体系, 并通过室内试验, 对事故组与非事故组驾驶 员进行动态视野可靠度分析, 指出事故组的可靠度远远小于非事故组驾驶员的可靠度。西 安交通大学的杨建国等人通过驾驶员视觉关注焦点的移动规律、 视场范围和障碍物遮挡等 3 个方面的研究,。
14、 提出了一个非熟练驾驶员视觉感知模型, 并通过计算机模拟实际场景, 完 成了模型有效性的验证。同济大学的潘晓东等人刚利用 EMR8B 眼动仪, 研究了在逆光条件 下交通标志的可视距离。同济大学的杨志清等人根据驾驶员的视觉特性, 提出了一个新概 念 “空间视距” 用于量化驾驶员的视觉信息, 并给出了空间视距的近似算法, 用于计算路线 任意位置处的近似空间视距值。结合试验, 采用回归方法得到了期望车速与空间视距的非 线性关系, 并通过纵坡修正, 最终得到高速公路运行车速的预测模型。 发明内容 0010 有鉴于现有技术的上述缺陷, 本发明所要解决的技术问题是提供一种能够更加准 确的对疲劳驾驶进行报警。
15、的视线跟踪及疲劳预警方法, 以便提高车辆行驶过程中的安全性 与车辆行驶的稳定性。 0011 为实现上述目的, 本发明提供了一种视线跟踪及疲劳预警方法, 其特征在于包括 以下步骤 : 0012 步骤一、 通过车载视线跟踪器屏幕附近的红外 LED 标定显示器的特征识别点 ; 0013 步骤二、 通过微型摄像头获取驾驶员脸部的RGB彩色图像, 所述RGB彩色图像中包 括驾驶员眼睛瞳孔信息及视线方向信息 ; 0014 步骤三、 将所述 RGB 彩色图像转化为灰度图像, 获取灰度图像中各帧图像的最佳 动态阈值并进行图像分割, 得到二值图像 ; 0015 步骤四、 控制近轴和远轴红外可控光源的开关, 在奇。
16、数帧打开近轴红外灯光源, 在 偶数帧打开远轴红外灯光源, 确定视频序列中人眼瞳孔的位置 ; 说 明 书 CN 103886307 A 5 3/7 页 6 0016 步骤五、 利用瞳孔中心位置结合根据车载显示器的特征识别点, 反向推算出视线 投射位置 ; 0017 步骤六、 对驾驶时的眼动特征参数进行统计, 建立动态视觉差异性模板库 ; 0018 步骤七、 利用所述动态视觉差异性模板库与二值图像中眼睛区域进行匹配, 提取 眼睛特征参数 ; 0019 步骤八、 判断是否疲劳驾驶 ; 当疲劳驾驶时, 进行报警提示 ; 当没有疲劳驾驶时, 返回执行步骤二。 0020 较佳的, 步骤五中所述反向推算出视。
17、线投射位置按以下步骤进行 : 0021 找到瞳孔的中心和反射点的位置, 得到瞳孔中心反射点向量 : 计算瞳孔中心与反 射点的位置, 对红外眼睛图像进行归一化处理, 对归一化图像进行基于瞳孔的二值化, 通过 计算图像的质心得到瞳孔的位置, 由于反射点在瞳孔附近, 这时对归一化图像瞳孔周围的 局部图像重新进行反射点二值化, 通过对反射点二值化图像的质心计算确定反射点的位 置。由于瞳孔附近反射点明显的比其它部分灰度值大, 这样经过反射点二值化后除反射点 外其余部分成白色。 0022 较佳的, 步骤六中所述眼动特征参数包括注视行为表征参数和扫视行为表征参 数 ; 0023 所述注视行为表征参数包括 :。
18、 注视点、 注视点数目、 注视点顺序、 注视持续时间、 瞳孔大小、 水平方向的视角、 垂直方向的视角、 视觉搜索广度、 注视点间距离和累积注视时 间 ; 0024 所述扫视行为表征参数包括扫视持续时间、 扫视幅度、 扫视平均速度。 0025 4、 如权利要求 1 所述的一种视线跟踪及疲劳预警方法, 其特征是 : 步骤八中所述 判断是否疲劳驾驶按以下步骤进行 : 0026 A1、 初始化眼睛最大值 M左、 M右和最小值 m左、 m右; 设左右两眼面积随时间的变化函 数分别为 S左(t) 和 S右(t) , M左、 M右由 S(t) 的频数统计直方图最大值对应的 S 确定, m左、 m右则由初始化。
19、阶段 S 的频数统计直方图除 0 位置之外的起始位置确定 ; 0027 A2、 设定左眼睁开程度为 p左(t) , 右眼睁开程度为 p右(t) ; 计算所述左眼睁开程度 和右眼睁开程度 : 0028 p左(t) =(S左(t) -m左) (/M左-m左) ; 0029 p右(t) =(S右(t) -m右) (/M右-m右) ; 0030 A3、 计算 p(t) =p 左 (t) +p 右 (t) /2, 得到眼睛睁开的程度 : 0031 A4、 设 定 一 定 的 时 间 内 眼 睛 闭 合 时 所 占 的 时 间 比 例 为 PERCLOS, 计 算 得到 PERCLOS, t 为眼睛从最大。
20、闭合到完全张开所用时 间 ; 0032 A5、 判断 PERCLOS 是否大于 40% 且眼睛闭合时间是否大于 3s ; 当 PERCLOS 大于 40% 且眼睛闭合时间大于 3s 时, 为疲劳驾驶 ; 否则为没有疲劳驾驶。 0033 本发明的有益效果是 : 本发明根据微型摄像头获取驾驶员脸部信息, 利用 DSP 芯 片控制近轴和远轴红外可控光源的开关, 在奇数帧打开近轴红外灯光源, 在偶数帧打开远 轴红外灯光源, 利用人眼瞳孔反光特性, 差分计算后确定视频序列中人眼瞳孔的位置。 在利 说 明 书 CN 103886307 A 6 4/7 页 7 用基于红外光下的红外效应进行图像差频进行瞳孔定。
21、位后, 利用瞳孔中心位置结合根据车 载显示器的特征识别点, 反向推算出视线投射位置, 其推算可以按用户个体差异进行微调 或者进行精细定标。相比较其他控制方法, 本发明中方法可有效减少驾驶员眼部特征获取 的时间, 同时避免由于环境光变换所引起的干扰, 从而保障驾驶员视线信息的快速准确获 取。 0034 本发明的跟踪方法稳定、 易控制, 瞳孔识别时间可以在 0.5 毫秒之内完成。 附图说明 0035 图 1 是本发明一具体实施方式的结构示意图。 0036 图 2 是注视不同位置时瞳孔与反射点的检测结果示意图。 具体实施方式 0037 下面结合附图和实施例对本发明作进一步说明 : 0038 如图 1。
22、 和图 2 所示, 一种视线跟踪及疲劳预警方法, 包括以下步骤 : 0039 步骤一、 通过车载视线跟踪器屏幕附近的红外 LED 标定显示器的特征识别点 ; 微 型摄像头用于跟踪用户头部和眼部细节。 0040 步骤二、 通过微型摄像头获取驾驶员脸部的RGB彩色图像, 所述RGB彩色图像中包 括驾驶员眼睛瞳孔信息及视线方向信息 ; 0041 步骤三、 将所述 RGB 彩色图像转化为灰度图像, 获取灰度图像中各帧图像的最佳 动态阈值并进行图像分割, 得到二值图像。所述最佳动态阈值的确定是根据车辆所处环境 光强度, 采用自适应阈值算法求取, 其为现有技术, 在此不再赘述。 0042 步骤四、 通过 。
23、DSP 芯片控制近轴和远轴红外可控光源的开关, 在奇数帧打开近轴 红外灯光源, 在偶数帧打开远轴红外灯光源, 利用人眼瞳孔反光特性, 通过差分计算确定视 频序列中人眼瞳孔的位置 ; 0043 步骤五、 在利用基于红外光下的红外效应进行图像差频进行瞳孔定位后, 利用瞳 孔中心位置结合根据车载显示器的特征识别点, 反向推算出视线投射位置。 0044 步骤六、 对驾驶时的眼动特征参数进行统计, 分析不同路段上驾驶员注视和扫视 行为的总体特征, 建立不同道路条件下驾驶员的动态视觉差异性模板库 ; 0045 步骤七、 利用所述动态视觉差异性模板库与二值图像中眼睛区域进行匹配, 由于 眼睛瞳孔已经精确定位。
24、, 在区间内使用模板进行匹配来提取眼睛特征参数 ; 0046 步骤八、 根据获取的眼睛特征参数判断是否疲劳驾驶 ; 当疲劳驾驶时, 进行报警提 示 ; 当没有疲劳驾驶时, 返回执行步骤二。 0047 步骤五中所述反向推算出视线投射位置按以下步骤进行 : 0048 红外线不容易被人眼发现却容易被摄像机发现, 红外线的照射人眼时会瞳孔明显 比虹膜黑, 在虹膜上有一个明显的红外反射点, 由此可以找到瞳孔的中心和反射点的位置, 从而得到相应的瞳孔与反射点向量。 计算红外眼睛图像的瞳孔与反射点向量首先要计算瞳 孔中心与反射点的位置, 先对原始图像进行归一化处理以增强瞳孔与反射点的对比度, 归 一化后对图。
25、像进行基于瞳孔的二值化, 通过计算图像的质心就可以得到瞳孔的粗略位置, 由于反射点在瞳孔附近, 这时对归一化后的图像瞳孔周围的局部图像重新进行基于反射点 说 明 书 CN 103886307 A 7 5/7 页 8 二值化, 由于瞳孔附近反射点明显的比其它部分灰度值大, 这样经过反射点二值化后除反 射点外其余部分成白色, 通过对反射点二值化图像的质心计算就可以确定反射点的位置。 0049 在本实施例中, 将特征识别点红外光源设置在眼睛的下方, 摄像机处于高于眼睛 的位置, 这样反射点的位置出现在瞳孔的下半部, 利用这一特点可以利用瞳孔的上半部分 进行圆拟合, 这里计算了瞳孔粗略位置点与反射点连。
26、线的垂直平分线, 并保留垂直平分线 上面的边缘部分作为圆拟合的计算点集。 0050 由图 2 可以看出, 将分辨率为 1024768 的屏幕分为大小平均的 9 块区域, 每块的 中心坐标在块的中心标记出来, 可以看出眼睛在看不同的方位时, 瞳孔中心与反射点向量 发生了变化, 通过寻找向量变化的规律, 并将这种变换规律对应到视线与屏幕的映射关系 上, 就可以实现视线跟踪。 0051 本实施例中的的瞳孔中心反射点向量算法, 将头部固定, 由于头部位置和光源的 位置和摄像头位置都是固定的, 反射点在眼睛中的位置不变, 当人的视线发生变化时只有 瞳孔中心的位置是变化的, 瞳孔中心反射点向量与屏幕上点的。
27、对应关系利用以下多项式得 到 : 0052 设定瞳孔中心反射点向量为 V, 其在坐标轴 x 轴与 y 轴方向的投影分别为 V和 V , 其在观测平面屏幕上的投影为 ( , Y), 0053 计算 X a0+a1V+a2V+a3VV+a4V 2+a 5V 2 和 Y b0+b1V+b2V+b3VV +b4V 2+b 5V 2 ; 所述 a0、 a1、 a2、 a3、 a4、 a5、 b0、 b1、 b2、 b3、 b4和 b5均为未知数。 0054 通过以上多项式方程确定注视点与视线的映射关系, 具体步骤为 : 用户依次注视 9 块区域的中心点, 每当注视一个特定中心点, 就记录下虹膜中心和瞳孔。
28、中心的矢量, 由此 产生18个方程, 但是在这个多项式算法中只有12个未知数, 所以用最小二乘法确定未知数 的值, 此时瞳孔中心反射点向量 V 与注视点的映射关系就可以用求得的结果表示出来, 由 此得到瞳孔中心反射点向量。 0055 步骤六中所述眼动特征参数包括注视行为表征参数和扫视行为表征参数 ; 0056 所述注视行为表征参数包括 : 注视点、 注视点数目、 注视点顺序、 注视持续时间、 瞳 孔大小、 水平方向的视角、 垂直方向的视角、 视觉搜索广度、 注视点间距离和累积注视时间。 0057 注视点 (Location of fixations, LOF) 反映的是一段时间内人所注意的空间。
29、焦 点。眼睛会根据以往的经验自然地注视在引人注目的、 极显眼的或重要的区域。 0058 注视点数目 (Number OF fixations, NOF) 与观察者所需要处理信息的数目有关 系, 而与所需处理信息的深度无关。然而, 一旦搜索者发现其兴趣所在, 那么注视点的数目 就反映了视觉区域中兴趣点的数目, 并且信息比例高的区域, 产生的注视频率也很高。另 外, 区域的几何形状重要性与在该区域的注视持续时间之间也有相关性。分区域的注视次 数是衡量搜索效率的一个指标, 也是区域重要性的衡量指标, 区域越重要, 注视次数越多。 0059 注视点顺序 (Sequence of fixations, 。
30、SOF) 为注视点先后之间的顺序关系, 连续 的注视顺序构成扫描路径。 0060 注视持续时间 (, FD) 是指在注视时, 视轴中 心位置保持不变的持续时间, 以毫秒计。注视持续时间代表着处理与危险相关的信息所花 费的时间, 反映的是提取信息的难易程度, 也就是从所注视的目标上提取信息所用的时间, 同时也是注视区域信息内容和主观信息处理策略的度量标准。 说 明 书 CN 103886307 A 8 6/7 页 9 0061 瞳孔大小 (Pupil diamerter, PD) 表征驾驶员的紧张程度, 也是视觉信息注意状态 的重要指标。瞳孔的大小可以揭示不同刺激条件对注意状态的激发。瞳孔大小可。
31、以用直径 来描述, 也可以用面积来描述。 0062 水平方向的视角和垂直方向的视角这两个参数描述的是被试者注视某个目标时, 眼球相对于头部在水平和垂直方向转动的角度示。结合人体眼球的结构, 本方法所使用的 眼动仪在水平和垂直方向可测得的转动角度范围是 240。 0063 搜索广度表示的是水平、 垂直方向视觉搜索的范围。采用水平及垂直方向视觉搜 索角度的方差及标准差作为评价搜索广度的指标。 0064 注视点间的距离 (Distance between fixations, DBF) 是指相邻两个注视点间的 距离。如果距离比较短则能够说明该信息比较容易识别且看起来很容易发现, 同时也反映 出前一个。
32、注视的效率很低, 被试者通过前一个注视点获取的信息量不足以判断该目标是否 有危险 ; 如果该距离比较长则说明从前一个注视点到当前这个注视点需要很长的距离, 中 间所经过的距离内经扫视判断而认为其间并不存在需要注视的目标。 0065 累积注视时间 (Cumlative fixation time, CFT) 是指在任一注视区域的总的注视 持续时间。 0066 所述扫视行为表征参数包括扫视持续时间、 扫视幅度、 扫视平均速度。 0067 扫视持续时间 (Saccade duration, SD) 是指眼球从一个注视运动结束至下一个注 视运动开始期间所包含的时间, 它反映了在视觉搜索过程中搜索目标所。
33、花费的时间。扫视 持续时间越长, 说明在搜索范围内的信息密度 ; 扫视持续时间越短, 则在搜索范围内的信息 密度越大。扫视持续时间和视觉搜索效率相比, 与要处理信息的复杂度更相关。 0068 扫视幅度 (Saccade amplitude, SA) 是指一次扫视从开始到结束时所覆盖的范围, 也是指从一次注视结束开始转移到下一次注视之前眼睛跳跃的范围, 通常用视角的度数来 表示。 0069 扫视平均速度 (Saccade average velocity, SAV) 为每一次扫视的角度与扫视持 续时间的比值, 其计量单位是度秒。扫视平均速度能够说明前一次注视过程中信息加工 的速度以及被试者寻找下。
34、一个目标的速度。 0070 城市道路一般可以分为平面交叉口、 立交桥、 直行路段, 将其按照特征划分为左转 十字路口、 右转十字路口、 直行十字路口、 隔离带分隔路段、 隔离栅分隔路段、 标线分隔路 段、 快速干道路段、 直行立交路段和立交匝道路段 9 种路段 ; 同时这 9 种路段也代表了不同 的交通复杂程度。通过选取 50 名驾驶员作为试验对象, 对 50 位驾驶员在这 9 种路段上驾 驶时的注视行为总体特征进行了统计。 得到了驾驶员的注视行为表征参数和扫视行为表征 参数。 0071 本实施例为了分析隐藏在这些眼动数据之后的驾驶员动态视觉特征规律, 首先对 50 位驾驶员的注视和扫视行为参。
35、数进行分区段统计, 分析驾驶员注视行为表征参数和扫 视行为表征参数 ; 然后比较驾驶员在各种路段的眼动行为的具体差异, 建立不同道路条件 下驾驶员动态视觉差异性模板库。例如, 在不同路段上驾驶时, 驾驶员注视时间长短的区 段分布具有基本相同的变化趋势, 即注视时间落在 0-200ms 区间的注视行为的频次最高, 注视时间超过 200ms 的注视行为的频次逐渐降低。三种十字路口路段比较时, 注视时间在 0-150ms 区间, 驾驶员注视频次在左转十字路口最高 ; 注视时间在 50-200ms 区间, 驾驶员 说 明 书 CN 103886307 A 9 7/7 页 10 注视频次在右转十字路口最。
36、高 ; 在直行十字路口时, 该注视时间段内的注视频次相对较低。 对三种城市普通道路进行比较时, 注视时间在 0-100ms 区间, 在快速干道路段时驾驶员注 视频次最高 ; 注视时间在 lO0-150ms 区间, 在直行立交桥路段驾驶员注视频次最低 ; 注视 时间在 150- 一 200ms 区间, 在立交桥匝道路段驾驶员注视频次最高。注视时间在 0-100 区间, 在快速干道路段驾驶员注视频次最高 ; 注视时间在 100-200 区间, 在十字路口路段 驾驶员注视频次最高。 利用这些规律设置相应的阈值来建立不同道路条件下驾驶员动态视 觉差异性模板库。 0072 步骤八中所述判断是否疲劳驾驶按。
37、以下步骤进行 : 0073 A1、 初始化眼睛最大值 M左、 M右和最小值 m左、 m右; 设左右两眼面积随时间的变化函 数分别为 S左(t) 和 S右(t) , M左、 M右由 S(t) 的频数统计直方图最大值对应的 S 确定, m左、 m右则由初始化阶段 S 的频数统计直方图除 0 位置之外的起始位置确定 ; 0074 A2、 设定左眼睁开程度为 p左(t) , 右眼睁开程度为 p右(t) ; 计算所述左眼睁开程度 和右眼睁开程度 : 0075 p左(t) =(S左(t) -m左) (/M左-m左) ; 0076 p右(t) =(S右(t) -m右) (/M右-m右) ; 0077 A3、。
38、 计算 p(t) =p左(t) +p右(t) /2, 得到眼睛睁开的程度 : 0078 A4、 设 定 一 定 的 时 间 内 眼 睛 闭 合 时 所 占 的 时 间 比 例 为 PERCLOS, 计 算 得到 PERCLOS, t 为眼睛从最大闭合到完全张开所用时 间 ; 0079 A5、 判断 PERCLOS (Percentage of EyeIid CIosure over the PupiI, over Time, 度量疲劳 / 瞌睡的物理量) 是否大于 40% 且眼睛闭合时间是否大于 3s ; 当 PERCLOS 大于 40% 且眼睛闭合时间大于 3s 时, 为疲劳驾驶 ; 否则为没有疲劳驾驶。 0080 以上详细描述了本发明的较佳具体实施例。应当理解, 本领域的普通技术人员无 需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此, 凡本技术领域中技术 人员依本发明的构思在现有技术的基础上通过逻辑分析、 推理或者有限的实验可以得到的 技术方案, 皆应在由权利要求书所确定的保护范围内。 说 明 书 CN 103886307 A 10 1/2 页 11 图 1 说 明 书 附 图 CN 103886307 A 11 2/2 页 12 图 2 说 明 书 附 图 CN 103886307 A 12 。