(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202210504365.2 (22)申请日 2022.05.10 (71)申请人 中山大学·深圳 地址 518107 广东省深圳市光明区公常 路 66号中山大 学深圳校区 申请人 中山大学 (72)发明人 苟超 朱捷 玉悦钊 李孟棠  (74)专利代理 机构 广州粤高专利商标代理有限 公司 44102 专利代理师 郑堪泳 (51)Int.Cl. G06V 40/18(2022.01) G06V 40/16(2022.01) G06V 10/46(2022.01) G06V 10/766(2022.01)G06V 10/80(2022.01) (54)发明名称 一种基于耦合级联回归的眼动追 踪方法 (57)摘要 本发明提供一种基于耦合级联回归的眼动 追踪方法, 该方法实现人眼状态检测、 视线估计 和瞳孔中心 检测, 实时准确地完成三个眼动追踪 任务, 更好地解决了单一方法无法实现多个眼动 追踪的问题; 融合眼部图像全局形状结构信息和 局部图像特征, 考虑了人眼瞳孔位置变化和视线 变化内在对应 关系, 通过提取瞳孔中心和周围眼 部关键点相对位置形状特征来分析人的视线, 更 好地解决了光照条件变化、 个人生理特征差异和 头部姿态变化等不利因素带来的检测准确率不 高的问题。 权利要求书2页 说明书8页 附图3页 CN 114973389 A 2022.08.30 CN 114973389 A 1.一种基于耦合级联回归的眼动追踪方法, 其特 征在于, 包括以下步骤: S1: 对输入图片进行 人脸检测, 并进行 人脸关键点对齐; S2: 利用步骤S1提取出人脸关键点, 提取出眼部图片, 初始化眼部关键点并计算出眼睛 局部图像特 征和全局形状特 征; S3: 利用步骤S2得到的局部图像特征和全局形状特征, 通过第一个回归模型估计眼睛 状态; S4: 将步骤S2得到的特征和步骤S3得到的眼睛状态, 通过第二个回归模型估计三维视 线方向向量; S5: 利用步骤S2得到的特征、 步骤S3得到的眼睛状态和步骤S4得到的视线方向向量组 合, 通过第三个回归 模型估计瞳孔中心位置并更新关键点 位置; S6: 根据更新后的关键点位置来更新局部图像特征、 全局形状特征、 眼睛状态和视线方 向, 交替迭代多次输出 稳定的眼睛状态、 视线方向和人眼瞳孔中心位置 。 2.根据权利要求1所述的基于耦合级联回归的眼动追踪方法, 其特征在于, 所述步骤S1 中进行人脸检测的过程是: 对输入图像通过在特征矩形区域来计算像素值之差得到haar ‑like特征, 并使用积分 图对Haar ‑like特征求值进行加速, 每一类特征用一个Adaboost分类器进行分类, 重复训练 不同的Adaboost分类器, 最后将这些不同的分类器级 联, 得到一个强分类器, 该强分类器识 别出人脸位置。 3.根据权利要求2所述的基于耦合级联回归的眼动追踪方法, 其特征在于, 所述步骤S1 中人脸关键点对齐的过程是: 计算基于每一个均值人脸的标记点的特征, 然后通过计算估计人脸和真实人脸之间的 偏移量进行 人脸对齐, 最终输出 人脸关键点 位置。 4.根据权利要求3所述的基于耦合级联回归的眼动追踪方法, 其特征在于, 所述步骤S1 的具体过程是: S11: 将待测图片灰度化; S12: 在灰度化图像上用搜索窗口扫描图像, 并通过积分图计算子窗口的haar ‑like特 征值; S13: 级联的AdaBoost训练出的强分类器对子窗口的特征值进行筛选, 通过所有强分类 器筛选的子窗口即为人脸所在区域; S14: 将输入图像截取出人脸图像, 从51个特征点上提取出的尺度不变特征变换特征 SIFT, 每个特征点提取出了128个SIFT特 征; S15, 利用得到的SIFT特 征并使用监 督下降法S DM的方法优化目标函数: d(x0+Δx)表示输入图像的标记点, h表示非线性特征提取函数, φ*表示人工标记地 SIFT特征。 最终将初始特 征回归到人脸真实形状特 征上。 5.根据权利要求4所述的基于耦合级联回归的眼动追踪方法, 其特征在于, 所述步骤S2 的具体过程是: S21: 从获得的人脸关键点中选取 人眼关键点, 分别截取 出左眼和右眼的图像;权 利 要 求 书 1/2 页 2 CN 114973389 A 2S22: 使用人眼的平均关键点位置初始化截取的眼部图像的关键点位置, 关键点位置包 括2个眼角关键点, 2个眼睑关键点、 2个瞳孔 边缘关键点及1个瞳孔中心位置; S23: 提取 7个眼部关键点的SIFT特 征构成眼睛局部图像特 征; S24: 计算人眼关键点 位置两两之间的正负差值构成眼睛全局形状特 征。 6.根据权利要求5所述的基于耦合级联回归的眼动追踪方法, 其特征在于, 所述步骤S2 中, 所述眼睛局部图像特征为眼部图像的SIFT特征, SIFT特征指的是尺度不变特征变换; 所 述的全局形状特 征为人眼关键点 位置两两之间的正负差值。 7.根据权利要求6所述的基于耦合级联回归的眼动追踪方法, 其特征在于, 所述步骤S3 中, 所述眼睛状态是眼睛为睁开的概率, 该概率在0到1之间, 初始 化1, 也表示眼睑对瞳孔的 遮挡程度。 8.根据权利要求7所述的基于耦合级联回归的眼动追踪方法, 其特征在于, 所述步骤S3 中, 所述的第一个回归模型ft建立了局部图像特征Φ(x, I)和全局形状信息Ψ(x)与眼睛状 态更新值Δp之间的映射关系, 我们定义眼睛状态更新值为Δpt=ft(I,xt‑i; θf), 其中θf为 回归模型的参数, I为眼部图像, xt‑1为上一次迭代得到的关键点位置, 估计眼睛状态的目标 更新值, 然后与之前眼睛状态pt‑1相加即得到基于局部图像特征和全局关键点结构形状信 息的眼睛状态。 9.根据权利要求8所述的基于耦合级联回归的眼动追踪方法, 其特征在于, 所述步骤S4 中, 所述三维视线方向向量是表示视线的三个角度, 分别为偏航角、 俯仰角和翻滚角, 三维 视线方向 向量初始化 为三维零向量; 所述的第二个回归模型gt建立了局部图像特征Φ(x, I)、 全局形状信息Ψ(x)和眼睛状 态p与视线方向更新值Δv之间的映射关系, 定义视线方向向量更新值为Δvt=gt(I,xt‑1, pt; θg), 其中θg为回归模型的参数, I为眼部图像, xt‑1为上一次迭代得到的关键点位置, pt为 眼睛状态, 估计视线方向的目标更新值, 然后与之前视线 方向vt‑1相加即得到估计的视线方 向。 10.根据权利要求9所述的基于耦合级联回归的眼动追踪方法, 其特征在于, 所述步骤 S5中, 所述的第三个回归模型ht建立了局部图像特征Φ(x, I)、 全局形状信息Ψ(x)、 眼睛状 态p、 视线方向向量v和关键点位移Δx之间的映射关系, 我们定义视线方向向量为Δxt=ht (I,xt‑1,pt,vt; θh), 其中θh为回归模型的参数, I为眼部图像, xt‑1为上一次迭代得到的关键 点位置, pt为眼睛状态, vt为视线方向向量, 即得到关键 点位移的目标更新值, 然后与上一次 迭代得到的关键点 位置xt‑1相加即得到估计的关键点 位置和瞳孔中心位置 。权 利 要 求 书 2/2 页 3 CN 114973389 A 3

.PDF文档 专利 一种基于耦合级联回归的眼动追踪方法

安全报告 > 其他 > 文档预览
中文文档 14 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共14页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种基于耦合级联回归的眼动追踪方法 第 1 页 专利 一种基于耦合级联回归的眼动追踪方法 第 2 页 专利 一种基于耦合级联回归的眼动追踪方法 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常2024-03-18 07:34:03上传分享
给文档打分
您好可以输入 255 个字符
网站域名是多少( 答案:github5.com )
评论列表
  • 暂时还没有评论,期待您的金玉良言
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。