苹果ARKit2眼球追踪系统是什么?眼控交互版iPhone功能介绍

【苹果ARKit2眼球追踪系统是什么?眼控交互版iPhone功能介绍】还有不到10天的时间就要举办苹果秋季发布会了,此次的产品还是非常多的,除了这些之外,小编还听说了一个ARKit2眼球追踪系统,这是什么呢,不少小伙伴们可能还不清楚,下面我们网小编就和大家一起看看吧!
苹果ARKit2眼球追踪系统是什么?
2 个月前,外媒发布了一篇关于iOS12 最酷炫的功能之一是通过ARKit2 实现的眼球追踪的新闻,获得了众多果粉的好评 。不难猜测,将要举行的苹果秋季发布会将很有可能发布眼控交互版iPhone,下图是苹果官网对注视点(lookAtPoint)实例属性描述文档及技术说明 。

苹果ARKit2眼球追踪系统是什么?眼控交互版iPhone功能介绍

文章插图
其实,苹果多年前就开始布局眼球追踪技术了 。据报道,苹果于 2012 年 9 月提交了一项关于眼球追踪技术的专利申请,并获得了美国专利商标局的批准 。根据苹果的介绍,该技术可以根据用户视线延迟显示屏操作的执行,还可以改变用户界面,生成并执行相关信息 。例如,当用户输入文本时如果出现拼写错误,且眼睛正在注视错词,系统将自动修正等 。此后,苹果又陆陆续续申请了多项眼球追踪技术专利 。
苹果ARKit2眼球追踪系统是什么?眼控交互版iPhone功能介绍

文章插图
在 2017 年,苹果收购专注于眼球追踪技术研发的德国公司SMI,此举引起业界的广泛关注,也引起众多行业从业者的猜测,苹果可能把眼球追踪技术应用在iPhone上 。
综上所述,今年的苹果秋季发布会,眼控交互版iPhone可能真的要来了 。
首先,眼控对焦拍照会成为手机发展的趋势 。用户通过控制眼睛注视点、注视时长或者眨眼等动作来调整相机的焦点并进行拍照,可以解决以往的对焦模糊、人物闭眼等拍摄问题 。眼控交互在智能手机上的应用上会大有可为,随着技术的进步,我们越来越相信,它会成为辅助下一代智能手机操作交互的革命性交互技术 。
其次,基于眼球追踪的活体检测技术会大大提升移动支付的安全性 。相对传统生物识别系统的活体检测技术,基于眼球追踪的活体检测技术具有更高的鲁棒性,此项功能用于安全领域的身份认证,和电商金融支付场景将会为消费者带来更安全更高效的支付体验 。
此外,这项技术应用到智能手机上将会实现眼控手机界面交互例如:眼动打开应用、切换应用、阅读时眼控自动翻页、浏览网页时眼控跳转等,可以让用户更加自然的操作手机,使其更具AI体验 。
苹果ARKit2眼球追踪系统是什么?眼控交互版iPhone功能介绍

文章插图
在今年的苹果秋季发布会上,眼控交互很有可能会成为苹果重点推荐的操作功能,究竟结果如何,让我们一起期待苹果秋季发布会吧 。

    推荐阅读