用AI监测驾驶员情绪 告别“疲劳驾驶”、“路怒症”
- +1 你赞过了
麻省理工大学多媒体实验室成员、在剑桥大学取得了博士学位的Rana el Kaliouby,在5年的时间里,将一个AI情感研究小组发展为一家公司,通过计算机视觉、深度学习和大数据等方面的研究,通过对人类脸部表情的识别,判断情感并作出反馈。这家公司是AI创新公司是Affectiva。专注于分析人类情感的AI创业公司Affectiva,在2017年,曾经被Ve Interactive列为2017年全球 TOP 5 的顶级初创企业之一。最近,Affectiva推出了监测车内驾驶员情绪的一项服务,通过镜头拍摄,分析驾驶员开车时的脸部表情和声音,由此来判断驾驶人的情绪、精神状况和分心走神的程度,如果判定驾驶人不适合开车,可转为自动驾驶模式。
具体来说,Affectiva和汽车设备制造商合作,结合了传统的RGB镜头和近红外线镜头,侦测的项目包括驾驶人每分钟眨眼的次数、脸部的表情,通过深度神经网络截取脸部特征,经过预先设定的评分机制,来识别驾驶员疲劳、打呵欠等状况的AI分析模型,进而来来判断驾驶人适不适合开车。
在Affectiva的情绪引擎的AI模型中,通过脸部情绪、表情、嗜睡等评估标准,以及头部姿势、声音和情绪等特征,以脸部情绪为例,可分为开心、惊讶和愤怒三种情绪,表情则分为微笑、眼睛放大、眉毛上扬等等,嗜睡评估标准包括闭眼、打呵欠、眨眼和眨眼频率。
为了打造更为准确的计算模型,目前,Affectiva已在87个不同的国家中,收集了650万名驾驶人的开车脸部影像,来训练识别模型,让机器学习怎样从脸部的表情和声音,来判断情绪。
Affectiva认为,这项服务的价值是将监控驾驶人的疲劳和分心的程度,适时发出警告,若驾驶人处于愤怒的情绪,系统会建议先沿途休息停止驾驶,甚至,虚拟助手可以播放使其情绪放松的音乐来缓解愤怒,而如果驾驶人处于疲劳的状态,可以转换为自动驾驶,以减少事故的发生。
Affectiva创始人Rana,早年在一次TED演讲中,曾现场演示了“情绪引擎”对于表情的识别实验。可以准确地锁定志愿者的面部,并跟踪脸部重要特征点,志愿者分别作了面无表情、微笑、大笑、惊喜、困惑等表情,全部都能准确识别。
除了汽车领域,这项技术还被应用到了医疗、教育、视频、零售等各行业中。
最新资讯
热门视频
新品评测