AI不仅能认脸,还能“读心”
原标题:研究显示人工智能可确定性格和面部特征关系 AI不仅能认脸,还能“读心
近日,《自然》杂志发表了一篇论文,利用人工智能研究了性格和面部特征之间的关系。研究团队征集了12000多名志愿者,利用人工智能技术通过31000多张自拍学习了128种人脸特征,并且将志愿者的人格特征分为五类,即责任心、神经质、外向性、亲和性、开放性。结果显示,AI在基于静态面部图像预测性格方面的准确率达到了58%,其中对于责任心的准确率高于其他四个人格特征。用AI识别性格,这种“玄乎”的操作让人不禁联想到之前在网上大为流行的“AI相面”,而事实证明,利用AI相面是假,坑钱是真。
那么这次《自然》杂志发表的研究成果和“AI相面”有哪些区别呢,我们是否真的可以通过面部特征窥见人心?
通过映射函数确定面部和性格关系
“‘AI相面’并不可靠,大多是数据拟合出来的一个牵强附会的结果。”中国科学院自动化研究所研究员孙哲南接受科技日报记者采访时表示。
此前已有媒体报道了“AI相面”的“吸金”套路及其分工明确的生意链。北京理工大学教授翁冬冬接受媒体采访时也表示,面部识别虽然是身份识别的主流方向,但用于看相并没有科学依据,娱乐性质更多一点。这样的程序开发门槛并不高,在网购平台花几百到几千元购买外包服务就能很快开发出来。
孙哲南表示,与“AI相面”不同的是,论文中的研究采集了大量样本,并用计算机深度神经网络模型学习了人脸特征与性格之间的关联映射函数。论文显示,研究最初的样本参与者达到25202名,照片总数达到了77346张,经过数据筛选程序,最终得以保留的数据集包含12447份有效问卷和31367张照片。这些参与者的年龄介于18岁至60岁之间,其中女性占比59.4%,男性占比40.6%。在此基础上,研究团队用神经网络评估了人脸的128种特征,比如嘴巴宽度、嘴唇或眼睛高度,确保了实验覆盖的数据量级和多样性。得到数据之后,研究人员将数据分为两组,一组用来训练AI,一组用来测试神经网络的准确性。实验中的两类数据,用于训练的数据集占比90%,用于验证的数据集占比10%。
在AI系统的设计上,研究人员开发了一种计算机视觉神经网络(NNCV),来区分不同的面孔,并且记住面部图像的特征。同时,研究团队还训练了人格诊断神经网络(NNPD),NNPD根据从NNCV分析出的信息,预测输出五种人格特质,整个过程分别针对男性和女性面部识别进行。
进行情感计算需先建立与心理活动的关联
通过上述研究我们不难发现,目前人脸识别已经有从“读脸”到“读心”的发展趋势,那么通过照片、视频等识别人脸表情,人脸识别技术需要哪些发展?
孙哲南认为,人工智能的“读心”功能目前主要是通过情感计算实现。
早在1997年,MIT媒体实验室就提出了情感计算的概念,情感计算旨在通过赋予计算机识别、理解和表达人的情感的能力,使得计算机具有更高的智能。在情感计算的研究中,情绪识别是最基础、最重要的内容之一。而情绪识别主要通过面部表情、语音、文字、生理信号等模态的数据,来识别出人类的各种情绪。
“目前情感计算已有一些研究成果和进展,但是技术还不够成熟。通过表情分析心理活动是情绪识别不可缺少的方式,但表情识别比人脸识别更加难,因为心理活动的表现因人而异,很难统一建模全球所有人的喜怒哀乐与人脸数据之间的量化关系。首先给人脸图像标注情感类别和强度就是很难的事情,‘一千个观众眼中有一千个哈姆雷特’;此外,情绪判定存在主观性甚至掺杂地域文化风俗习惯等因素。”孙哲南说,因此从识别身份到识别表情,人脸识别技术需要更先进的计算模型建立人脸图像、视频与心理活动之间的关系。但目前机器人有智商无情商,达到高度和谐的人机共存仍然任重道远。
此外,孙哲南强调,如果通过面相自动判断性格的技术到达成熟阶段,这种技术将会在企业招聘、职业规划、人机交互、广告营销等领域得到应用。但这种基于面相的性格识别会先入为主地判定人物性格,进而带来一些伦理问题,例如性格歧视与偏见等。(记者 马爱平)