人工智能正在理解人类情绪?

原标题:人工智能正在理解人类情绪?
很长时间以来 , 是否具备情感 , 是区分人与机器的重要标准之一 。 换言之 , 机器是否具有情感也是机器人性化程度高低的关键因素之一 。
当前 , 人工智能已呈现高速增长和全面扩张的态势 。 一方面 , 人工智能不断朝更深层的智能方向发展 , 包括数学运算、逻辑推理、专家系统、深度学习等;另一方面 , 人工智能不断向社会的各个领域进行扩展 , 从智能手机到智能家居 , 从智能交通到智能城市等 。
“感知智能”逐渐向具有理解和表达能力的“认知智能”转变 , 为机器赋予感情成为必然趋势 。 人工智能之父马文·明斯基就曾提到 , “如果机器不能够很好地模拟情感 , 那么人们可能永远也不会觉得机器具有智能” 。
想要人工智能理解人类感情 , 则需要从人工智能的情感计算开始 。
人工智能正在理解人类情绪
试图让人工智能理解人类情感并不是新近的研究 。
早在1997年 , 麻省理工学院媒体实验室Picard教授就提出了情感计算的概念 。 Picard教授指出 , 情感计算与情感相关 , 源于情感或能够对情感施加影响的计算 。 简单来说 , 情感计算旨在通过赋予计算机识别、理解和表达人的情感的能力 , 使得计算机具有更高的智能 。
自此 , 情感计算这一新兴科学领域 , 开始进入众多信息科学和心理学研究者的视野 , 从而在世界范围内拉开了人工智能走向人工情感的序幕 。

人工智能正在理解人类情绪?
文章图片
情感计算作为一门综合性技术 , 是人工智能情感化的关键一步 , 包括情感的“识别”、“表达”和“决策” 。 “识别”是让机器准确识人类的情感 , 并消除不确定性和歧义性;“表达”则是人工智能把情感以合适的信息载体表示出来 , 如语言、声音、姿态和表情等;“决策”则主要研究如何利用情感机制来进行更好地决策 。
识别和表达是情感计算中关键的两个技术环节 。 情感识别通过对情感信号的特征提取 , 得到能最大限度地表征人类情感的情感特征数据 。 据此进行建模 , 找出情感的外在表象数据与内在情感状态的映射关系 , 从而将人类当前的内在情感类型识别出来 , 包括语音情感识别、人脸表情识别和生理信号情感识别等 。
人脸表情识别显然是情感识别中关键的一部分 。 在人类交流过程中 , 有55%是通过面部表情来完成情感传递的 。 20世纪70年代 , 美国心理学家Ekman和Friesen对现代人脸表情识别做了开创性的工作 。
Ekman定义了人类的6种基本表情:高兴、生气、吃惊、恐惧、厌恶和悲伤 , 确定了识别对象的类别;建立了面部动作编码系统(facialactioncodingsystem , FACS) , 使研究者能够按照系统划分的一系列人脸动作单元来描述人脸面部动作 , 根据人脸运动与表情的关系 , 检测人脸面部细微表情 。
情感识别是目前最有可能的应用 。 比如 , 商业公司利用情感识别算法观察消费者在观看广告时的表情 , 这可以帮助商家预测产品销量的上升、下降或者是保持原状 , 从而为下一步产品的开发做好准备 。
机器除了识别、理解人的情感之外 , 还需要进行情感的反馈 , 即机器的情感合成与表达 。 与人类的情感表达方式类似 , 机器的情感表达可以通过语音、面部表情和手势等多模态信息进行传递 , 因此机器的情感合成可分为情感语音合成、面部表情合成和肢体语言合成 。
其中 , 语音是表达情感的主要方式之一 。 人类总是能够通过他人的语音轻易地判断他人的情感状态 。 语音的情感主包括语音中所包含的语言内容 , 声音本身所具有的特征 。 显然 , 机器带有情感的语音将使消费者在使用的时候感觉更人性化、更温暖 。
从情感计算的决策来看 , 大量的研究表明 , 人类在解决某些问题的时候 , 纯理性的决策过程往往并非最优解 。 在决策的过程中 , 情感的加入反而有可能帮助人们找到更优解 。 因此 , 在人工智能决策过程中 , 输入情感变量 , 或将帮助机器做出更人性化的决策 。
微软的研究人员曾在这个问题上给出过答案 , 他们提出了一种基于周围血管搏动测量(PeripheralPulseMeasurements)的内在奖励的强化学习新方法 , 这种内在奖励是与人类神经系统的响应相关的 。 研究人员假设这种奖励函数可以帮助强化学习解决稀疏性(sparse)和倾斜性(skewed) , 以此提高采样效率 。
“情感”鸿沟的跨越和未跨越