脑极体@如何打开商业化正确姿势?,情感智能进行时

在初为父母的前几年时间里 , 你们会有一件其乐无穷的事情就是观察孩子们的情感状态 。 小孩子的情感的丰富度是随着大脑的日渐发育 , 还有生活经验 , 尤其是父母的情感和情绪表现而逐渐发展的 。
细心观察就会发现 , 孩子们会由最开始的本能的哭泣、开心 , 慢慢流露出生气、着急、疑惑和好奇 , 个性开始展现 。 再然后她便开始学着模仿大人的表情 , 表现出委屈、愤怒、不情不愿、悲伤、害怕 , 也表现出兴奋、淘气、使坏得逞后的得意、装模作样被发现后的狡黠……
脑极体@如何打开商业化正确姿势?,情感智能进行时
文章图片
在个性、言语和情绪掌握上 , 父母很大程度就像是孩子的镜像 , 孩子就是父母的印刻 。 几乎每个家庭都在用自己的方式培养这样一个“纯人工智能” 。
世界级神经科学家安东尼奥·达马西奥在其著作《笛卡尔的错误》中指出 , 情绪和情感也是人类理性的基础 , 情绪部分的缺失使得理性决策难以实现 。 简单来说 , 人类的理性不仅仅由智商(IQ)决定 , 也受情商(EQ)决定 。
这一研究解释了人类的智能不是简单的逻辑计算和推理 , 还有情绪感受推动着的决策和行动 。 那么 , 对于人工智能而言 , 仅仅具有分析和识别能力是远远不够的 , 能否具有情绪情感的识别和表达能力才是向人类智能的大步飞跃 。
正如马文·明斯基所言:“如果机器不能够很好地模拟情感 , 那么人们可能永远也不会觉得机器具有智能 。 ”
如何让机器具有识别、理解和表达人的情感的能力 , 其实也早已进入人工智能研究的视野之内 。 在1997年 , MIT媒体实验室的AI专家罗莎琳德·皮卡德教授已经正式提出“情感计算(AffectiveComputing)”的概念 , 也同时开创了计算机科学、神经科学和人工智能学科结合的这一分支学科——情感计算 , 从而推动了情感识别分析与AI技术相结合的情感智能的持续发展 。
我们知道最近十年里AI技术的爆发 , 主要是在计算机视觉、自然语言处理、语音识别等机器学习和深度学习算法领域发生的 。 图像识别、语音识别等AI应用在产业的成熟落地 , 其风头正劲的光芒遮盖了仍处在探索当中情感智能的发展 。 同时 , 这也说明情感智能是下一阶段更高阶的AI技术 , 其成熟度和应用场景还需要更多时间来培养 。
根据德勤最新一份研究报告 , 作为2020年后新技术趋势的情感智能 , 将成为很多人重新体验AI技术的新方式之一 。
也就是说 , 情感、情绪 , 这一原本专属于人类个体的独特而又复杂的内在属性 , 正在成为被技术模拟和商业重构的生产力形式 , 现在以人机交互的方式来到我们身边 。
那么 , 情感到底是如何被机器计算?情感智能的商业化是否靠谱?我们希望带着这些令人好奇问题深入到情感智能的最前沿 。
情感情绪识别 , 实现情感智能第一步
在搞清楚情感计算和情感智能之前 , 搞清楚情感概念本身就是一个非常复杂的问题 。 据统计 , 关于情感的研究和定义 , 相关的理论就有150种之多 。
我们可能很轻松地认出他人神态、语气、姿势当中包含的当下情绪和持续的情感状态 , 但是让我们说清楚到底什么是情感 , 不同状态、不同程度的情感的细微差别 , 可能就非常难了 。
那么 , 在识别情感情绪这件事情上 , 机器可以做的比人类更好吗?
我们可以肯定的是情感是可以计算的 。 从性质上 , 情感其实可以区分为生理上的和心理上的两个部分 。 前者体现为表情、音调、身体姿态以及依靠传感器才能觉察的肌肉、心电反应;后者体现为个体的内在的心理状态 , 前者是后者的生理性表现 , 后者又是前者的心理基础 。
显然 , 机器更擅长从前者的角度来识别和认知情感情绪 。 在情感计算的研究中 , 情感情绪识别是最基础 , 也是最重要的研究领域 。