美媒:麻省理工学院研究能“听到”无声之言的设备

《美媒:麻省理工学院研究能“听到”无声之言的设备》,对,你要找的就是这篇文章啦,傻大方资讯小编为了帮你找到这篇文章已经用了洪荒之力啦!

正文开始:





参考消息网4月9日报道 美媒称,麻省理工学院(MIT)的学生制造出一种名为AlterEgo的设备原型,它能够识别无声无息、自言自语的话,并根据理解执行命令。





据美国《大众科学》月刊网站4月6日报道,阿尔纳夫·卡普尔是MIT传媒实验室的硕士生,也是相关论文的作者。他说,这款设备并不能读心,也不能读取一闪而过、没有意识的念头。他说:“这款设备读取的既不是内心的想法,也不是大声说出的话,而是介于二者之间的信息。这种信息既是有意识的,也是私密的。我们捕捉的就是这个。”传媒实验室是MIT重点研究人与技术交互的实验室。





报道称,从它现在的样子来看,这个设备原型像电话营销人员佩戴的白色耳机。不过,电话营销人员佩戴的耳机通常会在嘴部前面设置一个麦克风,而这款设备则紧紧贴合面部和颈部,上面放有很多电极,用来捕捉自言自语时肌肉微妙运动产生的微弱电流信号。设备通过蓝牙技术连接计算机,计算机与服务器通信,后者解读信号,判断佩戴者说的是什么。





报道称,虽然现在还处于原型制作阶段,但是它对当前交互模式的颠覆令人着迷。换句话说,这种技术就像佩戴一款能听到你无声之言的Siri。





研究这种技术的目的是什么?卡普尔说,目的是促进“人机紧密结合”。人们与计算机的交互越紧密,就越能充分利用计算机的优势——比如在解数学题或者翻译时迅速获得帮助,而不必放下手里的工作,然后去点击鼠标或者打字。





毫无疑问,这种技术目前仍处于起步阶段,每一款应用软件只能学会20个单词。这套系统无法理解一个人说的所有的话——只能理解它学会的词。卡普尔说,有意识地自言自语,但不全部大声说出来,这是一种简单的学习行为。在培训人们使用这款设备时,首先要求学员大声读出一段话。“读完后,我们要求他们再读的时候不要发出声音。这比大声说出来更舒服。”





报道称,为了研制这一设备,卡普尔使用了一种常见的人工智能工具,即神经网络。神经网络能够通过输入的数据进行学习。研究人员训练神经网络,让它识别不同的电信号如何对应一个人对自己说的不同的词语。