文章插图
如果一个机器人请求你不要将它关闭时,你会狠下心拔掉它的插头吗?德国的一项研究发现,如果机器人向人类求情,人们很有可能会动恻隐之心,答应它的请求 。
这项研究邀请了85个人,并让他们独自坐在Nao机器人对面 。在实验中,他们被告知需要完成一系列任务,以提高机器人的交互能力 。而在任务完成后,参与者被告知他们可以关闭机器人 。
在某些试验中,机器人将不会表现出任何拟人情感,仅和参与者进行功能性交互 。而在某些情景,机器人会进行更多的“社交”行为,比如发表有趣的言论或提供自己的个人信息 。无论是哪种情况,在对话结束、实验参与者准备关机时,机器人会发出乞求:“不!请不要关掉我!我怕没有机会再开机了! 。
实验结果显示,当机器人提出请求时,参与者会出现明显的犹豫 。最终,有14名参与者选择让机器人继续工作,当被问及为什么时,其中8人称,他们为机器人感到难过,因为它告诉他们它害怕黑暗 。另外6个人说,他们不想违背机器人的意愿,把它关掉 。
“参与者对求情的机器人有不同的看法,部分人认为,机器人的反对是他们的自主想法,”研究人员在报告中写道,“在反对意见的推动下,人们倾向于将机器人视为一个真实的人,而不仅仅是一台机器,他们会答应或至少考虑答应机器人的要求 。”
很明显,当机器算法的逻辑在未来无限逼近人类思考逻辑时,机器人有能力像人类一样“玩弄”感情 。而以上试验还只是针对成年人,另外有研究表明,小孩子比成年人更容易受到机器人的影响 。
普利茅斯大学研究人员在一场实验中,分别比较了成年人和儿童,在同伴和机器人陪伴的情况下对任务的反应 。结果表明,成年人容易受到同龄群体的影响,但多半能明确抗拒机器人的提议 。相反,年龄在7到9岁之间的儿童,很有可能跟随机器人做出选择,即便这些选择明显是错的 。
这项研究采用了的50年代兴起的Asch方法,该方法要求人们看着屏幕上显示的4行文字,并指出哪2行长度匹配 。当单独进行测试时,几乎没人犯错,但是在有同伴的情况下,有些人会下意识地遵循别人说的话 。当儿童们单独呆在房间里时,他们在测试中的得分为87%,但当机器人加入他们的测试时,分数下降到75% 。在错误的答案中,74%的答案与机器人相同 。
科学家称,这项研究提供了一个有趣的视角,让我们了解机器人如何在社会中发挥作用 。不过,他们也表示,这确实引发了一些担忧,即机器人可能对幼儿脆弱的心智产生负面影响 。
本次研究的带头人分别是前普利茅斯大学研究员、现比勒费尔德大学博士后研究员沃尔默(Anna Vollmer)和普利茅斯大学机器人技术教授贝尔帕姆(Tony Belpaeme) 。贝尔帕姆表示:“我们早就知道,人们经常听从他人的意见,我们很难拒绝接受周围人的观点和意见 。这就是从众效应 。但是,因为机器人很快就会出现在家庭和工作场所,我们想知道人们是否会跟从机器人的行为 。
“研究结果表明,成年人不太会受到机器人的想法影响 。但是当我们用儿童做实验时,他们受到的影响更深 。这表明,儿童可能比成人更容易受控于机器人,这引出了一个问题:如果机器人开始向人提建议,人们该如何应对?
普利茅斯研究人员对社交机器人进行了广泛的研究工作 。除了以上实验外,他们为期4年的ALIZ-E项目也展示了社交机器人的积极作用——帮助糖尿病儿童接受他们的病情 。此外,他们正推进L2TOR项目,打算设计一种机器人,可以帮助学龄前儿童学习第二语言 。
【快宝机器人(你在开玩笑吗)】在对当前研究的总结中,研究人员补充道:“自主社交机器人被用于教育专业人员或儿童治疗师的辅助治疗的未来并不遥远 。在许多领域中,机器人可以提供信息,有效地影响与之交互的个体 。需要讨论的是,是否应该采取保护措施,例如制定一项监管框架,将社交儿童机器人互动过程中对儿童的风险降至最低,以及可能采取何种形式,以免对该领域有希望的发展产生不利影响 。
猜你喜欢