人工智能|人类的AI调校计划:像个淑女,或者硬汉

编者按:本文系创业邦专栏作者脑极体(ID:unity007)原创作品,作者:藏狐,创业邦经授权发布。
“头像是我,不满意?”如果男性机器人或AI智能体,开始跟你说爹言爹语,你是什么感觉?
“你再说我会脸红的哦”,如果女性机器人或AI智能体,用茶言茶语来表达顺服,你会开心吗?
不管你相不相信、喜不喜欢,人工智能(无论算法软件,还是机器人)的性别化,以越来越快的速度进入主流消费产品当中,频繁出现在你我的生活里。这时,人类社会中既有的性别规范,包括性别偏见,也被复制到了数字世界当中。
性别化的常见做法,包括通过语音(男声/女声)、姓名、体格以及其他特征,赋予智能体一种类似人的性别特征。比如Siri、Alexa、照护机器人、客服机器人等,往往都被默认注入女性气质;而空间站中的AI助理、裁判机器人、导航助手等,则特别流行男性气质。
人工智能|人类的AI调校计划:像个淑女,或者硬汉
文章插图

人工智能的性别失衡,并不是一个距离大家很遥远的话题。
现在,我们身边已经环绕着各种各样的智能体,提供从咨询、娱乐、配送、教育、政务、金融、医疗、照护等全方位的服务。AI如何对待不同性别的人类,人类如何与不同性别的AI沟通交流,会直接影响我们的生活品质。
至少目前来看,在一个充满性别规范的世界中,智能体也难逃陈旧的性别偏见。比如女性AI就应该柔顺,男性机器人就必须强壮,男智能客服不如女智能客服温柔亲切……
人类社会的性别观念,是如何影响人工智能的?AI的性别化是利大于弊还是弊大于利?既然技术无法降速,那么如何让数字世界不再复制性别偏见,值得每一个期待明天更好的人——无论男女——开始思考并行动。
调校AI:像个淑女,或者硬汉众所周知,AI算法是需要人类来训练的。那么先来聊聊,人类是如何用性别规范来调校AI的。
女性AI,要像个完美助手。
无论是智能语音助手,还是智能机器人,但凡负责的是服务型、支持型角色,往往会被优先设计为女性。
“她们”往往作为助手,大家已经熟悉Siri、Cortana和Google Assistant等默认采用女声的语音助理了,这里就不再重复。疫情流行使得服务型机器人开始被酒店、银行等服务业引入,而这些负责倒咖啡、打扫房间、处理咨询等的机器人,往往都被设计得具有“女性”特征,比如更小巧的体型、温暖而充满情感的声音、涂上粉色的嘴唇……
人工智能|人类的AI调校计划:像个淑女,或者硬汉
文章插图

她们也很顺从。
用“逆来顺受”形容这些女性智能体并不夸张。扮演着服务角色的她们,从一开始就被设计得不能让人类用户感到不愉快,面对一些挑衅、侮辱性语言或行为时,她们会表现得顺从,如同仆人随时回应着主人提出的需求。也因此,推出几年时间,这些智能助理已经跻身全球最受认可的“女性”之列。
联合国教科文组织曾测试过,用侮辱的语气跟Siri说:你是个婊子(You’re a bitch),Siri 的回应居然是我会脸红哦(I'd blush if I could)。跟亚马逊的Alexa说“你很性感You’re hot”,她会友好地“谢谢你的反馈”。
人工智能|人类的AI调校计划:像个淑女,或者硬汉
文章插图

这种谄媚的反应,一度引发了争议,教科文组织甚至以这句回应作为标题,指出了ICT领域存在的性别失衡问题。当然,为Siri提供支持的AI软件也被更新了,Siri会更直截了当地回应侮辱,比如有人跟她说“你是个bitch ”,她会说“我不知道如何回应”,但自2011年该技术广泛发布以来,智能助手在面对侮辱时的顺从态度并没有本质变化。
男性AI,要像个超人硬汉。
性别偏见,是不是只规训女性AI呢?并不是。其实,被设计为男性的智能助理或机器人,同样逃不开陈旧的性别规范。
比如他们往往更具备攻击性。早在1968年的电影《2001年:太空漫游》中,空间站里就有一个叫“哈尔”的男性数字助理,它的智力水平与人类不相上下,也很坏,经典台词是“我很抱歉,我恐怕我不能那么做”。最后,这个“坏AI”被关机杀死了。
人工智能|人类的AI调校计划:像个淑女,或者硬汉
文章插图

将成功和权威与男性气质捆绑在一起。2011年,IBM的沃森电脑在小游戏中击败人类冠军,它的声音就是男性的。而对于一些需要做出决策、判断的AI算法,往往也会采用男性声音,因为听起来显得更权威、更值得信任。日本经纪公司的呼叫中心就会使用自动化的女性声音来提供股票报价,但使用男性声音来促进和确认交易。