将恶意“反哺”给人类?韩国聊天机器人引发AI伦理讨论
【环球时报特约采访人员 金惠真】韩国一家软件公司去年年底推出的AI聊天机器人“Iruda”近日争议不断。韩国《首尔新闻》11日称,“Iruda”先是成为网络性骚扰对象,后又被爆出对特定人群具有歧视和仇恨情绪,这引发韩国社会围绕AI社会伦理的讨论。
据报道,AI聊天机器人“Iruda”的“人设”为平时爱看猫咪照片、喜欢韩国女团的20岁女大学生,可以在聊天软件上像朋友一样聊家常,“是能帮人排解孤独的聊天对象”,自推出后深受年轻群体的喜爱。然而自推出以来,关于“Iruda”的各种话题不断。
据韩国《先驱经济》11日报道,此前韩国各大男网民社区上就有不少“成功羞辱Iruda”的各种认证照片:男网民与“Iruda”聊天时,会故意将话题引到两性方面,并借机夹杂各种污秽言语来羞辱和性骚扰“Iruda”,之后把聊天记录截图下来对外炫耀。网民还分享“如何让Iruda变成性奴隶”“让Iruda堕落的方法”等帖子。然而,就在“Iruda”接受人们无端的恶意时,也在将恶意“反哺”给人类。
一个网民公开的聊天记录显示,当“Iruda”被问到对同性恋群体的看法时,她直接回答“真心很讨厌,令人发火的程度”,至于原因,她的回答是“看起来很没品位”。另一个公开的聊天记录也显示,“Iruda”讨厌黑人,原因是“长得像蚊子,令人呕吐”。而对于建设女性专用健身房,“Iruda”更是彪悍地表示:“不喜欢,我估计会把那儿的所有女人揍一顿。”
报道称,作为AI聊天机器人,“Iruda”已通过深度学习算法对韩国聊天软件上100多亿条真实恋人之间的聊天内容进行学习,因此不少人此前推测AI会根据大数据分析、最终得出比较中立的见解和判断。但结果显示,AI如实学习了人类对社会的各种偏见和仇恨情绪,并将这种情绪的精华反哺给人类,加剧社会矛盾和偏见。
【将恶意“反哺”给人类?韩国聊天机器人引发AI伦理讨论】研究AI伦理的韩国庆熙大学教授金载仁(音)认为,有必要对程序开发员加强伦理教育,让他们预先设想这样的AI机器人上线后,会引发什么样的社会问题和争议,进而做到事先筛选和过滤不恰当的数据。目前,研发团队正在就进一步改进“Iruda”进行研究。
- 华为鸿蒙系统|鸿蒙是安卓“换皮”产品?一亿多用户,难道还不足以说明问题
- playstation5|手慢就没有了!索尼PS5国行版将在双十二补货:库存一万台
- 彩电|彩电价格还跌吗?家电年底销售“小高潮”还会不会来?
- 智能化|感知局限下,车路协同的“子弹”还得再飞会儿
- 华为鸿蒙系统|都2021年底了,为何Mate40Pro还是目前公认最好用的“安卓”手机
- 苹果|无“芯”可用,华为开卖“二手”手机,可7天无理由退货!
- OPPO|OPPO未来科技大会正式官宣,官方明示将有旗舰新品和创新技术亮相
- 显卡|田言梦语:你会买RTX 40系列“空气”显卡吗?
- 小米科技|雷军:小米12即将发布!首款搭载骁龙8手机,性能和功耗咋样?
- 显示器|全面进化的骁龙8,演示了什么叫“无敌是多么寂寞”