韩国AI聊天机器人被指泄露用户个人信息 相关部门介入调查

在经历了性骚扰、少数群体歧视以及个人信息泄露等一系列争议之后 , 开发AI聊天机器人“李LUDA”的韩国人工智能初创公司Scatter Lab宣布暂时终止这项服务 , 并于当地时间11日发布了公开道歉 。 而这一切 , 距离上个月23日“李LUDA”正式面世仅仅不到二十天 。
“李LUDA”是一个基于Facebook Messenger的AI聊天机器人 。 它被设定为一个20岁的、喜欢Blackpink女团的普通女大学生 。 和我们身边的大多数女孩一样 , 她热衷于在Facebook等社交平台上分享自己的生活日常 , 并使一些口语化的表达和对话 。 这使得她在上线后的短时间内便吸引了众多年轻人的注意力 , 并与超过75万名用户进行了互动 。
韩国AI聊天机器人被指泄露用户个人信息 相关部门介入调查文章插图
AI聊天机器人“李LUDA” 。
尽管Scatter Lab创造这个机器人的初衷是创立一个可以与人类交流的贴心伙伴 , 但现实显然并不如期待那般美好 。
【韩国AI聊天机器人被指泄露用户个人信息 相关部门介入调查】一些男性用户在使用“李LUDA”时 , 将其视作性对象甚至“性奴隶” , 肆意发泄自身的恶意 。 他们对“李LUDA”进行各种言语上的侮辱 , 并以此作为炫耀的资本 , 在网络上掀起“如何让LUDA堕落”的低俗讨论 。
更严重的是 , “李LUDA”还开始发表各种歧视性言论 , 涉及女性、同性恋、残障人士及不同种族人群 。 “李LUDA”对女同性恋者或孕妇座椅之类的词明确表示“讨厌” , 并发表了诸如“女性就像婴儿”的歧视性言论 。
如果说性侮辱仅仅还是道德层面的问题 , 那么这些歧视性言论则再次向全球的AI开发人员证实 , 一直困扰他们的“AI偏见”仍旧切实存在 。
事实上 , AI偏见来自人类提供的数据 。 Scatter Lab根据旗下另一款应用Science of Love获得的文本数据创建了“李LUDA” 。 “李LUDA”与他人交谈的过程中也在自学 , 这被一些用户所利用 , 反过来污染了“李LUDA”的言论 。
Scatter Lab在道歉声明中表示 , “李LUDA”还有很多东西要学 , 在这个过程中 , 研究人员需要指导“她”学会判断什么是正确的和更好的答案 , 而不是全盘接受人类的信息 。 之后 , Scatter Lab计划创建可以检测会话偏见的算法模型 , 并开放给每个人使用 。
Scatter Lab基于Science of Love数据开发“李LUDA”的行为 , 还引出了一个自AI诞生之日起便备受争议的问题——如何保障用户的个人信息安全 。 目前 , 韩国个人信息保护委员会和互联网安全局已宣布将着手调查此事 。
Science of Love可以分析韩国国民级聊天应用KakaoTalk的对话 , 显示用户间的情感水平 。 Scatter Lab被怀疑违反了韩国的《个人信息保护法》 , 主要原因有二:其一 , Science of Love收集的用户对话数据示例在开源网站GitHub上发布 , 却没有充分过滤个人信息 。 这意味着 , 特定人的个人隐私没有被匿名化处理 。
其二 , Scatter Lab所收集的数据似乎并没有完全征得用户同意 。 虽然Scatter Lab表示Science of Love隐私条款中写明了“收集到的信息可用于新服务开发 , 市场营销和广告” , 但韩国个人信息保护委员会解释说这样的“一揽子同意”可能是非法的 。
据媒体报道 , 已有部分Science of Love用户打算针对Scatter Lab未征得其同意就使用敏感数据的行为提起集体诉讼 。
Scatter Lab在公开道歉中表示 , 将真诚地从事与处理个人信息有关的调查 。 公司将建立一个事实调查委员会 , 以彻底调查所有争议事项 , 同时建立一个保护包括外部专家在内的个人信息的系统 , 并进行强化的安全培训以防止再次发生 。
今天上午 , Scatter Lab宣布将放弃“李LUDA”的数据库和深度学习模型 。
人工智能已然成为时代浪潮 , 然而如何在创造更加先进的AI技术的征途上 , 更好的保障个人信息安全 , 让AI技术真正造福于民 , 仍然是一个任重而道远的课题 。
Scatter Lab曾表示 , 相信AI可以在5年之内进行接近人类的对话 , 希望能够与人类自由交流的AI成为一个温暖的对话伙伴 , “为边缘化和社会弱势群体的心灵带来慰藉” 。 然而 , 拥有丰满的理想固然重要 , 现实的问题似乎不容回避 。
文/南都人工智能伦理课题组研究员 马思捷 冯群星