特朗普被惹怒:Facebook等社交平台极端主义言论盛行,「打标签」是否必要?

科技观潮techsina
与浪同行

特朗普被惹怒:Facebook等社交平台极端主义言论盛行,「打标签」是否必要?
文章图片
【特朗普被惹怒:Facebook等社交平台极端主义言论盛行,「打标签」是否必要?】Facebook被设计成一个公开讨论的场所 , 人性导致了这些讨论往往会激烈和两极分化 , 而Facebook选择了相对宽松的方式来管理这种分化 。 因为高管们认为 , 世界受益于喧闹的、几乎不受限制的讨论 , 也因为他们不相信这些讨论正在分裂国家 。
出品/新浪科技 ID:techsina
编译 / 李明
据外媒报道 , 正是Facebook自家的算法推荐才导致Facebook平台上极端主义内容的盛行 , 而Facebook高管自2016年就了解此事 , 但并未采取有力的措施 。
《华尔街日报》本周二发表了一篇文章 , 报道了Facebook自2016年以来抗击极端化的努力 。 这篇报道基于Facebook内部文件 , 以及对现任和前任员工的采访 , 详细地描述了Facebook是如何通过各种途径来阻止平台上分裂内容的传播 。 但在许多情况下 , Facebook却拒绝了致力于解决该问题的员工们的建议 。
文章称 , 在Facebook上加入极端组织的人群中 , 超过60%是因为Facebook的算法推荐所导致 , 包括高级副总裁乔尔·卡普兰( Joel Kaplan)在内的Facebook高管自2016年就知道该问题 , 但却扼杀了解决这一问题的努力 。
文章指出 , Facebook在2016年进行了一项研究 , 发现该平台上的极端主义内容和团体的比例高得令人担忧 。 Facebook研究员兼社会学家莫妮卡·李(Monica Lee)当时在一次演讲中称 , 超过1/3的德国大型政治Facebook群组存在大量极端主义和种族主义内容 。
莫妮卡·李还发现 , 当Facebook用户加入极端主义组织时 , 近2/3(64%)的时间是由Facebook的算法推荐的 , 这意味着该网站自己的推荐系统在社交媒体用户中“加剧了极端主义问题” 。
文章写道:
Facebook在2018年的一张幻灯片上写道:“我们的算法利用了人脑对分裂的吸引力 , 如果任其发展 , Facebook将向用户提供越来越多的分裂内容 , 以努力获得用户的关注 , 并增加在平台上的停留时间 。 ”
解决这种极端化问题是非常困难的 , 需要Facebook重新考虑其一些核心产品 。 其中最值得关注的是 , 该项目迫使Facebook考虑如何确定“用户参与度”的优先顺序 。 “用户参与度”是一项涉及停留时间、点赞、分享和评论的指标 , 多年来一直是其系统的指路明灯 。
对于上述描述 , 首先要说的是 , “极端化”可能意味着很多事情 , 这可能会让关于Facebook在这个问题上的贡献的讨论变得困难 。 从狭义上讲 , 可以谈论充满党派情绪的新闻推送(news feed)可能会导致国家分裂的方式 。 同时 , 也可以将其作为一个笼统的术语 , 来谈论Facebook和其他社交网络最近所称的“平台完整性”相关的举措 , 例如 , 消除仇恨言论 , 或者给错误信息贴上标签 。
关于“极端化”要说的第二件事是 , 虽然它有很多负面影响 , 但需要考虑的是 , 你提出的替代方案是什么 。 如果你是一家科技公司的CEO , 那么这个问题就会涉及到“对抗”极端化的挑战:即使你把它视为敌人 , 也不清楚你会用什么标准来团结你的公司来应对它 。分页标题
不管怎样 , Facebook对《华尔街日报》的这篇报道反应非常沮丧 。 负责相关事务的Facebook高管盖伊·罗森(Guy Rosen)周三发表了一篇博客文章 , 列出了该公司自2016年以来为对抗“极端化”所采取的一些措施 。
这些措施包括改变新闻推送 , 使其包含更多来自朋友和家人的帖子 , 而不是出版商的帖子;启动一个事实核查计划;通过机器学习系统和内容审查队伍 , 更快地检测仇恨言论和其他恶意内容;从算法推荐中删除违反Facebook政策的群组 。
罗森在这篇博客文章中称:
我们已经采取了许多重要的措施 , 来减少可能在我们的平台上导致极端化的内容数量 , 有时是以牺牲收入为代价的 。 这项工作永远不会结束 , 因为归根结底 , 网络话语是社会的延伸 , 而网络话语又是高度极端化的 。 但我们的工作是减少极端化对我们产品体验的影响 , 我们正致力于做到这一点 。
据Facebook内部Workplace上的一篇帖子 , Facebook对这篇报道感到沮丧的原因之一是 , Facebook花了“几个月”的时间与《华尔街日报》的采访人员讨论这一发现 。 Facebook让公司多名高管进行公开和非正式的交谈 , 其中包括负责全球公共政策的卡普兰 。
不管怎样 , 关于这篇报道和Facebook的回应 , 有两件事值得一提 。 首先 , Facebook对极端化的看法存在内部紧张 。 其次 , 要求Facebook解决分裂(极端化)问题 , 可能影响Facebook解决其他问题的注意力 , 包括阴谋论、错误信息和仇恨言论的病毒式传播 。
关于内部紧张问题 , 一方面 , 文章所描述的Facebook与极端化作斗争的举措都是真实存在的 。 在过去的几年里 , Facebook在平台完整性方面投入了大量资金 。 而且 , 正如一些Facebook员工所说的那样 , Facebook有充分的理由不去实施团队提出的每一个建议 。
例如 , 有些努力可能没有已经在实施的其他努力那么有效 , 或者它们可能会产生意想不到的负面后果 。 显然 , 团队中的一些员工觉得他们的大多数想法没有被采用 , 或者被淡化了 。 但许多公司的许多团队都是如此 , 这并不意味着他们所有的努力都是白费的 。
另一方面 , Facebook的高管在很大程度上拒绝接受 , 该平台在分裂国家层面上存在极端化的观点 。 事实是 , 在许多大国 , Facebook在那里的使用率很高 , 但极端化正在减少 , 这有助于解释为什么Facebook高管没有把这个问题放在首位 。
因此 , 这样一个案例表明 , Facebook在平台完整性方面可能是“正确的” , 而《华尔街日报》在更大的层面上是正确的:Facebook被设计成一个公开讨论的场所 , 人性导致了这些讨论往往会激烈和两极分化 , 而Facebook选择了相对宽松的方式来管理这种分化 。 之所以这样做 , 是因为高管们认为 , 世界受益于喧闹的、几乎不受限制的讨论 , 也因为他们不相信这些讨论正在分裂国家 。
END

特朗普被惹怒:Facebook等社交平台极端主义言论盛行,「打标签」是否必要?
文章图片
科技观潮 , 与浪前行
微信号 : techsina
微博:@新浪科技
百家号:新浪科技