meta|为了糊口,我每天在Facebook看屠杀( 三 )


仇恨言论太复杂了 , 所以 Facebook 将它分成了几个层级 。 第一级 , 包括称呼男人为人渣 , 以及将某个群体比作细菌、性掠食者或者“在文化上被认为智力或身体上低劣的动物”;第二级 , 是暗示低劣的侮辱 , 比如说某人或某个群体有精神疾病或一无是处;第三级 , 是一种政治或文化上的侮辱 , 包括呼吁隔离、承认种族主义或者直接咒骂 。 不同的层级对应不同的处罚措施 。
问题是 , 针对男人或亿万富翁这样的强大群体的仇恨言论 , 是否应该像针对性别或种族等受保护群体的诽谤一样受到严厉对待 。 结果很有趣:报告称 , 最好的结果是予以区分 , 让人们对掌控权力的群体发泄 。 但是 , 这种处理方式没有被接受 , 因为这就要求内容审核员做出过于复杂的决定 。
内容审核员自己说 , 他们已经做好承担责任的准备 。 不足为奇 , 这些承包商渴望将自己提升到员工的地位 。 这并不容易 , 因为内容审核所需的“技能组合” , 不同于那些创建或营销 Facebook 产品所需的有用技能 。
内容审核员贾斯廷说 , 他曾令人痛心地处理过一些有问题的内容 , 不是因为用户的不良行为 , 而是因为用户已经去世 。 Facebook 的算法经常会让死者的账号信息出现在其至爱的人的动态消息上 , 这可能会造成一具溺亡的尸体浮出水面的效果 。 Facebook 现在为去世的用户精心准备了“纪念”的方案 。 “纪念真的很有压力 。 ” 他说 。
凤凰城的内容审核员似乎认为 , 接触到令人不安的图片是工作中不那么愉快但可以忍受的一部分 。
有时候 , 某些事情会刺激到他们 ,他们就去找治疗师 。 有一位内容审核员告诉我 , 有一个“狠狠揍我” 的帖子里包含一条视频 , 其中有动物与人发生性行为、被屠杀、排便以及其他一些画面 。 “这让我难受了整整两周 。 ”他说 。 在治疗师的帮助下 , 他渡过了难关 。
Facebook 会定期审查内容审核员所做出的决定 , 当出现重大错误时 , 它会进行事后分析以便改进 。 但是 , 时间和金钱的综合因素决定了做出这些决定的速度 , 并导致错误经常发生 。 “如果每个人每天只审查一条内容 , 我们可能就不会犯错误 。 ”前内容审核员贾斯廷早些时候曾告诉我 。
这是 Facebook 的主要困境:它一直在招聘内容审核员 , 但他们需要浏览的内容数量仍然太多 , 以致他们不得不加快速度 , 最终导致无法做好自己的工作 。
人们注意到 , 当内容审核员错误地删除一张照片时 , 发布者就会去社交媒体投诉 。 当有人报告了令人不快的内容 , 而它没有被删除时 , 又会引起更多的投诉 。
媒体注意到:写一篇报道 , 说 Facebook 做出了一个现在看起来很糟糕的决定 , 这在新闻领域是易如反掌的事 , 但这个糟糕的决定很可能是一位工作劳累过度甚至精神受到创伤的内容审核员所为 。 扎克伯格自己也承认这一点 。 “我们公开的问题中 , 十有八九并不是因为我们的政策得不到大家的普遍认可 , 而是因为我们在处理这个问题时搞砸了 。 ”他说 。
接受采访的内容审核员对我说 , 尽管会面临时间的压力 , 还会看到人性最糟糕的一面 , 但作为一份工作 , 为 Facebook 做内容审核并不算太糟糕 。 他们将自己视为默默无闻的第一目击者 , 保护几十亿 Facebook 用户免受伤害 。 “我曾跟一些拯救过他人生命的内容审核员交流过 , 当看到有人企图自杀时 , 他们及时向执法部门做了报告 。 ” 阿伦·钱德拉(Arun Chandra)说 。 2019 年 , Facebook 聘请他来领导内容审核工作 。 “令人惊喜的是 , 这项工作能让人获得满足感和自豪感 。 ”
萨拉·罗伯茨告诉我 , 她在自己的工作中发现 , 如果内容审核员  意识到自己只不过是一台机器的齿轮 , 而他们的雇主或者与他们雇主 签约的公司又没有真正倾听他们的意见 , 他们良好的感受会大大削弱 。
“即便有人听取过他们的反馈意见 , 这种情况也是很罕见的 。 ”她说 。 有一次 , 一名内容审核员告诉她 , 一件自杀威胁得到了积极的解决 。 “我们从来没有停下来问问自己 , ”这名内容审核员说 , “人们在我们 的平台上看到的垃圾内容 , 在多大程度上导致他们想要自我伤害 。 ”
几个月之后 , 我采访的凤凰城内容审核员们就遭遇了一起不愉快的意外事件 。 2019 年 10 月 , 高知特公司决定不再参与 Facebook 的内容审核工作 。 Facebook 宣布将关闭凤凰城的办公室 , 那些数字内容第一目击者将面临失业 。