meta|为了糊口,我每天在Facebook看屠杀( 二 )


这种清理可能会令人痛苦 , 因为每天都要面对强奸、非法手术和没完没了的生殖器图片 。 所有这些令人反胃的内容的存在都是令人不舒服的事实 , Facebook 希望其清洗大军远离视线 。
新闻业出现了一个分支 , 揭露了内容审核中心的状况 。 尽管Facebook 说这些消息被夸大了 , 但一些细节得到了多篇文章和学术研究的交叉证实:内容审核员几乎总是受雇于埃森哲和高知特等外包公司 , 他们的工资相对较低 , 通常在每小时 15 美元内 。
他们以迅捷的节奏观看数量惊人的恐怖内容 , 用来决定内容被保留或被删除 的规则看起来很复杂 , 这份工作让他们思维混乱 。
办公区里 , 长长的黑色桌子上摆放着一排排的显示屏 , 因为内容审核员没有指定的工位 , 所以没有个人物品 。 再结合“无纸办公室”的状况 , 让那些未被占用的区域看上去有一种被遗弃的感觉 。 高峰期这里有 400 名内容审核员 , 办公室里 24 小时都有人值守 。
我的向导是高知特公司的高管 , 是他设立了这间办公室 。 他的专长是外包 , 而不是内容政策 。 所有的规则及其执行都来自“客户” , 这是他对 Facebook 的称呼 。
我遇到了一群自愿跟我交流的内容审核员 , 他们中大约一半的人读过大学 。 他们都认为 , 在目前的情况下 , 这份特殊的工作胜过其他的工作 。 我们仔细研究了他们的工作细节 。 Facebook 希望内容审核员每天处理 400 条内容 , 这意味着他们有大约 40 秒的平均处理时间来决定一个有问题的视频或帖子是否必须保留或被删除 , 或者在极少数情况下 , 提升级别由经理来处理 , 经理可能会把最令人困惑的决定交给门洛帕克的政策制定者 。
Facebook 表示 , 每项决定都没有固定的时间限制 , 但记者以及对这一过程做过深入研究的几位学者的报道都表明 , 思考每一条内容是否存在问题 , 会让一名低薪内容审核员的职业生涯处于危险之中 。
与我交谈过的一名内容审核员似乎正在与这个不成文的任务配额进行抗争:他的个人目标是每天处理 200 条 。 “当你做得太快时 , 你会错过一些小细节 。 ”他说 , 他还补充说 , 如果他较低的平均处理效率受到质疑 , 他希望他较高的准确率能予以弥补 。
我们犯了多少错误?这很难说 , 但有一个指标可以参考 , 就是用户对内容审核员的决定提出上诉所获得支持的次数 。
【meta|为了糊口,我每天在Facebook看屠杀】2019 年头三个月 , Facebook 删除了 1940 万条内容 。 用户对其中的 210 万个决定提出上诉 , 其中有不到 1/4 的上诉得到了支持 , 也就是说 , 对这部分内容 , 内容审核员最初的决定是错误的 。 另有 66.8 万条被删除的帖子在没有上诉的情况下得到了恢复 。
换句话说 , 尽管大多数的判定是正确的 , 但在用秒表计时的氛围中 , 能力不足的内容审核员无法把事情做好 , 仍然有数百万人会受到影响 。
这项工作充满挑战性 , 其中部分原因在于他们试图将存在问题的内容与他们的参考指引(即“社区准则”)相对照 , 这份指引延续了 Facebook 创立初期保罗·扬泽尔所使用的一页篇幅的文件 , 该文件由戴夫·威尔纳完善 。 内容审核员需要先在课堂上学习如何解读这份指引 , 然后在单独工作之前 , 由一位资深员工带着一起学习 。 该指引的部分内容在多次被泄露之后 , Facebook 干脆于 2018 年将其全部内容公之于众 。
“社区准则”证实了这项任务的复杂性 。 尽管要认定哪些内容是平台允许发布的 , 还存在文化上的差异 , 但同样的一套规则适用于全球各地 。 这些标准适用于 Facebook 的所有产品和功能 , 包括动态消息、Instagram、个人资料页上的“时间轴”以及 WhatsApp 和messenger 上的私人信息 。
可以肯定的是 , 这份长达 27 页的文档无法涵盖所有的示例 。 Facebook 已经基于特定示例创建了大量非公开的补充文件 。
最困难的判定是仇恨言论 。 Facebook 不允许自己的平台上出现仇恨言论 , 但是很难清晰地予以定义 , 这一点可以理解 。 “针对仇恨言论的政策是最难执行的 , 因为缺乏语境背景 。 ”比克特说 。
朋友之间开玩笑时所说的一些对话 , 在面对一名容易受伤害的陌生人或熟人时 , 它的意思可能完全不同 。 媒体上曾报道过一个案例 , 是一名喜剧演员发布的一个帖子 , 写着“男人都是人渣” 。 她因此被停职了 。 根据Facebook 的规则 , 不得对受保护的群体进行整体的侮辱 。 男性或女性都是受保护的群体 。