八卦爆料|用 AI 对内容进行分类,修改更快不讲武德,Facebook
ITDaily&AI中国
【八卦爆料|用 AI 对内容进行分类,修改更快不讲武德,Facebook】每日最新IT圈AI圈新鲜事吐槽给你想看的
文章图片
Facebook一直明确表示 , 它希望人工智能处理其平台上更多的版主职责 。 最近 , 它宣布了向这一目标迈出的最新一步:让机器学习负责其版主队列 。
以下是Facebook上的版主工作方式 。 被认为违反公司规则的帖子(包括从垃圾邮件到仇恨言论和''美化暴力''的内容)会被用户或机器学习过滤器标记出来 。 一些非常明确的案例会被自动处理(例如 , 回应可能涉及删除帖子或阻止帐户) , 而其余的则进入队列 , 由人类版主审查 。
Facebook在全球范围内雇佣了大约1.5万名这样的版主 , 过去一直被批评没有给这些工人足够的支持 , 雇佣他们的条件可能导致创伤 。 他们的工作是整理标记的帖子 , 并对这些帖子是否违反公司的各种政策做出决定 。
过去 , 版主或多或少会按照时间顺序审查帖子 , 按照帖子被举报的顺序进行处理 。 现在 , Facebook表示要确保最重要的帖子被首先看到 , 并且正在使用机器学习来帮助他们 。 未来 , 各种机器学习算法的综合体将被用来对这个队列进行排序 , 根据三个标准对帖子进行优先处理:它们的病毒性、严重性以及它们违反规则的可能性 。
文章图片
Facebook旧有的节制系统 , 结合了ML过滤器的主动节制和Facebook用户的被动报告
文章图片
新的版主工作流程 , 现在使用机器学习对帖子队列进行排序 , 供人类版主审查
究竟这些标准是如何加权的 , 目前还不清楚 , 但Facebook表示 , 目的是先处理最具破坏性的帖子 。 所以 , 一个帖子的病毒性越强(被分享和看到的次数越多) , 就会越快被处理 。 帖子的严重程度也是如此 。 Facebook表示 , 它将涉及现实世界伤害的帖子列为最重要的帖子 。 这可能意味着涉及恐怖主义、儿童剥削或自我伤害的内容 。 同时 , 像垃圾邮件这样的帖子 , 虽然很烦人 , 但没有创伤性 , 会被列为最不重要的审查对象 。
''所有违反内容的内容仍然会得到一些实质性的人为审查''
''所有违反内容的内容仍然会受到一些实质性的人工审查 , 但我们将使用这个系统来更好地确定[该过程]的优先级 , ''Facebook社区诚信团队的产品经理RyanBarnes在新闻发布会上告诉采访人员 。
Facebook过去曾分享过一些关于其机器学习过滤器如何分析帖子的细节 。 这些系统包括一个名为''WPIE''的模型 , WPIE代表''整个帖子完整性嵌入'' , 采取Facebook所谓的''整体''方法来评估内容 。
这意味着算法会协同判断任何给定帖子中的各种元素 , 试图找出图片、标题、海报等共同揭示的内容 。 如果有人说他们正在销售''整批''''特别的点心'' , 并配上一张看起来是烘焙食品的图片 , 那么他们说的是米饭方块还是食用菌?标题中某些词语的使用(比如''potent'')可能会让判断倾向于一边 。
文章图片
Facebook使用各种机器学习算法对内容进行分类 , 包括被称为WPIE的''整体性''评估工具
Facebook使用人工智能来调节其平台的做法过去一直受到审查 , 批评者指出 , 人工智能缺乏人类判断很多在线交流背景的能力 。 尤其是像错误信息、欺凌和骚扰这样的话题 , 计算机几乎不可能知道自己在看什么 。
Facebook的ChrisPalow是该公司交互完整性团队的软件工程师 , 他同意人工智能有其局限性 , 但他告诉采访人员 , 这项技术仍然可以在删除不需要的内容方面发挥作用 。 ''这套系统就是要把AI和人类审核员结合起来 , 减少总的错误 , ''Palow说 。 ''AI永远不会是完美的 。 ''
- 大数据专业大一新生,只有数学等基础课程,还可以自学哪些内容
- 阿里内部Java应届生就业宝典,打摆子统统必备,内容太全面
- 内容|2020腾讯ConTech大会:基于信赖,30位嘉宾带用户打开眼界
- JVM:可视化 JVM 故障处理工具
- 60元的双盘位NAS
- 对标三星Exynos 1080 高通骁龙7系列SoC爆料:明年Q1推出
- 程序员面试主要看哪些 该怎么准备面试内容
- 趣味问题:新能源汽车为何定义为「电驱」-真的环保吗?
- “媒体大脑”AI出圈,「新华智云」要以机器生产推动内容产业发展
- 威锋网|Big Sur 11.0.1修订版:更新内容未知,苹果发布macOS