cnBeta告诉用户使用攻击性语言回复前需三思,Twitter测试全新审核工具

据外媒TheVerge报道 , Twitter正在尝试使用一种新的审核工具 , 在用户发布包含该公司所说的“有害”语言的回帖之前 , 将警告用户 。 Twitter将其描述为一个有限的实验 , 而且只针对iOS用户 。 Twitter官方支持频道的一条消息称 , 现在应该是在某些情况下会弹出的提示 , “如果你的回复中使用了可能有害的语言 , 你可以选择在发布之前修改你的回复” 。
cnBeta告诉用户使用攻击性语言回复前需三思,Twitter测试全新审核工具
文章图片
这个方法并不是全新的 , 之前已经被不少其他社交平台使用过 , 最突出的是Instagram 。 这款由Facebook拥有的应用现在在用户发布标题前会警告用户 , 并附上一条消息 , 称该标题"看起来与其他被报道的标题相似" 。 在这一变化之前 , Instagram在去年夏天推出了针对评论的警告系统 。
目前还不清楚Twitter是如何给有害语言贴上标签的 , 但该公司确实有仇恨言论政策和一份更广泛的Twitter规则文件 , 其中列出了它对从暴力威胁、恐怖主义相关内容、以及虐待和骚扰等一切内容的立场 。 Twitter表示 , 它不会仅仅因为一些内容具有攻击性就将其删除:“人们可以发布内容 , 包括可能具有煽动性的内容 , 只要不违反Twitter规则 。 ”但该公司确实拥有允许它对其广泛的言论政策进行例外处理的规则 。
【cnBeta告诉用户使用攻击性语言回复前需三思,Twitter测试全新审核工具】尽管如此 , 这个新的实验似乎并不那么关注于遏制那些更极端的内容形式 , 而Twitter通常会对这些内容进行删除、暂停或禁止用户 。 相反 , 它似乎更多的是为了告诉用户避免使用不必要的和煽动性的语言 , 因为这些语言会使矛盾升级并可能导致账户被关停 。