算法|危险算法“达利”,开启“图片造假”新高度( 三 )


比较有趣的是 , 他们还给达利设定了一个“反欺凌过滤器” 。 比如 , 输入“一头长着羊头的猪” , 系统就拒绝输出 。 因为OpenAI解释 , “猪”和“羊”同时出现应该触犯了过滤器设定的禁令 。
另外 , 关于偏见问题 , 为了减少对女性的伤害 , OpenAI希望过滤掉所有训练数据中的“性别内容” 。 但他们发现 , 当他们尝试过滤掉这些信息时 , 达利系统产生的女性图像变少了 。
因为这又触及了另一种现实世界中职场存在的局限性(有些产业和职位 , 女性就是很少) , 因而导致了另一种对女性的伤害: 抹杀 。
输入文字:熊猫宝宝在银河尽头弹钢琴 。 OpenAI的公开图片里 , 大部分都是动物 , 尽量避免男女性别带来的争议
但是 , 世界上聪明的程序员还有很多很多 , 可能很快就会有其他企业和国家能能够开发出类似的技术 。 毕竟 , 人类追求技术创新的动机非常多样化 , 而利益是其中最大的推动力之一 。 而他们本身的人类道德感是否值得信任 , 这就很难说了 , 因为很多动机与造福人类显然是相悖离的 。
但我们又不能因此一棒子打死 , 全面限制人类追求算法创新的速度 。 那么 , 就应该思考这样一个问题:
如何才能真正改变所有算法创新参与者的潜在激励结构?
但对我个人来说 , 只能说对技术的应用相对悲观 , 或者说谨慎乐观:
因为我从来不会对技术失望 , 但我也从来不轻易相信人性 。