找出伦理偏见有“赏金”!科学家出奇招保证AI系统公平( 二 )


因此 , 论文建议 , 业界和学界应该着力开发硬件安全功能 , 或者探索使用安全硬件的最佳方式 。 此外 , 政府资助机构也应增大在硬件方面的投入 , 助力提高计算能力 。
三、能与现有努力相补充 , 仍待进一步研究论文中写道:“偏见和安全奖励把bug奖励计划扩展到了AI领域 , (这)可以与现有努力相补充 , 可以更好地记录数据集和他们性能限制和其他性能的模型……如果说AI伦理原则的广泛阐述是确保人工智能负责任发展的第一步……那么建立可核实索赔的机制就是第二步 。 ”
但是 , 研究人员也指出这种设想还存在一些局限性:
首先 , 在索赔的可核实性和此类索赔的普遍性之间存在矛盾;
其次 , 索赔的可核实性并不代表他们能够在实践中被核实;
另外 , 即使有一种关于AI开发的索赔被证明是错误的 , 权力的不对称可能会阻碍修正措施的采用 。
因此 , 研究人员表示 , 期待这些机制能够帮助AI研究机构以跨组织协作的方式开展有意义的讨论 , 并鼓励有兴趣的合作者提供更多建议 。
他们还指出 , 发现AI系统中的偏见和安全问题是这项研究的出发点 , 但这项机制也可以用于改善其他属性(比如安全性、隐私保护、可说明性等) 。
结语:改善AI系统伦理偏见新思路 , 未来将有更多方法尽管还有一些局限性 , 但可验证索赔的方式提供了一个改善AI系统伦理偏见的新思路 , 提高了AI系统伦理原则的可验证性 , 有助于塑造更加积极、公平的AI系统 。
除了赏金鼓励 , 论文中还建议用红队测试(Red Teaming)来发现AI系统的缺陷或漏洞 。 随着研究的深入 , 验证人工智能系统各方面性能的方法将会越来越多 , 让我们拭目以待 。
文章来源:Leadership Conference on Civil and Human Rights , VentureBeat , arXiv
找出伦理偏见有“赏金”!科学家出奇招保证AI系统公平文章插图