什么能够帮助我们在人工智能伦理领域前行?能够采取的行动有哪些?( 二 )


其三 , 我们需要在人工智能系统中反映人类社会道德生活的丰富性 。 将发展人工智能伦理的讨论通过立法过程、媒体报道、社区参与推向社会 , 而不仅局限于技术人员之中 。 技术社群在遇到伦理问题时向社会保持开放 , 将社会的反馈反映在人工智能伦理决策中 。 这种方式能最大限度地帮助人工智能伦理系统学习人类道德 , 因此是对终极准则难题进行回应的一种实践方式 。 这个方面最好的例子是隐私权问题 。 当社会开始讨论隐私权的边界和保护方式时 , 人工智能系统的决策也更有可能反映人类社会道德生活的丰富性 。
其四 , 我们必须让弱势群体可以在人工智能伦理决策上发出声音 。 出现终极准则难题的一个主要原因是 , 不同的人在道德问题上发言权重的不同 。 在当代社会 , 无论是女性主义带来的伦理争议 , 还是残障群体对“何为残障”问题提出的质疑 , 都源于长久以来在社会生活中弱势群体的失声 。 要最大限度地回应终极准则难题 , 应使弱势群体在人工智能伦理决策上能够发出声音 。 这方面典型的例子是亚马逊的人工智能人力资源系统对女性歧视引发的争议 , 金融科技领域的人工智能风险控制系统对特定种族、地域人群的低信用评估分数等 。
(作者为中国人民大学法学院副教授、未来法治研究院社会责任与治理研究中心主任)
_本文原题:“道德算法”的缺陷)
来源:北京日报 作者:郭锐
流程编辑:u022