什么能够帮助我们在人工智能伦理领域前行?能够采取的行动有哪些?

在人工智能伦理研究中 , 主流的看法是既然让人工智能决策已经不可避免 , 应该将伦理嵌入人工智能技术之中 , 以便增加人工智能决策的可靠性和安全性 。 这种嵌入 , 也称为“道德算法” 。 在道德算法的实现路径上 , 人们已经考虑了三种进路:自上而下进路、自下而上进路和某些混合式进路 。 所谓自上而下进路 , 本质上是把道德规则转换为用数学符号表达的算法 , 用一套伦理原则应对一切伦理问题 。 自下而上进路则模拟了生物进化 , 通过机器学习和复杂适应系统的自组织发展与演化 , 使人工智能系统能够从具体的伦理情境生成普遍的伦理原则 。 混合式进路是结合前两者 , 是目前人工智能算法设计的主流 。 但是 , 上述看法仍未离开摇摇欲坠的根基 , 特别是其伦理知识根基 。
什么能够帮助我们在人工智能伦理领域前行?能够采取的行动有哪些?文章插图
资料图 新华社采访人员 鲁鹏 摄
“道德算法”的问题在于它仍然是一种消极的应对
【什么能够帮助我们在人工智能伦理领域前行?能够采取的行动有哪些?】在具体的伦理情境中做出道德决定 , 受制于无法确知因果关系的困境 , 具体到某个道德决定可能困难重重 。 从众多的具体道德决定中生成普遍的伦理原则 , 更加少不了分歧和争议 。 让人工智能自发形成普遍伦理准则 , 对人的道德主体性的威胁是致命的 。 无论是自上而下、自下而上 , 还是混合式进路 , 对因果关系难题、终极准则难题的应对仍然不足 , 这是它们致命的缺陷 。
此外 , 人工智能用于公共决策的语境中 , 尤其会受现代国家将社会生活“简单化”的路径依赖的限制 , 导致人工智能决策在伦理上的可能盲点 。 公共决策需要的只是那些帮助决策者对整体进行概括的观察 , 且可以在许多不同的情况下被重复使用的信息 , 故在信息中展现的事实必须是可以类型化、忽略大量相关的特征的事实 。 例如 , 社会中的人工作生活都是非常复杂的 , 但在就业统计中 , 大量复杂的特征被忽略 , 最终进入统计的是一些格式化的信息:有收入的就业 。 无论是人工智能系统任务目标的设定、数据的收集 , 还是算法的训练 , 都与决策者“简单化”的需求相契合 。 对数据来源的了解以及数据收集者的度量标准的反思 , 展现出看似科学、中立的大数据为基础的决策带有的无处不在的偏差和歧视的风险 。
根本上 , “道德算法”的问题在于它仍然是一种消极的应对:无论是自上而下的设计还是自下而上的归纳 , 如果不触及动力机制 , 而只是应对发现的问题 , 无异于在建造房屋的同时挖走地基 。 今天的人工智能技术发展存在于市场和国家等制度中 , 道德算法的进路 , 并未在这些制度中发掘应对人工智能伦理挑战的空间 。
应对人工智能伦理的挑战能够采取的行动
真正能够帮助我们在人工智能伦理领域前行的 , 或许不是道德算法这类宏大叙事的路线图 。 我们可以做的 , 是避免将社会生活“简单化”的狂妄设想 , 从历史和哲学中谦卑寻求应对的智慧 。 下面或许是我们当下能够采取的一些行动:
其一 , 我们需要关注人工智能决策的道德维度 。 在已有的人工智能决策应用领域 , 要特别关注人工智能决策的道德性 , 不能想当然地把人工智能决策看作是科学的和不可挑战的 。 这既关乎社会对因果关系的正常判断 , 也是坚持人的道德主体性的具体表现 。 例如 , 对公共决策中人工智能的应用 , 我们保持应有的关注和警醒 。
其二 , 我们需要对具体情境下的人工智能决策的道德性保持敏感并持续进行论辩 。 人工智能决策是对个人、团体和社会层面决策的模仿 。 关于具体情境下的人工智能决策是否合乎伦理 , 如果我们失去了敏感 , 麻木不仁 , 只会让人工智能系统模仿甚至增强这种趋势 。 持续论辩是人工智能的道德决策能够与人一致的前提 。 如果人工智能无法在具体的道德决策中校准 , 当决策迁移到更大人群或不同语境时就可能完全不在人性的道德罗盘上 。 这个问题同样关乎社会有没有健康的因果性判断和是否尊重人的道德主体性 。 广为人知的一个例子是微软的在线人工智能交互机器人 , 这个机器人上线后 , 因为一群人使用大量种族主义词汇和污言秽语而迅速被同化 。 类似的还有美国法院的人身危害评估系统 , 这个系统从已有案例中模仿因而习得了对非裔美国人的系统性歧视 。