文章插图
由于致命自主武器的存在,比如土耳其制造的STM无人机,专家们呼吁禁止那些可以在无需人工干预的情况下发动袭击的设备
还有关于如何在社会中管理技术的社会、政治和法律问题 。当人工智能系统造成伤害时,谁应该承担责任?(例如,自动驾驶汽车已经导致了人员死亡 。)我们如何才能确保更平等地获得人工智能工具及其好处,并确保它们不会歧视群体或个人?持续的工作自动化将如何影响就业?我们能管理数据中心对环境的影响吗?这些数据中心使用大量的电力 。我们是否应该优先使用可解释的算法,而不是许多神经网络的黑盒以获得更大的信任和可调试性,即使这会使算法在预测方面更差?
我们能做些什么
宾夕法尼亚大学计算机科学家、2019年《道德算法》(the Ethical Algorithm)一书的合著者迈克尔·卡恩斯将这些问题置于可管理性的范围内 。一方面是所谓的差异隐私,即向医疗记录数据集添加噪音的能力,这样它就可以与研究人员有效地共享,而无需透露太多的个人记录 。我们现在可以用数学来保证个人数据应该如何保存 。
介于两者之间的是机器学习的公平性 。研究人员已经开发出一些方法,通过删除或改变有偏见的训练数据来增加公平性,或者最大化某些类型的平等——例如贷款——同时最小化利润的减少 。然而,某些类型的公平将永远处于相互冲突之中,数学无法告诉我们哪些是我们想要的 。
另一端是可解释性 。与公平性相反,公平性可以用多种数学方法进行分析,而解释的质量很难用数学术语来描述 。“我觉得我还没有看到一个好的定义,”卡恩斯说 。“你可以说,‘这是一个算法,它将使用一个训练有素的神经网络,试图解释它为什么拒绝你的贷款,’但(感觉不太有原则 。”最终,如果受众不理解它,这就不是一个好的解释,衡量它的成功——无论你如何定义成功——都需要用户研究 。
像阿西莫夫的三定律这样的东西不会把我们从试图帮助我们去伤害我们的机器人手中拯救出来 。而且,即使这一列表扩大到一百万条法律,法律的文字与它的精神也不相同 。一种可能的解决方案是所谓的反向强化学习,在这种学习中,计算机可能会根据我们的行为来解读我们真正看重的东西 。
本文参考science news.文章,“Now that computers connect us all, for better and worse, what’s next?”,如有兴趣还可查阅原文 。
- 如何让台式电脑联网 台式电脑如何连接网络
- 【游戏迷】梦幻西游:学生时代鉴定出来的最值钱的东西,现在能卖到500W
- 华为荣耀优化好 华为手机优化软件哪个好用
- 四款大容量电池手机曝光 大容量电池的手机
- 什么是以太网 什么是以太网的中心连接设备
- 玉林算命先生(图文)
- 手机怎么投屏到电脑上 手机怎么投屏到电脑上看电视
- 开红酒店流程
- 现在做红酒代理加盟要怎样选品牌?
- 【历史故事】武松打死老虎当了“都头”,放现在是多大的官