嘿科技在这里|才能建立起自身可信度?,人工智能该如何实现人性化( 二 )


影响最大的偏见甚至可能引发社会层面的问题 。 例如 , 广告算法会根据人口统计数据定期投放广告 , 从而将对于年龄、性别、种族、宗教或社会经济等因素的偏见永久留存在模型之内 。 AI技术在招聘应用中也暴露出了类似的缺陷 。
当然 , 这一切都源自人类自己引发的原始偏见 。 但是 , 我们该如何在AI模型中发现这些偏见并将其清除出去?
可解释AI
【嘿科技在这里|才能建立起自身可信度?,人工智能该如何实现人性化】为了增加对AI系统的信任度 , AI研究人员正在探索构建可解释AI(XAI)的可能性 , 希望借此实现AI方案的人性化 。
XAI能够避免我们在暗箱模型中难以识别的种种问题 。 例如 , 2017年研究人员的报告称发现了一项AI作弊问题 。 该AI模型在训练之后能够成功识别出马匹的图像 , 相当于对经典狗/猫识别能力的变体 。 但事实证明 , AI学会的实际上是识别与马匹图片相关的特定版权标注 。
为了实现XAI , 我们需要观察并理解模型内部的整个运作过程 。 这项探索本身已经构成了理论计算机科学中的一大分支 , 其困难程度可能也远超大家的想象 。
比较简单的机器学习算法当然相对易于解释 , 但神经网络则复杂得多 。 即使是包括分层相关性传播(LRP)在内的各类最新技术 , 也只能显示哪些输入对于决策制定更为重要 。 因此 , 研究人员的注意力开始转向本地可解释性目标 , 希望借此对模型做出的某些特定预测做出解释 。
AI模型为什么难以理解?
目前 , 大多数ML模型基于人工神经元 。 人工神经元(或称感知器)使用传递函数对一个或多个加权输入进行组合 。 以此为基础 , 激活函数将使用阈值以决定是否触发 。 这种方法 , 实际上限制了神经元在人脑中的工作方式 。
嘿科技在这里|才能建立起自身可信度?,人工智能该如何实现人性化
文章图片
作为一种常见的ML模型 , 神经网络由多层人工神经元组成 。 输入层与重要特征拥有相同的输入数量 , 同时辅以大量隐藏层 。 最后 , 输出层也将拥有与重要特征相同的输出数量 。
我们以最简单的应用场景为例 , 考虑ML模型如果根据今天是星期几及是否属于假期来预测您的起床时间 。
在随机分配权重的情况下 , 模型会生成错误的结果 , 即我们周三需要在上午9点起床 。
我们当然不可能以手动方式为每个人工神经元设置确切的权重 。 相反 , 我们需要使用所谓反向传播过程 , 算法将在模型中反向运作 , 借此调整网络的权重与偏差 , 力求将预测输出与预期输出间的差异控制在最小范围 。 在调整之后 , 结果是周三早上应该7点起床 。
信任与道德
技术信任问题正变得愈发重要 , 毕竟我们已经在尝试使用AI诊断癌症、识别人群中的通缉犯并做出雇用/解雇决策 。 如果无法实现AI人性化 , 又怎么能要求人们向其给予信任呢?如果没有这种信任 , 以符合道德的方式加以使用更是痴人说梦 。
对于这个重要问题 , 欧盟已经通过一套关于可信AI的道德准则 , 针对AI是否符合道德及具备可信度设置了七项测试:
人类代理与监督:AI系统不可在人类不具备最终决定权的情况下做出决策 。
技术的健壮性与安全性:在使用AI技术之前 , 必须明确其是否可靠 , 包括具备故障保护能力且不会被黑客入侵 。
隐私与数据治理:AI模型往往需要处理个人数据 , 例如通过医学造影图像诊断疾病 。 这意味着数据隐私将非常重要 。
透明度:AI模型应该具备人类可解释的基本属性 。
多样性、非歧视性与公平性:主要涉及我们前文讨论过的偏见问题 。
环境与社会福祉:在这里 , 准则制定者们希望消除人们对于AI技术发展造成反乌托邦式未来的担忧 。
问责制度:必须建立起独立的监督或监控制度 。
当然 , 指南也强调 , 必须以合法方式使用AI技术 。