嘿科技在这里|才能建立起自身可信度?,人工智能该如何实现人性化

人工智能(AI)往往被视为一种暗箱实践 , 即人们并不关注技术本身的运作方式 , 只强调其能够提供看似正确的结果 。 在某些情况下 , 这种效果就已经可以满足需求 , 因为大多数时候我们都更关注结果 , 而非结果的具体实现方式 。
嘿科技在这里|才能建立起自身可信度?,人工智能该如何实现人性化
文章图片
遗憾的是 , 将AI视为暗箱过程会产生信任与可靠性等问题 。 从纯技术的角度来看 , 这也导致我们难以分析或解决AI模型中存在的问题 。
在本文中 , 我们将共同了解其中的部分潜在问题以及几种解决方案思路 。
AI是什么?
不少企业已经将人工智能(AI)元素纳入自家产品 。 虽然有些“AI”表述只是虚假的营销策略 , 但也确实有不少产品开始使用AI及机器学习(ML)技术实现自我提升 。
简而言之 , AI是指一切能够表现出智能行为的计算机系统 。 在本文的语境下 , 智能代表着计算机在学习、理解或者概念总结等层面的飞跃式进步 。
当前 , AI技术最常见的实现形式为机器学习 , 其中由计算机算法学习并识别数据中的模式 。 机器学习大致分为三类:
监督学习:即使用已知数据进行模型训练 。 这有点像给孩子们看最简单的看图识字教材 。 这类ML也是大家最常接触到的实现形式 , 但其有着一个致命缺点:只有具备大量可信且经过正确标记的训练数据 , 才能建立起相关模型 。
无监督学习:模型自行在数据中查找模式 。 手机导航软件使用的就是这种学习方式 , 特别适合我们对数据一无所知的情况 。 目前业界往往使用无监督学习从数据中识别出可能具有现实意义的重要聚类 。
强化学习:模型在每次正确执行时都会得到奖励 。 因为这是一种典型的“实验试错”学习方法 。 如果我们初期只有少量数据 , 那么这种ML方法将表现得尤为强大 。 它的出现 , 直接令持续学习模型成为可能 , 即模型在接触到新数据后会不断适应及发展 , 从而保证自身永不过时 。
但这些方法都面临着同一个问题 , 我们无法理解学习后生成的最终模型 。 换言之 , 人工智能无法实现人性化 。
信任问题
暗箱式AI系统大多属于由机器经过自学过程建立起模型 。 但由于无法理解系统得出结论的过程 , 我们就很难理解模型给出特定结论的理由 , 或者对该结论缺乏信心 。 我们无法询问模型为什么会这么判断 , 只能拿结果跟自己的期望进行比较 。
如果不理解AI模型的起效原理 , 我们又怎么能相信模型会永远正确?
结果就是 , 这种不可理解性同无数反乌托邦科幻作品映射起来 , 让AI成了恐怖神秘的代名词 。 更糟糕的是 , 不少AI模型确实表现出严重的偏差 , 这也令信任危机被进一步激化 。
偏差或者说偏见 , 一直植根于人类的思想意识当中 , 现在它也开始成为AI技术无法回避的大难题 。 因为系统只能从过往的情况中学习经验 , 而这些可能并不足以指导模型做出面向未来的正确选择 。
以AI模型在犯罪预测中的应用为例 , 这些模型会使用以往犯罪统计数据来确定哪些地区的犯罪率最高 。 执法部门则调整巡逻路线以向这些地区集中警力资源 。 但人们普遍质疑 , 使用这类数据本身就是在加强偏见 , 或者潜在地将相关性混淆为因果性 。
例如 , 随着新冠疫情的肆虐 , 美国各大主要城市的暴力犯罪率开始显著下降;但在某些司法管辖区内 , 汽车盗窃及其他劫掠案件却有所增加 。 普通人可能会将这些变化与全国范围内的社交隔离合理联系起来 , 但预测性警务模型却有可能错误地将犯罪数量及逮捕率的降低解释为稳定性与治安水平的提升 。
目前 , 人工智能中存在多种形式的偏见 。 以人脸识别软件为例 , 研究表明包含“人口统计学偏见”的算法会根据对象的年龄、性别或种族做出准确率波动极大的判断 。
有时 , 数据科学家在执行特征工程以尝试清洗源数据时 , 同样会引发偏差/偏见问题 , 导致其中某些微妙但却极为重要的特征意外丢失 。