『zol中关村在线』人工智能变“疯魔”下一个亟待整治的重灾区( 二 )


1.算法本身或者算法背后的人产生技术错误:
只要是人写的算法 , 就一定有出错的概率 , 比如德国居民那个凌晨发飙的智能音箱、失控的Uber自动驾驶汽车就是程序上的Bug导致的 , 这一类我们克服的办法其实相对简单 。
但对于另一种人为算计消费者的算法有时候可能我们就无能为力了 , 比如上边的办公用品网站史泰博的价格歧视;滴滴曾经也被公众投诉“同一段距离不同的人打车价格不一致”的“大数据杀熟”现象 , 无论真实与否 , 这类问题往往很难识别 , 因此也加大了监管的难度 。
2.算法对于人性部分的忽略:你可能听过一个段子:一个美女通过一个最现代的人工智能设备找男朋友 , 输入条件是:1、要帅、2、有车 。 人工智能给出的结果是象棋 , 这尽管是一个段子 , 但从某种意义上也说明了现在的人工智能离真正理解人类的感情和行为依然有巨大的鸿沟 , Facebook提醒你给去世的亲人发生日祝福背后本质的原因在于AI无法真正理解死亡对于人类意味着什么 。
『zol中关村在线』人工智能变“疯魔”下一个亟待整治的重灾区
本文插图
3.算法训练数据本身的偏见:目前人工智能的基本逻辑是先构建一个合适的机器学习模型 , 然后用大量的数据去训练模型 , 然后用训练好的模型再来预测新的数据 , 这里边有一个非常重要前提就是输入数据的重要性 , 比如上边再犯罪率的预测之所以产生问题就是因为输入的数据中本身就存在偏见 , 如果现实世界数据本身就存在偏见 , 那么预测结果也一定会有偏见 。
『zol中关村在线』人工智能变“疯魔”下一个亟待整治的重灾区
本文插图
再以我们日常场景举例 , 现在多数电视中搭载“人工智能语音助手” , 如果有音乐与电影同名 , 只进行作品名进行指令搜索的话 , 就无法分析用户的目的 , 所以就要加上“我想听”或者“我想看”之类的联动词汇 , 同时还不能是动作词库中没有的词汇 , 换成“我想瞧瞧”就不行了 。
【『zol中关村在线』人工智能变“疯魔”下一个亟待整治的重灾区】目前它的状态是 , 单单是分析筛选语音中的信息 , 就已经捉襟见肘 , 真正进入生活后的AI要面临的问题远非如此简单 , 同时作为消费者 , 我们更加希望厂商将产品打磨完整后 , 在进入市场 , 当下搭载了人工智能的电子设备 , 更像是一种噱头 , 而非实用性更大的必选项 , 这对于消费者来说 , 是不是一种“灾难”呢?