【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?


全文共3759字 , 预计学习时长12分钟

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图
图源:chatbotslife
我们不再常常直接与人工客服交流了 , 对话型的语言界面开始主导客户服务 , 聊天机器人作为新客服开始持证上岗 。
然而 , 效果却不尽如人意 。 大多数时候你可能还是得一无所获地呼叫人工客服 , 这实在让人冒火 。
据Forrester称 , 2019年可以被视作“抵制低效聊天机器人”之年 。 一家开放软件服务公司Acquia对北美、欧洲和澳大利亚的5000客户和500商人进行了调查 , 45%的客户觉得聊天机器人“令人讨厌” 。
但另一个事实是 , AI聊天程序被寄予重望 , 它对于商业的重要性不可低估 。
Gartner的调查显示 , 到2021年 , 超过50%的企业每年在聊天机器人上的花费比开发传统手机应用还要多;到2022年 , 聊天机器人有望帮助企业节约800万美元的成本;到2023年 , 借助于聊天机器人 , 企业和客户有望节约25亿小时;到2024年 , 全世界聊天机器人的市场规模有望超过13亿美元 。
如果使用得当 , AI聊天程序能够极大地提升竞争力 , 彻底改变企业和客户的交流模式 。

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图
图源:mygreatlearning
所以 , 为什么消费者对聊天机器人的不满会与日俱增?企业又将如何确保机器助手能促进企业与客户的关系?
有一些原因不难理解 。 比如 , 许多公司过于依赖聊天机器人 , 因此没能打造一张人工“安全网”(如果客户需求增加 , 企业应该将问题快速交给人工进行有效处理);一些聊天机器人回复太慢 , 另一些又快得反常 。
还有一些聊天机器人表现出的个性与品牌态度不符 。 有些公司的聊天机器人还未开发成熟 , 因此公司最后只能继续对其进行改造 , 这往往成为了致命的错误 。
但究其根本 , 聊天机器人无法和客户顺畅交流 , 这可能是因为“听懂人话”和“说人话”真的很难!这一点往往被人们忽视 。
人们期望的是与聊天机器人能进行自然的互动 , 希望AI能对他们自然的表述和要求做出响应 。 但问题在于 , 一旦离开了简单的命令——回答式交流 , 聊天机器人就必须使用复杂的人类语言 。
虽然我们认为彼此之间进行对话再正常不过了 , 即使是一个三岁小孩也能做到 , 但这对于机器来说却难如登天 。
来看看吧 , 为什么你的AI聊天机器人get不到你的意思 , 还不能好好说话?

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图
代词
名词、动词以及其他词条的意思 , 对于机器人还算容易 , 但代词却很麻烦 , 因为代词指的是前文语境中提到过的事物 。

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图
图源:unsplash
每一个代词都需要有先行词 , 例如前文提到过的某个实体或个体 。 但在一些情况中 , 先行词不止一个 , 因此听众的工作就是要在语境的基础上选出正确的先行词 。
比如你刚离开家去工作 , 并向机器人助手提出如下请求:
人:关掉客厅的灯和咖啡壶
机器人:好的
人:今晚6点打开它
第二句中“它”的指代意义非常模糊 , 因为既可以指咖啡壶又可以指客厅的灯 。 一个设计精良的聊天机器人应该要注意到这种模糊性 , 并要求对此进行解释说明 。
另一个例子:
“詹妮弗邀请阿曼达来玩 , 她给她准备了丰盛的晚餐 。 ”
人类能够从语境中辨明第一个“她”最有可能指的是詹妮弗 , 而第二个“她”指代阿曼达 , 因为我们知道发出邀请的人才应该准备晚餐 。分页标题
再看这个例子:
“詹妮弗邀请阿曼达来玩 , 她送给她一条漂亮的项链 。 ”
那么究竟是谁送给谁项链呢?涉及到赠送项链的社交惯例要少于准备晚餐 , 因此 , 就连人类也不确定这句话中的指代含义 。
“詹妮弗邀请阿曼达来玩 , 但她告诉她 , 她要去外地 。 ”
如果詹妮弗邀请阿曼达来玩 , 然后突然告诉她自己那天要出远门 , 这就十分奇怪了 。 所以我们能确定是阿曼达要外出 , 因此不能接受邀请 。
再强调一下 , 我们仅仅因为语境和社交惯例得出了正确意思 , 而这确实难为聊天机器人了 。

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图
图源:chatbotslife
现在 , 我们再来看看代词that在特定语境中可能有多少先行词 。
“安娜告诉布莱恩 , 她决定在英国学习一年创意写作 。 ”
“这可能是她一生的事业 。 ”(这=创意写作)
“她完成这件事后就会搬回来和他一起住 。 ”(这=在英国学习一年)
“这就是她一整个周都在思考的事 。 ”(这=做出决定)
“因为这个 , 他俩吵了两个小时 。 ”(这=告诉布莱恩这件事)
你应该如何让普通的聊天机器人分辨像that这样的词呢?

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图
习语
有时 , 我们只使用词语的字面意思 , 但在很多情况下 , 我们还会使用这些词语构成的习语 。 习语指的是一组词语 , 习语的意思不能从单个词语来推断 , 而应作为一个整体来记忆 。
在下面的错误中 , Siri仅仅从字面上来理解习语“makea note”的意思 , 只解读出了每个词语的含义 。 实际上 , 人们往往使用这个习语表达“记住某些东西”的意思 。

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图
人们会根据语境以及其他线索来决定某组词语是否为习语 , 但聊天机器人却不能轻易做到 。 当聊天机器人对习语进行字面解读时 , 那尴尬的场景简直难以想象 。 例如 , ”make your blood boil”的意思是“让某人生气” 。 (医学方面的聊天机器人会将其理解为病患症状和病因吗?)
诸如此类的例子还有“make up your mind”, “make yourday”, “It’s raining cats and dogs”, “break a leg”, “up in the air”, and “a pieceof cake”等等 。

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图
图源:unsplash

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图
结构模糊
还有一些结构上的模糊 。 例如“The chicken is ready to eat”这句话既能表示鸡肉被端上了桌 , 也能表示你需要喂养宠物鸡了 。
聊天机器人应该知道各种对话发生的语境 , 不论是关于这个世界还是关于你个人的情况(比如 , 你并没有喂养宠物小鸡 , 或者chicken指的是一道流行菜肴而不是宠物 , 又或者你是把小鸡当作宠物养的素食主义者) , 只有这样才能做出正确的理解 。
如果一句话中含有一处时间状语和不止一个动词 , 那么状语究竟应该修饰哪一个动词呢?
例如 , “Jamie saidon Friday we will have a party” 这句话有两种含义:
1.杰米在星期五的时候说我们要举办派对 。
2.杰米说星期五的时候我们要举办派对 。
在现实的对话中 , 人们要么能够凭借丰富的语境判定句意 , 要么就会通过询问进一步确认 , 但是多数聊天机器人却无法辨明模糊的句子结构 。分页标题

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图
省略
在非正式的口语交际中 , 对于那些我们觉得对方能在语境中获得的信息 , 我们通常会省略 。
例如 , 我们一般会说“我对奶制品过敏 , 鱼也是 。 ”——大家自然会理解为你对鱼和奶制品过敏 , 而不会理解为鱼对奶制品过敏 。
一些情况下 , 省略也会造成模糊 。 例如:
1. 迈克喜欢他的母亲 , 比尔也是 。 (比尔是喜欢迈克母亲还是他自己的母亲?)
2. 安娜在她自己房间 , 简也是 。 (简是在安娜房间还是她自己的房间?)

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图
反问和讽刺
不是每个问句都需要答案 。 一些问句表达反问的含义 , 说话人只是想传达自己的情感状态 。

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图
图源:unsplash
例如 , 问句“你知道现在几点了吗?”一般的回答是具体时间(“现在11点30了”) , 下面这种语气就不同了:
“你说过我们会在11点前赶到!你知道现在几点了吗?”
如果你的聊天机器人回答“现在11点30了” , 确实很难忍住翻白眼 。
此外 , 如果客户在表达讽刺时机器人没能理解 , 这场对话也没法继续进行下去了 。 例如客户不满意聊天机器人的回答 , 说到:“我就是需要这个 。 我要怎么做呢?”如果聊天机器人没有察觉到讽刺意味 , 回答道:“不用客气”或者试着回答这个问题 , 客户当然不会满意 。

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图
更多的不确定性
在一些情况下 , 比如演讲 , 我们能通过韵律或者语气上的线索来判定模糊的句意(语调、语气、音高等 。 )
例如 , They arecooking apples这句话有两种意思:
1.他们在煮苹果 。
2.这些苹果是用来煮的 。
人们能依靠语境和语调来正确判断句意 , 但大多数聊天机器人则不能做到 。

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图
模棱两可的幽默
说到底 , 让聊天机器人像人类一样说话简直难如登天 , 幽默感就是最好的例子 。 下面是这则喜剧片段 , 英国喜剧演员Jimmy Carr就利用问句的模糊性和不确定性设计出了这个十分荒谬的喜剧段子 。
一天 , 一位拿着剪贴簿的女士在街上拦住了我 。 她说:‘‘你能为癌症研究花点时间吗?”我回答道:“没问题 , 但我们只做一点点 。 ”
要避开这些可能的圈套 , 你需要一个真正智能的聊天系统 。 这个聊天程序要足够灵活并且学得很快 , 只有这样它才能察觉到人类语言的微妙之处 , 而一般的命令——控制式聊天机器人却不能做到这一点 。

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图
图源:unsplash

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图
如何避免错误
当今大多数的聊天机器人都有一个通病 , 那就是它们将AI和机器学习当作招牌 。 然而 , 仅仅基于机器学习的聊天机器人本质上就是个黑箱系统 , 如果没有大量精心挑选的训练数据 , 这些程序就无法运作 。
如果他们无法马上理解你的意图 , 那么开发者也很难对其进行升级和完善 。 唯一让它们“改变想法”的办法就是增加更多数据 。 这些数据不仅要大量输入 , 而且要准确、做到分门别类、机器可读以及具有相关性 。 很少有公司能保证每种语言的聊天程序都具备以上特点 。分页标题

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图
图源:aibusiness
幸运的是 , 有方法能解决这些问题 。 ArtificialSolutions的Teneo平台就做到了 。 该平台利用已有数据 , 但不仅仅依靠这些数据 。
语言学习和机器学习系统使用数据的方法不同 。 语言学习系统是基于规则存在的 , 它考虑到人类的监管 , 允许人类对系统运行规则和回答进行调整 。 因此 , 人们能控制系统对问题的理解以及给出的回答 。
在语言学习系统中 , 如果你想改变聊天机器人对某句话的理解 , 只需改变程序运行规则即可(而机器学习系统要在看到无数的反例后才会做出改变) 。
简而言之 , Teneo的语言学习能力可以让开发者直接向系统灌输正确答案 , 然后再使用机器学习来精进其表现 。 这是一种灵活的综合方案 , 企业能借助这一方案来开发可信赖的聊天机器人 , 以此帮助他们建立并改善和客户的关系 , 而不是让机器人毁掉这一切 。
如何让聊天机器人不再“烦人” , 这个问题真的是很迫切了 。

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图
留言点赞关注
我们一起分享AI学习与发展的干货
【【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?】如转载 , 请后台留言 , 遵守转载规范