『人工智能』为了读懂你,AI付出了多少努力


今天我们不聊算法 , 也不聊数学 , 写一篇人人都能看懂的小学生作文 。
1.
1966年 , 来自麻省理工学院的计算机科学家Joseph Weizenbaum发布了一款名为“ELIZA”的聊天机器人 。 Eliza 的知识范围有限 , 只能和特定领域的人聊天 。 但是在Eliza 刚出现时 , 很多用户认为他们是在和真人对话 。 注意看以下这段对话:


『人工智能』为了读懂你,AI付出了多少努力
本文插图

从以上对话来看 , 很难不被认为是一名已婚妇女在向她的心理医生大吐苦水 , 没有人会认为这是一次人机交互的对话 。 但实际上 , ELIZA并没有尝试去理解用户的输入是什么意思 。
如果你细心看对话的内容你会发现 , ELIZA经常在复述用户说过的单词 。 它的实现方式很聪明 , 主要是采用一种“将计就计”的策略 , 将用户的陈述重新表达为问题并返回给用户 。
尽管这些对话都是通过规则匹配方式实现的 , 但是一些巧妙的关键词提取可以让它比较自然地接话 , 让用户觉得眼前的这个“人”具有共情能力 。 ELIZA甚至被用来假冒过心理医生 , 并且有许多和它对话过的人都不相信这只是一个程序 。
在我看来 , 虽然ELIZA只是浑水摸鱼 , 重复叙述者所说的内容 , 但是它的出现 , 对后续聊天机器人的设计思路有很大的启发 。 通过规则匹配不能让机器人很好地引导交互对话 , 但是却能够满足任务式对话的需要 。
时间来到了1995年 , 一名叫Richard S. Wallace的科学家观察到一个现象 。 他发现组成人们日常谈话主题的句子不过几千句 , 如果他做一个对话机器人 , 想要覆盖所有的日常用语 , 甚至包括一些不常用的话语 , 大概只需要4万个回答就足够了 。 只要将这些问答结果全部输入到程序中 , 那么它就可以回应95%以上的日常对话了 。
说干就干 ,于是诞生了一款名为“ALICE”的聊天机器人 。 我们看看这款机器人的对话过程:

『人工智能』为了读懂你,AI付出了多少努力
本文插图

这次的对话就更加像是两个真人之间的交流了 , 而且也看不到ALICE在复述对话者的内容 , 而是尝试与之交谈 , 甚至在言语中透露出一点小个性出来 。
ALICE就像是ELIZA的加强版 , 使用更大的语料库 , 使用更先进的关键词匹配技术 , 甚至是好几个答案对应一个问题 , 可以随机显示或者根据逻辑判断 , 选出合适的答案 。 这样就显得回答不会那么死板 , 更像是真人之间的交流 。 实现思路虽然很简单 , 但这种方式已经能够满足大多数任务型对话的场景 。
自从苹果公司在2011年发布Siri以后 , 多个智能个人助理(IPA)出现并且进入市场 , 比如谷歌助手、微软的Cortana以及亚马逊的Alexa等等 。
除了物料库、匹配逻辑的进一步升级以外 , 这类个人助理还可以访问手机里的多个数据源 , 如音乐、电影、日历、电子邮箱和个人资料 。 因此它们可以提供不同场景下的大量服务 , 例如播放音乐、查天气、拨打电话、发短信等等 , 都是这类IPA的基操 。


『人工智能』为了读懂你,AI付出了多少努力
本文插图

虽然以上对话看起来已经很智能了 , 但总觉得差了点什么 。 Siri仅仅是在接收指令 , 然后给出反馈 , 其实也没有理解我们在说什么 , 甚至很难去分析我们的要求 。
当我询问Siri最近有什么好看的电影时 , 它没办法直接回答 , 只能根据我的问题到网路上检索然后反馈结果 。 虽然这种交互已经能够满足我们日常大部分任务式对话 , 但是距离我们所想的“智能”好像还是有一些距离 。
2.
为什么让机器理解语言这么难?
主要是因为以下两方面的原因:


推荐阅读