人工智能|金耀辉/季卫东:AI数据给人“贴标签”,利还是弊?|148期对话( 二 )



季卫东:我认为汽车发明与自动驾驶这两者面临的问题并不相同 。 一般汽车在行驶中的责任主体非常明确 , 谁开车谁负责 。 但自动驾驶情况下该由谁负责?如果说这是制造厂商的问题 , 但其实故障起因于软件 , 应该追究算法设计者或软件供应商的责任 。 但若有人恶意攻击了自动驾驶程序、恶意修改了算法 , 又该如何判断责任呢?再者 , 出现事故应该找谁赔偿?按照《产品质量法》 , 汽车质量问题可以追究汽车制造商的产品责任 , 但自动驾驶的情况就比较麻烦了 , 因为它涉及多种责任 。 制造商可以对汽车质量负责 , 但对自动驾驶行为不负责 。

对于金老师提出的如果有人恶意修改程序或者对象物的微妙变化导致人工智能识别错误 , 这说明人工智能系统存在固有弱点 。 人能够依靠直觉进行判断 , 因为人自出生起就会逐渐形成一个常识体系 , 而人工智能无法做到 , 因此无法在模糊情况下进行适当的判断 。 一般而言 , 人工智能存在三大问题:一是无法形成一个庞大的、永无止境的常识库 , 只能尽可能地逼近这一状态 。 二是精确度越来越高时 , 人工智能的算法不可解释 , 我们不知道它是如何运算出来的 。 三是人工智能无法理解语言的含义 , 只能对程序中存在的算法进行运算 , 不能让符号落地 。 换句话说 , 即便人工智能系统说“爱你” , 你也不知道它是否真心 , 因为他并不懂语言的真正涵义 。
人工智能|金耀辉/季卫东:AI数据给人“贴标签”,利还是弊?|148期对话
本文插图

自动驾驶事故涉及多种责任 , 追责是难题
人工智能无法理解人类语言 , 需要给予具体指示才能接近人的判断

金耀辉:这一波的人工智能学习算法为何如此厉害?因为深度学习这一算法的发明 。 当然 , 深度学习也存在季老师提到的算法黑箱的问题 。 我们工程师更多的是讨论解决什么问题 。 我们最近也在做一些评估 , 人类如何进行绩效评估?法官、检察官、教师等职业通过工作记录进行绩效评估 , 例如此次讲座也是一次社会贡献的评估 。 对机器而言 , 它通过log日志记录工作内容 。 在机器自动化的过程中 , 我们首先要做的是完整地保留日志 , 然后在机器上市前 , 要把整个算法提交上去 。
在人工智能发展的第二波时期 , “符号学派”即专家系统曾经风靡一时 , 其代表人物Doug Lanet在1980年代开发的Cyc , 试图用逻辑规则来代替我们对这个世界的理解编码 。 然而 , 1998年 , Doug甚至发出一声哀叹“人工智能甚至连人类最基本的常识都不具备” 。 今天 , 所有人工智能行业从业者依然会有同样的感受 , 人工智能无法理解自然语言 。 例如 , 我说“中国足球队谁也赢不了”和“中国乒乓球队谁也赢不了 。 ”相信所有人都能理解这两句话是截然不同的含义 , 但Siri和百度语音能理解吗?它们只能把这句语音翻译成中文或英文 , 但它们不可能理解背后的含义 , 因为它们不懂常识 。

另一个问题就是概率的不确定性 。 我们生活的世界永远是不确定性的世界 , 那么 , 我们该如何把握确定性量化呢?首先我承认 , 我们的统计是经过大量数据的 , 必然存在不确定性的问题 , 我们的研究应该表明算法的不确定性、不确定程度有多少 , 不确定度在何处 , 这是一个被量化的值 。 从输出到最后的决策 , 无论是自动化的 , 还是人为干预的 , 都会被记录下来 。 然后 , 我们会对这些日志进行审计并还原决策做出过程 。 所以 , 我们的研究应该关注不确定性的量化问题 。
这在人类世界也是如此 。 例如 , 不同的法官对同样的案情会做出不同的判决结果 , 因为每个法官都有不同的“自由心证” 。 但若结果之间出现了较大的差距 , 在计算机领域称之为“异常” , 这时就要考虑法官本身是否存在问题 。 因此 , 针对于人工智能的立法 , 是否也应考虑人工智能算法本身的特点?


推荐阅读