李开复 李开复为什么( 二 )


(图3:人工智能的发展里程碑)
然后从博弈、感知决策、反馈四个方面回顾人工智能的发展 。今天的比赛我就不多说了,但基本上我能看出来,过了很久,从我大学时做的奥赛罗,到跳棋,再到深蓝象棋,今天AlphaGo终于打败了围棋世界冠军 。从中我们可以看出,这是一个30多年的历程 。
从观感上来说,从我的博士论文发表到Nuance成为顶尖公司 , 从HKUST飞到美国的Deep Face、中国的Face等公司,这些年做的越来越好 , 进步很多 。有一些特殊的例子,比如最近看到一些搞笑的对比 。微软Tay开始在Twitter上和别人交流 , 后来她说了很多很可怕的话 , 被微软撤回 。所以这里有很多成功的例子,也有很多有趣的事件 。
在决策方面,从早期微软Office中的工具,到Google ads的推荐,再到金融行业众多智能决策公司的出现 , 进步很快 。Google auto mail可能不是所有人都能看到,但是如果你还在用gamil,你会发现有时候收到邮件,Google会跳出来问你要不要发回复 。有时候它甚至会帮你写回复,而且非常准确 。这也是人工智能的体现 。也许以后我们不用说话,助手可以帮我们做,人工智能的助手肯定是同一个方向 。
最后,反馈 。从早期的CMU Boss无人驾驶到亚马逊用Kiva推动物流,再到最近的Pepper和Google car,我们可以看到这三四年来这个领域特别火,很多看起来已经商业化的很好了 。
科普深度学习
在这里,我想稍微说一下深度学习 。
深度学习是一种神经网络 。与前一种相比,它的特点是使用多层网络,能够学习抽象概念,集成自学习,收敛速度相对较快 。趋同可能是一种技能,不一定是一种理论,但是有一群人通过它解决了很多重要的问题 。
简单来说,如果我们有很多笑脸,那么我们就把笑脸的像素输入一个神经网络 。最后,你要让机器识别出这是姚明 , 那是马云 。但是因为你的深度学习网络 , 一下子学这么多会比较困难 , 所以你需要用一个相对较快的收敛技能——自学习 。通过自我学习,机器会从大量样本中逐层逐步抽象出相关概念,然后做出理解,最后做出判断和决策 。
例如 , 它可以有几层节点和连接 。通过这些节点和连接 , 它会感知到每一层不同的抽象特征 , 每一层都比另一层更高级 。这些都是通过自学来实现的,而不是别人教的 。经过自学习,从一张脸输入,从同一张脸输出,它从中抽象地学习到一个人脸部的重要特征 。
(图4:分层无监督训练)
这次学习结束后,我会做监督训练,看看机器能不能识别它们,如果不能,就在训练结束后对它们进行微调 。比如我输入马云的脸,但是王出来了,训练系统会告诉你的网络这是错的:这不是王 , 这是马云 。下一步就是对它进行微调 , 让机器下次看到这张脸的时候,识别马云的概率更高,从王包强出来的概率更低 。
(图5:监督培训)
但是这个调不能调的太大,否则会有训练过度的问题 。我们会对整个数学公式进行微调,使用大量数据 , 反复教授 。经过不断的微调,很可能减少多次后的识别误差 。
其实这一整套理论二三十年前就有了 。我在做博士论文的时候,很多同事都在做训练神经网络的工作 。
刚开始的时候 , 深度学习的训练速度很慢,很难进入产业层面或者应用层面 。比如你的手机就做不到这一点,因为速度太慢 。但是这么多年过去了,我们的计算机越来越快,也有了更多棘手的训练和识别做法 。深度学习的应用可能性也发生了变化,可以应用的领域越来越广 。年前,我过早地进入了这个领域,但现在,人工智能大规模应用的时机已经到来 。
你凭什么这么说?一个很简单的评价标准就是我们的深度学习或者任何机器学习是否超出了人类能力的表现 。如果是,可能会产生很多应用 。比如在机?。?如果机器人脸识别的准确率超过人,那么我们这些在边境的人可能就不需要那么多了 。这并不是说机器不会出错,而是说既然人不能做得比机器更好,我还不如用机器来代替 。
深度学习的应用领域
在过去的五年里,深度学习的准确率从75%以上提高到了97%左右,而人类表现的准确率约为95% 。从95%到97%听起来只有2%的提升,但实际上降低了40%的错误率,这是一个很大的提升 。如果这种进步持续下去,人工智能在未来一定会超越人类的性能,也一定能进入一些适用的领域 。这就是我今天讲人工智能黄金时代的证据:在很多领域 , 包括我们在face里面做过的人脸识别 , 包括苹果、谷歌、科大讯飞的语音识别,他们的认知水平在未来几年内会超过人类,一旦做到,他们的应用会迅速增加 。

推荐阅读