人工智能首页 > AI资讯 > 正文

念念不忘,必有回响:人工智能研究为何与模拟大脑再续前缘?

2019-08-31 阅读888次

  现实中的人工智能,正如图灵说所,唯一需要做的事就是找到脑内运行的程序,获得正确的智能算法,然后在合适的硬件上运行它。

  而时代的幸运儿就是深度学习。模拟人脑神经网络工作机制的深度学习方法,乘着互联网的东风直上青云,成为最适合将智能程序与算法下沉到社会机器上的核心技术。

  在感知层面,利用现代计算机算力的提升,以及网络数据量的暴涨,让深度学习通过大规模数据集与训练来获得数据模型成为了可能。

念念不忘,必有回响:人工智能研究为何与模拟大脑再续前缘?

  而在让机器“看起来智能”的核心推理能力上,深度学习也展现了足够强大的进步。主要体现在两个方面:一种是判别事物。在已知属性的条件下,让机器对某个事物进行判断与分类,比如找出垃圾邮件或攻击性语言,亦或是从图像、视频中识别出某种特殊物体等等。

  另一个能力则是生成。也就是通过训练好的模型,产生处符合该模型描述的数据。比如风靡一时的AI换脸,越来越机灵的智能语音助手,自动编写新闻的机器人等等。

  得益于这种在应用场景上快速打开商业想象力的优势,我们今天提到AI,绝大多数人的第一反应,已经不再是被替代的恐慌、超越人类的恐怖故事,而是如何让数字世界为AI所用,再让以深度学习及衍生技术为基石的AI反哺千行万业,为社会生活提质增效。

  既然如此,为什么科学家们还是对模拟人脑的方案念念不忘呢?这恐怕要从“赛尔的中国屋”说起。

  念念不忘,必有回响:AI研究为何与模拟大脑再续前缘?

  哲学家赛尔,曾经用这样一个例子,来表达他对模拟程序的“机器智能”并不认可。

  他想象自己在一个屋子里,有人会从窗口传递给他一个用中文书写的问题,而他需要用中文给出答案。但赛尔完全不懂中文,也看不懂汉字,但他拥有了一套能帮他编写答案的书。书中会告诉他复杂的规则,教他操作“无意义”的汉字符号,并将之变成答案。经过了充分的练习之后,赛尔就可以熟练地用中文输出答案了,乍一看,似乎和地道的中国人没什么两样。

  但显然,我们并不能因此就认为,赛尔会中文。哲学家本人也由此得出结论,一个由毫无理解能力的各种要素组成的综合体是没法变魔术似的产生理解力的。

  这与深度学习的逻辑有着异曲同工之处。某种程度上,也反映了当前智能的技术实现路径,所具有的局限:

  比如人类大脑能够快速适应不断变化的环境,而机器在不确定性较高的环境中,性能就会大幅下降,因此只能用于一些特定的领域。正如谷歌公司前副总裁安德鲁·摩尔所说,今天最精密的计算机也不过是只能“解决特定问题的智能计算器”。你没办法让一个炒菜机器人自己学会送餐,也没办法让人工智能主动“创建”并解决问题。

  再比如学习效率上,人类大脑也与机器智能大相径庭。谷歌的机器识别算法,在无监督的情况下自动学习识别“猫”的视觉图像,需要1 000台计算机联网合作。然而一个人类小孩在幼儿园玩玩具的功夫就能办到。机器如果真的有思维,恐怕早就变成柠檬精了。

  而且,人脑决策时会运用许多隐知识(也就是下意识的直觉),而机器必须根据复杂多元的环境不断调整并改变策略,这就导致机器决策会出现明显的时延。比如在驾驶时,人类很容易就能够通过观察汽车、人行横道与路标,快速确定它们的通行顺序与相对位置。而传统的 人工智能算法却需要在多个物体同时输入系统之后去精炼它们的相关信息,才能做出判断。这也是为什么自动驾驶只能在训练场里徘徊,迟迟无法走入真实道路的重要原因之一。

  虽然深度学习发展到现在,已经借由许多其他技术的引入,改变和弥补了最初的一些不足,比如元学习的引入,让机器学习开始摆脱对数据量的依赖;与强化学习相结合,能够让智能体在自我对抗中学习推理……但总体而言,人脑恰好就是那种非程序的智能,而机器学习注定不是“终极答案”。

  所以,AI转而寻找模拟大脑这个“真命天子”,也就顺理成章了。


随意打赏