人工智能首页 > AI资讯 > 正文

人工智能体现不出智能,是人工智能还不够成熟

2019-11-09 阅读888次

  近两年人工智能被人们诟病最多的地方是:人工智能体现不出智能。

  很多人对人工智能的认知都是分裂的。一方面媒体不断报道人工智能又取得了什么样的新成果,国外各路大咖让人们要警惕人工智能的发展,人工智能还被纳入我国发展的规划中等等。

人工智能体现不出智能,是人工智能还不够成熟

  另一方面,新闻里经常传出自动驾驶又发生事故,家里的智能家具表现地像个智障一样,资讯平台总是傻傻地推同样类型的新闻等,这些现象都让我们疑惑,人工智能到底智能在哪里?

  回答这个问题之前,我们有必要搞清楚,强人工智能和弱人工智能的区别。

  最初,在达特茅斯会议提出人工智能一词时并没有强与弱之分。普遍认为人工智能就是让机器拥有思想,能够像人类一样决策。当时各种算法的研究也是奔着这个目标而去,希望能够模拟人类决策的方式赋予机器真正的智能。

  但很快就有人发现:在这种方式下实现的人工智能并非真正的智能,只是对人类智能的模拟。美国哲学家John Searle提出了一个思维实验:中文房间(Chinese Room Argument),它是这样的:

  想象一位只会英语的人身处一个房间之中,这间房间除了门上有一个小窗口以外,全部都是封闭的。他随身带着一本写有中文翻译程序的书。房间里还有足够的稿纸和铅笔。

  写着中文的纸片通过小窗口被送入房间中。房间中的人可以使用他的书来翻译这些文字并用中文回复。虽然他完全不会中文,Searle认为通过这个过程,房间里的人可以让任何房间外的人以为他会说流利的中文。

  值得注意的是,这本书仅仅是语法的对应,并不涉及到任何语义的说明。房间中的人,只需要按照对应的回答,拼凑出相应的中文字符递出去即可。在这个过程中,他并不理解问题和他所写的答案是什么意思。

  Searle认为,人工智能就是这样工作的。他认为计算机根本无法真正理解接收到的信息,但它们可以运行一个程序,处理信息,然后给出一个智能的印象。

  例如图像识别技术,它的工作原理就是将颜色变成数字编码,再从这些数字编码中找到特征,查找字典,找到对应的解释然后显示出来。实际上计算机压根不知道自己识别的到底是飞机还是兔子,只是字典告诉它这个特征很大概率对应的是“飞机”这个单词。

  绝大部分算法在本质上都是在玩概率的游戏,不同的方式只是在模型训练时需要的信息不同,以及计算出来对应“飞机”的判定方式不同。

  当前所有被广泛应用的知名模型都是通过矩阵运算训练数据来获得某种概率分布。复杂模型的概率分布通常是高维的,这里又会引申出各种数学方法,但本质的思想依旧是想通过概率分布来描述训练数据的特征。有了这些,对于同类的数据,就可以使用相同的概率分布去描述,从而实现所谓的“识别”或“预测”。

  实际上并非模型真的像人类一样理解了什么是“飞机”,只是通过这种方式,模型能够大概率把长得像飞机的图片识别出来。

  后来业界也普遍认识到这一点。因此把人工智能这个概念又划分为强人工智能与弱人工智能。

  强人工智能流派仍然追求让计算机拥有人类的心智与意识,具有自主选择行为。就像西部世界中从固化程序逐渐演化出自我意识的梅芙一样。但是强人工智能的研究难度较大,市面上还没有成熟的应用。

  而弱人工智能更像是一个解决特定问题的工具。这类问题的特点是可以通过统计,归纳出经验并形成解决方案,而这种解决问题的实现方法被称为“机器学习”。

  机器学习最基本的做法,是使用算法解析数据、从中学习数据的规律,然后对真实世界中的事件做出决策。与传统的编程方式不同,机器学习是用大量的数据进行训练,通过各种算法从数据中学习“如何完成任务”。

  例如量化交易、人脸识别和AlphaGo都是擅长于单个方面的机器学习模型。在训练模型时,我们只教会AlphaGo下围棋的技巧,所以它只能会下围棋。如果你把一道数学题丢给AlphaGo,显然它是无从下手的。

  所有的机器学习模型都只能完成特定的任务,很多时候我们通过组合的方式满足更多的场景。例如智能音箱本质上是一个语音识别的模型结合NLP(自然语言处理)模型,它并非真的能听懂我们说的话代表什么含义,仅仅是能够把接收到的信息转化为模型的输入,在字典中找到对应的输出而已。

  从机器学习的特点可以看出来,如果想通过统计归纳经验,数据的数量与质量是决定性条件。没有数据,就没有人工智能。

  也就是说在你没有作出同类别行为,或者是与你行为相近的人群较少时,人工智能是没有办法作出判断的,这也是人工智能变成人工智障的重要原因。当行为增加,数据慢慢变多,数据质量逐渐上升时,你会发现预测越来越准确,人工智能通过大数据也能做到真正的“想你所想”。


随意打赏