人工智能首页 > AI学习 > 正文

ai人工智能专家浅谈人工智能芯片,希望能够帮到你呦!

2019-06-06 阅读888次


  AI人工智芯片简介

  AI芯片也被称为AI加速器或计算卡,即专门用于处理人工智能应用中的大量计算任务的模块(其他非计算任务仍由CPU负责)。当前,AI芯片主要分为 GPU 、FPGA 、ASIC。

  AI人工智能在中国发展历史

  根据联合国贸易统计数据显示,中国在2017年进口了2600美元的集成电路 芯片,这个进口金额已经超过了长期雄霸中国进口榜首的原油进口,严重影响中国的经济安全和贸易平衡。这只是传统芯片的市场,未来如果进入人工智能时代,AI芯片需求会不会成井喷,答案可想而知。

  AI芯片也被称为人工智能加速器或计算卡,是专门用于处理人工智能应用中的大量计算任务的模块(其他非计算任务仍由传统芯片CPU负责),主要分为 GPU 、FPGA 、ASIC 。比如苹果公司研发的A11神经仿生芯片,其中就内置了神经网络引擎,其实就是AI芯片,来实现AI计算在终端中运行

  AI芯片相比较传统芯片因为计算架构不同,数据处理速度更快,能效更高,功耗更低。其次AI芯片的强大计算使得大数据计算在终端中就能运行。比如对传感图片的识别,传统芯片可能需要几分钟,那么现在用AI芯片几秒钟处理就可以。再比如自动驾驶需要识别大量的图像数据,需要在最短的时间内计算出结果并作出相应的判断,那么时延将是一个绕不开的致命瓶颈,这时传统芯片就无能为力,必须依靠AI芯片。

  我国人工智能的研发背景

  AI人工智能产品发布编辑中国科学院2018年5月3日在上海发布了我国首款云端人工智能芯片——寒武纪MLU100。这一面向人工智能领域的大规模的数据中心和服务器提供的核心芯片,可支持各类深度学习和经典机器学习算法,充分满足视觉、语音、自然语言处理、经典数据挖掘等领域复杂场景下的云端智能处理需求。

  什么叫 AI芯片,和普通芯片有何区别?

  AI芯片的主要特征就是加载了AI任务专项处理单元。比如苹果推出的A11神经仿生芯片,就内置了神经网络引擎,来实现AI计算在终端运行。


  AI芯片数据处理速度更快


传统的对复杂数据的计算要上传到云端,然后再下载到终端;AI芯片的强大算力使得这些复杂计算在手机终端就能运行。比如对图像的识别,原先十分钟干完的活儿,现在只需要一分钟。比如有以前苹果手机识别照片并进行人物、风景等分类的时候,会选择在夜间不手机的时候上传到云端,然后处理分类。等你一觉醒来,类别就分好了。这就是因为算力不够不能即时分类,但又不想让你知道它干活慢……所以只好悄悄地干活。现在加入了AI芯片,照片分类即时进行就成为了可能。

  其次,AI芯片的数据相对安全。在手机终端就能进行计算,无需上传到云端,就避免了数据泄露的风险。就像你把文件存在U盘里是一个道理。

  人工智能芯片大热,英特尔的第二春来了?

  几乎所有行业都在谈论人工智能(AI),为AI提供最底层硬件技术支持的芯片行业更是处于漩涡之中。

  对于行业大佬英特尔来说,机遇与挑战并行。一方面,曾经的合作伙伴英伟达正在用GPU(图形处理器)占据越来越多的深度学习硬件市场,创始人黄仁勋更是公开说“摩尔定律已死”。一方面,“造芯新势力”声势日益浩大,谷歌的TPU、百度的昆仑、阿里的平头哥、华为的昇腾……他们言必及AI,因为AI对算力的需求极高。

  “英特尔最强的是CPU,处理能力强,但在训练上能够比英伟达的GPU便宜而且好用吗?”一位还在读研二的学生在11月14日的英特尔的人工智能大会上发出了这样的疑问,这也是很多人对于这家老牌芯片厂商在人工智能战略上的误解。

  吸取了移动互联网的教训,这次英特尔的反应速度变得更快了。从2016年开始英特尔已经意识到数据的重要性,并将其作为核心战略。同样是两年前,英特尔收购了深度学习初创公司Nervana Systems和视觉芯片初创公司 Movidius,后来Nervana的首席执行官兼联合创始人Naveen Rao被任命为人工智能AI人工智能产品事业部的总负责人,他主导推出的神经网络处理器(NNP)Nervana成为了英特尔人工智能的核心AI人工智能产品。

小编非常感谢你能浏览到文章的底部,也很开心与大家一起学习一起成长,更多人工智能资讯尽在ai study人工智能科技,在这里请允许小编想你问声,早安!


随意打赏