人工智能首页 > AI资讯 > 正文

人工智能无时无刻不在更新

2019-11-26 阅读888次

  如果你想部署自适应流媒体,你需要在网络中加入人工智能,那么你就可以考虑使用神经网络。尤其重要的是,一旦你部署了这个人工智能组件,它一定不会保持不变,因为频繁更新是人工智能的一个显著特征。

  谷歌说,如果世界上每一个Android用户,每天使用约三分钟的语音识别,谷歌需要足够多的算力来处理所有的请求,这也意味着,世界上最大的计算基础设施将不得不扩大一倍。

人工智能无时无刻不在更新

  在递归神经网络取得进步的基础上,我们开发了全新的语音识别和语言理解模型,将云端100GB的模型降低到不到半个GB。借助这些模型,驱动助手的人工智能可以在手机本地运行。这一突破使我们能够创建下一代助手,几乎零延迟地处理设备上的语音。即使没有网络连接,也能实时进行转录。虽然这还不适用所有的情况,但无疑是个不错的主意。比起持续在数据中心部署人工智能,我们也可以实现在本地嵌入。

  人工智能无时无刻不在更新,但如果所有的智能都部署在本地,就会面临一系列问题。如果需要将人工智能组件的新版本部署到数百万个、数十亿个本地设备,这就会需要一个通用的工具来缩小神经网络。在MPEG,我们推动数字媒体产业标准发展,所以对神经网络很感兴趣。人工智能神经网络在多媒体中被广泛使用,可以用于音频内容识别和分类,语音处理,图像和视频编码。与此同时,深度学习需要使用非常大规模的神经网络。

  当我们压缩神经网络的时候,第一层能压缩多少?更深的层次又能能压缩多少?其实可以基于所有的神经网络参数进行推理。但不是所有的参数都同等重要,当你在一个设备里置入神经网络,这个设备通常会在资源方面受限。

  接下来,让我来分享我们正在进行的神经网络压缩工作。需要解决的第一个需求自然是压缩,但有一些人不希望性能受到压缩的丝毫影响,这就需要一个无损模式。此外,压缩的神经网络应当是可扩展的,即使只使用压缩的子集,性能仍能发挥一定水平。即使在传输过程中发生错误,也并不导致文件的丢失,这也是要解决的神经网络压缩诉求。此外,基于增量更新,神经网络压缩需要能够从许多来源接收更新,并能够检测到神经网络的压缩调整。你也可以不访问原始的训练数据进行压缩,或者用有限的资源对网络进行解压。


随意打赏