人工智能首页 > AI资讯 > 正文

净化网络,看人工智能怎么做?

2019-05-06 阅读888次

  “自我监督学习”是什么技术?

  随着让计算机识别模式并做出决策的新方法流行起来,人工智能正在席卷科技行业以及其他领域。

  如今的人工智能技术被称为“深度学习”(deep learning),你可以让一台电脑通过训练来识别一只猫,方法是给它看很多猫的照片,而不是弄清楚如何定义猫的特征,比如两只眼睛、尖尖的耳朵和胡须。

  人工智能训练数据通常是“受监督的”,这意味着它依赖于经过仔细标记的训练数据。这些数据很难积累,因为好的人工智能系统通常训练所需的是海量的数据。

净化网络,看人工智能怎么做?

  带标签的猫咪照片或许非常好找,但使用人工智能的公司需要应对的是从信用卡欺诈交易到电脑漏洞等一切问题。

  自主学习是人工智能关键训练阶段的一个新转折。

  与常规人工智能训练相比,自我监督学习所需的训练数据要少得多,这减少了收集训练数据和训练系统所需的时间。

  Facebook首席技术官Mike Schroepfer称,在自我监督学习中,人工智能使用未标记的训练数据。但这并不完全是原始数据。相反,一些位被删除,比如文本中的单词或照片中的像素矩形。

  这让人工智能系统通过找出如何重建缺失部分来学习其中的模式,而且更容易提供“海量数据”,这些数据对于自然语言处理(NLP)或理解人类语音和文本等任务非常有用。

  Schroepfer说,Facebook在处理照片、视频和文本时也在使用自我监督学习。

  他说:“你可以同时生成训练集和答案。由于使用了如此多的数据,这些NLP系统开始捕捉到对语言更深层次、更细致入微的理解。”

  人工智能成众平台“好帮手”

  对于专注于技术的Facebook来说,使用人工智能来帮助解决问题是一个自然的想法。Facebook已经聘请了专家Yann LeCun,他是今年著名的图灵奖三位获得者之一。

  Facebook称,其人工智能正在改善这个世界上最大的 社交 网络的许多问题:欺凌、仇恨言论、暴力、恐怖主义宣传、儿童色情、垃圾邮件、成人内容和虚假账户。

  谷歌旗下YouTube、Twitter和其他在线平台等也正面临管控平台上网络言论的困境。

  为了净化网络讨论环境,Google推出一个叫Tune的Chrome插件,用户可以打开按钮,对一些恶毒评论进行屏蔽。这个小工具来自Jigsaw公司,它的前身为Google Ideas,是Google 创建的一个技术孵化器,致力于用技术解决网络暴力、言论自由、信息透明等难题。

  Tune 的作用就是屏蔽恶毒评论。它目前支持 YouTube、Twitter、Facebook、Reddit、Disqus五个平台,开启之后,用户会看到一个调整恶毒程度的按钮,有 quit、low、medium、loud、blaring 五档,级别越高,可以看到的恶毒评论越多,反之则是一个安静友善的网络环境。

  谷歌还使用“排名算法”来组织和呈现内容,这些算法不会形成个人意识形态观点,以应对虚假信息。

  此外,谷歌还面临由人工智能(AI)产生的“换脸”(deep fakes)或“洗稿”内容的威胁。谷歌和YouTube在这方面也进行了 投资 ,以用AI检测这类合成与造假内容的出现。

  创业 公司Deeptrace将用于创建“AI换脸”的相同的对抗机器学习作为检测“AI换脸”的主要工具。该公司还专门开发了一些“AI换脸”案例来培训其防御软件。该公司甚至正在探索将音频和视频通道配对以提高检测的准确度。

  2019年愚人节当天,阿里巴巴宣布要用人工智能打破谣言。这项新技术被称为“AI谣言粉碎机”。这项技术的算法模型由达摩院机器智能实验室研发。对通过深度学习和神经网络,该团队设计了包括发布信息、社交画像、回复者立场、回复信息、传播路径在内的判断系统,将谣言识别和社交用户观点识别打通,最快1秒内判定结果。

  阿里巴巴方面宣称,在特定场景中的准确率达到了81%。2019年初,SemEval语义测试大赛中,根据主办方提供的过去两年社交 媒体 推特和Reddit上的近500个真实言论和1万多条相关反馈数据,阿里巴巴的人工智能技术对假新闻识别的准确率创造了新的纪录。

  人工智能的应用已经远远不止在科技领域。

  咨询公司德勤(Deloitte)周三公布的一项调查显示,全球57%较早采用人工智能技术的企业预计人工智能将改变它们的业务,它们现在往往在进行投资,试图赶在预期的更广泛变革之前。

  但是,尽管人工智能可以解决计算机科学的问题,它也增加了新的问题,比如,如何消除人工智能的偏见成为了一个新的难点。


随意打赏