人工智能首页 > AI资讯 > 正文

人工智能技术的成熟和落地击着人们的认知和社会规则

2019-11-25 阅读888次

  “AI的技术成熟和落地应用在提升社会运转效率的同时,也冲击着人们的认知和社会规则,给人们带来‘危机感’。在用AI满足我们需求之前,我们需要时间和空间去衡量AI可能造成的冲击和破坏。而法律、道德伦理甚至是用户的主观感受,都扮演着牵制者的角色。”

  人工智能技术的不断成熟,使其能满足越来越多的人类需求,但这并不意味着AI技术对人类社会的改造无往而不利。

人工智能技术的成熟和落地击着人们的认知和社会规则

  人类从数千年文明的经验中已经学会,对于任何能实现迅速满足需求的东西,都应保持警惕,其中也包括人工智能。于是人们发现,对AI谨慎和批判的意识,已经逐渐从消费端觉醒。

  英国媒体《卫报》曾在今年夏天的一篇报道中指出,苹果公司雇佣了合同工,让他们对一小部分Siri语音指令进行聆听,其中一些指令包含了个人信息、药物交易等内容。这篇报道掀起了轩然大波,苹果不得不在多次道歉后中止项目。

  直到11月份,苹果在iOS 13.2的更新中更新条款,用户拥有了删除Siri数据的权利,并且可以决定是否授权给Siri。

  其实,数据是训练AI语言识别的必要步骤,这一要求在开启Siri时就需要用户的许可,真正的争议在于苹果公司聆听用户数据。该争议从侧面体现出,人和机器的判断和推理能力在用户眼中完全不同。

  用户的担忧并不只在数据采集上,还在数据使用上。

  公共场合的图像数据采集,一直被广泛运用于治安和交通领域。以往的城市往往依赖被动的监测,很难形成及时或主动的反应,而监控图像往往只是追查或取证的素材。

  清华同方的智慧城市解决方案中,监控探头采集到的视频和图像数据成为建设智慧城市的有效数据来源。经过大量的数据学习,AI可以辨认出交通事故、占道经营等问题,整个城市的行政部门可以形成更为主动和及时的反应体系。

  但旷视应用于教室场景的人脸识别技术,却引起了公众的极大反感。虽然该项技术类似能够直接从街头面部识别出路人身份证号和犯罪记录的天网系统,但在相对封闭的教室与工作单位场景使用摄像头,似乎“监控”意味远大于“安全”,引起极大的公众反感也变得“情有可原”。

  当公众意识到此类AI应用场景将带来自身部分权利的丧失,技术是否成熟,将不再是衡量落地与否的唯一标准。

  从某种程度上说,法律、道德、伦理以及大众的主观感受,都对人工智能的落地带来了牵制作用,这种牵制所带来的一点好处,是让人类不会盲目追求人工智能对需求的满足。


随意打赏