人工智能首页 > AI资讯 > 正文

人工智能伦理的边界在那儿?

2019-10-28 阅读888次

  近年来随着人工智能技术不断在各行各业中得到广泛应用,AI对人类社会的影响可谓是方方面面。例如最近较为火爆的换脸技术产生的数据安全问题、大数据产生的“杀熟”问题、自动驾驶的安全责任问题、人脸识别产生的隐私问题等。

人工智能伦理的边界在那儿?

  在这诸多问题中,哪些是能做的?哪些是不能做的?以及我们能做到什么程度?这对我们人类来说都是不小的挑战,因为这是我们人类数百万来所面临的全新问题。对这些问题的回答就是为AI伦理划定一个不可逾越的边界。

  北京大学邓小铁教授在引导发言中提出,任何一项新技术的兴起都会引发一系列的争议,AI也同样不例外。那么当AI技术的应用在人类社会中引发伦理风险时,如何界定AI与人的边界、如何与AI定契约至关重要。他提出AI伦理边界的划分,将不再像以往的伦理道德那样局限在人与人之间,现在则多出了一些维度,还涉及到人与AI、AI与AI之间的伦理边界问题。这对我们来说是全新的思考领域。他同时还指出,我们在与AI制定契约时,需要遵循三大最基本的原则:可执行、可验证和可执法。作为引导发言,邓小铁教授还提出了在与AI交互过程中存在的四个问题:

  Code is law。如果代码就是王道,那么我们应该建立怎样一种程序来监管编程人员呢?

  谁能代表AI定契约?是AI的制造者,还是AI自身?

  AI伦理设计的不可能三角。在AI涉及伦理时,人类的机制如何设计、AI如何执行、市场如何接受?

  能否允许AI来制造AI?这个时候人类是否还有能力对AI实施管理和监测?

  但紧接着一位来自中南大学的教授便指出邓教授的思考中存在一个漏洞,即事实上我们整个学界对“智能”这个词是什么一直并没有搞清楚,因此也不可能搞清楚人工智能是什么,只有当我们真正弄清“智能”的概念,知道了智能和人类的局限分别是什么,我们才有可能去讨论AI和人类的伦理问题,或者权利和义务问题。在辩论中,几位哲学领域或法律界的人士分别指出了AI伦理边界的以下几个特点:

  伦理的时代属性。北京大学副教授吴天岳指出,任何伦理道德都是有时代烙印的,因此尽管目前已经有诸多原则,但我们还需要有历史意识和前瞻意识,以避免我们自己的道德偏见阻碍了未来人类的发展。

  道德的边界应该是动态的。天津理工大学罗训教授认为任何治理原则都是不可能是一旦制定永不改变,因为伦理永远在随着时代和地域而变化,因此关于AI伦理应当是动态的,不应当去静态地刻画。

  AI伦理中人的属性不可忽视。现有的AI仍然不是一个道德主体,所以目前所讨论的道德边界主要还是针对人类行为边界的界定。


随意打赏