人工智能首页 > AI资讯 > 正文

人工智能伦理原则

2019-10-28 阅读888次

  中科院自动化所研究员曾毅作为第二个引导发言者,介绍了当前国内外在人工智能原则上的进展,并针对各国人工智能伦理原则进行了详细分析。

  据曾毅研究员介绍,目前全世界范围内已经发布的人工智能伦理原则至少有53个,但这些原则没有一个可以覆盖当前人工智能技术所带来的所有问题。以比较全面的《人工智能北京共识》为例,对于“致命武器”、“公平”等并没有涵盖,原因则在于发布者的立场和视角不同,面对的社会问题也不同。

人工智能伦理原则

  当然,尽管目前已经有如此多的AI伦理原则,甚至包括一些企业(例如谷歌、微软等)都制定了约束自身的伦理原则,但大多数伦理原则并没有得到很好的执行,或者可以说至今为止没有一家企业不会触犯原则。例如尊重隐私这条,当用户要求删除数据时,虽然数据本身可以删除,但由于当前AI技术的限制,已经训练的模型仍然包含原有数据训练的结果,这种痕迹很难在机器学习模型中得以抹除。

  曾毅还指出当前AI伦理原则所面临的一个问题,即当前人工智能主要的目标还仍然是推动经济发展,而却没有对“AI对社会及生态影响”给予足够的重视。因此他提出,人工智能伦理的问题,并不仅仅是有多少领域的专家参与这个问题的讨论,更重要的是要让足够多的人重视这个问题,并参与其中。

  针对AI伦理原则(甚至未来可能的法律),一位与会的学者提出,如何才能做到技术监管不会限制了人工智能的发展。北京大学黄铁军教授从更为广阔的角度回答了这个问题。我们作为人类,思考AI伦理不可避免地会站在人类视角,秉持以人为中心的观念。黄铁军教授指出,目前我们所指的人工智能事实上是嵌入在人类社会的一种形态,人工智能开发遵循人类整体基本的道德共识。但机器智能超越人类智能,这是一个未来进化的趋势。科技创新和发展不应被人类自身的局限性而限制,对人工智能的发展我们应持有一个更开放的心态来对待。


随意打赏