人工智能首页 > AI资讯 > 正文

人工智能伦理监管

2019-10-28 阅读888次

  面对人工智能的伦理原则,一项很重要的事情便是,如何确保人类(个人或组织)、AI遵守相应的伦理原则?

  吴天岳教授认为,针对AI开发者,职业道德和职业伦理非常重要。技术作为一种手段,它服务于某种特定目的,因此为了防止人为的AI作恶,必须要强化AI开发者的伦理意识,从源头来遏制AI技术所带来的风险,而不能仅仅是在产品出来之后进行监管。这包括几个方面,首先是算法层面要做到可解释性、透明性;其次数据方面要确保均衡性和非歧视性;作为工具,要对算法进行专属测试。吴天岳教授强调,作为AI开发者必须要意识到,AI技术的实现是为了一系列人类核心道德价值服务,而不仅仅是为资本和权利服务。他举了2018年谷歌全体员工署名反对谷歌与美国军方合作的例子。

人工智能伦理监管

  另一方面,除了自我约束外,吴天岳教授认为还需要外部监管。这便需要设置所谓“伦理委员会”。目前各大企业纷纷宣布成立内部的伦理委员会或类似职能组织进行监管。但针对“伦理委员会”是否真正能够起到作用不同学者抱有不同的看法。例如前面我们提到,目前几乎没有一家公司能够真正按照自己的伦理原则行事,或多或少都会触犯。曾毅指出,事实上一家公司能够真正做到所有原则中的80%已经很不错了。平安集团首席科学家肖京强调,“外部监管在制定一系列约束的同事,若能为企业提供更好地帮组,引导企业如何在保证‘活下去’的基本要求下,合理地进行AI技术开发,就可以协同共赢”。

  立法是划清红线的手段。但其中也存在诸多问题,1)严格的法律是否限制了人工智能的发展? 2)法律应该在发展的何种阶段介入?举例来讲,目前我国在数据隐私保护方面的法律约束,相对于西方没有那么严格,这也成为我国能够在人工智能时代迅速占领高位的一个重要因素。一旦我们针对数据隐私做出严格的限制,可以想象必将极大地约束技术的发展。


随意打赏