人工智能首页 > AI资讯 > 正文

人工智能在合规科技的应用面临着瓶颈

2019-10-08 阅读888次

  人工智能通过构建违规发现模型和风险预警模型,有效监测金融机构的内部和外部风险。一是利用模糊推理技术和案例推理工具,学习以往案例及当前监管规定,进行全局化分析计算,及时提醒金融机构调整操作确保合规。二是利用机器学习等构建流动性风险的网络模型,选取更合适的风险指标衡量流动性情况,辅助金融机构做决策。三是利用人工智能技术开展金融压力测试,对市场可能发生的风险进行预警,增强金融机构的风险管理能力,控制风险的影响范围。

人工智能在合规科技的应用面临着瓶颈

  人工智能应用的挑战与风险

  人工智能通过应用算法、数据分析,帮助金融机构判断和预测产品、业务、客户及市场风险,最终实现机器自动化、自主化决策,但是目前的人工智能发展只具备初步学习能力,离算法层面的强人工智能状态差距较大,人工智能在合规科技的应用面临着瓶颈,智能合规的实现存在诸多风险因素。

  一是算法决策的局限性。 首先,人工智能对已有的案例数据可以快速响应并执行预定方案,但当人工智能遇见前所未有的数据时,可能无法做出令人满意的决策。其次,基于大数据推理的决策并不具有连续性,人工智能在面对个案时也许会出现低级错误,模型与现实的偏差可能会随着新偏差的出现而无法收敛,需要不断弥补和修正模型存在的问题。

  二是缺乏配套系统支持。 虽然近几年监管机构积极推进风险防控系统建设,但是信息共享尚未完全实现,制约了合规科技的进一步发展,提高整个金融系统的合规智能化水平需要系统化的技术支持。

  三是数据信息质量与安全问题。 首先,人工智能依赖于大数据,但是数据的获取及应用范围、是否涉及商业秘密、客户个人信息等都存在数据互信问题,需要进一步规范和保障,金融机构和金融科技公司的数据积累也会导致管理成本上升,数据安全隐患更突出。其次,越先进的算法越需要大量数据做支撑以达到精确,但是目前信息未实现共享,金融机构需要第三方机构的技术支持,获取其他渠道的数据,由于数据来源及使用目的不一,其结构、质量都不同,即便应用人工智能进行数据处理也是繁琐复杂的过程,智能合规将面临数据“质”和“量”的两难选择。

  四是责任确认的法律风险。 合规专员是合规审核工作的执行者需承担相应的法律责任。将人工智能引入合规工作后,如果出现审核失误,追责对象难以确认,存在法律风险。此外,在智能合规中需要将监管规则代码化,无法保证代码和算法具备完全可信性,监管政策和立法滞后于合规科技的发展,现有的监管框架对于计算机所产生的错误、不公平等现象没有适用性。


随意打赏