您当前的位置:  国际研究
【金融科技发展研究】国际跟踪丨人工智能金融应用治理--金融监管新目标
时间:2023-01-06 17:15:00

编者按:2021年8月,国际清算银行(BIS)发布《人工智能金融应用治理--金融监管新目标》报告(以下简称《报告》)。《报告》指出,人工智能在改善金融服务、风险运营等方面具有巨大潜力,但也面临技术难度、数据质量、网络攻击等诸多挑战。《报告》建议监管机构根据人工智能所涉及的业务和风险实行差异化监管,并加强国际交流,推动相关国际标准制定。现对《报告》主要内容进行摘编,供参考。

一、人工智能在金融领域应用的监管目标

(一)完善可靠的算法模型。人工智能算法迭代与进化高度依赖外部的数据输入。金融领域构建人工智能模型时,要保证训练模型的样本数据拥有清晰可信的来源,确保数据质量,避免由于训练数据错误或建模方法不科学等初始偏差导致人工智能模型失效、决策失败等问题。

(二)完备有效的治理体系。相比于传统金融模式,基于人工智能的金融应用更需履行监督审查和平台责任。金融机构的董事会和高级管理层作为人工智能金融应用的最终责任人,需要对人工智能算法设计与决策结果予以充分监督。同时,在社会监督方面,金融机构应提供人工智能决策结果查询、意见反馈等渠道。

(三)透明公平的运行机制。人工智能算法要具备一定的可解释性。相关系统的开发过程要足够透明,系统决策机制及其关联数据要能被记录和审计,确保算法运行结果合法、合理、公平。同时,相关机制的设计要纳入信息披露、社会伦理道德、金融消费者权益保护等要素。

二、人工智能在金融领域应用的监管挑战

(一)人工智能模型透明度低解释难度大。大多数人工智能算法基于数据的相关关系驱动。算法运行结果虽然合理,但是因缺乏因果逻辑,无法推理,难以用通俗易懂的语言向数据主体(金融消费者等)解释、披露。

(二)人工智能算法训练数据质量要求高。不准确、不完整或有偏差的训练数据将导致人工智能算法模型不可靠。当算法应用场景发生变化时,训练数据也要随之更新,以便重新训练算法模型。苦系统遭遇网络攻击,训练数据被篡改或破坏,人工智能算法可能出现模型失败、结果失真等问题。

(三)人工智能应用的具体责任界定难。一方面,为规避干预模型决策带来的责任,决策者会直接采用人工智能的运行结果。另一方面,过度干预模型决策也会变相引入算法歧视,使得算法运行结果主观化。同时,基于人工智能的金融服务往往需要第三方服务商参与,这也给人工智能应用的治理带来新的挑战。

(四)处理人工智能带来的社会问题压力大。不公平、不合理的人工智能金融决策,可能会对金融消费者的生产和生活产生严重影响。如果相关问题得不到妥善处置,可能会带来社会性问题,导致金融机构声誉风险,甚至引发流动性风险,给金融监管部门带来挑战。

三、政策建议

(一)实行差异化的人工智能应用监管。构建人工智能应用影响评估体系,明确应当被严厉禁止的人工智能应用场景和高风险项目。针对不同类型的人工智能应用场景,采用差异化的监管政策以及与之相称的风险监管要求,为金融领域人工智能应用治理提供依据。

(二)建立具体化的人工智能治理指引。金融监管部门、金融机构及行业技术服务提供商要加强协调配合,在现有标准、规范的基础上,加快制定人工智能治理指引,确保基于人工智能驱动和传统模式驱动的金融服务评价标准一致。同时,要加强人工智能治理国际合作,助力构建人工智能治理国际标准。

(三)探索完善的人工智能治理举措。一是建立、完善人工智能金融业应用行为准则,以公平、公正的理念,引导科技向善。二是提升人工智能训练数据、验证数据的丰度和准确性。三是将非歧视性规则嵌入人工智能模型,并及时评估模型科学性,避免出现歧视性结果。

金融科技研究与发展动态(2021年第7期)观点研究.pdf

© 2017 北京金融科技产业联盟 版权所有

京ICP备17008480号 本网站支持IPV6访问

京公网安备11010202007377号

联盟公众号
联盟资讯号