陈剑:人工智能与风险管理的未来

金融行业正经历一场深刻的范式转移,从传统的、基于规则的统计模型(如逻辑回归)转向动态、复杂的机器学习和人工智能系统。这一转变的驱动力在于海量数据的可用性、计算能力的指数级增长以及对更强大分析工具的迫切需求,这些因素正在从根本上重塑风险管理的全貌。

复旦大学国际金融学院金融学实践教授陈剑在《北大金融评论》发文表示,复杂机器学习模型的输出可以被“翻译”成传统风险管理者和监管者所熟悉的语言和框架。未来的风险建模可能不再是新旧二选一,而是一种混合模式:用源自传统方法的原则来约束、验证和解释强大的机器学习模型

本文完整版刊登于《北大金融评论》第25期。


金融行业正经历一场深刻的范式转移,从传统的、基于规则的统计模型(如逻辑回归)转向动态、复杂的机器学习(ML)和人工智能(AI)系统这一转变的驱动力在于海量数据的可用性、计算能力的指数级增长以及对更强大分析工具的迫切需求,这些因素正在从根本上重塑风险管理的全貌。传统模型虽然透明,但其基于线性假设,难以处理现代数据的复杂性和体量,从而限制了其预测准确性和实时性。相比之下,AI/ML 模型能够处理海量的结构化和非结构化数据,识别传统分析方法无法洞察的微妙、非线性模式,并提供更好的预测性能。



AI 在风险管理中的核心价值主张清晰而有力:在信用、市场和操作风险评估中提升准确性,通过自动化提高效率,以及产生前所未有的洞察力。然而,要负责任地驾驭这股力量,需要一个全新的、综合的治理框架。这种转变并非没有风险。虽然AI 可以消除部分人为偏见,但它也可能引入或加剧新的偏见,甚至可能因模型趋同而引入系统性风险;同样,由更加复杂的AI 算法驱动的风险管理模型,可能在可解释性和稳定性上弱于传统风险模型。


本文将围绕四个相互依存的核心主题展开,将其视为综合治理策略的四大挑战:模型可解释性、模型稳定性、数字歧视与数据隐私。这四个领域紧密相连,任何一个领域的失败都可能损害其他领域。例如,缺乏可解释性会使审计偏见或确保模型稳定性变得不可能。本报告将逐一剖析这四大挑战,为金融机构在AI 时代驾驭风险管理提供一个全面的框架。


可解释性的迫切需求:从“黑箱”到“玻璃箱”


在金融领域,深度神经网络等复杂模型虽然能提供高度准确的预测,其内部决策逻辑却常常像一个无法窥探的“黑箱”。这种不透明性在金融行业是不可接受的。监管机构,如欧盟《通用数据保护条例》(GDPR)所赋予的“解释权”,要求机构必须能够解释其自动化决策的逻辑。同时,内部模型验证、审计以及与客户和利益相关者建立信任,都要求决策过程必须是透明和可问责的。因此,模型的晦涩难懂已成为满足监管要求和实现问责制的重大障碍。


undefined


2 揭示了常见的权衡:预测准确性最高的模型(如深度神经网络)通常透明度最低。可解释性AI (XAI) 技术对于弥合这一差距,以满足CFPB GDPR 等监管机构的要求至关重要。在此背景下,XAI 不再是技术上的奢侈品,而是现代风险管理的核心要求。XAI 提供了一套方法和工具,能够将复杂的模型决策转化为人类可以理解的术语,从而支持合规审查、公平性审计和改进业务决策。对于向客户解释贷款被拒原因,或向监管机构和审计师证明决策的合理性而言,XAI 至关重要。


XAI 方法通常分为两类:局部解释和全局解释。局部可解释性旨在解释针对单个实例(例如,一位客户)的预测,常见技术包括LIME(局部可解释模型无关解释),而全局可解释性则旨在理解模型的整体行为及其最重要的驱动因素,常见技术包括SHAPSHapley 加性解释)。


对可解释性的追求正在推动传统建模技术与现代机器学习方法的融合。传统风险模型(如逻辑回归)使用证据权重(WOE)等技术进行特征转换和解释,这些方法深受监管机构的认可。研究表明,SHAP 值与WOE 之间存在直接的数学关联。这意味着,复杂机器学习模型的输出可以被“翻译”成传统风险管理者和监管者所熟悉的语言和框架。这个由XAI 提供的“翻译层”弥合了新旧方法之间的鸿沟,使得金融机构能够在利用机器学习卓越预测能力的同时,仍然满足传统方法的解释性标准。未来的风险建模可能不再是新旧二选一,而是一种混合模式:用源自传统方法的原则来约束、验证和解释强大的机器学习模型。


尽管XAI 前景广阔,但挑战依然存在。最核心的挑战是在模型性能与可解释性之间取得平衡,因为更简单、更易于解释的模型可能在预测能力上不及复杂的黑箱模型。此外,还存在“解释疲劳”(信息过多或过于技术化)以及解释本身可能具有欺骗性的风险,这凸显了建立统一解释协议和进行严格验证的必要性。


······

《北大金融评论》第25期已经上架

订阅全年刊或三年刊

享独家优惠

扫码订阅→