扫描二维码
关注北京大学汇丰金融研究院官方微信/微博


根据国际证监会组织(IOSCO)2025年的调查报告,AI创新给资本市场带来的风险主要涉及数据治理、算法开发、测试与监控等领域。对市场参与者的问卷调研显示,高频提及的风险可归纳为AI模型与数据缺陷风险、恶意使用AI风险及技术过度依赖风险等。
清华大学国家金融研究院院长,清华大学五道口金融学院副院长、教授田轩与中证金融研究院助理研究员李尚颖共同在《北大金融评论》发文表示,监管工作应在加强与市场机构的常态化沟通,提升监管精准度的基础上,重点从三个方面发力:一是加大投资者保护力度,筑牢市场安全底线;二是深化跨领域、跨区域监管合作,形成监管合力;三是尽快出台符合中国资本市场实际情况的人工智能技术监管指引,为行业健康发展提供科学、高效的顶层设计指引。
本文完整版刊登于《北大金融评论》第25期。

近年来,人工智能技术加速迭代升级,在为多产业持续赋能的过程中,对金融行业发展产生了尤为深远的影响。当前,这一技术已广泛渗透到资本市场相关业务中,有效助力证券经纪商、资产管理机构、金融交易所及监管自律组织等市场参与主体提升运营效率。
人工智能在资本市场领域应用的特有场景
根据联合国对AI 的定义,人工智能包括一系列可定义为“自我学习、适应系统”的技术。由于AI 在资本市场的应用场景具有一定的特殊性,国际证监会组织IOSCO 对AI 的定义更具针对性:“基于机器的系统根据收到的输入信息推断并生成输出的结果,如预测、建议或决策等。”目前,应用于资本市场的人工智能技术主要包括:以决策树为代表的传统AI 技术、机器学习(ML)及深度学习(DL)、自然语言处理(NLP)与大语言模型(LLM)、生成式人工智能(Gen AI)等。这些技术在证券经纪商、资产管理机构、金融交易所及监管自律组织中均发挥着重要作用,形成了具有行业特色的应用场景。
证券经纪商:聚焦客户服务、算法交易与风险监控
证券经纪商近年来在多个业务环节中广泛引入人工智能技术,以提升服务质量与运营效率。在客户沟通服务方面,聊天机器人或虚拟助理等AI 驱动通信系统近年来开始被大量使用于客户沟通,例如山西证券托管AI 助手“慧营”能够处理数据,理解问题,诊断故障,每周服务近千机构客户,问答准确率超过91%。在风险防控与合规管理领域,依托人工智能技术构建的智能化风控体系可用于风险防控与合规管理,阻止恶意攻击及监测非法活动等,如中信证券就构建了全链路风控体系,构建法规知识库并使用合规问答助手,提升风险预警智能化水平。在算法交易方面,AI 可用于算法交易协助资产定价、交易执行及交易事前事后分析等,进而捕捉市场信号、分析交易价格及交易情绪。以华泰证券为例,其AI 债券机器人融合了豆包大模型询价报价,使得业务日均交易规模增长近一倍等。
资产管理机构:助力投研效率提升、智能投顾、资产管理及宏观监测
资产管理机构积极借助人工智能技术优化业务流程,在多个关键领域实现效能提升。在投资研究环节,通过模型整合多维数据成为重要手段,其中生成式人工智能被用于搜索论文,助力精准分析行业动态,从而提高投研效率。例如,知名对冲基金Two Sigma 开发投研分析平台Two Sigma Factor Lens,凭借人工智能大量阅读构建丰富的因子库,通过分解持仓的风险和收益驱动因子,实现资产配置的优化。在智能投顾及资产管理服务方面,机器学习等技术被用于机器人投资顾问,能够根据客户的风险偏好及投资目标优化投资组合。以国信证券为例,其建立的智能投顾系统,既覆盖业务办理、交易规则等客户高频咨询场景,又包含个股分析、基金诊断、账户评估等员工高频展业支持场景,形成了完善的投顾服务智能解决方案。此外,部分资产管理公司还借助第三方数据提供商的人工智能工具监测宏观经济环境,比如贝莱德的“阿拉丁”系统,接入全球宏观数据库后,可通过神经网络等技术预测GDP 及通胀拐点。
交易所及行业自律组织:优化交易结算、强化市场监控与合规管理
交易所及行业自律组织积极运用人工智能技术,在多个业务领域推动效能提升与管理升级。在交易结算环节,交易所借助人工智能技术优化交易前及交易后流程,例如纳斯达克通过AI 自动调整股票订单的等待时间,有效提高了交易成交速度。在市场监控方面,GenAI 和LLM 技术被用于交易异常事件监测。以港交所为例,其在审查新股发行时,利用AI 技术追踪交易账户是否存在关联;在交易环节,AI 能够监测跨账户同步下单行为,从而精准识别违法违规行为,切实保护投资者权益。此外,AI还可以助力监管自律组织的工作流程自动化。比如GenAI 技术可从复杂的非结构化文档中提取数据,并将其转换为结构化格式进行分析,这一过程大量节约了人工成本,为监管工作提供了有力辅助。

全球对AI应用于金融领域的监管趋势分析
进入21 世纪以来,金融科技以前所未有的深度和广度重塑着全球金融行业的发展格局。2005 年,全球首个P2P 资金平台Zopa 在英国诞生,拉开了网络信贷模式的序幕。2007 年,拍拍贷成立,网络信贷在中国迅速普及。2008 年,中本聪创立比特币,其依托区块链技术实现的全网分布式记账模式,为金融科技领域开辟了全新赛道。此后,区块链技术快速渗透至数字货币、征信、转账结算、证券发行交易等金融环节,展现出强大的应用潜力。2016 年,金融科技逐步成为金融行业的关注焦点,大数据、云计算、区块链、人工智能等前沿技术加速与金融业务深度融合,从支付结算到风险管理,从产品设计到客户服务,全面重构金融业态。进入2024 年,全球金融科技监管框架持续完善,美国、欧盟及中国香港等主要经济体和地区纷纷出台稳定币相关监管政策,为数字货币领域的规范发展奠定基础。与此同时,人工智能技术在金融领域的应用所引发的伦理风险、算法公平性及系统性风险等问题,也在近两年日益受到监管层与行业的高度重视,推动金融科技向更安全、合规、可持续的方向演进。
从更为微观的层面来看,随着人工智能技术在资本市场的渗透程度的不断加深,其在算法交易、风险管理、市场监测、投顾等关键领域的监管挑战也随之加剧。目前,尽管各国已开始探索金融领域人工智能的监管框架,但针对资本市场具体场景的监管细则几乎空白。同时,全球主要国家或地区的监管理念和实施路径也呈现明显差异:欧盟采用统一化、风险导向的强规范模式;美国则更倾向于依托现有监管框架,由各机构主导,分散式推进,整体监管风格相对宽松;中国的人工智能监管则主要针对算法模型,在法规制度设计上形成了鲜明的特色。
欧盟:以《欧盟人工智能法案》等为基础框架,强调金融领域模型透明度与投资者保护
欧盟对人工智能的监管呈现出适用范围广、风险分类细及监管措施严三大特征。尽管在金融领域人工智能应用的监管方面,已提供了方向性指引,但针对资本市场的相关政策仍在酝酿之中。从基本法律框架来看,欧盟的监管主要遵循2024 年5 月通过的《欧盟人工智能法案》,包括总则、人工智能禁止使用的场景、高风险人工智能数据库、上市后信息监测共享和监督、授权与委员会程序及最后条款等。从监管特点看,区域适用呈现出明显长臂管辖特征。只要AI 在欧盟境内被使用,无论提供者是否在欧盟境内,均需遵守相关法律。在架构设计层面,欧盟采用自上而下的双层监管体系:欧盟层面设立人工智能实验室,各成员国由各自市场监督管理机构承担相应职责。风险分类方面,欧盟将人工智能划分为不可接受风险、高风险、有限风险及最低风险四个等级。其中,不可接受风险类指对人的健康、安全和基本权利构成明显威胁的,涉及严重侵犯人权与人类安全的,需采取绝对禁止的态度;高风险类是指对人的健康、安全和基本权利产生较高威胁的,需采取严格的监管措施,进行持续性监测与评估,贯穿高风险等级的人工智能系统从开发到运行的全过程;有限风险类是指对人的健康、安全和基本权利产生较低威胁的,如聊天机器人等,需在用户知情和可控性方面达到较高标准;最低风险类如简单的推荐系统等,相应监管要求相对较少。同时,《欧盟人工智能法案》制定了极具威慑力的罚款机制,罚款金额可能高达企业全球营业额的7%。就金融领域监管现状而言,欧洲银行管理局和欧洲保险与职业养老金管理局发布的监管规则,与《欧盟人工智能法案》要求基本一致。德国金融监管局强调AI 模型应采用透明、简单和可解释的模型;法国金融市场管理局明确应加强投资者保护,将AI技术应用纳入合规框架;欧洲金融管理局发布了关于金融机构向散户提供投资服务时使用AI 的相关指引。
美国:以原则性指导为主,聚焦机构职责,监管集中于信贷及期货交易场景
美国对人工智能的监管呈现去中心化、非强制性及推动企业进行自我监督的特点。从指导性政策看,2023 年11 月发布的《关于安全、可靠和值得信赖的人工智能的行政命令》,确立了推动AI 发展的基本原则、安全标准与建设、创新与国际化及政府内部治理与公众保护等多项原则。2025年5 月,美国通过“大而美”法案(One Big Beautiful Bill Act,全称为“大而美”税收与支出法案),其中就包含对国内 AI 基础设施建设(如数据中心、半导体制造)的资助、税收优惠及外资限制等产业扶持条款,并禁止各州和地方在法案生效后的10 年内限制人工智能模型、人工智能系统或自动化决策系统。从监管特点看,联邦各机构在各自职责范围内评估AI 安全标准,未设立新的法规或专门机构;立法主要集中于州政府层级,例如科罗拉多州人工智能法案要求对教育、就业、金融服务等关键领域使用高风险的人工智能系统进行评估。此外,政府还与亚马逊、谷歌、Meta 等巨头签署了八项自愿承诺,以确保人工智能安全、可靠、透明,实现源头治理。就金融领域而言,美国目前针对人工智能的监管规则较少。其中,具有较强约束力的规范,当属美国消费者金融保护局针对AI 信贷领域的要求——明确禁止以算法黑箱特性为由,规避因拒贷或降低信用额度所产生的责任;美国商品期货交易委员会(CFTC)则是在对人工智能使用的公开意见征询稿中,强调了AI 在交易领域的订单处理、市场监测、安全系统防护应用及保证金计算等方面的风险。2025 年8 月,据路透社报道,美国证券交易委员会(SEC)成立AI 专责小组,旨在提升监管效率。
中国:呈现垂直管理特点,金融领域以算法监管为核心
我国对于人工智能的监管主要以2017 年国务院发布的《新一代人工智能发展规划》为指导,由当时的国家科技体制改革和创新体系建设领导小组牵头推进。从政策法规看,目前我国尚未出台人工智能专项法律,但2023 年国家网信办联合国家发展改革委等七部门发布了《生成式人工智能服务管理暂行办法》,该办法旨在规范生成式AI服务的开发和应用,防范技术滥用风险,保障用户权益和社会公共利益。就监管特点而言,我国强调算法在互联网信息服务平台进行备案并进行信息标准化披露,以实现分管各个业务领域的监管部门能够“看得清”。在金融领域,2021 年中国人民银行发布了《人工智能算法金融应用评价规范》,2023 年发布《人工智能算法金融应用信息披露指南》,要求金融机构对人工智能使用的产品和服务信息、重大风险事件进行披露。2022 年中国银行业协会发布《人工智能模型风险管理框架》,对人工智能模型风险分为三个等级,为银行业提供了重要参考。不过,中国证监会目前对于人工智能的监管主要体现在对量化及程序化交易的相关处罚上,尚未发布相关规则。

AI创新给资本市场带来的风险及监管挑战
根据国际证监会组织(IOSCO)2025 年的调查报告,AI创新给资本市场带来的风险主要涉及数据治理、算法开发、测试与监控等领域。对市场参与者的问卷调研显示,高频提及的风险可归纳为AI 模型与数据缺陷风险、恶意使用AI 风险及技术过度依赖风险等。
AI 模型与数据缺陷风险,导致分析结论出现偏误
AI 模型与数据存在的缺陷,可能引发分析结论出现偏误,这一风险主要体现在三个方面:一是模型本身存在可解释性不足、假设错误、幻觉效应等缺陷,比如模型偏见在数据抽样情况中无法公平对待不同的投资者群体及投资品种;二是数据质量不高,例如数据不够干净完整、存在数据代表性不足等,再加上使用Gen AI 合成数据中可能包含虚假或错误信息,导致数据质量难以得到保证;三是数据存在漂移。以LLM 为例,其使用历史数据训练模型,难以适应快速变化的市场环境,进而影响分析结论的准确性。
恶意使用AI 风险,损害投资者对资本市场的信任
恶意使用AI 的行为,会对投资者对资本市场的信任造成损害,这类风险主要体现在三个方面:一是不法分子利用AI 进行信息造假。例如在自动化网络的钓鱼计划,创建虚假身份和档案,生成更可信的信息,投资者识别难度加大。二是利用AI 网络攻击。引入AI 技术的金融企业拓宽了攻击面,不法分子可利用AI 自动分析系统漏洞、规划攻击路径,使得网络攻击变得更为隐蔽和复杂。三是造成数据隐私泄露。不法分子可能会操纵LLM 训练结果泄露相关信息,或者利用AI 与原有系统整合的契机造成信息泄露。
······
《北大金融评论》第25期已经上架
订阅全年刊或三年刊
享独家优惠
