
在监管任何一个行业时,首先要承认一个朴素却常被忽视的事实:并不是所有现象都“管得住”。这个规律也适用于人工智能领域。有些趋势源于技术进步,或成本与收益的落差,或人性的本质,当这些因素形成合力时,顺势而为往往比强行干预更合适。
北京大学国家发展研究院兼职教授、原法律经济学教授薛兆丰在《北大金融评论》发文表示,为了把人工智能发展问题看清楚,有意识地评估哪些趋势是“终究管不住”的,哪些是“大致管得住”的,更准确地说,始终把监管引发的“边际成本”及其带来的“边际收益”纳入考虑,本身具有讨论的价值。
本文完整版刊登于《北大金融评论》第25期。

在监管任何一个行业时,首先要承认一个朴素却常被忽视的事实:并不是所有现象都“管得住”。这个规律也适用于人工智能领域。有些趋势源于技术进步,或成本与收益的落差,或人性的本质,当这些因素形成合力时,顺势而为往往比强行干预更合适。
当然,监管者也会为了监管而监管,毕竟那是他们的职责;社会上的有识之士,也常常积极呼吁,毕竟他们心系公共福祉。但为了把问题看清楚,有意识地评估哪些趋势是“终究管不住”的,哪些是“大致管得住”的,更准确地说,始终把监管引发的“边际成本”及其带来的“边际收益”纳入考虑,本身具有讨论的价值。让我试举例说明。
大幅节省成本的技术发展,管不住
经济学家们善于区分“福利”(well-being)与“辛劳”(toil)。他们喜欢引用巴斯夏(Frédéric Bastiat)所举的例子:光明本身是人类所追求的“福利”,而制造蜡烛只是获取光明的“辛劳”手段。一旦阳光普照,光明免费而易得,人们便会欣然享受日照,而不会为蜡烛工厂的倒闭感到惋惜。今天,人工智能(AI)正在取代大量脑力劳动——尤其是中等水平的脑力劳动。像过去一样,每当技术变革来临,全社会都在享受福利的提升时,被“解放”的人力资源却要经历失业和彷徨。我们有必要认清人工智能在每个发展阶段的局限和缺陷。比如,它的输出建立在概率模拟而非逻辑推理之上,因此回答可能前后不一致,正确性难以保证,而且如果训练数据中掺杂虚假信息,它也会不断放大这些偏差。又如,人工智能在专业知识的获取上存在局限,许多高价值的资料受版权保护,它无法随意读取,因此在某些领域的信息来源往往不够全面。还有,人工智能虽然能够高效处理信息,却无法真正体验其中的人文价值,更不能像人类一样产生情感共鸣。不过,这些局限和缺陷并非不可修正或不可将就。对于第一个问题,研究界正探索将概率模型与符号逻辑系统结合,使人工智能不仅能生成答案,还能通过逻辑验证加以检验,从而降低“幻觉”的发生。对于第二个问题,限制更多来自法律与产业规则而非技术本身,如今已有不少专业领域的人工智能通过授权方式接入数据库,提升了知识的可靠性与深度。至于第三个问题,人工智能确实无法取代人类的情感体验,但它可以作为工具帮助人类更快地整理与筛选信息,从而让人类将更多精力用于价值判断与创造性表达。关键是,人类从来不必等到某种工具成熟到能与自身能力媲美时才开始使用它。更何况人类自身的思维方式,就是逻辑推理、盲从模仿与直觉判断的结合体。也并非人人都需要具备阅读专业文献的能力或掌握专业技能。工具本身具有价值中性,它们的作用反而可能正好为人类保留了价值判断的自由空间——就像显微镜能够帮助人看清细节,但哪些细节重要,仍然要靠人类自己来判断。人工智能技术正在持续改进之中,即便这一过程受到客观条件的限制,使它无法突破某些根本性的鸿沟,但它对某些劳动力的替代作用——减轻辛劳、提升效率并带来福利——仍然具有不可抗拒的力量,就像文化程度较低的人也完全能派上大量用场一样。因此,若企图通过限制人工智能的使用来减少人们在学习和工作中的辛劳,终究是难以奏效的。
隐私被出让或被占用的趋势,监管将且战且退
个人隐私信息是否被暴露,最终取决于它在不同情境下的使用价值。这与科斯定律的预测相契合:当交易费用相对较低或使用价值足够高时,资源(这里就是指个人隐私信息)会流向更高价值的用途。在当今社会,几乎只有那些依然生活在偏远山村、坚持使用现金并拒绝电话与互联网的人,才能保有传统意义上的隐私。绝大多数人为了享受技术带来的便利,早已习惯于毫不犹豫地点击各种应用上的“同意并继续”或“我已阅读并同意”,从而在法律上接受隐私政策与用户协议——其中往往包含对个人信息的收集、使用与共享的授权。与此同时,政府也会基于公共安全、社会福利等理由,要求进一步获取和使用公民的个人信息。在商业与公共权力的双重推动下,现代社会中的个人实际上已处于“半透明”状态。人工智能强大的搜索、整合与分析能力,无疑会加速这一透明化进程。既然个人为了获得便利,往往会主动向商业机构交付部分隐私信息,而政府又常常出于维护公共利益的需要强制调取和使用其中的一部分,那么从长远来看,尽管保护隐私的呼声和措施从未间断,但隐私在越来越大的范围内被分享与利用的趋势已难以逆转,相关的监管将会且战且退。长期以来,在群体中对不同个体区别对待,既能创造巨大的价值,也能节省可观的成本。因此,寻找既易获取又有用的区分标准,一直是社会持续投入的重要方向。例如,教育支出中相当一部分用于筛选资质;体检费用旨在降低保险群体中的搭便车成本;大数据分析用于提升广告投放效率;招聘平台的运营则是为了提高雇佣关系的匹配度。既然这种对人进行细分的努力从未中断,就没有理由在AI能够提供更高效的区分分析时戛然而止。当企业开始借助AI参与甚至主导招聘和晋升决策时,人们起初或许会因感到被冒犯而愤慨,但很快便会意识到,更精准的识别有利于自身。毕竟,若让滥竽充数者搭便车,个人价值也会被他人的负外部效应逐渐消耗殆尽。真正的风险在于错误的歧视——例如,如果人工智能仅凭血型、星座或迈尔斯–布里格斯性格类型指标(Myers–Briggs Type Indicator,MBTI 系统)之类的“理论依据”,就否决一名员工的晋升机会,这样的做法是否应该受到监管?会不会触发法律诉讼?触发监管和诉讼的可能性当然不低,但本文更关注更长远的边界。事实上,约束这种错误歧视的主要力量,来自歧视者自身承受的高昂代价。换言之,即使缺乏法规监管,竞争也会迫使人们尽量避免错误歧视,以免自身蒙受损失。然而,对个体进行更精细区分的驱动力,以及这种区分带来的收益,不会因为这个过程中可能出现的错误而消失。因此,错误的区别对待,实质是信息错误,它会止于歧视者因此而蒙受的损失,但追求准确的区别对待的努力,则难以被监管管住。人类借助工具或他人来辅助甚至替代自身决策的趋势,管不住决策往往伴随高昂的斟酌成本,因此自古以来,人们就会依赖工具、委托他人,甚至诉诸随机选择来作出决定。然而,每一个决策都必然带来后果,而这些后果总需要有人承担。关于人是否拥有“终极自由意志”的争论从未停止,也始终没有定论,尽管如此,人类始终在为自己的决策后果负责。即便有人因缺乏责任能力而被免于追责,事故的后果依然需要安置——或由其他当事人承担,或由保险公司,乃至整个社会来分担。由此可见,人工智能的引入并没有改变这一基本格局:无论决策如何产生,总有人要承担后果。正因如此,人们会顺理成章地依赖人工智能来辅助乃至取代自身决策,而社会也会依照“汉德公式”的原则,将责任分配给能够以最低成本避免事故的一方(least cost avoider),而不在乎决策的方式本身。一个常被讨论的案例——人工智能导航引发的交通事故责任——其实并不复杂:责任会在技术提供者、使用者、监管者与保险公司之间,依据汉德公式进行分摊。因此,依赖人工智能辅助决策的趋势,是不可逆转的。在成熟的资本市场中,价格呈现“随机漫步”,并不是因为基本面无序,而是因为价格变化所反映的是信息的到达与被吸收的节奏。按照有效市场假说,公开信息会迅速计入价格,未来能够带来持续超额收益的,只能是不可预测的信息冲击。人工智能的介入,本质上只是信息处理与交易执行的边际改进:在微观层面,它可以提升价格发现的速度与精确度,但改变的只是同类短线交易者之间的收益分配;在宏观和长期层面,资产回报依旧取决于企业的盈利能力,因此对长期持有者而言,其净效应大体中性。曼尼(Henry Manne)曾经将这一逻辑推向极致。他主张放宽对内幕交易行为的管制,甚至将它合法化,理由在于内幕交易能加快真实信息的反映从而提升定价效率,而内幕交易者的获利可视为其信息生产的报酬。他们只是从短线对手盘中分走一部分利润,并未对长期投资者的最终收益造成系统性伤害。真正损害市场健康的,是阻滞或歪曲价格发现的行为。人工智能的出现,只是让我们重新审视“信息入价”所带来的利润分配:跑得更快的人自然会拿到奖杯;监管若试图阻止赛跑的本身,将会陷入疲于奔命的局面;而试图通过规则去偏袒某一方,也未必是必要的。