为何欧盟AI监管超前?法兰西银行副行长这样说
第一财经·2025-10-23 10:54
欧盟AI监管框架 - 欧盟《人工智能法》于2024年正式立法,其核心是监管[1] - 基于风险程度将AI系统分为四类:不可接受风险(如社会信用评分体系,被直接禁止)、高风险(对健康、安全或基本权利有重大影响)、有限风险(需告知用户正在与AI互动)、最小或无风险(无监管要求)[1] AI在金融领域的应用与风险 - AI技术显著提升了金融领域的效率,例如法兰西银行将其应用于反洗钱与反恐融资监管[3] - AI系统存在三重额外风险:网络风险(金融机构承受全球约一半的网络攻击)、服务商高度集中风险(可能导致操作风险及市场反应趋同,增加“闪崩”频率)、“可解释性”风险(缺乏人工验证可能导致诉讼和责任风险,以及决策不稳定)[3][4] - AI被视为双刃剑,既提升了监管者监测风险的能力,也增强了风险本身的潜在影响力[4] 国际合作与标准确立 - 欧盟在AI监管方面非常积极,旨在构建一个可信赖、完整的AI体系,并从一开始就制定统一规则[3] - 欧盟确立了AI监管标准,并希望其他国家展示其如何确保AI发展遵循基本原则[4]