AI安全治理的核心理念与框架 - 建立健全面向未来的人工智能安全治理生态需要技术、信任、制度三者形成合力 [4] - AI治理应坚持“分类分级”原则 对自动驾驶、智慧医疗等高风险场景严格监管 对低风险应用则留出创新空间 [2][6] 技术层面的治理举措 - 技术是安全治理的基础支撑 需通过技术创新筑牢安全底线 [5] - 提升AI自身安全性涉及两方面 一是通过对抗训练增强模型鲁棒性 利用差分隐私保护数据安全 二是研究治理技术 如算法漏洞智能检测、深度伪造检测、算法审计工具等 [5] - 需特别注重内生安全 在AI研发初期就嵌入防护机制并不断迭代优化 不能事后“打补丁” [5] - 近年涉AI网络安全事件呈现两大特点 手段智能化 风险场景复杂化并从数字空间渗透到物理世界 [5] - 具身智能已从生产阶段进入现实生活 随着机器人进入家庭 相关安全问题亟待重视 [5] 信任层面的构建路径 - 信任是安全治理的桥梁纽带 为AI发展凝聚社会共识 [5] - AI的普及本质是技术获得社会信任的过程 算法推荐“信息茧房”、自动驾驶伦理困境、AIGC模糊虚实边界等问题会侵蚀公众信任 [6] - 构建信任需要做到“透明可及” 包括提高算法决策过程透明度 避免技术异化对隐私、公平等价值的损害 [6] - 需积极普及AI知识 提升全民数字素养 [6] - 只有赢得公众信任 AI才能在医疗、教育、交通等关键领域得到深度应用 [6] 制度与治理体系设计 - 制度是安全治理的秩序保障 为AI发展全程保驾护航 [6] - 建议建立健全“法律+标准+伦理”的治理体系 既通过《网络安全法》《数据安全法》等法律划出“红线” 也要发挥行业标准、自律公约的柔性调节作用 [6] - 需推动跨部门、跨区域协同治理 并加强国际合作以应对AI安全的全球性挑战 [6] - 随着AI技术迅速迭代 治理需保持“敏捷性” 制度建设需“与时俱进” [7] - 需建立健全动态风险评估机制 为前沿技术和领域的治理提出方案 为创新留出试错空间 [7] - 中国网络空间安全协会已组织专业机构对人工智能模型进行安全和能力评测实践探索 [7]
中国网络空间安全协会卢卫:AI治理应分类,严管高风险场景
南方都市报·2025-12-20 15:36