AI代理治理
搜索文档
聚焦“侵入式AI”伦理与治理,跨界讨论共寻AI安全解法
36氪· 2025-12-01 23:30
AI代理技术风险与安全机理 - 无障碍权限从辅助功能演变为“能力增强”的自动化助手,实现“手机自动驾驶” [3] - 结构化解析技术使AI能精准识别屏幕元素,无需代码即可自主规划任务和执行操作,实现从人手操作到自动化操作的转变 [4] - 权限无边界扩张,无障碍权限属系统级全局权限,一旦开放便拥有设备完全操控权 [4] - 行为主体模糊化,AI成为实际操作主体,用户可能失去直接控制,操作速度远超人类反应,如短信验证码可在用户未查看前被捕获 [4][5] - 黑产已利用无障碍权限实现验证码自动采集、抢票购物自动化,操作路径拟人化程度高,传统反制手段难识别 [5] - AI代理能力快速升级,能识别多模态信息,具备长时间独立完成复杂任务能力,写代码效率较人类提升百倍 [5] - AI代理构建完整智能化用户行为替代系统,通过全景感知、越权操作获取跨平台数据,形成“采集-分析-传输”隐蔽数据链条 [5][6] - 互联网上由Agent产生的流量已超过真实用户流量,这些“数字幽灵”需被赋予独立身份和独立数据通路进行治理 [6][7] 法律伦理困境与责任边界 - 团体标准存在差异,广东省标准化协会禁止智能体利用无障碍权限操作第三方APP,而中国软件行业协会最新标准弱化限制、强调用户可控 [9] - 单独同意机制存在争议,部分观点认为阻碍数据流通,也有观点认为流于形式,无障碍权限若纳入一般隐私政策可能导致部分功能无法自动化完成 [10] - 双重授权原则存在行业分歧,早期标准要求用户和第三方APP双重授权,但最新标准取消该要求,转向强调“用户可控” [10] - 操作记录若无法回溯将导致侵权责任难以界定,记录回溯存在存储范围、方式及与个人信息删除权冲突等难题 [11] - 企业面临授权范围界定、跨文档数据使用权利边界、技术中立抗辩适用空间等核心合规困惑 [11] - 用户授权不能替代平台授权,但AI代理和传统数据爬取是两种不同技术手段,需区分“代理人”和“中介合作者”两种形态对应不同法律责任框架 [12] 治理路径创新与产业实践 - 产业实践面临数据权属不明导致合规风险、模型复用引发版权争议、合成数据失真与过拟合三大核心难题 [14] - 建议对数据权属、版权等争议问题先搁置,采取“先发展后规范”思路,在守住安全红线前提下给予技术创新试错空间 [14] - AI Agent侵权责任不应适用无过错责任原则,而应采用过错责任框架下过错推定原则,AI服务提供者需证明已履行合理注意义务 [14] - 需区分不同主体责任:AI服务提供者适用过错推定责任,用户适用一般过错责任 [14] - 未来治理需关注数据跨域获取属性问题,研判是否形成竞争性数据产品服务或属非竞争行为 [14] - 建议构建“身份-数据通路-声誉体系”三维治理框架,赋予Agent独立身份便于追溯,建立专属数据通路避免滥用,通过市场反馈形成声誉机制 [15]