AI内容强制标识
搜索文档
网店3个月内遭遇9起AI造假退款!强制标识背后的两难困局
环球网资讯· 2025-11-28 02:48
文章核心观点 - 生成式人工智能技术的普及在电商、内容创作等领域引发了新的治理挑战,具体表现为利用AI技术伪造证据进行恶意退款,以及平台对AI生成内容的标识与审核机制存在漏洞,导致诚信商家受损和原创作者被误伤[1][3][10] - 国家出台的《人工智能生成合成内容标识办法》在落地执行中面临挑战,AI生成内容的强制水印标识易被去除,且平台缺乏有效的检测与复核机制[4][6][8] - 解决AI内容乱象不能仅依赖强制标识,需要构建覆盖全链条、具备穿透力的治理体系,包括明确各方责任、提高违法成本、细化执行标准,并推动更高层级的立法统筹[14][16] 电商领域AI滥用与平台治理困境 - 有组织的恶意退款者利用AI技术篡改商品图片,伪造腐烂、虫蛀等质量问题,向诚信经营的小商家发起“仅退款”申请,商家因证据不足且金额小难以通过平台申诉或报警维权[1][3] - 电商平台目前缺乏有效机制检测AI生成的伪造图片,客服以“无法判定图片是否由AI生成”为由驳回商家申诉,建议其与已拉黑商家的买家协商,问题无法解决[3] - 相关诈骗订单总金额不足1000元人民币,未达到刑事立案标准,使得通过法律途径维权困难[3] AI生成内容标识政策与落地挑战 - 国家互联网信息办公室等部门发布的《人工智能生成合成内容标识办法》于2025年9月1日实施,要求对AI生成内容进行强制标识,如添加提示符号或嵌入水印[4] - 政策落地面临挑战:一方面大量新生成的AI内容未按规定添加标识;另一方面,已添加的显式水印(如置于画面角落)可通过裁剪等简单技术手段轻松去除,使标识失效[4][6][8] - 电商平台存在大量“图片视频去水印”服务,单次收费仅需几元至十几元人民币,进一步降低了违规成本[8] 内容创作平台审核机制与误判问题 - 平台采用AI识别模型审核海量内容,但模型易将人类创作中的精良特征误判为AI生成,导致原创作品被误标为AI内容并遭遇流量限制,例如插画师手绘作品因使用AI微调局部光影,曝光量不足平日十分之一[10][11] - 平台面临双重困境:每日需处理海量内容(2024年平均每日新增视频内容超过1亿条),难以逐一审核;同时需在维护创作者体验与履行AI内容核验义务之间平衡[11][12] - 平台缺乏完善的申诉机制与专业复核团队,创作者投诉无门,问题解决周期长,如案例中耗时12天才得以解决[13] 行业规模与技术实施难点 - 2024年中国生成式AI用户规模已达约3.8亿人,内容生成量巨大,平台审核面临巨大资源压力[11] - AI生成内容形态多元(文本、短视频、直播等),不同场景技术架构与传播逻辑差异巨大,单一技术方案难以适配所有场景[11] - 不同AI工具生成的隐式标识(如嵌入特定字符或数字水印)格式差异巨大,平台难以适配数十甚至上百种规则,导致跨平台传播时标识丢失或无法识别[11] - 多模态AI识别需要强大算力,企业为控制成本,无法对所有上传内容进行全面检测,多采用抽样检查、关键词过滤等简化方式[11] 治理体系构建的专家建议与未来方向 - 专家指出强制标识并非万能钥匙,需建立覆盖全链条的治理体系,通过“底线”与“弹性”结合的方式搭建法律框架,明确统一标识标准并为不同应用场景预留适配空间[14] - 应建立责任分层机制:AI服务提供者承担源头标识义务,平台履行核验补充义务,并对用户故意删除标识的行为明确法律责任,提高违法代价[14] - 建议按商业与非商业场景对原创度设置差异化标注要求,商业内容需确保标识清晰可见,并建立误判复核与赔偿机制[14] - 当前《生成式人工智能服务暂行管理办法》等属于部门规章,法律效力层级较低且内容零散,缺乏高位阶统筹性法律应对如AI换脸等大规模侵权问题[14] - 需出台更详尽执行细则,例如以强制性国家标准确保隐式标识可跨平台追溯,将罚款与违法所得挂钩并分层处罚,明确创作者、平台及技术提供者的责任边界[16]
国联民生:约2.09亿股限售股9月10日解禁
每日经济新闻· 2025-09-04 11:45
限售股解禁 - 公司限售股份约2.09亿股将于2025年9月10日解禁并上市流通 [1] - 解禁股份占公司总股本比例为3.67% [1] 业务结构 - 2025年1至6月份证券投资业务收入占比最高达42.05% [1] - 证券经纪业务收入占比29.79%位列第二 [1] - 投资银行业务收入占比13.56% [1] - 信用交易业务和资产管理业务收入占比分别为7.48%和7.34% [1] 市值情况 - 公司当前市值为651亿元 [1]