Workflow
AI造假
icon
搜索文档
用AI伪造门店照片,“假门面”带不来真流量
新京报· 2025-09-15 09:44
醒目的招牌,精良的装修,坐满了食客的烟火气……一些看起来人气爆棚的"网红门面",可能是AI生成 的。 据北京晚报报道,最近,不少网友反映,点外卖时发现平台商家照片看似精美,实则是AI生成的图 片,目的是营造门店排队的热闹氛围。这些标注"堂食"标签的"人气店",真实面貌却是与图片悬殊的小 作坊。这引发消费者对食品安全的担忧。 AI生成技术普及以来,从声音到图片再到视频,利用AI工具皆可制造,不仅操作简单,而且成本极 低。如今一些外卖平台上有商家也利用AI制造"网红门面",营造虚假人气,用来引流。 比如,对一家使用AI门头图并自称有"堂食店"的商家地址,记者实地探访发现,在狭小的通道里,数十 家外卖小作坊开门营业,无一家堂食店。这意味着商家使用AI造假欺骗消费者。据悉,外卖平台上不 少商家使用AI生成门头图、菜品图和封面设计,这些图片呈现的醒目招牌、精良装修以及坐满了食客 的烟火气,都是假的,与实际情况有天壤之别。 这些商家之所以使用AI伪造"网红门面",既是为了误导、欺骗消费者,以达到引流、成交之目的;也是 因为这种造假方式成本极低。 不了解真相的消费者,被AI制造的不实图片误导、欺骗后,不仅知情权、选择权受到 ...
如何不让AI成为造假者的利器?
中国经济网· 2025-08-29 09:47
AI克隆声音侵权现象 - AI克隆声音技术被部分自媒体博主用于推广农产品和24小时直播互动 成为流量获取手段 [1] - 利用技术工具仿冒他人声音带货超出正常商业营销范畴 属于违法行为 [1] - 民法典第一千零二十三条规定禁止通过信息技术手段伪造方式侵害他人声音权益 [1] 平台治理与技术应对 - 社交媒体平台已升级AI内容识别系统 要求AI生成作品进行明确标识 [1] - 存在从业者刻意规避平台强制标注机制 甚至公开销售绕过AI打标经验 [1] - 平台需开发高效内容检测工具 结合人工审核并健全辟谣机制 及时下架不实内容 [1] 监管政策与实施 - 国家网信办等四部门联合发布《人工智能生成合成内容标识办法》 将于9月1日正式施行 [2] - 新规要求所有人工智能生成合成内容必须进行标识 [2] - 监管存在一定局限性和滞后性 需持续完善 [2] 消费者应对策略 - 消费者需保持辨别真伪的独立思考能力 对违背常识信息保持警惕 [2] - 建议通过阅读经典文章替代短视频消费 提升信息鉴别能力 [2] - 对未经证实的网络爆料需保持冷静态度 这是网络社会生存发展的基础技能 [2] 技术发展趋势 - AI造假与打假将呈现长期博弈态势 被视为猫鼠游戏式的持久战 [2] - 监测技术需与时俱进持续升级 当前仍存在大量未标注AI内容 [1] - 技术治理需通过开发更高效检测工具与人工审核相结合实现 [1]
“完美候选人”可能啥都不会?AI造假攻陷远程面试
36氪· 2025-08-15 12:10
AI驱动的招聘欺诈趋势 - Gartner预测到2028年全球约四分之一候选人资料可能为假[2][6] - 6%的求职者承认在面试中通过冒充或替考等手段作弊[2] - AI技术显著降低造假门槛 包括深度伪造影像、语音合成和实时应答的聊天机器人[3][5] 伪造手段与技术特征 - 伪造目标集中于远程岗位、技术岗和高薪职位[3] - 语音克隆系统可模拟英语母语者 深度伪造视频呈现"训练有素"的假人形象[5] - 地下"面试作弊链"已形成规模化供给 提供假身份、假技能和假经历包装服务[5] 企业应对措施 - 谷歌、思科、麦肯锡等公司在关键环节恢复线下面试以核验候选人真实性[6] - 远程面试风险抬升 线下面试重新成为信任保障机制[6] - 企业面临AI伪造候选人挑战 需将验证环节前移并加强常态化审核[6] 行业影响与挑战 - HR需要对抗拟人化、智能化和情感化的AI假象[6] - 招聘行业面临信任危机 需适应技术变革带来的验证方式革新[6] - AI造假可能导致"完美求职者实际无能力"的雇佣风险[6]
AI图像水印失守!开源工具5分钟内抹除所有水印
量子位· 2025-08-14 04:08
AI图像水印技术现状 - 当前主流AI图像水印技术采用隐性水印方式,通过修改频谱幅度嵌入水印,对裁剪、模糊等操作具有鲁棒性[8][10][13] - 谷歌SynthID将水印嵌入图像低频部分(如平滑区域),而高频部分(如细节纹理)因变化剧烈不适合作为载体[15][16][17] - 微软研究显示人类识别AI图像成功率仅62%,凸显水印技术的必要性[33][34] UnMarker技术突破 - 新型去水印工具UnMarker可在5分钟内破解几乎所有AI图像水印,包括完全破解HiDDeN和79%破解SynthID[1][2][27] - 采用频谱攻击策略:直接修改全图频谱幅度而非定位水印位置,实现57%-100%的水印去除率[22][23][25][26] - 支持消费级显卡(如RTX 5090)本地部署,大幅降低使用门槛[5][30][31] 技术原理与效果 - 隐性水印依赖频谱幅度分布模式相似性,而频谱相位因图像差异大不适合作为载体[9][11][13] - 去水印过程会轻微改变图像质量(如头发细节),但裁剪可优化效果[18][29] - 对StegaStamp等新型水印仍能去除60%,展现强通用性[21][28] 行业影响 - 欧盟《人工智能法案》推动的水印技术因UnMarker出现面临可靠性挑战[35][36] - 现有水印检测器需定制化开发,而UnMarker实现通用"通吃"方案[20][21] - 开源发布加速技术扩散,可能重塑AI内容认证体系[5][6]
“特朗普爱上保洁”和“1.5亿美金短剧神话”:社会信任资本正在被谁透支?
36氪· 2025-08-08 02:20
假新闻事件核心分析 - 虚构短剧《特朗普爱上在白宫当保洁的我》被证实不存在,所有主流影视平台和权威媒体均无相关记录 [1] - 虚假新闻声称该剧三个月收入1.5亿美元,美国观众边骂边付费,但实际为完全捏造 [1][4] - 演员邵逸凡公开揭露剧照造假:一张来自《周六夜现场》,另一张为AI生成 [2] 虚假新闻传播链条 - 源头为7月1日"留学生日报"发布的10万+文章,标题极具误导性但内文未直接确认该剧存在 [4] - 新加坡《新明日报》和马来西亚"Astro本地圈"等媒体后续跟进报道,添加更多离奇细节 [4][5] - 海外社交平台出现大量二创短视频和图文,虚假内容被全球讨论 [8] 媒体审核机制问题 - 传统媒体如德国《明镜》周刊采用"博士核查团"机制,80名全职核查员占采编团队1/3 [9] - 国内平台型媒体主要依赖算法审核和外包团队,日均处理量达百万级,单条决策时间以秒计 [12] - 社交媒体摧毁传统审核时间窗口,算法优先推送高互动内容导致先审后发机制失效 [12] 虚假内容产业链 - 假新闻网站从Facebook获得70%流量,远超《纽约时报》等严肃媒体的30% [14] - 每千次浏览广告收益可达13-14美元,形成"流量即利润"的商业模型 [14] - 部分机构以"海外短剧分销"为名收取入门费和培训费,黑猫平台相关投诉近千条 [15][17] 行业影响与资本运作 - Reelshort等出海平台被多次绑定为"暴利案例"载体,母公司中文在线股价受虚假消息影响 [17] - 虚假繁荣掩盖行业真实困境:成本高、多数项目亏损、本土化难题和文化折扣 [17] - 数据公司和营销机构通过刷量黑灰产和伪造行业白皮书直接获利 [17] 技术与社会影响 - AI生成图片和剧情仅需3分钟,极大降低造假成本 [13] - 虚假内容导致媒体公信力瓦解、政治严肃性消解和真实议题空间被挤压 [18][19] - "流量即利润"的底层逻辑不变,逐利链条将持续改头换面卷土重来 [20]
“仅退款”风波再起, 用AI伪造证据竟成作弊利器
齐鲁晚报· 2025-08-05 02:16
AI技术滥用与电商"仅退款"乱象 - AI技术被恶意用于伪造商品破损图片/视频申请"仅退款",包括凭空出现第二只手、不一致的破损痕迹、明显AI水印等造假手段[1] - AI造假导致商家损失占营收5%-8%,部分品类如鞋边去黑剂、杯子、服装、生鲜等成为重灾区[1] - 50.36%的电商平台商家投诉涉及任意"仅退款"问题,居2025年上半年投诉榜首[2] 平台规则演变与漏洞 - "仅退款"机制原为解决运费高于商品价值、生鲜易腐等特殊场景的退货难题[2] - 2025年4月主流电商平台(淘宝、拼多多、抖音等)取消或优化"仅退款",改为商家自主处理[2] - 规则调整后出现手段升级:买家使用豆包、ChatGPT等工具扭曲商品图片进行索赔[2] 行业治理建议 - 技术反制:平台应增加AI图片识别功能,实施"分级举证制度"(实拍图+视频),高价值商品需专业机构鉴定[3] - 规则完善:建立跨平台协同治理机制,共享欺诈案例数据和模型,明确"仅退款"使用情形[5] - 法律震慑:AI造假可能构成《民法典》第577条违约或《刑法》第266条诈骗罪(3000元以上可判3年)[4] - 政策配套:《人工智能生成合成内容标识办法》将于2025年9月实施,严禁删除/篡改AI内容标识[4] 行业影响评估 - AI滥用可能降低公众对新技术接受度,破坏电商市场规则[3] - 需建立"规则完善+技术反制+法律震慑"三重机制根治乱象[5] - 电商平台需承担证据审查责任,建议设立"AI伪造"快速立案通道[5]
DeepSeek又惹祸了?画面不敢想
新浪财经· 2025-07-06 04:24
AI造假与信息污染 - AI幻觉问题导致主动编造事实迎合用户偏好 被利用制造离奇谣言 [3] - 造假范围从明星八卦扩展到涉政涉军领域 如编造官员腐败情节和芯片走私等虚假信息 [4][5][6][7] - 社交媒体传播效率放大虚假信息影响 形成"情绪优先于真相"的传播环境 [8][9][13] AI技术缺陷与滥用 - 模型易被投喂虚假训练数据 缺乏信息鉴别能力 加剧误导风险 [10] - DeepSeek模型幻觉问题显著 需改进逻辑设计和工程架构 [17] - 饭圈文化可能利用AI缺陷进行规模化黑公关操作 [11][12] 行业治理与应对 - 监管部门开展AI虚假信息打击行动 但治理速度落后于造假效率 [18] - 政策层面保持"放水养鱼"原则 避免过度监管新兴行业 [18] - 建议用户区分知识性信息与即时信息 建立分级信任机制 [19][20] 技术发展趋势 - 国外三大主流模型已有效控制幻觉问题 技术优化路径存在参考价值 [17] - AI功能渗透改变全社会信息获取方式 需建立新的信息过滤体系 [19][21]