Workflow
LLaMA 2
icon
搜索文档
AI圈版权劫:从谷歌2.5亿罚单到Meta的成人片诉讼,巨头们都在忙应诉
36氪· 2025-09-07 00:27
目前,Anthropic、OpenAI、Meta、Midjourney、谷歌等全球顶尖人工智能公司正因训练数据来源和生成内容陷入空前的版权侵权纠纷, 陷入大规模版权侵权诉讼,成为行业共性危机。 ▍OpenAI成"版权公敌"!遭全球巨头集体围剿,索赔金额或破纪录 OpenAI正陷入一场空前的法律风暴,成为AI行业中被起诉最多的公司之一。 2023年12月,《纽约时报》针对微软和OpenAI发起诉讼,指控他们未经授权使用数百万篇版权文章训练ChatGPT,生成的内容几乎与原 作一字不差,严重冲击了该报的付费订阅和广告收益。此案已被纳入多区诉讼(MDL),并于2024年9月获法院批准合并审理,目前仍 在进行中。 这些案件不仅挑战着AI研发的"合理使用"边界,也可能彻底改变未来数据获取与内容创作的规则。从文学、音乐到视觉艺术,版权所有 者通过法律手段激烈反击,法院的判决正在重新划定AI创新的合法红线。 以下为几家头部AI公司遭遇的版权侵权诉讼: ▍Anthropic陷15亿天价和解!盗版数据集训练AI遭全球围剿 2024年8月,作家安德莉亚·巴茨、查尔斯·格雷伯等人向法院提起集体诉讼,指控Anthropic存在"大规 ...
大模型套壳往事
虎嗅· 2025-07-14 09:26
文章核心观点 - 大模型行业存在"套壳"与"自研"的争议 从早期直接包装API的简单套壳 发展到利用开源架构和数据蒸馏等更复杂形式 行业在争议中推动技术迭代和应用落地 [1][12][22] - 套壳行为存在灰色地带 法律界定困难 但技术层面可通过架构标签和文档透明度进行追溯 企业宣传口径是争议焦点 [22][23][24] - 开源技术降低开发门槛 促进百模齐放 92%企业通过微调开源模型提升业务效率24%-37% 但需明确区分技术使用与原创声明 [16][17][23][24] 技术演进与套壳形式 - 早期套壳表现为直接包装ChatGPT API加价售卖 如上海熵云公司因仿冒被罚6万元 [4][5][6] - 数据蒸馏成为主流技术 用GPT-4等教师模型生成高质量数据训练学生模型 字节跳动曾因违规使用OpenAI API引发争议 [8][9][10] - 开源时代套壳争议转向架构使用 如零一万物Yi-34B被指重命名LLaMA变量 但未违反开源协议 [13][14] 行业生态与影响 - 2023-2024年百模大战中约90%模型基于开源架构微调 仅10%为基座模型 Hugging Face平台超150万个模型多为衍生版本 [16] - 轻量化微调技术(LoRA/QLoRA)降低开发成本 斯坦福团队LLaMA3V抄袭面壁智能模型事件显示国产模型亦成被套壳对象 [17][19][20] - 国内仅5家企业具备完整自研预训练框架能力 多数企业通过开源技术加速垂直领域应用落地 [22][23] 合规与道德边界 - 法律层面存在举证难点 套壳获利额度和行为性质界定模糊 处于灰色地带 [22] - 技术层面可通过架构标签追溯原创性 企业需在文档中明确开源技术使用声明 [23][24] - 行业共识强调"用开源技术不丢人 但不应宣称自研" 宣传口径是争议核心 [24]
个人开发者训400亿参数大模型:分布式算力,DeepSeek架构,3090单卡部署
量子位· 2025-05-15 08:37
核心观点 - Nous Research推出Psyche Network 旨在打破科技巨头算力垄断 让个人开发者和小团体也能训练超大规模AI模型 [1][4] - Psyche基于Deepseek V3 MLA架构 首次测试网运行即对40B参数LLM进行预训练 可在单个H/DGX或3090 GPU上运行 [2][21] - 通过DisTrO分布式训练优化器和P2P网络架构 实现去中心化训练 通信数据量降低90%以上 [9][12][13] 技术架构 - **DisTrO优化器**:采用梯度压缩和异步更新策略 突破带宽限制 使去中心化训练成为可能 [9] - **P2P网络堆栈**:自定义点对点协议 无需中心服务器 家用宽带GPU也能稳定参与训练 [12][13][14] - **系统三组件**:coordinator协调训练状态 clients负责训练验证 data provider提供训练数据 [17][18][19] 模型训练 - **40B参数LLM预训练**:采用Deepseek V3 MLA架构 通过低秩压缩和矩阵分解降低计算复杂度 [21][22] - **数据集**:使用FineWeb(14T) FineWeb-2(4T)和The Stack v2(1T)等大规模语料 [23] - **分布式策略**:模型并行(128分片)与数据并行结合 动态批量调整使效率提升25% [27] 行业影响 - 挑战Meta Google等巨头在大模型训练领域的主导地位 [20] - 与Prime Intellect的INTELLEC-2共同推动分布式训练成为行业新趋势 [25][26] - 未来计划整合监督微调 强化学习等完整训练流程 [29]
泡沫即将破灭,英伟达的 AI 帝国面临最艰难的战斗
美股研究社· 2025-02-26 11:52
英伟达财报与AI主导地位 - 公司即将公布第四季度财报 预期收入为3816亿美元 毛利率超过70% 将检验AI驱动增长的可持续性 [2] - 关键指标为毛利率 若保持或扩大将巩固AI领域主导地位 下降则反映竞争加剧或成本效益方案转向 [3] - 每股收益预期085美元 历史超预期3-5% 若达090美元以上证实需求与定价原则仍存 数据中心业务占比超75% [4] DeepSeek低成本AI模型争议 - DeepSeek声称R-1模型训练成本仅560万美元 远低于行业标准 GPT-4开发成本超1亿美元 [5] - 实际成本估算在3000-8000万美元 包含硬件租赁(5120-6140万美元直接购买/738万美元云租赁)及数据预处理等 [6][7] - 人力成本高昂 AI工程师年薪50-100万美元 团队工资超500万美元 电力与基础设施成本超15万美元 [8] 英伟达竞争格局与需求 - 中国科技公司如腾讯、阿里巴巴仍大量订购H20 GPU 显示需求未受DeepSeek影响 [10] - Blackwell GPU需求旺盛 H200 GPU 2025年推出将强化领先地位 CUDA环境仍是行业主流 [10] - DeepSeek可能延长GPU更新周期并施压定价 但对公司业务无直接威胁 [10]