TensorFlow

搜索文档
关于人工智能发展的几点思考
机器人圈· 2025-09-29 08:22
近年来,以大模型为代表的人工智能迎来新的发展浪潮,正以前所未有的速度深入渗透经济社会发展的 方方面面,贴近每个人的生活和工作,深刻重构着人类社会生产力和文明形态。习近平总书记指出,人 工智能是新一轮科技革命和产业变革的重要驱动力量,将对全球经济社会发展和人类文明进步产生深远 影响。当前,全球主要国家都在抢抓人工智能发展机遇。 近日,国务院印发《关于深入实施"人工智能+"行动的意见》,明确实施"人工智能+"行动的总体要 求、发展目标和重点方向,为进一步推动人工智能与经济社会各行业各领域广泛深度融合提供了方向指 引。我们要深刻领会习近平总书记关于人工智能的重要论述,把握好创新与开放、发展与安全、政府与 市场、应用与治理的辩证关系,立足产业发展需求,顺应治理变革趋势,走出一条具有中国特色的人工 智能发展之路。 自主创新与开放合作的辩证统一 习近平总书记强调,"自主创新是开放环境下的创新"。这一重要论断为处理好人工智能技术自主与全 球化协作提供了根本遵循。 自主创新是人工智能发展的"根",没有核心技术的自主化,开放合作就可能沦为"依附式发展",在关 键领域受制于人。2018年以来,面对美国对人工智能和芯片等高技术产业 ...
Billionaire Ken Griffin Just Delivered Spectacular News for Alphabet Investors
The Motley Fool· 2025-09-26 23:16
Ken Griffin of Citadel just made a bold proclamation about Alphabet's size in the artificial intelligence (AI) realm.Ken Griffin, the billionaire hedge fund manager and CEO of Citadel, recently turned heads after making a striking observation about Alphabet (GOOG 0.21%) (GOOGL 0.28%). During an interview at Stanford Business School, Griffin proclaimed that Alphabet wields comparable levels of computational power as the fifth-largest country in the world.This is not mere hyperbole. Griffin's remark underscor ...
LLM开源2.0大洗牌:60个出局,39个上桌,AI Coding疯魔,TensorFlow已死
机器之心· 2025-09-17 04:00
大模型开源开发生态全景图2.0核心变化 - 全景图收录114个项目 较上一版减少21个 覆盖22个领域 其中39个为新晋项目 60个项目被淘汰[7] - 生态中位年龄仅30个月 平均寿命不足三年 62%的项目诞生于2022年10月"GPT时刻"之后 包含12个2025年新项目[10] - 分类框架从Infrastructure/Application进化为AI Agent/AI Infra/AI Data三大板块 反映行业以智能体为中心的技术趋势[15][16] 项目活跃度与更替 - PyTorch以92,039个Star位居榜首 vLLM以53,912个Star位列第二 新晋项目GERTINI获得66,881个Star[11] - TensorFlow因迭代迟缓退出市场 PyTorch实现生态统一[8] - 头部前十项目覆盖模型生态全链路 平均Star数接近3万 远超历史同期开源项目[10] 开发者地域分布 - 全球366,521位开发者中 美国占37.41% 中国占18.72% 中美合计贡献超55%[17][20] - 美国在AI Infra领域贡献度达43.39% 为中国的两倍 在AI Data领域优势更明显[18][19] - 中国在AI Agent领域贡献度达21.5% 与美国24.62%接近 反映应用层投入集中[23] AI Agent领域演进 - AI Coding成为最活跃赛道 完成从"补代码"到"全生命周期智能引擎"的跨越 支持多模态与团队协同[43] - Chatbot领域经历高光后回归理性 Lobe-Chat保持64.7k Star Cherry Studio以"个人知识助理"定位逆势上榜[50][53] - Agent Workflow Platform向基础设施演化 Dify提供从原型到生产的一站式平台 RAGFlow等项目快速走红[54][57] - Agent Tool领域爆款频出 Browser-use9个月获60k Star mem0解决记忆管理问题 Supabase成为GenAI数据基础设施[57] AI Infra技术趋势 - Model Serving持续高热 vLLM和SGLang主导云端推理 NVIDIA TensorRT-LLM绑定GPU硬件巩固算力优势[62][66] - 本地化推理快速发展 ollama使大模型可运行于个人设备 GPUStack等新框架持续涌现[68][70] - LLMOps接棒MLOps 成为2025年增长最快赛道 Phoenix/Langfuse等项目覆盖监控至工作流管理全环节[71][72] - 模型训练热度回落 社区更关注低成本微调方案如Unsloth集成QLoRA[78] AI Data领域状态 - 技术成熟度较高 多数项目诞生于2014-2020年 Chroma成为少数抓住RAG机遇的新秀[82] - 向量数据库等基础组件缺乏突破点 Milvus/Weaviate/Elasticsearch等已成为标准拼图[86] - 企业级场景特性使开发者关注度难以维持 但向量化/RAG/多模态处理正推动数据平台向智能中枢演进[87] 开源许可模式演变 - 新项目多采用限制性许可协议 保留许可方干预权 Dify使用BSL变体 n8n采用Fair-code条款[92][93][94] - 部分项目按用户规模设限 月活超阈值需重新授权 GitHub出现代码闭源但获高星现象[91][94] 大模型技术发展动向 - MoE架构成为主流 DeepSeek/Qwen/Kimi等模型参数达万亿级 推理时仅部分激活[101] - Reasoning能力成为标配 DeepSeek R1通过强化学习增强推理 Qwen/Claude引入"快思慢想"混合模式[102] - 多模态全面爆发 语言/图像/语音交互成基础能力 语音模态工具链Pipecat/LiveKit Agents快速完善[103][104] - 模型评价体系多元化 从人工投票平台转向OpenRouter等API网关的"数据投票"排行榜[106]
昔日王者TensorFlow,已死
36氪· 2025-09-15 01:29
TensorFlow衰落与PyTorch崛起 - TensorFlow社区活跃度在过去十年间从巅峰不可逆转地跌至最低谷,甚至不及初期水平 [3] - PyTorch呈现高歌猛进的增长态势,形成鲜明对比 [3] - 蚂蚁开源在《大模型开源开发生态全景图2.0》中正式将TensorFlow除名 [8] 开源生态快速迭代特征 - 开源项目兴衰周期从"年"缩短至"天"级变化 [10] - 蚂蚁开源全景图1.0至2.0版本仅间隔100天,更新39个项目,替换率达35%,60个项目被移出 [11] - OpenRank算法通过分析项目与开发者协作网络评估影响力,设定OpenRank>50的准入门槛 [11] 项目淘汰机制 - 短期热点型项目如OpenManus和OWL因热点消退后社区活跃度不足被淘汰 [12] - 迭代速度落后项目如NextChat因版本更新慢于Cherry Studio等竞争对手导致用户流失 [13] - 同生态位竞争中落后者如MLC-LLM和GPT4All被Ollama凭借更完善生态和用户体验取代 [14] 开源许可证模式演变 - Top 10活跃项目中Dify在Apache 2.0基础上增加多租户使用限制和品牌保护条款 [17] - Cherry Studio采用按用户组织规模定制的双许可模式,对大型团队要求商业授权 [18] - n8n采用自研"Sustainable Use License"限制商业分发 [19] 开源运营模式变革 - GitHub从代码托管平台演进为集产品发布、用户反馈和社区营销的综合平台 [21] - 社区活跃度(星标、Issue、PR)成为衡量产品活力和市场接受度的关键指标 [21] - 开源项目通过定制化许可证在社区生态红利与商业利益间寻求平衡 [22] 技术领域趋势转移 - Agent Framework领域整体活跃度下降,LangChain、LlamaIndex等项目活跃度回落 [27] - Model Serving和AI Coding领域呈现显著增长态势 [27] - 市场关注点从"能否实现"转向"能否高效、经济、稳定运行"的工程化需求 [28][29] 推理性能竞争焦点 - 模型推理成本成为AI应用大规模落地的核心制约因素 [30] - vLLM和SGLang通过PagedAttention等技术提升GPU利用率和推理吞吐量 [31] - NVIDIA TensorRT-LLM利用软硬件协同优势提供极致性能优化方案 [31] 中美双中心格局 - 美国开发者贡献度37.41%,中国18.72%,两国合计超过55% [33][34] - AI Infra领域美国贡献度43.39%显著领先,中国为22.03% [35] - AI Agent领域美国贡献度24.62%与中国21.5%差距大幅缩小 [35] 中国应用创新优势 - 中国开发者在贴近应用层领域展现强大活力和增长潜力 [35] - 庞大复杂的数字经济应用场景催生大量AI原生应用和Agent解决方案 [36] - Dify和Cherry Studio等项目凭借对AI能力产品化和场景化落地的理解获得全球关注 [36] 新项目快速崛起案例 - OpenCode和Google Gemini CLI在发布数月内获得极高社区关注度 [38] - Browser-use项目由2名研究生在9个月内获得60,000星标成就 [38]
昔日王者TensorFlow,已死
量子位· 2025-09-15 00:30
TensorFlow衰落与PyTorch崛起 - TensorFlow社区活跃度已跌至历史最低点,甚至不及初发布时期[3] - PyTorch呈现高歌猛进增长态势,形成鲜明对比[3] - 蚂蚁开源正式将TensorFlow从《大模型开源开发生态全景图2.0》中除名[8] 开源生态快速迭代特征 - 开源项目兴衰计量单位已从"年"缩短为"天"[10] - 全景图1.0到2.0仅隔100天,更新39个项目,替换率达35%[11][12][17] - 60个原有项目被移出,反映AI领域极快迭代周期[17][18] 项目淘汰机制与标准 - 短期热点型项目如OpenManus和OWL因热点消退被移出[19] - 迭代速度落后项目如NextChat被新兴项目取代[20] - 同生态位竞争落后者如MLC-LLM和GPT4All被Ollama取代[21] - 项目准入门槛设定为OpenRank > 50[17] 开源定义与商业模式演变 - Top 10活跃项目中部分未采用OSI标准开源许可证[26] - Dify在Apache 2.0基础上增加多租户使用限制[26][32] - Cherry Studio采用按用户规模双许可模式[27] - n8n采用自定义"Sustainable Use License"[28] - GitHub功能扩展为集产品发布、用户反馈、社区营销一体化平台[31] - 开源运营属性增强,成为重要GTM(Go-to-Market)战略[31] 技术领域竞争焦点转移 - Agent Framework领域整体活跃度呈下降趋势[38] - Model Serving和AI Coding领域呈现显著增长态势[39] - 竞争从功能覆盖转向性能深度优化[45] - vLLM和SGLang通过技术创新提升GPU利用率[44] - NVIDIA TensorRT-LLM提供极致性能优化方案[44] 全球开发贡献格局 - 美国开发者占比24%,贡献度37.4%[46][47] - 中国开发者占比18%,贡献度18.7%[46][47] - 中美两国合计贡献度超过55%[46] - 美国在AI Infra领域贡献度43.39%,显著领先[51] - 中国在AI Agent领域贡献度21.5%,与美国24.62%差距缩小[51] 新兴项目崛起案例 - OpenCode和Gemini CLI在数月内获得极高社区关注度[54] - Browser-use项目由2名研究生9个月开发获得60K星标[55]
惹怒马斯克,北京四中校友疑窃xAI核心机密跳槽OpenAI
搜狐财经· 2025-09-04 09:29
核心诉讼事件 - xAI在加利福尼亚州联邦法院起诉前工程师Xuechen Li窃取商业秘密并加入竞争对手OpenAI [1] - 涉事工程师被指控在2025年7月25日将机密信息和商业秘密复制到个人存储系统并通过删除浏览器历史记录和系统日志掩盖行为 [4] - 工程师在收到最后一笔股票出售款项当天实施数据窃取并于7月28日辞职 计划8月19日入职OpenAI [4] 涉事人员背景 - Xuechen Li拥有多伦多大学计算机科学、数学和统计学学士学位及斯坦福大学计算机科学博士学位 专注于隐私保护机器学习方向 [3] - 职业履历包括谷歌深度学习团队(任职1年9个月)、微软实习(差分隐私机器学习应用)以及xAI早期核心成员身份 [4] - 学术领域获ICML杰出审稿人奖 技术能力通过Github提交记录(如Phi-2模型和原子提交习惯)得到验证 [6] 资金动向与证据 - 工程师在2025年6月出售470万美元xAI股票 7月额外出售200万美元(总计套现近700万美元) [4] - xAI于8月11日通过数据安全软件发现异常活动 工程师在律师沟通中承认挪用机密信息但拒绝提供账户密码 [5] - 公司指控其上传了整个代码库至OpenAI 可能导致毁灭性技术损失 [5] 法律诉求与行业冲突 - xAI要求法院发布临时限制令强制归还机密材料 禁止其在竞争对手工作直至商业秘密追回 并索赔经济损失 [5] - 事件反映AI行业人才争夺白热化 核心技术随人员流动存在泄露风险 [7] - 诉讼涉及马斯克与OpenAI的长期矛盾 包括双方相互起诉及市场垄断指控 [7] 行业影响 - 案件将界定AI领域商业秘密范围 评估技术泄露经济损失 平衡就业自由与企业资产保护权利 [9] - 判决结果可能为人才流动边界和商业秘密保护确立新判例 影响行业竞争格局 [9] - AI行业的高风险竞争从技术研发延伸至法律战场 [9]
AI界风波:北京四中天才少年被指窃取xAI机密跳槽OpenAI
搜狐财经· 2025-09-01 12:07
公司动态 - xAI在加州联邦法院起诉前工程师Xuechen Li 指控其盗窃商业秘密 涉及复制工作笔记本电脑上的机密信息和商业秘密并试图掩盖行为 [1][2] - 被盗商业秘密包含尖端AI技术 若被竞争对手获得可能节省数十亿美元研发资金和多年工程努力 [5] - xAI向法院请求临时限制令 要求Xuechen Li放弃对存储机密信息设备的访问权限并归还所有材料 同时寻求禁止其在OpenAI等竞争对手工作及经济赔偿 [6] 人才流动 - Xuechen Li于2024年加入xAI 成为公司最早20名员工之一 直接参与核心产品Grok人工智能模型的开发与训练 [2] - 2025年夏季Xuechen Li在出售大量xAI公司股票后辞职 并接受竞争对手OpenAI的工作邀请 [2] - 行业正处于人工智能人才战争愈演愈烈的背景 各大公司不惜重金争夺顶尖人才 [6] 技术风险 - 马斯克指控Xuechen Li不仅拿走文件和信息 还上传了整个xAI代码库 可能掌握公司成立至今几乎所有技术成果 [5] - Xuechen Li研究方向聚焦开发确保机器学习和人工智能管道值得信赖和安全的方法 曾获国际机器学习大会杰出审稿人奖 [1] - 其曾在微软实习期间专注于差分隐私机器学习 研究成果被部署到Outlook等产品并为微软节省可观资金 [2] 行业竞争 - 诉讼将xAI与OpenAI两大人工智能巨头之间的恩怨推向风口浪尖 [1] - 事件发生在马斯克与OpenAI关系持续紧张的大环境中 马斯克曾多次公开批评OpenAI偏离初衷 OpenAI则反诉马斯克进行骚扰 [6] - OpenAI虽非本案被告 但事件使其处于微妙位置 [6]
谷歌大脑之父首次坦白,茶水间闲聊引爆万亿帝国,AI自我突破触及门槛
36氪· 2025-08-25 03:35
个人成长与早期经历 - 童年时期频繁搬家,12年内更换11所学校,培养了适应能力 [7] - 9岁时接触早期Intel 8080计算机套件,通过BASIC语言书籍自学编程 [9][11][13] - 13岁时打印400页游戏源码学习并发编程,完成首个复杂软件移植 [14] - 本科期间接触遗传编程和神经网络,1990年尝试用32处理器并行训练神经网络 [15][17] 神经网络与工程突破 - 90年代提出数据并行/模型并行概念,早于相关术语普及 [8] - 2011年与吴恩达在谷歌茶水间交流后,启动Google Brain项目,目标是用GPU训练超大规模神经网络 [25][26] - 使用2000台计算机(16000核心)训练分布式神经网络,在视觉任务中实现无监督学习,生成"平均猫"图像 [26][27][30] - 无监督模型在Imagenet数据集上使错误率降低60%,监督语音模型在800台机器训练5天后错误率降低30% [30] - 推动定制机器学习硬件TPU开发,支持神经网络规模化应用 [30] 技术演进与核心贡献 - 推动词向量(word2vec)技术,用高维向量表示词汇语义 [32] - 序列到序列模型与LSTM网络应用于机器翻译,提升序列处理能力 [34][36] - 注意力机制与Transformer架构突破,实现n平方复杂度下的高性能序列处理 [38][40] - 谷歌大脑框架被数百个团队采用,支持搜索、广告等核心业务 [26] AI发展现状与未来方向 - LLM在非物理任务上超越普通人表现,但在专业领域尚未达到人类专家水平 [47] - 可解释性研究通过可视化或直接询问模型决策机制推进 [43][44] - 未来突破依赖自动化闭环:自动生成想法、测试、反馈及大规模解决方案搜索 [49] - 强化学习与大规模计算加速科学、工程领域发展,预计影响未来5-20年进程 [49] - 未来5年聚焦开发更强大、成本效益更高的模型,服务数十亿用户 [50] 行业影响与里程碑 - Google Brain项目促成神经网络在谷歌产品中的大规模部署 [26][30] - 纽约时报报道"猫图像"突破,成为AI认知里程碑事件 [27] - TensorFlow与TPU硬件推动行业机器学习基础设施标准化 [1][30]
This Artificial Intelligence (AI) Stock Could Be the Nvidia of Quantum Computing
The Motley Fool· 2025-08-13 00:22
While IonQ, Rigetti Computing, and D-Wave Quantum are central figures in the quantum computing spotlight, I see a member of the "Magnificent Seven" as the superior choice. Back in 1999, a fledgling semiconductor company called Nvidia invented a chipset called the graphics processing unit (GPU) -- a product that, at the time, few people realized they would one day need. Two decades ago, GPUs were primarily marketed toward gamers and graphic designers. But Nvidia's visionary CEO, Jensen Huang, saw the broad p ...
理想VLA实质是强化学习占主导的持续预测下一个action token
理想TOP2· 2025-08-11 09:35
核心观点 - 对predict the next token的不同理解反映了对LLM或AI潜力与实质的认知差异 [1] - 认为predict the next token超越统计学的人更倾向于认可LLM潜力大、推理过程是意识雏形、超级对齐重要 [1] - 理想VLA架构通过连续预测action token实现物理世界理解,类比OpenAI的O1O3 [1][10] - 辅助驾驶比chatbot更适合强化学习,因奖励函数更明确且仿真环境更简单 [12][13] Ilya的观点与背景 - Ilya是OpenAI前首席科学家,推动AlexNet、AlphaGo、TensorFlow等多项AI领域突破 [3] - 他认为predict the next token能超越人类表现,因足够聪明的神经网络可推断"理想人物"行为 [4][8] - 预测token的本质是理解其背后的现实世界逻辑,而非单纯统计学 [6][7] - Ilya的论证风格严谨,常以"误差范围对数刻度"等表述体现审慎态度 [9] 理想VLA的技术逻辑 - VLA架构通过传感器输入实时输出action token,结合diffusion优化轨迹,实现物理世界理解 [10] - VLA在NOA开启期间连续预测action token,其推理过程被视为一种动态意识 [11] - 理想将AI软件(神经网络权重)与硬件平台高效结合,技术整合含金量被低估 [13] 辅助驾驶与AI软件的差异 - 辅助驾驶的强化学习优势在于明确奖励函数(安全/舒适/效率)和可仿真性 [12][13] - AI软件内核是神经网络权重,与传统代码式开发范式存在根本差异 [13] - 硬件迭代速度慢于软件,AI软件需AB测试快速迭代,与硬件开发逻辑冲突 [13]