Workflow
神经网络
icon
搜索文档
谷歌大脑之父首次坦白,茶水间闲聊引爆万亿帝国,AI自我突破触及门槛
36氪· 2025-08-25 03:35
个人成长与早期经历 - 童年时期频繁搬家,12年内更换11所学校,培养了适应能力 [7] - 9岁时接触早期Intel 8080计算机套件,通过BASIC语言书籍自学编程 [9][11][13] - 13岁时打印400页游戏源码学习并发编程,完成首个复杂软件移植 [14] - 本科期间接触遗传编程和神经网络,1990年尝试用32处理器并行训练神经网络 [15][17] 神经网络与工程突破 - 90年代提出数据并行/模型并行概念,早于相关术语普及 [8] - 2011年与吴恩达在谷歌茶水间交流后,启动Google Brain项目,目标是用GPU训练超大规模神经网络 [25][26] - 使用2000台计算机(16000核心)训练分布式神经网络,在视觉任务中实现无监督学习,生成"平均猫"图像 [26][27][30] - 无监督模型在Imagenet数据集上使错误率降低60%,监督语音模型在800台机器训练5天后错误率降低30% [30] - 推动定制机器学习硬件TPU开发,支持神经网络规模化应用 [30] 技术演进与核心贡献 - 推动词向量(word2vec)技术,用高维向量表示词汇语义 [32] - 序列到序列模型与LSTM网络应用于机器翻译,提升序列处理能力 [34][36] - 注意力机制与Transformer架构突破,实现n平方复杂度下的高性能序列处理 [38][40] - 谷歌大脑框架被数百个团队采用,支持搜索、广告等核心业务 [26] AI发展现状与未来方向 - LLM在非物理任务上超越普通人表现,但在专业领域尚未达到人类专家水平 [47] - 可解释性研究通过可视化或直接询问模型决策机制推进 [43][44] - 未来突破依赖自动化闭环:自动生成想法、测试、反馈及大规模解决方案搜索 [49] - 强化学习与大规模计算加速科学、工程领域发展,预计影响未来5-20年进程 [49] - 未来5年聚焦开发更强大、成本效益更高的模型,服务数十亿用户 [50] 行业影响与里程碑 - Google Brain项目促成神经网络在谷歌产品中的大规模部署 [26][30] - 纽约时报报道"猫图像"突破,成为AI认知里程碑事件 [27] - TensorFlow与TPU硬件推动行业机器学习基础设施标准化 [1][30]
应对万物互联趋势加剧和数据需求激增 “曲线球”系统可绕障传输超高频信号
科技日报· 2025-08-20 00:34
技术突破 - 美国普林斯顿大学研究团队开发出创新"曲线球"系统 通过动态塑造无线信号传输路径绕过障碍物 维持稳定高速通信连接[1] - 系统采用"艾里波束"无线电波技术 使信号沿弯曲轨迹前进而非直线传播 实现非直视条件下有效传输[2] - 引入神经网络构建智能系统 快速适应环境变化 类似职业篮球运动员依靠经验判断投篮角度和力度[2] 性能优势 - 超高频信号(尤其是亚太赫兹频段)具备传输当前无线系统10倍数据量的潜力 对高带宽需求应用至关重要[1] - 通过超表面天线精细引导波束方向和形态 实现对信号路径的主动调控 实验验证了技术可行性[2] - 可解决用户移动或物体阻挡导致的连接中断问题 突破复杂室内环境应用限制[1] 应用前景 - 为虚拟现实、全自动驾驶汽车等高带宽需求应用提供超高速、高可靠的无线连接支持[1][2] - 应对万物互联趋势加剧和数据需求激增难题 亚太赫兹频段为实现更高传输速率和网络容量提供关键突破口[1] - 未来发射器将能智能导航最复杂环境 支持目前难以实现的沉浸式应用[2]
实测Perplexity Pro平替模型,免费开源仅4B
量子位· 2025-08-15 04:21
产品定位与核心特性 - 开源模型Jan-v1仅4B大小但声称能平替Perplexity Pro [1] - 完全免费且支持本地部署 [2] - 基于Qwen3-4B-Thinking微调 针对推理和工具使用优化 [5] - 官方宣称SimpleQA准确率达91% 本地性能优于Perplexity Pro [3][9] 技术能力表现 - SimpleQA准确率高达91.1% 展现强事实性问答能力 [9] - 支持256k上下文长度 长文本分析接近Qwen-4B水平 [21][25] - 具备检索增强生成能力 可动态结合网络检索生成可溯源答案 [18][19] - 工具调用能力仍有提升空间 测试显示需进一步优化 [25][28] 应用场景与部署 - 专用于网络搜索和深度研究场景 [5][12] - 支持在Jan/llama.cpp/vLLM环境中运行 [8] - 最低仅需2.3GB存储空间(GGUF版本) [29][30] - 入门级NVIDIA GTX 1650显卡即可本地部署 [20] 市场反馈与生态 - 获得Qwen官方转发推文支持 [6] - 网络评价总体积极 但部分用户要求更详细技术报告 [33][34] - 提供四种量化版本 大小从2.3GB到4.0GB不等 [30]
白大褂遇上漫画笔
人民日报· 2025-08-07 22:40
图书内容与创作背景 - 图书由神经外科医生冯军峰和漫画师三折人生联合创作 采用漫画形式科普神经科学知识 出版单位为清华大学出版社[2] - 创作初衷源于神经外科医患沟通中存在信息不对等问题 通过视觉化辅助手段提升沟通效率[2] - 内容侧重神经外科临床科普 涵盖昏迷促醒 脑机接口 神经网络 神经元芯片 深脑刺激等11个前沿主题[3] 内容特色与表现形式 - 采用父子主题乐园探险的故事主线 通过飞行器 潜水艇等趣味交通工具展示大脑内部结构[3] - 融入女娲补天 大禹治水 孙悟空等中国神话元素作为科学史讲解员 体现医学人文关怀[3] - 表达风格强调诙谐生动 在专业性与趣味性 科学性与艺术性之间经过3年反复调试平衡[2][3] 市场反响与社会价值 - 图书面世后获得读者认可 年轻父母群体积极询问续集进展[2] - 实现多项目标:解读神经外科疾病救治过程 激发儿童科学探索兴趣 为科普创作提供新思路[4] - 填补神经外科医生视角科普作品的市场空白 满足公众对大脑神秘领域的好奇需求[2][4]
AI教父Hinton,重新能坐下了
虎嗅· 2025-08-03 04:53
行业与公司发展 - 2012年Hinton团队在ImageNet竞赛中以15.3%错误率夺冠,标志深度学习在图像分类领域的重大突破 [30][31] - 深度学习复兴的两大前提:2010年前后计算能力与大数据成熟 [34] - Hinton团队开发的神经网络技术使机器识别常见物体的准确度达到前所未有的水平 [33] 关键技术突破 - Hinton与搭档提出玻尔兹曼机和反向传播算法,解决机器"从数据中自动提炼内部表征"的核心难题 [20] - ChatGPT底层架构采用Transformer,属于神经网络的一种特殊形式 [13] - 2012年深度学习从纯学术研究转向产业应用,成为科技巨头战略核心 [42][43] 重大商业事件 - 2013年谷歌以4400万美元收购Hinton创立的DNNResearch公司 [40][41] - 谷歌随后以6.5亿美元收购DeepMind,该交易被视为谷歌最值得的投资之一 [54] - DeepMind被收购后开发出AlphaGo、AlphaFold、Gemini等里程碑式AI产品 [55][57] 行业影响与趋势 - 2019年Hinton与LeCun、Bengio共获图灵奖,表彰其推动神经网络成为科技产业核心 [59][60] - 2023年Hinton预警AI风险,提出"AI30年内导致人类灭绝概率10%-20%"的观点 [76] - AI发展速度超预期,Hinton修正预测认为"AI5年内可能比人类更聪明" [76] 行业应用前景 - Hinton认为AI将颠覆所有行业,仅水管工等需要高度创造力的职业暂时安全 [76] - 谷歌通过整合DeepMind与谷歌大脑部门,持续产出尖端AI产品 [57] - 全球科技巨头围绕深度学习重构业务,涵盖搜索、语音、图像识别、自动驾驶等领域 [43]
为什么Thor芯片要保留GPU,又有NPU?
理想TOP2· 2025-08-02 14:46
纯GPU在自动驾驶中的应用与局限性 - 纯GPU可实现低级别自动驾驶,但存在延迟、功耗和效率等明显短板,难以满足L3及以上级别需求 [4][6] - 早期测试案例显示,基于英伟达GTX1080GPU的方案在60公里/小时车速下,80毫秒延迟导致车辆前进1.33米,存在安全隐患 [5] - 特斯拉早期采用NVIDIA PX2 GPU,后转向自研NPU(FSD芯片)以优化能效 [6] GPU、NPU、TPU的架构与原理对比 - GPU设计初衷为图形渲染,以英伟达GTX1080为例,含2560个流处理器,但执行神经网络计算时30%-40%硬件资源闲置 [8][9] - NPU专为神经网络设计,如华为昇腾310B含2048个MAC单元,数据流转路径比GPU减少60%以上 [10][14] - TPU采用脉动阵列架构(如TPU v2的512x512阵列),数据复用率比GPU高3倍以上,专为TensorFlow优化 [12][28] 自动驾驶芯片的混合架构设计 - 英伟达Thor芯片同时集成GPU和NPU,NPU处理YOLOv8模型单帧图像耗时5毫秒,GPU处理100万点云数据耗时3毫秒,协同效率提升40% [32][33] - 混合架构降低硬件成本25%,减少50%电路板空间占用,并保留GPU以兼容传统算法(如SLAM),节省18个月适配时间 [33][34] 能效与成本数据对比 - NPU能效显著优于GPU:华为昇腾310B能效比2.75TOPS/W,是英伟达Jetson AGX Xavier(1.07TOPS/W)的2.5倍 [36] - 特斯拉FSD芯片NPU部分能效比5.76TOPS/W,相同算力下功耗仅为纯GPU方案的1/4.8 [36] - 量产10万台时,NPU单位研发成本30美元/台,GPU为80美元/台;144TOPS算力下,NPU方案硬件成本仅为纯GPU方案的12.5% [37] 技术发展趋势 - 纯GPU方案在L4级自动驾驶中面临瓶颈:处理5-10GB/秒数据需多颗GPU协同,功耗达320W,使电动车续航减少30% [6] - 未来主流方案为NPU+GPU混合架构,兼顾神经网络处理效率与通用计算兼容性,综合优化延迟、能耗及成本 [40]
自动驾驶为什么需要NPU?GPU不够吗?
自动驾驶之心· 2025-07-26 13:30
自动驾驶芯片技术对比 - 纯GPU方案可实现低级别自动驾驶,但存在延迟高(80毫秒导致车辆行驶1.33米)、功耗大(4颗TITAN X GPU达320W使电动车续航减少30%)和效率低(ResNet-152模型处理4K图像耗时28毫秒)三大短板 [5][6][7] - NPU专用架构在神经网络计算中表现优异:华为昇腾310B含2048个MAC单元,数据流转路径比GPU减少60%;处理相同任务耗时仅8毫秒,比GPU快3.5倍 [12][6] - TPU采用512x512脉动阵列,数据复用率比GPU高3倍,专为TensorFlow优化但灵活性较低 [12][14][27] 芯片架构原理差异 - GPU基于通用流处理器(如GTX1080含2560个),执行AI任务时30%-40%硬件资源闲置 [10] - NPU采用MAC阵列直接映射神经网络结构,华为昇腾310B通过2048个乘加单元实现硬件级矩阵运算加速 [12][15] - TPU的脉动阵列通过数据节拍流动(如TPUv2的512x512阵列)减少访存次数,适合大型矩阵乘法 [14][15] 混合计算方案优势 - 英伟达Thor芯片采用GPU+NPU异构设计:NPU处理YOLOv8目标检测(5毫秒/帧),GPU完成激光雷达坐标转换(3毫秒/百万点云),协同效率提升40% [30] - 混合方案相比纯GPU硬件成本降低25%(单芯片成本500美元 vs 4000美元),电路板空间占用减少50% [31][35][36] - 兼容现有GPU算法可节省18个月适配时间,量产10万台时NPU单位研发成本仅30美元(GPU需80美元) [30][37] 能效与成本数据 - NPU能效比显著领先:特斯拉FSD芯片NPU部分达5.76TOPS/W,是同级GPU方案(1.07TOPS/W)的5.4倍 [34] - L4自动驾驶测试中,纯GPU方案(150W)比混合方案(60W)每百公里多耗电8度,续航减少53公里 [34] - 实现144TOPS算力时,NPU方案硬件总成本1200美元仅为纯GPU方案(5500美元)的21.8% [35][36]
从人文视角为青少年解读AI
人民日报海外版· 2025-07-10 02:22
人工智能科普教育 - 涂子沛的"人工智能三部曲"包括《给孩子讲人工智能》《给孩子讲大数据》《给孩子讲大模型:基于DeepSeek、豆包和ChatGPT》,专为青少年创作,通过故事拆解大数据、人工智能、大模型的发展史与基础知识 [2] - 《给孩子讲人工智能》涵盖人工智能领域的重要历史、前沿应用和实用预警,《给孩子讲大数据》追溯大数据发展脉络并培养数据思维,《给孩子讲大模型》展示大语言模型的发展历程与功能 [2] - 作者采用诙谐语言、生动故事、幽默漫画和问题式引导,将抽象科技概念融入青少年熟悉场景,构建宏观认知并激发探索欲 [3] 科技与人文结合 - 涂子沛以人文视角平衡科学性、趣味性、思想性和文学性,不盲目崇拜技术,而是带领青少年接近人工智能的"人文入口" [3] - 书中传递文化理念:技术需要被理解、审视和赋予善意,提醒青少年学习技术是为了成为有能力、有信心的人,而非技术的仆人 [3] - 随着深度学习技术发展,未来人工智能将掌握更多数据并合成新数据,认知边界无限拓展,培养青少年面对未知的勇气与判断力至关重要 [4] 行业影响与未来展望 - 合理利用AI工具已成为AI时代不可或缺的基本技能,"人工智能三部曲"为青少年播下知识与思考的种子,可能影响未来大模型的设计者、管理者和批评者 [4]
Figure CEO:人形机器人是AGI的关键物理形态,已进入工程化验证期,将在四年内部署10万台
华尔街见闻· 2025-07-07 10:14
机器人技术发展现状 - 当前机器人领域指数级发展主要得益于硬件可靠性提升和神经网络技术的卓越表现,电动系统进步取代液压系统局限使人形机器人更安全可靠[7][8][10] - 最新设计的机器人成本降低约90%,未来四年内将实现年产10万台规模,最终目标向全球输送数亿台机器人[1][27][43] - 原型机器人已在物流、制造、医疗等高标准化行业稳定执行无需人工干预的流程任务[1][22][23] 技术突破与产品特性 - 公司采用端到端设计理念,12个月内完成人形机器人大部分部件开发,直接瞄准类人机器人终极目标[12][15] - Figure 3机器人专为高产制造设计,内置单一神经网络可连续60分钟执行物流作业,处理包裹速度从4秒/件提升至3.5秒/件[9][23][27] - 机器人具备自主学习能力,通过60小时数据训练即可掌握全新物流任务,展现类人动作和推理能力[23][43][44] 市场应用战略 - 聚焦两大场景:家庭服务(高难度非结构化环境)和劳动力市场(占GDP一半的低变异性场景)[21][24][33] - 劳动力市场优先突破物流领域,机器人可自主完成包裹分拣、条形码处理、包装翻转等复杂操作[22][23][28] - 商业模式上,家用机器人月费约数百美元,而劳动力市场机器人盈利潜力可达全球GDP一半[21][33] 行业未来展望 - 预测人形机器人将在未来10年形成类似手机的通用平台,功能主要受软件限制[33][48] - 未来社会将出现人机数量相当场景,机器人可制造其他机器人并贡献GDP,使所有工作成为可选项[30][48][51] - 超级智能时代需通过人形机器人作为物理载体,避免数字代理强迫人类完成现实任务的风险[40][41][48] 生产制造规划 - 新建制造工厂已启动Figure 3生产,内部实施高速生产项目以实现规模化[26][27] - 未来四年核心目标为推出10万台机器人,突破制造瓶颈后计划扩展至百万级产能[43][46] - 技术路线图聚焦安全性提升和运动能力优化,使机器人胜任更多人类体力劳动[27][28][42]
李飞飞最新YC现场访谈:从ImageNet到空间智能,追逐AI的北极星
创业邦· 2025-07-02 09:49
ImageNet与深度学习革命 - ImageNet通过提供大规模高质量标记数据集(80000+次引用)为神经网络成功奠定基础 开创数据驱动范式转变[8][9] - 项目历时18年孵化 初期算法错误率达30% 直到2012年AlexNet结合GPU算力实现突破性进展[11][14][16] - 采用开源策略和挑战赛形式推动社区共建 加速计算机视觉从物体识别向场景描述演进[12][17][19] 空间智能与World Labs布局 - 三维世界理解被定义为AI下一前沿 进化史长达5.4亿年 远超语言进化维度[24][25] - World Labs聚焦构建3D世界模型 团队集结NERF作者等顶尖人才 解决组合复杂度更高的空间智能问题[25][27][28] - 应用场景覆盖元宇宙内容生成 机器人学习 工业设计等 需突破硬件与内容创作双重瓶颈[30][32] 人工智能发展路径 - 视觉智能发展轨迹清晰:物体识别→场景叙事→空间智能 每阶段需5-10年技术积累[17][19][22] - 语言模型与视觉模型存在本质差异 前者依赖序列数据 后者需处理不适定的3D→2D投影问题[27][28] - AGI定义存在争议 但空间智能被视为实现通用智能不可或缺的组成部分[23][44] 创新方法论 - "智识上的无畏"被反复强调为突破性创新的核心特质 贯穿从学术研究到创业全过程[6][37][42] - 数据质量优先于数据规模 需采用混合方法获取高质量3D空间数据[47][48] - 跨学科研究与小数据理论被视为学术界可突破的潜在方向[41][42] 行业生态观察 - 开源策略应根据商业模型差异化选择 Meta等平台型企业更倾向全面开源[46] - 学术机构在计算资源劣势下 需聚焦工业界尚未关注的底层理论问题[41][42] - 硬件迭代与生成模型结合将推动元宇宙等场景落地[30][32]