TechCrunch
搜索文档
Roblox banned in Russia, local media says
TechCrunch· 2025-12-03 23:01
俄罗斯市场禁令 - 俄罗斯官方通讯社塔斯社报道 俄罗斯通信监管机构以平台上存在LGBTQ内容为由 封禁了在线游戏平台Roblox [1] - 俄罗斯法律将公开的LGBTQ倡导活动定性为“极端主义活动” 平台上的LGBTQ团结社群内容成为被封禁的原因之一 [1] - 根据应用情报公司Appfigures的数据 Roblox在俄罗斯的移动设备上累计安装量估计达7000万次 今年迄今下载量约为800万次 [6] 平台安全与内容审核挑战 - 平台面临更广泛的安全和内容审核挑战 近期报告指出平台使部分未成年用户暴露于儿童捕食者风险之下 [3] - 在美国 公司正面临德克萨斯州和路易斯安那州总检察长的法律调查 [3] - 作为应对措施 公司已引入年龄验证和内容审核工具 并计划从1月开始实施强制面部验证才能使用聊天功能 [3] 开发者内容指南引发的争议 - 公司要求开发者标记那些“主要围绕敏感的社会、政治或宗教议题”的内容 以便13岁以下用户的父母决定其子女能否访问 [3] - 这一政策引发了游戏行业少数群体倡导团体(如Out Making Games, Women in Games, BAME in Games)的强烈反对 他们认为公司将“体育薪酬平等”等话题视为“敏感”话题的做法存在问题 [3] - 相关团体在一封公开信中呼吁公司重新考虑这些指导方针 寻求在不使歧视合法化或不压制重要声音的情况下保护年轻用户的方法 [3]
Andy Jassy says Amazon's Nvidia competitor chip is already a multi-billion-dollar business
TechCrunch· 2025-12-03 22:01
AWS AI芯片业务进展 - 亚马逊AWS发布下一代AI芯片Trainium3,性能比Trainium2提升四倍且功耗更低[2] - Trainium2业务已产生数十亿美元的年化收入,生产超过100万颗芯片,并被10万多家公司使用,支撑了Bedrock平台的大部分用量[3] - 该芯片在云客户中受欢迎的原因是具备"价格性能优势",比其他GPU选项更具竞争力[4] 主要客户与合作案例 - Anthropic是Trainium2的重要客户,通过"Project Rainier"项目使用超过50万颗Trainium2芯片训练Claude模型[7] - Project Rainier是美国多地数据中心组成的AI服务器集群,专为满足Anthropic快速增长的需求而建[8] - 亚马逊是Anthropic的主要投资者,Anthropic相应将AWS作为其主要模型训练合作伙伴[8] 行业竞争格局 - 仅有谷歌、微软、亚马逊、Meta等少数美国公司具备与英伟达竞争的全套技术能力[10] - 竞争壁垒包括芯片设计专业知识、自研高速互连技术以及英伟达CUDA软件生态的锁定效应[10] - 亚马逊计划让下一代Trainium4芯片实现与英伟达GPU在同一系统中的互操作[11] 市场机会评估 - AI芯片市场存在数千亿美元的收入机会,即使分得部分市场份额也意味着巨大收益[1] - 亚马逊认为Trainium2业务已经达到可观规模,下一代产品的进步可能进一步巩固其市场地位[11]
Waymo starts autonomous testing in Philadelphia
TechCrunch· 2025-12-03 14:00
业务扩张 - Waymo宣布在费城开始测试配备安全员的自动驾驶车辆,并计划在巴尔的摩、圣路易斯和匹兹堡开始手动驾驶以收集数据[1] - 此次新增四个城市后,公司业务覆盖范围已超过20个城市,这些城市分别处于提供乘车服务、准备商业发布或测试阶段[3] - 公司计划在2026年底前实现每周提供100万次乘车服务的目标[3] 运营与技术 - Waymo目前已在洛杉矶、凤凰城和旧金山湾区提供高速公路上的自动驾驶乘车服务[3] - 公司声称其运营安全水平是人类驾驶员的五倍[3] - 尽管发布了软件更新,但公司车辆仍被报道多次驶过正在上下学生的校车[5] 合作与监管 - 公司未提供在新城市推出商业服务的时间表,也未明确是否会在每个城市与其他公司合作运营自动驾驶出租车[2] - 在亚特兰大和奥斯汀等城市,Waymo已与优步合作推进自动驾驶出租车的部署[2] - 美国国家公路交通安全管理局正在调查公司车辆在校车附近的运行情况,起因是9月份在亚特兰大有一辆Waymo车辆被拍到绕行停靠的校车[4]
Amazon challenges competitors with on-premises Nvidia ‘AI Factories'
TechCrunch· 2025-12-03 00:43
AWS新产品发布 - AWS宣布推出名为“AI Factories”的新产品 允许大型企业和政府在自有数据中心运行其AI系统[1] - 该模式下客户提供电力与数据中心 AWS负责部署并管理AI系统 并可将其与其他AWS云服务集成[1] 产品定位与核心优势 - 产品旨在满足对数据主权有严格要求的公司和政府需求 确保数据完全控制权 避免流入竞争对手或外国对手手中[2] - 本地化AI工厂意味着无需将数据发送给模型制造商 甚至无需共享硬件资源[2] 技术合作与架构 - AWS AI Factory为与英伟达的合作项目 使用AWS与英伟达技术的组合[3][4] - 部署企业可选择英伟达最新Blackwell GPU或亚马逊自研Trainium3芯片[4] - 系统采用AWS自研网络、存储、数据库及安全技术 并可接入Amazon Bedrock模型管理服务和AWS SageMaker模型构建训练工具[4] 行业竞争格局 - 微软于2023年10月展示其首批AI工厂 部署于全球数据中心以运行OpenAI工作负载[5] - 微软未明确表示将此类高端机器用于私有云 但强调正利用英伟达AI工厂数据中心技术建设位于威斯康星州和佐治亚州的新一代“AI超级工厂”[5] - 微软上月还概述了为应对数据主权问题将在本地国家建设的数据中心与云服务 包括可在客户站点安装的“Azure Local”托管硬件方案[6] 行业趋势观察 - AI发展正促使顶级云服务商重新加大对私有数据中心和混合云的投资 类似2009年的行业态势[6]
Bending Spoons agrees to buy Eventbrite for $500M to revive stalled brand
TechCrunch· 2025-12-02 23:03
收购交易概述 - Bending Spoons公司同意以约5亿美元收购Eventbrite 该价格远低于其2018年上市时的17.6亿美元估值[1] - 交易为Eventbrite股东提供每股4.50美元的现金 较前一日2.48美元的收盘价有81%的溢价[5] 收购方Bending Spoons分析 - 公司专注于收购并振兴停滞的科技公司 其策略是通过削减成本、提高价格和引入新功能使被收购公司盈利[3] - Bending Spoons计划永久持有其收购的公司 与传统私募股权模式不同[3] - 公司在2024年10月宣布完成2.7亿美元的大规模融资 估值达到110亿美元[3] - 收购组合包括Evernote、Meetup、Vimeo和AOL等拥有强大品牌但业务停止增长的公司[1] 被收购方Eventbrite分析 - 公司是一家活动市场和票务平台 由Julia Hartz、Kevin Hartz和Renaud Visage于2006年共同创立[2] - 在12年的私营阶段 Eventbrite筹集了约3.3亿美元风险资本 投资者包括红杉资本和老虎全球管理公司[2] - 经审计的年度收入在2024财年和2023财年持平 约为3.25亿美元[5] - 收购价格约为Eventbrite过去十二个月2.95亿美元收入的1.7倍[5] 行业策略比较 - 除Bending Spoons外 采取类似“收购、修复并持有”停滞软件公司策略的投资者还包括Constellation Software、Curious、Tiny等[4] - 这类公司常被称为“风险僵尸”公司[4] - Curious公司创始人兼首席执行官表示 其以低价收购“优秀公司”并快速复兴 目标是实现20%至30%的利润率[4]
Amazon previews 3 AI agents, including ‘Kiro' that can code on its own for days
TechCrunch· 2025-12-02 22:18
AWS发布新型AI智能体 - AWS于周二宣布推出三款新型AI智能体,统称为“前沿智能体”,包括一款旨在学习用户工作方式并能自主运行数天的智能体,这些智能体目前提供预览版本 [1] - 三款智能体分别处理不同任务:编写代码、执行代码审查等安全流程、以及自动化开发运维任务,例如防止新代码上线时发生事故 [1] Kiro自主智能体的核心功能 - Kiro自主智能体是AWS承诺的最大亮点,据称能够一次性自主工作数天 [2] - 该智能体基于AWS七月发布的现有AI编码工具Kiro构建,旨在生成可投入生产运营的代码,而不仅仅是原型 [3] - Kiro通过“规范驱动开发”概念工作,在编码过程中由人类指导、确认或纠正其假设,从而创建规范,并通过扫描现有代码等方式学习团队在各种工具中的工作方式,最终实现独立工作 [3] - AWS首席执行官Matt Garman表示,用户只需从待办事项中分配一项复杂任务,该智能体便能独立找出完成方法,并持续深化对用户代码、产品及团队遵循标准的理解 [4] - 亚马逊称Kiro能在多个会话间保持“持久上下文”,即不会因内存耗尽而忘记任务,因此可在最少人为干预下被分配任务并独立工作数小时或数天 [6] Kiro自主智能体的应用实例 - Garman举例描述了一项任务:更新一段被15个企业软件使用的关键代码,Kiro可被一次性指派修复所有15处,而无需逐一分配和验证 [6] 配套的Security Agent与DevOps Agent - 为完成编码任务的自动化,AWS开发了Security Agent,该智能体可独立工作,在代码编写时识别安全问题、事后进行测试并提供修复建议 [7] - DevOps Agent完善了该智能体组合,能自动测试新代码的性能问题,或与其他软件、硬件或云设置的兼容性问题 [7] 行业竞争与技术挑战 - 亚马逊的智能体并非首个宣称支持长时间工作的产品,例如OpenAI上月表示其智能体编码模型GPT‑5.1-Codex-Max也设计用于长达24小时的运行 [8] - 行业观点认为,智能体采用的最大障碍可能并非上下文窗口(即持续工作能力),大型语言模型仍存在幻觉和准确性问题,导致开发者需像“保姆”一样监督,因此开发者通常希望分配短期任务并快速验证 [9] - 尽管如此,在智能体能成为类似同事的存在之前,上下文窗口必须扩大,亚马逊的技术是朝该方向迈出的又一大步 [9]
AWS launches new Nova AI models and a service that gives customers more control
TechCrunch· 2025-12-02 17:54
AWS发布Nova 2系列AI模型及Nova Forge服务 - 亚马逊云科技在AWS Re:Invent大会上发布了Nova 2系列AI模型以及一项名为Nova Forge的新服务[1] - Nova 2系列包含四款新的自研AI模型 是对去年首次发布的Nova模型家族的升级[1][2] - 新推出的Nova Forge服务允许企业客户以每年10万美元的价格构建其自定义的“Novellas”前沿模型版本[5] Nova 2系列模型的具体升级与功能 - Nova 2 Lite是一款更具成本效益的推理模型 能够处理文本、图像和视频以生成用于日常任务的文本[3] - Nova 2 Pro是一款推理智能体 能够处理文本、图像、视频和语音 专为编码等“高度复杂的任务”而设计[3] - Nova 2 Sonic是一款新的语音到语音模型 用于对话式AI[4] - Nova 2 Omni是一款多模态推理和生成模型 可处理图像、文本、视频和语音输入 并生成文本和图像[4] Nova模型的采用现状与客户反馈 - Nova模型目前已被数万客户使用 客户范围从营销巨头到科技领导者如Infosys、Blue Origin、Robinhood 以及创新初创公司如NinjaTech AI[3] - AWS首席执行官Matt Garman表示“势头非常惊人”[3] - Reddit、Sony和Booking.com已成为Nova Forge服务的早期客户[9] Nova Forge服务的价值主张与解决的问题 - Nova Forge服务允许企业访问预训练、中期训练或后期训练的模型 以便公司使用自己的专有数据进行训练[5] - 该服务旨在解决企业将自身数据整合到已训练AI模型中时出现的问题 例如模型在后续训练中遗忘早期学习的核心推理能力[7][8] - 企业定制模型时 在训练后添加大量数据会导致模型遗忘先前学习的有趣内容 这类似于人类学习新语言的过程[8]
Amazon starts testing ‘ultra-fast' 30-minute deliveries
TechCrunch· 2025-12-02 16:20
服务推出与市场定位 - 公司在美国西雅图和费城推出30分钟或更短的“超快”配送新服务 [1] - 此举旨在更好地与DoorDash、Uber Eats和Instacart等服务竞争 [1] - 新服务的推出标志着公司为进入美国快速配送市场所做的最新努力 [7] 服务细节与定价策略 - 服务涵盖商品种类广泛,包括生鲜食品、日用品、电子产品和非处方药等 [2] - Prime会员每单超快配送费用为3.99美元,非Prime会员费用为13.99美元 [2] - 订单金额低于15美元将收取1.99美元的小篮子费 [2] 运营模式与技术设施 - 公司利用专门设计的小型设施,战略性布局在客户居住和工作区域附近以提高效率 [4] - 该运营模式优先考虑员工安全,减少配送伙伴行驶距离,从而实现更快配送 [4] - 客户可通过应用程序跟踪订单并向司机支付小费 [3] 战略背景与投资规划 - 公司曾于2014年推出“Prime Now”一小时配送服务,但于2021年停止该服务 [7] - 公司计划投资超过40亿美元,目标在2026年前将其配送网络规模扩大两倍 [7] - 此次行动紧随公司2023年10月在阿联酋推出的15分钟配送服务,部分订单配送时间最短仅6分钟 [4]
Amazon releases an impressive new AI chip and teases a Nvidia-friendly roadmap
TechCrunch· 2025-12-02 16:00
核心观点 - AWS在re:Invent 2025大会上正式发布了第三代自研AI训练芯片Trainium3及配套的UltraServer系统,并预告了下一代Trainium4芯片的研发计划,旨在提升性能、能效并增强与英伟达生态的互操作性,以降低客户AI云服务成本并扩大市场吸引力 [1][2][7] 产品发布与性能规格 - AWS正式推出由3纳米制程Trainium3芯片驱动的Trainium3 UltraServer系统 [2] - 第三代芯片和系统在AI训练和推理性能上相比第二代有大幅提升 [2] - 系统速度提升超过4倍,内存容量增加4倍,不仅能用于训练,还能在需求高峰时交付AI应用 [3] - 数千台UltraServer可互联,为一个应用提供高达100万颗Trainium3芯片,是上一代连接能力的10倍 [3] - 每台UltraServer可搭载144颗芯片 [3] 能效与成本优势 - Trainium3芯片和系统比上一代能效提高40% [4] - 提升能效符合AWS在数据中心电力消耗激增背景下的直接利益,并延续了亚马逊的成本控制理念 [4] - 公司承诺这些系统能为使用其AI云服务的客户节省资金 [4] - 客户如Anthropic、日本LLM Karakuri、Splashmusic和Decart已在使用第三代芯片和系统,并显著降低了推理成本 [5] 技术路线图与生态整合 - AWS已着手开发下一代芯片Trainium4 [1][7] - Trainium4承诺将在性能上再次实现重大飞跃,并支持英伟达的NVLink Fusion高速芯片互连技术 [7] - 这意味着基于Trainium4的系统将能够与英伟达GPU互操作并扩展性能,同时仍使用亚马逊自研的低成本服务器机架技术 [7] - 支持英伟达技术可能有助于吸引那些基于英伟达GPU构建的大型AI应用迁移至亚马逊云平台 [8] - 公司未公布Trainium4的具体时间表,但若遵循以往的发布节奏,预计在明年的大会上会有更多信息 [9]
Apple just named a new AI chief with Google and Microsoft expertise, as John Giannandrea steps down
TechCrunch· 2025-12-02 01:34
核心人事变动 - 公司人工智能负责人John Giannandrea将于春季卸任并转为顾问,其自2018年起担任该职位 [1] - 继任者为Amar Subramanya,其曾在微软任职,并在谷歌工作16年,近期负责Gemini Assistant的工程领导工作 [1] - 此次人事更迭被视为一次重大改组 [2] 人工智能产品困境 - 公司于2024年10月推出的“Apple Intelligence”市场反响不佳,评价从“令人失望”到“引发警觉” [2] - 产品发布初期即遭遇严重问题,其通知摘要功能在2024年末和2025年初生成了一系列不实且令人尴尬的标题,例如错误报道案件嫌疑人自杀及体育赛事结果 [3] - 原计划对Siri进行的全面改革失败,成为公司的重大挫折 [4] - 在计划于4月发布前的内部测试中,软件主管发现许多宣传功能无法正常工作,导致发布被无限期推迟 [5] - 发布延迟引发了iPhone 16购买者提起的集体诉讼,这些用户曾被承诺将获得AI助手功能 [5] 内部管理与组织问题 - 早在3月,公司首席执行官已将Siri的监督职责从Giannandrea处完全剥离,转交给Vision Pro的创建者,同时其负责的隐秘机器人部门也被移走 [6] - 据报道,公司内部存在组织功能失调问题,包括人工智能团队与营销团队沟通薄弱、预算错配以及领导力危机 [8] - 人工智能研究人员出现流失,部分人员流向竞争对手如OpenAI、谷歌和Meta [8] 战略调整与未来方向 - 公司据称将依赖竞争对手谷歌的Gemini来驱动下一代Siri,此举对两家存在超过15年广泛竞争的公司而言是一个惊人转变 [9][10] - 新任人工智能负责人将向软件主管汇报,其明确任务是帮助公司在人工智能领域追赶竞争对手 [10] - 与竞争对手投入数十亿美元建设大型AI数据中心不同,公司战略重点在于利用自研芯片在用户设备端直接处理AI任务,并采用隐私优先的方法 [11] - 该战略存在明确权衡,设备端模型规模更小、能力较弱,且公司因不愿收集用户数据,其研究人员只能使用授权和合成数据来训练模型,而非竞争对手所依赖的海量真实世界信息 [11]