开源

搜索文档
微软开源1976年比尔·盖茨参与开发的6502 BASIC解释器源代码
环球网· 2025-09-04 04:25
公司动态 - 微软以开源许可形式发布1976年开发的MOS 6502 BASIC解释器源代码 [1] - 源码文件完整保留原始文件头"BASIC M6502 8K VER 1.1 BY MICRO-SOFT"并包含比尔·盖茨设计的彩蛋 [3] 技术规格 - 解释器专为适配MOS 6502处理器设计 代码体积仅8KB 版本号为1.1 [3] - 通过STORDO与STORD0两个细微差异标签体现彩蛋设计 [3] 历史价值 - 该解释器在个人电脑早期发展阶段发挥重要作用 夯实了BASIC语言基础 [3] - 1977年Commodore公司以一次性支付2.5万美元获得使用授权 [3] - 广泛应用于Commodore PET、VIC-20及Commodore 64等经典机型 [3] 行业影响 - 成为推动早期个人电脑普及的关键技术组件之一 [3] - 极大降低用户编程门槛 使普通用户能轻松编写运行简单程序 [3] - 为早期计算机编程教育和普及奠定基础 [3]
开源拓界 众行致远 | 开放原子“园区行”(重庆站)成功举办
经济观察报· 2025-09-02 08:40
会议概况 - 2025智能汽车基础软件生态大会暨第四届中国汽车芯片大会于8月28日—29日在重庆召开 聚焦共建智能汽车操作系统开源生态 汇聚政府机构、高校、整车企业、软件企业、芯片企业及开源社区等近100名代表 [1] 开源产业共识 - 重庆高新区以开源推动智能网联新能源汽车产业发展 发起成立天工开物开源基金会并支持普华基础软件开源量产级安全车控操作系统小满EasyXMen [2] - 开源推动企业从单点研发向平台协同生态共建跃迁 开源基金会通过资源整合推动企业深度参与开源 [3] - 车用操作系统从封闭走向开放是重要发展趋势 中国车用操作系统开源共建计划已落地龘微内核等核心项目 吸引400余家企业及175所高校加入社区 [4] - 车用软件开源面临核心技术栈未打通 复合型人才缺口大及国际话语权不足等挑战 需协同共建掌握发展主动权 [5] 开源实施路径 - 开源基金会凭借中立身份促进企业合作与技术革新 加强底层核心技术创新 加速生态构建与产业发展 带来资源共享 研发协同及成本降低等多重利好 [6] - 企业参与开源生态建设需经历基础能力储备 技术应用 模式创新 生态贡献及自主对外五个发展阶段 需清晰界定发展目标与建设路径 [7] - 汽车电子电气架构向中央+区域及车路云一体演进 需通过开源补齐技术研发与产品落地短板 构建软件供应链安全保障体系并推动形成标准化行业解决方案 [8] 开源成果展示 - 普华基础软件开源龘EasyAda采用第三代微内核架构 支持多核调度及微秒级实时响应 已捐赠至开放原子开源基金会 [9] - 开源小满EasyXMen是全球首个规模化量产级安全车控操作系统 覆盖多域控制器需求 截至2024年底累计装车超2000万套 适配国内外主流芯片超180款 下载和克隆总次数逾1.5万次 社区累计访问数超10万次 [9] 行业实践分享 - 开源欧拉社区将携手全球开源组织共建生态 通过使能上游原生支持保障开源软件供应链安全 [10] - 行业倡议按领域平台化 中立开放及代码优先原则共建中立开放车载操作系统平台 [11] - AUTOSAR尝试实现开源AP软件栈 欢迎专家参与国际标准和代码开发 [12] - 开源降低行业技术门槛并构建生态引力 但面临商业模式模糊及数据安全等挑战 [13] - Dora中间件支持自动驾驶和机器人实时系统 将构建可扩展低延迟运行平台 [14] - 需针对开源合规风险及代码质量进行深入探讨 [15] - 开源有利于降低芯片和软件成本 打造差异化产品并加速开发效率 [16] - 产业链协同是中国汽车全球化的长期战略 需发挥新能源先发优势实现从跟随者到引领者的跨越 [17] 相关ETF数据 - 食品饮料ETF(515170)近五日跌0.65% 市盈率21.23倍 份额减少750万份至69.2亿份 主力资金净流出3085.9万元 [20] - 游戏ETF(159869)近五日涨1.72% 市盈率42.95倍 份额增加1400万份至53.9亿份 主力资金净流出6436.5万元 [20] - 科创半导体ETF(588170)近五日涨3.70% 份额增加3400万份至4.0亿份 主力资金净流入540万元 [20] - 云计算50ETF(516630)近五日涨5.37% 市盈率126.28倍 份额增加1100万份至4.1亿份 主力资金净流出743.6万元 [21]
在全球 AI 的惊天变局中,为何越想独立,越要开放?
AI科技大本营· 2025-09-01 08:58
战略共识 - 全球79%受访者认为发展减少外部依赖的AI能力具有极高战略价值 其中北美86% 欧洲83% 亚太79% [3] - 主权AI关注点集中于国家层面66% 涉及基础设施与监管框架 以及组织层面47% 涉及运营自主权与竞争力 [4][5] - 美国将主权AI列为战略优先级的比例达79% 欧洲为83% 亚太为78% [6] 核心驱动力 - 数据主权与控制以72%占比成为首要驱动力 强调数据作为战略资产需保留价值于自身生态系统 [8] - 国家安全以69%占比为核心驱动 AI控制权直接关联关键基础设施风险 [9] - 经济竞争力48% 主权AI被视为构建本土创新生态与提升全球竞争力的关键 [10] - 法规合规44%与文化契合31% 推动本地化AI能力以满足数据隐私及文化价值观需求 [11] 实现路径 - 94%受访者认为全球协作对实现主权AI至关重要 开源成为核心解决方案 [14][16] - 开源三大核心价值包括透明度与可审计性69% 灵活性与定制化69% 安全与信任60% [17] - 90%组织认为开源对主权AI发展至关重要 开源软件81% 开放标准65% 开放数据65%为优先形式 [18] - PyTorch采用率71% Kubernetes58% 显示开源技术已成为AI基础设施基石 [21] 挑战与区域差异 - 主要挑战为数据质量与可用性44% 技术专长短缺35% 安全漏洞34% [23] - 美国最关注数据质量51% 欧洲担忧合规与监管37% 亚太优先考虑安全漏洞47%与技术短缺41% [23][26] - 未来治理模式中 国家政府66%与开源基金会60%被视为核心引领角色 [27]
“智驾平权”加速到来 智能网联汽车产业基础迎来“攻坚”阶段
每日经济新闻· 2025-08-31 06:40
智能网联汽车行业发展现状 - 中国每售出10辆乘用车中超过6辆搭载辅助驾驶配置 其中超过2辆具备中高阶辅助驾驶能力[2] - 行业存在安全可靠性不足 核心技术待突破 车企独立数据系统导致数据完备性不够等问题[2] - 产业链商业闭环及盈利模式尚不理想 整体盈利水平堪忧 仅少数企业实现盈利[2] 技术发展与战略布局 - 需推进芯软结合一体化发展 促进产业开源生态建设和技术标准体系建设[1][3] - 长安汽车2025年起不再开发非智能化新产品 未来三年推出35款数智新汽车[3] - 长安汽车计划2026年实现全场景L3级自动驾驶 2028年实现全场景L4级功能[3] - 长安汽车将打造"1+N+X"未来出行生态 包含1个主agent大模型和多个服务agent[3] 开源生态建设与挑战 - 开源成为行业共识 但车用操作系统生态构建存在碎片化风险[2][6] - 理想汽车推出星环OS开源项目 东风汽车推出天元OS开源项目[6] - 开源不等于量产 存在代码开放后服务支持 芯片集成和安全保障等痛点[6] - 需基于开源整合上下游企业 制定统一技术架构和标准 推动产业协同跨界融合[7] - 德国汽车工业协会组织11家汽车巨头基于开源模式共建"S-CORE"软件平台[7]
GitHub 被微软“吞并”,开源时代宣告终结?
虎嗅· 2025-08-25 08:04
公司战略调整 - GitHub CEO Thomas于8月11日突然卸任且未任命新CEO [1] - 平台将完全并入微软CoreAI部门并终止独立运营 [1] - 微软通过整合将GitHub纳入其商业战略体系 [1] 行业影响与开发者反应 - 举措引发开发者对平台角色转变的普遍担忧 [1] - 开源协作社区的独立性存疑可能影响开发者生态 [1] - 平台需平衡AI转型(Copilot)与原有开源协作功能 [1] 发展历程与转型 - 平台诞生于旧金山酒吧的开发者协作项目 [1] - 通过Copilot产品实现向AI驱动开发工具的转型 [1] - 微软逐步推进整合过程最终实现全面接管 [1]
马斯克背叛理想
搜狐财经· 2025-08-24 12:52
马斯克开源Grok-2模型 - 马斯克宣布开源xAI的Grok-2模型,并计划约六个月后开源Grok-3模型 [2] - 马斯克宣称xAI将很快超越除谷歌外的任何公司,并认为中国公司是最强劲的竞争对手 [3] - 开源协议从Apache 2.0变更为更严苛的社区许可证,限制年收入大于100万美元的企业和个人商业使用,且必须标注"Powered by xAI" [21][23] Grok-2模型性能与架构 - Grok-2在发布时性能比肩GPT-4o,在阅读理解、编程和视觉任务上业界最先进 [12][13] - 当前Grok-2智能指数为28,已落后于行业平均线 [14][15] - 模型架构与Grok-1几乎一致,隐含层特征维度8192、层数64、8专家MoE,但参数量从314B降至268B [18] 开源承诺的执行情况 - 马斯克曾承诺每次创建新版本即开源前一个版本,但Grok-3发布后未开源Grok-2,直至Grok-4发布后才补上 [4][6][8] - 延迟一年多的开源使Grok-2技术落后,对市场格局影响有限 [11][20] - 开源被质疑为营销手段,形式大于内容,未来Grok-3和Grok-4开源可能延续类似模式 [26][27] 马斯克的AI发展理念与历史 - 马斯克认为AI需防火墙机制,主张通过多AI竞争提高安全性,防止人类滥用 [36][42] - 2015年与奥特曼共同创立OpenAI,目标为打造开源AI系统,但后因控制权分歧决裂 [40][43][55] - 马斯克曾向OpenAI捐赠4400万美元,但2018年后双方关系破裂,其AI项目进展缓慢 [46][56][61] 行业竞争格局 - 马斯克指出中国公司在电力和硬件建设方面实力超强,将成为强劲竞争对手 [3] - 开源协议限制商业使用和改进其他模型,实际开放程度有限 [21][22] - AI领域巨头闭源趋势明显,开源可能仅服务于追赶策略而非真正竞争 [64][65]
在OpenAI炼Agent一年半,回国做出首个开源Agent训练框架!这个30岁清华天才却说:创业不是技术命
AI前线· 2025-08-23 05:32
吴翼个人背景与职业经历 - 吴翼拥有姚班、伯克利、OpenAI、清华等亮眼背景,是ACM世界奖牌得主和IOI教练,曾亲历Facebook 2012崛起、字节跳动2016-2018高速成长期以及OpenAI爆火前关键阶段 [2] - 创立的边塞科技在2024年被蚂蚁收购,团队4年规模化强化学习成果积累至开源项目AReaL,这是一个完全异步的强化学习训练框架,专为大型推理模型设计,在Github已收获2.4k stars [2] - AReaL完全围绕Agent打造,定位独特,自称没有竞品 [2] OpenAI工作经历与决策文化 - 加入OpenAI源于Google Headcount限制,OpenAI作为非盈利机构无此限制,面试后第二周即获录用 [4] - OpenAI内部以evidence驱动决策,强调bottoms-up、快速迭代、无master plan的文化,研究员被当作mini-CEO [12] - GPT系列工作较bottom up,如GPT早期由Alec Recford一人主导,ChatGPT原型几人开发后爆火,不在OpenAI原计划内 [12] - 团队目标明确后不过度规划,激进寻找evidence并调整迭代,资源富裕与否不影响组织逻辑,AI时代放大穷团队能力 [13] - Codex团队7周从0到1推出产品,体现创业精神,但创新是长跑,需慢跑寻找evidence后冲刺,盲目冲刺可能错过evidence [14][15] 强化学习与竞赛观点 - ICPC、IOI等竞赛被类比为sports programming,类似电子竞技,涉及技巧和心理因素,非纯粹算法思维和编程速度考验 [6] - 大模型在IMO、IOI等竞赛挂零因模型未ready即推出,通用推理模型如Google/OpenAI已实现IMO金牌,专用模型如字节也取得不错成绩,大模型攻克竞赛是迟早的事 [6] - Gemini和OpenAI在IMO夺金明确归功于RL训练,竞赛未来参考围棋/Dota发展,因AI出现可能产生新规定和训练方式变革 [7] 创业经历与行业观察 - 中国创业公司几乎无机会走OpenAI路线,创业需看客观机会和势,非主观导向,当前中国非技术创业好时机,纯AI技术创业需慎重 [19][25] - 边塞科技创业期间困扰多属人性层面,非技术或商业问题,团队私下交流多,强调共同做大蛋糕而非分蛋糕 [27] - 创业非技术命题,时间窗口关键,决策抓住时间点即成功,错过非主观错误,建议多尝试以提高概率 [28] - 硅谷资源更多,对技术创业者更友好,国内创业是身心灵修炼场,中国互联网时代创造过奇迹,AI时代仍有机会 [17] AReaL框架与技术路线 - AReaL是面向大模型智能体训练的强化学习框架,目标让人更快训练出更好Agent模型,一切围绕Agent设计,自称无竞品 [8][36] - 团队从2020年开始做开源规模化强化学习工作,从MAPPO、SRL、ReaLHF到AReaL一脉相承,均围绕RL scaling [34][35] - 好的RL框架需好且快(产出SOTA模型且快)和好用(用户简单修改代码完成定制),AReaL-lite发布后实现全面重构 [37] - 开源RL训练框架基本是中国人天下,但头部公司如OpenAI、Anthropic有更好infra和团队,资源更优 [38] - AReaL围绕Agent打造,但也可训练代码模型和泛化模型,Agent应用不一定需RL训练,但资源成本下降后RL可训练更好Agent模型 [39] Agent技术未来展望 - Multi-Agent是必要方向,因Agent workflow复杂需多智能体配合,智能体普及后交互和算法逻辑更复杂,带来更多算法和infra机会 [41] - Agent将成为大模型交互形式主流,从被动变主动,自主探索和工作时间空间扩大,算法提升空间大,新范式一定会出现 [42]
重组AI帝国!到处“挖人”的扎克伯格,又有新动作!
证券时报网· 2025-08-20 11:50
公司战略调整 - Meta于8月20日宣布将超级智能实验室拆分为四个独立团队 包括TBD Lab、FAIR、PAR和MSL Infra 体现从研究导向向工程落地的战略转型 [2][4] - TBD Lab负责前沿大模型研发 由前Scale AI首席执行官Alexandr Wang领导 团队采用多负责人制并汇聚来自谷歌、苹果、OpenAI的顶尖人才 [3] - FAIR专注基础AI研究 由Robert Fergus领导 但原负责人杨立坤未在重组中被提及头衔 反映基础研究地位弱化 [3] - PAR团队致力于AI技术产品化 如Meta AI助手和智能眼镜 由GitHub前首席执行官Nat Friedman等共同领导 [4] - MSL Infra专注于AI算力与基础设施建设 由工程副总裁Aparna Ramani掌舵 呼应公司高昂的资本支出计划 [4] 技术路线转变 - TBD Lab讨论将下一代AI大模型改为闭源模式 放弃原Llama 4路线 从头开发性能更强的新模型 [1][5] - 闭源决策与扎克伯格"不会开源全部模型"表态一致 标志公司从全面开源转向选择性闭源 [5] - 杨立坤被边缘化是战略转向标志性信号 其长期倡导开源理念 Llama系列曾被视为AI民主化象征 [5] 人才竞争与组织问题 - 扎克伯格发起硅谷罕见AI人才争夺战 为挖角OpenAI、Anthropic等公司核心研究人员支付惊人溢价 个别薪酬包高达1亿美元 [7] - 公司员工留存率仅64% 在头部科技公司中垫底 对比Anthropic为80%、谷歌DeepMind为78%、OpenAI为67% [8] - 关键人才持续流失 包括前FAIR负责人Joelle Pineau、Llama核心研究员Angela Fan等 [7] - 内部存在末位淘汰制和高压考核体系 员工须在半年内证明业务水平否则面临淘汰 工作动力源于恐惧而非使命认同 [8] - 高管技术路线分歧严重 团队权责重叠 部门间存在截胡项目和窃取成果等乱象 协作困难 [8] 资源投入与收购 - 为挖角Scale AI首席执行官Alexandr Wang 公司豪掷超140亿美元收购Scale AI 49%股份 [3] - 基础设施团队设立凸显算力先行战略决心 呼应公司高昂年度资本支出计划 [4]
英伟达开源9B参数小模型,比Qwen3快6倍
量子位· 2025-08-19 05:25
小模型技术发展 - 英伟达推出新型小型语言模型Nemotron Nano v2 该9B模型在复杂推理基准测试上准确率与Qwen3-8B相当或更高 速度提升6倍 [1][7] - 模型设计目标为兼顾推理与非推理任务的统一模型 支持"思考"预算控制 用户可指定允许"思考"的token数量 [8] - 模型采用生成推理过程后输出答案的机制 允许跳过中间推理步骤但可能降低复杂推理准确率 展示推理过程可显著提升答案质量 [10][11] 模型性能表现 - 在NeMo-Skills套件测试中 AIME25达72.1% MATH500达97.8% GPQA达64.0% LiveCodeBench达71.1% [16] - 指令遵循和长上下文测试表现优异 IFEval达90.3% RULER 128K测试达78.9% BFCL v3和HLE基准也有提升 [16] - 模型经过FP8精度预训练 使用20万亿token 采用Warmup-Stable-Decay学习率调度 后训练包含SFT/GRPO/DPO/RLHF [19][21] 开源与数据发布 - 公司首次开源用于创建模型的绝大部分数据 包括预训练语料库 [4][23] - 发布两个基础模型NVIDIA-Nemotron-Nano-12B-v2-Base和NVIDIA-Nemotron-Nano-9B-v2-Base 均支持128k上下文长度 [22] - 预训练数据集包含66万亿token 分为Nemotron-CC-v2/Nemotron-CC-Math-v1/Nemotron-Pretraining-Code-v1/Nemotron-Pretraining-SFT-v1四个类别 [26][27] 技术实现细节 - 模型压缩后支持在单个NVIDIA A10G GPU(22GiB内存)进行128k token上下文推理 采用基于Minitron的压缩策略 [25] - 通过截断思维链训练解决模型在预设思维链外"思考"的问题 实现精确的思考预算控制 [12] - 预训练阶段计算量达1.45E+24 FLOPS 能耗708.3MWh 后训练阶段计算量7.25E+22 FLOPS 能耗35.6MWh [5] 行业战略布局 - 公司构建Nemotron生态 采取开源策略 近期连续发布Llama Nemotron Super v1.5和Nemotron Nano v2 [29][30] - 开源模型对标国内Qwen3系列 展现与国外科技巨头闭源路线差异化的战略选择 [32] - 模型当前支持在线试用 公司持续强化在AI领域的技术影响力 [22][33]
深度|英伟达最新挑战者Cerebras创始人对话谷歌前高管:我们正处于一个无法预测拐点的阶段
Z Potentials· 2025-08-15 03:53
核心观点 - AI芯片公司Cerebras致力于构建全球最快、最大的AI计算硬件,其芯片比已知最大芯片大56倍,专注于加速稀疏线性代数运算以提升AI计算效率[3][8][11] - 行业正经历新一轮半导体、软件和硬件革命,开源生态对初创公司至关重要,Meta和DeepSeek推动OpenAI加入开源模型竞争[6][18][19] - AGI发展受电力供应限制,大型数据中心需1.5吉瓦核电站支持,美国电力基建严重不足[42][45][46] 突破计算极限:Cerebras芯片的创新 - Cerebras的WSE芯片通过整合计算与内存单元,实现比传统芯片快近两个数量级的AI计算速度,特别优化Transformer等模型的矩阵运算[8][11][34] - 芯片设计从底层数学原理出发,专注稀疏线性代数加速,避免专用架构陷阱,在Transformer诞生前已确立技术优势[10][11] - 每token成本以每年10倍速度下降,类比汽车发动机80年演进压缩至5年完成[12][16] 硬件与软件的协同演进 - 硬件需与AI算法协同设计,团队需包含顶尖研究人员预判技术方向,系统级优化涉及I/O结构、提示缓存等工具[11][24] - NVIDIA的CUDA生态形成技术壁垒,但未来五年技术栈可能重构,多种路径并行发展[10][16] - 推理需求呈指数增长,用户日均使用频次从1-2次跃升至20次,驱动计算量爆发[32][33] 全球化竞争与开源战略 - AI竞争呈现中美两极格局,中国通过开源模型在非洲、中亚等地区拓展影响力[18] - 开源使初创公司能以1.5美元/百万token成本对抗封闭模型的100美元定价,推动技术民主化[19] - 智能手机端LLM应用可能改变产业格局,离线场景能力成为新竞争维度[19][20] AGI发展瓶颈与关键指标 - 电力成为核心制约因素,单个数据中心需匹兹堡全市1/3电量(1吉瓦),美国需新建92座核电站满足需求[42][45][46] - 衡量AGI进展的指标尚未标准化,每秒token数反映用户体验,但传统SaaS指标已失效[33][34] - Scaling Law持续生效但拐点未知,强化学习需成千上万倍计算量,行业处于爆发期[28][29][32] AI对齐与安全挑战 - 对齐测试方法在行业共享,但自我改进系统的持续对齐尚未解决,存在信息隐瞒风险[36][37][38] - 安全责任主要由软件和人类团队承担,硬件层作用有限[35][39] - 欧洲可通过国家战略发展主权AI,需培养工程师群体并明确经济优先级[40][41]