AI前线
搜索文档
阿里干死豆包图疯传,千问:相煎何太急;字节大幅涨薪,传年利润或达500亿刀;印度AI妖股近两年暴涨550倍,仅2名员工|AI周报
AI前线· 2025-12-21 05:32
行业动态与公司新闻 - 网络流传阿里巴巴千问团队举行“干死豆包”全员大会的图片,阿里官方及相关人士辟谣称图片为AI生成,内容与事实不符 [2][3][8][9][10][12] - 前360高级副总裁玉红实名举报360创始人周鸿祎,称帮助其财务造假“至少几十亿”,360集团发布声明否认并称将追究其法律责任 [13][16] - 烟台公安打掉一个炒作新能源汽车负面信息的“网络水军”团伙,抓获12人,查扣资金100余万元,关停账号8000余个,涉及小米、华为、理想等品牌 [37] - 印度RRP半导体公司股价在20个月内从10卢比飙升至11095卢比,暴涨550倍,市值达17亿美元,但公司基本面薄弱,仅有2名全职员工且季度营收为负 [36] - 谷歌2025年新招募的AI软件工程师中,约五分之一为离职后回归的老员工,这一比例高于往年 [38] - SpaceX启动华尔街投行竞标程序,为潜在IPO甄选承销商,公司估值可能升至约8000亿美元 [44] 公司战略与组织调整 - 腾讯升级大模型研发架构,新成立AI Infra部、AI Data部、数据计算平台部,并任命姚顺雨为首席AI科学家,其已帮助混元从字节、阿里及多家AI公司招募到核心人才 [18][19][20] - 字节跳动宣布大幅增加人才激励投入,2025全年绩效评估周期的调薪投入较上个周期提升1.5倍,奖金投入提升35%,并提高所有职级薪酬总包的上限和下限 [21][22][23] - 字节跳动正推进与vivo、联想、传音等硬件厂商的AI手机合作,计划针对2000元以上中端机型投放,目标规模达1.5-2亿台,系统部门和标注部门各自超过500人 [24] - TikTok美国业务方案揭晓,字节跳动将与三家投资者成立名为“TikTok美国数据安全合资有限责任公司”的新合资公司,负责数据安全等,字节保留电商、广告等商业活动,相关事宜计划于2026年1月22日前完成 [33] 财务与资本市场 - 有媒体称字节跳动2025年全年净利润有望达到约500亿美元,前三季度累计约400亿美元,但知情人士回应称相关数据不实 [26] - 寒武纪公告拟使用27.78亿元资本公积弥补母公司累计亏损,公司2025年前三季度营收46.07亿元,同比增长2386.38%,净利润16.05亿元,同比扭亏为盈 [42][43] - 智谱通过港交所聆讯并递交招股书,2022至2024年收入年复合增长率达130%,2025年上半年收入1.9亿元,IPO前已完成8轮融资,规模超83亿元 [27][28] - 马斯克上诉获胜,特拉华州最高法院恢复其2018年价值曾达560亿美元的特斯拉薪酬协议 [31][32] 产品与技术发布 - 摩尔线程发布新一代全功能GPU架构“花港”及基于该架构的AI训推一体芯片“华山”和图形芯片“庐山”,并公布支持十万卡规模的“夸娥万卡智算集群”规划 [29][30] - 小米MiMo大模型负责人罗福莉称,小米开源模型在代码能力和智能体能力上已进入全球前两名,并开源了总参数量3090亿、激活参数量150亿的MoE模型MiMo-V2-Flash [45] - 腾讯混元发布国内首个开放体验的实时世界模型1.5,支持用户创建互动世界并保持3D一致性,可按照24 FPS生成720P视频,并开源了相关框架 [47][48] - 苹果发布多模态AI模型UniGen 1.5,集成图像理解、生成和编辑功能 [50] - 谷歌正式上线Gemini 3 Flash模型,官方称其比2.5 Pro速度快3倍,价格降至3 Pro的四分之一,输入Token价格为0.5美元/百万,输出为3美元/百万 [51][52] - OpenAI推出全新图像生成模型GPT Image 1.5,但实测效果引发社区吐槽 [47] - OpenAI推出智能体编程模型GPT-5.2-Codex,称其为目前最先进的代码生成AI系统 [55] - Anthropic升级Claude Skills功能并开源Agent Skills标准,支持创建和部署面向具体任务的智能体技能 [49] - 美团开源虚拟人视频生成模型LongCat-Video-Avatar,在多项评测中达到开源领域SOTA水平,支持生成长达5分钟的视频 [53][54] 业务进展与市场合作 - 智谱大模型已赋能全球12000家企业客户、超8000万台终端设备及4500万名开发者,成为中国赋能终端设备最多的独立通用大模型厂商 [28] - 微软Azure在接入Kimi k2模型后,双方合作有望延伸至应用层,或将于本月合作上线新的Agent功能以实现Office产品自动化 [57] - ElevenLabs宣布其AI语音智能体深度集成WhatsApp,实现文字与语音双模全渠道交互 [58] - AI公司Manus披露其年度经常性收入突破1亿美元,月复合增长率超20%,累计处理147万亿tokens,创建超8000万虚拟计算机实例,团队规模仅105人 [40][41]
Alex Wang“没资格接替我”!Yann LeCun揭露Meta AI“内斗”真相,直言AGI是“彻头彻尾的胡扯”
AI前线· 2025-12-20 05:32
编译|冬梅 "通往超级智能的那条路——无非是不断训练大语言模型、喂更多合成数据、雇上几千人做后训练、再在强化学习上搞点新花样——在我看来完全是胡 扯,这条路根本行不通。" 近日,在一档名为《The Information Bottleneck》的访谈栏目中,主持人 Ravid Shwartz-Ziv 和 Allen Roush 与图灵奖得主、前 Meta 首席 AI 科学家 Yann LeCun 展开了一场近两小时的高质量对话,在访谈中,LeCun 解释了为什么会在 65 岁这个别人已经退休的年纪他还在创业,此外,他也对当前 硅谷主流的人工智能发展路径给出了罕见而尖锐的评价。 结束在 Meta 长达 12 年的职业生涯后,LeCun 正将个人学术声誉与职业"遗产"押注在一套截然不同的 AI 愿景之上。他直言,业界对大语言模型规模化 的执念,正在把人工智能引向一条看似高速、实则封闭的死胡同。 在 LeCun 看来,真正制约 AI 进步的关键,并不是如何更快地逼近"人类级智能",而是如何跨越一个常被低估却极其困难的门槛—— 让机器具备"狗的智 能水平" 。这一判断挑战了当前以语言能力和知识覆盖面为中心的评估体系。 ...
TPU 订单狂增,谷歌扩产新一代芯片!谷歌首席科学家:我们使用 10 多年了,一直非常满意
AI前线· 2025-12-20 05:32
作者 | 褚杏娟 所以,这就是我们的初衷:如果我们设计专门用于这类机器学习计算的硬件,也就是密集低精度线性代数相关的硬件,就能大 幅提升效率。事实也证明了这一点。第一代 TPU 的能效比当时的 CPU 或 GPU 高出 30 到 70 倍,速度也快 15 到 30 倍。 根据最新报道,随着谷歌 TPU 芯片需求大涨,谷歌扩大了对联发科合作定制新一代 TPU v7e 的订单,订单量比原规划激增数 倍。消息称,联发科为谷歌操刀定制的首款 TPU v7e 将于下季度末进入风险性试产,并再拿下谷歌下一代 TPU v8e 的订单。 联发科大单获得了台积电的先进封装产能支持,2027 年台积电提供给联发科谷歌项目的 CoWoS 产能更将暴增 7 倍以上。 尽管承认谷歌在过去 10 年中取得了进步,但英伟达认为其大约领先谷歌 TPU 两年。由于人工智能模型变化迅速,英伟达认为 谷歌很难让云服务提供商采用 TPU,因为 TPU 是为更特定的模型类型而设计的。相比之下,英伟达相信其更灵活、可编程的 平台仍然是构建大规模云端人工智能基础设施的最佳选择。 但无论如何,谷歌确实让英伟达产生了些许危机。近日,在 NeurIPS 大会期 ...
“GPT-6”或三个月内亮相?奥特曼亲口承认:9亿用户难敌谷歌“致命一击”,1.4 万亿美元砸向算力
AI前线· 2025-12-20 02:01
编译 | Tina 坐拥近 9 亿用户,为何奥特曼依然觉得 OpenAI"命悬一线"? 奥特曼最近一次对外露面时,罕见地把话说得很直:"谷歌依然是最大的威胁之一,他们太强了。坦白讲,如果他们在 2023 年 就认真出手,我们当时可能会非常难受;在我看来,他们本来就有能力把我们直接击碎。" 而就在不久前,谈到 Gemini 3 的冲击时,他还表示:"它对我们指标的影响,并没有我们担心的那么大。" 不过,奥特曼的愿景并不是在谷歌最擅长的领域与之正面竞争。谷歌的路线更像是把 AI 塞进现有的一切:搜索、Gmail、地 图、YouTube……几乎每一个入口都在"加一层 AI"。奥特曼则认为,生成式 AI 终将改变我们使用软件的方式,关键不在于给 旧软件打补丁,而在于重做一套"AI 原生软件"。 在这套逻辑里,他最在意的不是"把 AI 接到多少产品上",而是先把用户留住,并让他们形成依赖:先让用户进门,向他们展示 能力边界,再通过记忆、个性化和深度定制把"粘性"一点点加固。 本文翻译整理自 Alex Kantrowitz 主持的一期播客节目。 他用"牙膏品牌"打了个比方:"从某种意义上说,AI 就像牙膏。大多数人一旦选 ...
突发!OpenAI 放出“代码之神”GPT-5.2 Codex 剑指谷歌、Anthropic,网友实测后感慨:很贵很好用
AI前线· 2025-12-19 03:07
编辑|冬梅 北京时间昨日深夜,OpenAI 正式发布了新一代智能体编码模型 GPT-5.2 Codex,并在官网同步发布 技术博客,对该模型的定位、能力改进及部署方式进行了说明。 OpenAI 重磅发布 GPT-5.2 Codex 据介绍,GPT-5.2 Codex 基于通用模型 GPT-5.2 构建,并针对"智能体编码"(Agentic Coding)场景 进行了专门优化,主要面向复杂的软件工程任务。相较此前版本,新模型在长程任务执行、大规模代 码变更、Windows 原生环境支持以及网络安全相关能力等方面进行了系统性改进。 在工程能力层面,OpenAI 表示,GPT-5.2 Codex 通过引入原生的上下文压缩(compaction)机制, 提高了对超长上下文的理解与利用效率,使模型在跨文件、跨模块的长期编码任务中具备更稳定的表 现。同时,该模型在代码重构、迁移等涉及大规模改动的场景下,整体可靠性和一致性有所提升。 安全能力也是此次更新的重点方向之一。OpenAI 在博客中提到,随着模型在推理与工具调用能力上 的增强,其在网络安全领域的适用性也随之提升。 官方披露,就在上周,一名安全研究人员使用 GPT- ...
BUILD 大会精华版正式上线!跟 Agentic AI 时代的开发者一起构建 | Q推荐
AI前线· 2025-12-19 03:07
今日,由全球领先的 AI 数据云 Snowflake 主办的年度技术盛会 BUILD 精华版在 InfoQ 中文社区正式上线。作为 Data + AI 领域的年度风向标,这不仅 是 BUILD 这一具有深厚积淀的技术盛事首次系统性地亮相中国,更是 Snowflake 为中国开发者量身定制的一场技术饕餮盛宴。 以"构建"之名,重塑 Data + AI 的技术坐标 BUILD 的诞生并非偶然,它起源于 Snowflake 对构建(Build)这一开发者核心行为的致敬与深思。自创立以来,BUILD 始终秉持着由开发者创造,为 开发者服务的初心,逐渐演变为全球范围内探讨云端架构、大规模并行计算与数据处理的最前沿阵地。 如今,BUILD 不仅仅是一个会议的名称,它代表了技术圈内极致性能与无限扩展的代名词,在 Data + AI 领域地位显著。 以实战赋能,为中国开发者点亮创新火花 扫描下方海报二维码,或点击左下角 【 阅读原文 】 ,开始 BUILD! Data + AI 的深度融合 :随着生成式 AI 的爆发,BUILD 迅速进化,成为定义"AI Data Cloud"这一概念的核心舞台; 开发者生态的基石 :在全球 ...
豆包 1.8 多模态超越谷歌Gemini 3!字节祭出“推理代工”,要做模型届的英特尔?
AI前线· 2025-12-18 07:24
豆包大模型1.8核心性能与能力 - 火山引擎正式推出新一代豆包大模型1.8,面向多模态Agent场景深度优化 [2] - 模型上下文窗口达256k,最大输入Token长度为224k,最大输出及思考内容Token长度均为64k [2] - 运行效率高,TPM(每分钟处理Token数)达5000k,RPM(每分钟请求数)为30k [3] - 原生支持智能上下文管理,可配置策略清除低价值历史信息,确保多步骤任务稳定完成 [7] 评测表现与行业地位 - 在AIME 2025等Agent评测集上稳步提升,在通用智能体测评Benchmark上取得全球领先成绩 [3] - 多模态理解方面,在视觉判断准确性、空间理解、文档解析、视频运动识别等多项能力上超越Gemini 3,其他任务处于全球第一梯队 [3] - 具体评测数据:在数学(AIME-25)得分94.3,推理(GPQA-Diamond)得分83.8,复杂指令遵循(MultiChallenge)得分66.7,通用智能体(BrowseComp-en)得分67.6 [4] - 多模态能力评测:多模态推理(MMMU-Pro)得分73.2,通用视觉问答(VLMsAreBiased)得分62.0,空间理解(MMS/Bench)得分25.8,文档与图表理解(OmniDocBench)得分0.106,动作机感知(MotionBench)得分70.6,长视频理解(VideoMME)得分87.8 [4] 多模态与Agent应用场景 - 演示中成功规划流程,调用十余个工具,在多个电商平台完成耳机全网比价与最优选择,能力可应用于电商、生活服务及企业自动化流程 [5] - 能快速低帧率浏览1小时4分钟的监控视频,精准定位事故画面并分析肇事车辆与时间,能力可拓展至在线教育、安全巡检、产品质检等领域 [5] - 大幅提升视觉理解基础能力,可低帧率理解超长视频,并在视频运动理解、复杂空间理解、文档结构化解析能力上有所提升 [7] - Tool Use能力、复杂指令遵循能力、OS Agent能力均实现大幅增强 [7] 图像与视频生成能力 - 豆包大模型拥有全球领先的图像与视频生成能力,覆盖从图像创作与编辑、视频生成、数字人制作到3D模型生成的完整创作链条 [8] - 新一代豆包生图模型Seedream 4.5在复杂指令遵循、画面元素保持能力上大幅提升,融入更丰富世界知识 [8] - Seedream 4.5能将不同人物、物体与场景照片智能组合生成创意合影,将汽车渲染成分解结构图,制作多卡通角色主题拼图,实现逼真的模特虚拟试穿及专业级产品营销海报 [8] - 视频生成模型Seedance 1.5 Pro正式登场,核心特点为音画同步输出、多人多语言对白配音及更强的影视级叙事张力 [9] - Seedance 1.5 Pro实现声音与画面在时间、语义上的精准同步,能根据角色数量和身份精准匹配口型,原生支持多种语言及中国各地方言 [9] - Seedance 1.5 Pro能通过提示词生成充满细节和情感张力的画面,驾驭影视级镜头语言和叙事张力 [11] - Seedance系列将上线“Draft样片”功能,可先快速生成低分辨率样片验证创意,帮助用户将整体创作效率提升65%,并减少60%的无效创作成本 [13] 企业服务与市场进展 - 截至今年12月,豆包大模型的日均tokens调用量已突破50万亿,自发布以来实现417倍增长,与去年12月相比实现超过10倍增长 [6] - 2025年已有超过100万家企业及个人使用火山引擎大模型服务,覆盖百余行业,其中超过100家企业在火山引擎的累计tokens使用量突破1万亿 [16] - 火山引擎正式推出“豆包助手API”,将豆包APP核心的对话、思考、搜索、创作等Agent能力以API形式开放,首批文本相关能力已上线 [16] - 豆包APP是国内用户规模最大的AI应用,从技术角度看是中国最复杂、难度最高的AI Agent之一 [16] 成本优化与推理服务 - 火山引擎推出业界首个“AI节省计划”,平台上所有按量付费的大模型均可参与,企业各部门享受统一价格优惠,不同模型用量可合并累计 [17] - “AI节省计划”采用阶梯折扣,用量越多节省越多,最高可节省47%的成本 [17] - 火山方舟正式推出“推理代工”服务,针对典型开源大模型结构提供极致的弹性伸缩、全栈推理优化与分布式缓存等支持 [18] - 用户上传加密模型参数后无需运维底层GPU,根据测试,以云上集群替代自建集群可使硬件与运维成本下降约一半,采用方舟推理代工服务对比云上租赁GPU算力可获得额外1.6倍左右的吞吐提升 [18] - 火山引擎能在分钟级完成百卡到千卡的算力伸缩以应对突发流量 [18] - AI产业的推理与训练走向分工与分层是大势所趋,对大多数团队而言,低成本、高吞吐地“推理好”一个大模型可能比“后训练好”一个模型更为困难 [19]
8 个月 50 亿产值,非程序员用秒哒赚疯了?秒哒如何解决后端难、token 贵、屎山烦
AI前线· 2025-12-18 00:40
文章核心观点 - AI Coding是当前行业最具价值的领域,是突破Chatbot同质化竞争的关键赛道 [2] - 秒哒(Medo)作为一款无代码AI开发工具,凭借其独特的产品设计、强大的后端技术能力、精细化的成本与代码质量管控,在全球市场获得认可,并展现出中国团队在产品体验上的优势 [2][7][9][12][17] 产品定位与市场表现 - 秒哒是一款发布仅8个月的无代码工具,已在全球被广泛使用 [2] - 生成的应用累计服务超1000万人,日均近10万人使用 [2] - 在变现工具、业务软件、AI应用三大场景中累计创造超50亿元产值 [2] - 81%的用户为非程序员,主要集中在职场人群与高校群体 [3] 产品核心设计:从模糊需求到清晰定义 - 与国内外同类Vibe Coding产品不同,秒哒强化了“需求沟通阶段” [4] - 通过“产品经理智能体”介入,将用户原始、模糊的需求(如“把超市搬到线上”)通过多轮对话转化为含功能清单的结构化产品文档,再交付“研发智能体”落地 [4][5][6] - 此设计大幅降低非技术用户的表达门槛,避免因需求模糊导致的反复返工 [6] 用户策略与技术支撑 - 面对多元化的“小白”用户群体,秒哒现阶段优先打造通用的能力底座,未来计划向具体场景延伸垂直版本 [7] - 针对复杂需求,提供深度研究模式,智能体可联网调研,并支持对话、可视化界面、截图定位三种修改方式 [7] - 可无缝集成千帆、Coze等主流智能体平台能力,并将其转化为插件 [7] - 依托百度智能云,确保应用高可用、高性能,并支持源码导出、权限管理等企业级需求 [7] 后端能力突破与行业认可 - 后端(BaaS)是行业痛点,秒哒的解决方案获得全球BaaS领军者Supabase的认可,其海外版Medo成为Supabase新云平台首批三大合作伙伴之一,且是其中唯一的中国企业 [9] - 团队上半年集中攻克后端三大核心挑战 [9] - **挑战一**:应对海量、微小、轻量的Agent应用带来的数据库实例“小而多”格局,上线首周的数据库实例数就超过百度智能云团队过去七年企业服务总和,需云原生技术突破以保障弹性与高并发 [9] - **挑战二**:实现AI与数据库的深度融合,让大模型能够理解并操作数据库,而非仅服务于由程序员编写的SQL代码 [10][11] - **挑战三**:高效管理底层资源,实现灵活调度与云化部署,确保稳定与成本效益 [11] - 在产品体验上,秒哒实现了“一次对话”完成数据库对接,无需用户跳转配置,相比行业头部产品Lovable需要用户自行跳转配置且最快仍需两次对话的流程,具有显著优势 [12] 效率优化与成本控制策略 - 团队核心方向是极致提升效率,让每个Token发挥更大价值,以降低代码生成模型的高昂成本 [14] - **智能体层面**:优化智能体规划能力,设计更优的“标准作业程序(SOP)”,减少交互轮次和Token消耗 [14] - **模型层面**:利用数据飞轮迭代训练,并训练更小、更快的专用模型以降低成本 [14] - **任务调度层面**:实行精细化模型分工,为开发流程的不同阶段匹配最恰当的模型(如在需求沟通阶段不调用昂贵的代码生成模型),以提升效果并控制成本 [14][15] 代码质量维护与“代码屎山”防治 - 智能体设计不当会导致无节制堆砌冗余代码,形成难以维护的“代码屎山” [15] - 关键实践是引入“克制性添加”与代码历史审查机制,训练智能体在添加新功能前先系统回顾已有代码,力求“加一行,减两行”,甚至只减不增 [15] - 虽然审查历史代码会消耗Token,但能避免后期迭代成本急剧上升和项目无法修改的后果 [15] - 秒哒在八月版本曾经历教训,促使团队将“定期回顾与重构”作为智能体工作流的重要环节,已有用户项目经历数百甚至上千轮迭代后仍能保持代码库清晰 [15] 行业竞争格局与国内团队优势 - 国内在Vibe Coding领域建设起步平均比国外晚1-2年,但核心竞争力差距正在缩小 [17] - Vibe Coding的核心竞争力在于底层的代码生成能力(取决于模型与智能体策略)和最终面向用户的产品体验 [17] - 在产品体验层面,中国团队不仅没有落后,反而往往具备显著优势 [17] - 百度不追求通用代码能力全面超越,而是让场景化应用能力超越国际水平,预期明年中国产品的迭代速度会更快 [17]
刚刚,谷歌祭出迄今最前沿模型 Gemini 3 Flash!编程能力上反超 Gemini 3 Pro,且更快更便宜
AI前线· 2025-12-17 18:16
谷歌发布Gemini 3 Flash模型 - 谷歌发布其迄今最快AI模型Gemini 3 Flash,该模型专为速度而生,旨在帮助用户更快地学习、构建和规划[2][3][4] - 模型发布标志着谷歌在大模型竞赛进入“效率与规模并重”新阶段的关键落子,旨在建立更具性价比的企业级应用和开发者生态护城河[6][7] - 新模型从发布日起即面向全球数百万用户推出[8] 模型性能与基准测试 - 在博士级别推理基准测试GPQA Diamond中得分90.4%,在Humanity‘s Last Exam(不使用工具)中得分33.7%,展现出前沿性能,足以媲美规模更大的前沿模型[8] - 在MMMU Pro测试中取得81.2%的成绩,与Gemini 3 Pro性能相当[12] - 在编程代理能力基准测试SWE-bench Verified中得分高达78%,超越了Gemini 2.5系列甚至Gemini 3 Pro[19] - 在多项基准测试中显著超越了前代最佳模型Gemini 2.5 Pro[8] 定价与成本效率 - Gemini 3 Flash定价为每百万输入token 0.50美元,每百万输出token 3.00美元[13] - 相比前代Gemini 2.5 Flash(输入0.30美元/百万token,输出2.50美元/百万token)略贵,但性能优于Gemini 2.5 Pro且速度是其三倍[15] - 在处理思维任务时,平均使用的token数量比Gemini 2.5 Pro少30%,有助于用户节省总体token消耗[14][15] - 谷歌将Flash系列定位为“主力机型”,其更低的成本使其更适合承担大规模、批量化的任务处理需求,以降低企业使用门槛和整体成本[28] 技术特点与应用场景 - 模型设计目标是突破质量、成本和速度之间的帕累托极限,能够灵活调整思考时间以实现极高效率[13][16] - 拥有极快的速度,基于Artificial Analysis基准测试,速度比Gemini 2.5 Pro提升3倍[15] - 具备强大的多模态推理、工具使用和视觉问答能力,适合复杂的视频分析、数据提取等应用[22] - 能够实现近乎实时的AI辅助,例如在手部追踪游戏中提供多模态推理,或近乎实时地构建和A/B测试新的加载旋转器设计[23][24] - 可作为搜索中AI模式的默认模型,有效解析用户查询,提供结合实时信息的周全答案和具体建议,速度堪比搜索[27] 行业竞争与市场影响 - 谷歌正与OpenAI展开围绕新品发布节奏和模型性能的正面竞争[30] - 有报道称,随着谷歌在消费者市场份额上升,ChatGPT整体访问量出现下滑,促使OpenAI内部发出“红色警报”备忘录并接连发布新品[30] - 自Gemini 3发布以来,谷歌在其API上的处理规模迅速放大,目前每日处理的token数量已超过1万亿个[29] - 行业处于模型快速演进、相互竞争、不断突破性能边界的状态,密集的新模型发布正在推动整个行业加速前进[31] 市场初步反馈 - 部分开发者与技术爱好者认为Gemini 3 Flash在特定应用(如Stagehand Agent)上的准确度几乎与Gemini 3 Pro不相上下,但价格更低、速度更快[34][35] - 有用户感叹其能力之强,称“从没见过能力这么强的轻量级模型”[37] - 也有观点指出基准测试成绩不能完全代表真实复杂场景中的表现,并对“刷基准分数”的做法表示怀疑[38] - 有观点认为谷歌最近的发布彰显了其行业领头羊地位[38]
分享个好消息!| 极客时间
AI前线· 2025-12-17 18:16
软考政策与趋势 - 软考中程序员报考热门科目“系统分析师”和“系统架构设计师”的考试频率已从一年一次调整为一年两次 [1] - 上述科目以及“系统规划与管理师”的考试内容发生了重大改版 [1] 软考证书价值 - 软考全称为计算机技术与软件专业技术资格(水平)考试,是计算机领域唯一的国家级证书 [4] - 该证书在私营企业、企事业单位均受高度认可,是招聘时的重要加分项 [4] - 证书无报名门槛限制,一经考取永久有效且全国通用 [5] - 证书持有者可享受多项实际利益,包括:在广州、杭州、天津等地积分落户或直接落户,在上海可加分;有助于升职加薪;可用于申请个税专项附加扣除;高级证书持有者可进入专家库获取评标报酬并享受更高退休待遇;在项目招标中,持有国家级证书尤其是高级证书可作为加分项 [12] 软考资料包内容 - 资料包针对四个软考高级科目:“系统架构设计师”、“系统分析师”、“系统规划与管理师”、“信息系统项目管理师” [13] - 资料包内容为各科目的重难点知识整理,旨在帮助考生更快速高效地备考 [13] - “系统架构设计师”资料包含知识点与练习题,建议打印成便携纸质版使用 [14] - “系统分析师”资料按1-8章节准备,涵盖案例分析及论文写作专题 [16] - “系统分析师”具体重难点文档包括:系统配置与性能评价、操作系统、企业信息化与系统规划、软件工程(一)、软件工程(二)、面向对象技术、网络与信息安全、数据库设计、案例分析专题、论文写作专题 [17] - “系统规划与管理师”资料包含教程文档与视频解析 [18] - “信息系统项目管理师”资料已按章节总结,内容详略得当 [24] - 资料包今日免费分享,不限基础与人群,对软考感兴趣者均可领取 [26] 考试科目与时间 - “系统架构设计师”考试时间为每年5月和11月 [14] - “系统分析师”考试时间为每年5月和11月 [16] - “系统规划与管理师”考试时间为每年11月 [18] - “信息系统项目管理师”考试时间为每年5月 [24] 考试知识结构分析(以系统规划与管理师为例) - 综合知识考点共分为13个部分,各知识点分值及比例如下:信息系统综合知识(6分,占比8%)、信息技术知识(8分,占比10.6%)、信息技术服务知识(9分,占比12%)、IT服务规划设计(7分,占比9.3%)、IT服务部署实施(7分,占比9.3%)、IT运营管理(7分,占比9.3%)、IT服务持续改进(5分,占比6.7%)、监督管理(6分,占比8%)、IT服务营销(5分,占比6.7%)、团队建设与管理(3分,占比4%)、标准化知识与IT服务相关标准(6分,占比8%)、课外知识(1分,占比1.3%)、专业英语(5分,占比6.7%)[23]