Seek .(SKLTY)
搜索文档
精读DeepSeek OCR论文,我远远看到了「世界模型」的轮廓
钛媒体APP· 2025-10-27 02:34
技术性能对比 - DeepSeek OCR模型参数为30亿,在数学公式展开案例中未能识别出“极坐标”,且表格结构识别错误[2] - 参数规模仅9亿的PaddleOCR-VL模型在相同案例中表现优于DeepSeek OCR[2] - 在OCR模型综合性能排名中,DeepSeek-OCR-Gundam-M模型总体得分86.46,低于PaddleOCR-VL的92.56分[2] 技术创新与核心价值 - DeepSeek OCR的核心是DeepEncoder编码器,使用视觉Token对输入上下文信息进行编码,实现了9-10倍文本压缩下96%以上的OCR解码精度,10-12倍压缩下约90%的精度,20倍压缩下仍保持约60%的精度[10] - 该技术实现了连续可调的压缩率,可在压缩率和识别精度之间进行平滑权衡[11] - 模型提出类生物遗忘机制的压缩策略,近期上下文保持高分辨率,远期上下文逐步降低分辨率,模拟人类记忆的自然衰减[12] - 研究探索了解码N个文本Token需要多少个视觉Token的核心问题,证明了AI可以仅用100个视觉Token高精度解压缩出包含1000个文本Token的原文内容,且无需文本分词过程[17] 战略意义与行业影响 - DeepSeek OCR的深层价值在于探索“连续视觉表征压缩”,其研究方向隐隐指向终极追求——“世界模型”[6] - 该技术将大模型的前沿焦点从离散的语言Token重新转向连续视觉表征的视觉Token[6] - 论文证明了AI的主要信息入口可以从语言转向视觉,这种转变效率更高且更符合生物特性[20] - Vision→Text的任务空间完全包含了Text→Text的任务空间,任何文本都可以无损渲染成图像,这种不对称性暗示了将所有输入统一为视觉模态的激进方向[21] - 这一范式为解决长上下文建模中的效率瓶颈、记忆机制设计与多模态融合等核心问题提供了全新思路[22] 实际应用价值 - DeepSeek-OCR具备大规模预训练数据生产能力,可作为大语言模型训练过程中不可或缺的助手,每天可生成数千万页级别的训练数据,显著提升了多模态数据构建效率[15]
揭秘Meta AI大裁员:Llama 4落后DeepSeek的恐慌!扎克伯格是急功近利,自毁长城;还是在精简机构,重振业务?
搜狐财经· 2025-10-27 01:31
公司战略重组 - Meta对人工智能部门进行重组,裁员约600名员工,使部门总人数降至不到3000人[3] - 新任首席AI官亚历山大·王主导此次重组,旨在通过缩减团队规模来提升决策效率和员工影响力[3] - 重组背景是Meta的开源大模型Llama 4表现明显落后于DeepSeek等中国竞争对手,引发公司危机感[1][10] 部门调整重点 - 新组建的TBD Lab部门未受裁员影响并将继续扩张,该部门专注于开发下一代基础模型和Llama系列迭代[5] - 裁员涉及三个部门:基础AI研究部门、产品应用部门和基础设施部门,仅TBD Lab得以保留[5] - TBD Lab由亚历山大·王亲自负责,集结了从谷歌、OpenAI、苹果等竞争对手挖来的顶级AI人才[5][6] 人才战略转变 - 公司不惜重金从外部招募AI精英,例如向苹果AI大模型团队负责人开出两亿美元天价合同[6] - 一次性从OpenAI打包带走八名核心开发人才,包括GPT-4的几位核心架构师[6] - 此次裁员导致多位资深研究员离职,包括FAIR研究总监田渊栋等知名学者[17][18] 领导层变更 - 扎克伯格今年6月引入Scale AI创始人亚历山大·王全权负责AI业务[7] - 亚历山大·王的任命体现了公司领导力向商业思维和实际落地能力倾斜的战略转变[9][10] - 原首席科学家杨立昆领导的基础研究团队被并入超级智能实验室,地位逐渐边缘化[14][16] 产品开发问题 - Llama 4表现糟糕的原因被归结为团队优先投入多模态方向,但面临DeepSeek在推理能力上的竞争压力[11][13] - 前员工指出问题根源在于“外行管内行”,部分中高层领导AI背景薄弱导致决策失误[13] - 公司战略转向加速模型与产品开发以获得即时回报,而非长期基础研究投入[17] 行业影响 - 裁员消息引发行业关注,OpenAI、xAI等公司的同行纷纷在社交媒体上招募被裁员工[18][20] - 田渊栋等知名研究员的离职被业内视为Meta的重大人才损失[18][19] - 公司重组反映了AI行业竞争白热化,人才成为各家竞相争夺的核心资产[3]
独家揭秘Meta AI大裁员:Llama 4败于DeepSeek带来的恐慌
新浪科技· 2025-10-27 01:01
公司AI部门重组与裁员 - Meta宣布对旗下人工智能部门进行重组,裁员约600名员工,裁员后AI部门员工总数降至不到3000人[6][8] - 此次裁员涉及超级智能实验室下属四个部门中的三个,只有模型训练与扩展部门TBD Lab未受影响且将继续扩张招聘[11][12] - 受影响的员工被告知11月21日为离职日期,按照加州法规被裁人员将保留两个月合同与薪水[9] 新任AI负责人与战略调整 - 公司于今年6月引入Scale AI创始人兼CEO亚历山大·王全权负责AI业务,此举旨在加强AI模型训练数据和基础设施方面的核心能力[18][20] - 新任负责人认为AI部门存在臃肿低效问题,希望通过裁员实现更加精简灵活的团队结构[7][20] - 战略重心转向加速模型与产品开发以获得即时回报,传统基础研究角色正被能够推出产品的工程角色所取代[29] Llama模型表现与竞争压力 - 今年4月发布的Llama 4模型表现令人失望,其开源大模型明显落后于DeepSeek等中国竞争对手[2][22] - 团队内部因DeepSeek推理能力超越而出现恐慌,产品开发方向出现混乱[22][24] - 管理层认为Llama 4失败与团队领导问题有关,促使公司从外部引入新的领导力来提升竞争力[24] 人才流动与团队结构变化 - 新组建的TBD Lab部门集结了行业顶级技术人才,包括从OpenAI打包挖走的8名核心开发人才以及苹果AI大模型团队负责人[14] - 新团队成员平均薪酬水准显著高于其他三个部门,内部出现薪资落差和士气影响[14][25] - 基础AI研究部门FAIR被并入超级智能实验室,其创始人杨立昆的位置逐渐边缘化[26][28] 关键人员变动与行业影响 - FAIR研究总监、知名华人AI研究员田渊栋在裁员范围内,其在强化学习和大语言模型领域享有很高声望[31][33] - 田渊栋团队曾开发早于AlphaGo的围棋AI DarkForestGo,并发现注意力汇聚现象等重要研究成果[33] - 行业同行对Meta裁员决策表示遗憾,OpenAI、xAI等公司积极争取被裁的资深研究人员[34]
独家揭秘Meta AI大裁员:Llama 4落后DeepSeek的恐慌|硅谷观察
新浪科技· 2025-10-26 23:23
公司战略重组 - Meta对人工智能部门进行重组,裁员约600名员工,使AI部门员工总数降至不到3000人 [3] - 新任首席AI官亚历山大·王主导此次重组,旨在通过缩减团队规模提升决策效率和员工影响力 [3] - 重组背后原因是旗舰开源模型Llama 4表现令人失望,显著落后于DeepSeek等中国竞争对手,引发公司内部危机感 [1][10] 部门调整重点 - 超级智能实验室旗下四个部门中,TBD Lab(模型训练与扩展部门)未受裁员影响且将继续扩张招聘 [5] - FAIR(基础AI研究部门)、产品应用部门和MSL Infra(基础设施部门)三个部门受到裁员影响 [5] - TBD Lab是今年6月新组建的团队,由亚历山大·王亲自负责,专注于开发下一代基础模型和实现“超级智能” [5] 人才战略转变 - 公司不惜重金从谷歌、OpenAI、苹果等竞争对手挖来顶级AI人才,包括一次性从OpenAI打包带走八名核心开发人才 [6] - 为苹果AI大模型团队负责人庞若名开出了令人难以置信的两亿美元天价合同 [6] - 基础研究部门FAIR的创建者、AI界“三大教父”之一杨立昆的位置逐渐边缘化 [14] - FAIR团队的研究总监、知名华人AI研究员田渊栋也在裁员范围内 [18] 领导层变更 - 今年6月扎克伯格引入Scale AI创始人兼CEO亚历山大·王全权负责AI业务 [7] - 公司向Scale AI投资148亿美元,获得后者没有投票权的半数股权,Scale AI估值达到300亿美元 [7][9] - 亚历山大·王的个人资产达到45亿美元,他对AI模型训练数据和基础设施有深刻理解 [9][10] 业务方向调整 - 公司AI优先事项从基础研究转向加速开发模型与产品,追求即时回报 [17] - FAIR团队的职责发生变化,更多研究想法将被整合到TBD Lab的产品项目中 [17] - 传统的发表论文的研究角色正被能够推出产品的工程角色所取代 [17] 行业影响 - 裁员消息公布后,OpenAI、xAI等热门AI创业公司立即在社交媒体上向被裁员工伸出橄榄枝 [19][21] - 业内同行认为Meta让田渊栋等顶级研究人员离开是重大错误 [19][21] - 田渊栋在X上的发文立即成为在线招聘会,多家公司希望招募其被裁同事 [21]
DeepSeek预测:5年后,300万的房子值多少钱?真的是超出了预期
搜狐财经· 2025-10-26 12:14
中国房地产市场现状 - 2025年6月全国百城二手住宅平均价格为每平方米13691元,环比下滑0.75%,同比下跌7.26% [1] - 各地政府采取救市措施,包括将房贷利率下调至3%附近,首付比例降至15%,一线城市如广州已全面取消限购、限售及限价措施 [1] 不同层级城市房价前景分化 - 市场普遍预期一线城市房价可能触底反弹,得益于政策扶持和对购房者的强大吸引力 [1] - 对二三线城市房产的普遍预测是继续承压下行,原因在于其对购房者的吸引力相对有限 [1] - 人工智能观点认为所有大中城市房价已进入下跌通道,救市政策难以撼动整体下降趋势,部分二三线城市因前期跌幅较大,未来下跌速度可能放缓 [2] - 一线城市因房价收入比高达40,未来几年可能面临补跌行情 [2] 房价下行核心原因分析 - 各地房价存在显著泡沫,一线城市房价收入比高达40,二三线城市达20-25,已脱离居民实际收入水平,且多数人收入增长缓慢或负增长,无力支撑高房价 [4] - 房屋价值正在贬值,一线城市价值300万元的房产多为“老破小”类型,抗跌性差,例如上海市中心老旧小区单价已从2021年近9万元/平方米回落至6万多元/平方米 [4] - 二三线城市300万元房产通常对应大户型,其市值面临进一步下跌风险,未来出售可能困难 [4] - “一线城市房价不会跌”神话破灭,居民收入增长显著放缓削弱购房能力 [4] - 北京、上海、广州、深圳等一线城市人口已普遍出现负增长,因高昂居住成本削弱吸引力,人口流失将促使房价逐步回归与当地居民收入水平相匹配的合理区间 [5]
Week Ahead: Packed With FOMC, ECB, BoJ, BoC Meetings and US-China Trade Talks
Investing· 2025-10-24 14:48
根据提供的文档内容,该文档仅包含一个指向Investing.com上欧元兑美元市场分析文章的链接,没有提供具体的新闻内容、数据或分析要点。因此,无法基于现有信息总结文章的核心观点或关键数据。
AI 又进化了,DeepSeek 再推 “ 王炸 ” 新功能
36氪· 2025-10-24 11:48
核心技术原理 - 提出光学压缩概念,用视觉模态作为文本压缩介质,以“视觉token”取代“文本token”[2] - 核心思路是将文本转换为图像,再让模型通过看图方式读取信息,以解决大语言模型处理长文本时算力消耗过大的痛点[4] - 模型由DeepEncoder和DeepSeek3B-MoE两部分组成,前者作为压缩引擎,整合了SAM-base和CLIP-large,并包含一个16倍卷积压缩模块用于削减token[8] 性能与效率 - 实现10倍压缩率时,仅用100个视觉token即可表达原本需要1000个文本token的内容,并保留97%的OCR准确率;20倍压缩率下仍可保留约60%的准确率[5] - 一张1024×1024的图片经处理后可从4096块压缩至几百个token,在保留清晰度的同时显著降低显存消耗[9] - 解码器采用MoE架构,64个专家中每次仅激活6个,实际算力仅动用约5.7亿参数,但性能可媲美30亿参数模型[11] 模型能力与训练数据 - 支持多档分辨率模式,包括Tiny、Small、Base、Large以及动态模式Gundam[10] - 训练数据规模庞大,包含3000万页PDF文档,涵盖100种语言,其中中英文文档达2500万页[11] - 额外使用300万条Word文档训练公式识别、表格提取等能力,并从中英文开源数据集各抓取1000万张场景图进行标注[14] 应用效果与测试表现 - 在OmniDocBench测试中,以100个视觉token超越GOT-OCR2.0,用不到800个视觉token超越MinerU2.0,实现性能更强、输入更短、推理更快[14] - 技术可扩展至模拟人类记忆机制,通过将历史对话内容渲染成图像并逐步压缩,实现类似“选择性遗忘”的效果[16][17] - 该范式重新定义了上下文概念,强调记忆的精而非多,为处理超长对话提供了新思路[18] 行业影响与创新意义 - DeepSeek-OCR探索了一种新范式,即用视觉模态高效承载语言信息,在行业追求“更大、更长、更贵”的背景下,提供了“更小、更快、更巧”的发展思路[19][21] - 该模型虽为30亿参数的小模型,但在长文本压缩方面提出了创新思路,并触及了AI记忆与遗忘的边界[22] - 此举标志着行业焦点可能从“记忆更多”转向“更聪明地遗忘”,公司在技术路径创新上处于领先地位[23]
汇丰中国研讨会洞见:中国的人工智能-DeepSeek时刻之后
21世纪经济报道· 2025-10-23 23:26
中国人工智能行业整体发展态势 - 中国在人工智能技术领域处于时代前沿,具备强有力的政策支持、深厚的人才储备和充足的风险资本供给等竞争优势 [1] - 人工智能行业的发展引起投资者广泛关注,截至今年八月份,追踪40家香港上市AI产业链企业的恒生人工智能主题指数上涨34.8%,同期恒生指数涨幅为28.9% [1] - 行业参与者正致力于开发能够改变日常生活的AI赋能解决方案 [1] DeepSeek模型的突破性影响 - DeepSeek通用大语言模型于2025年初发布,其性能能与顶尖AI模型竞争,但使用的算力和训练成本远低于后者 [2] - 该模型的成功对青年科学家和工程师产生巨大鼓舞,提升了行业对自身能力的信心 [2] - DeepSeek的开源特性具有重要意义,促进了AI从业者之间的共享文化,并推动技术应用落地 [2] - 开源模型使开发者无需从零开始,可直接使用现成的“开箱即用”模型,且开源软件在安全性方面具有优势 [3] - DeepSeek开启了AI创新的长期趋势,这一趋势有望在未来数十年持续发展 [3] AI技术的实际应用与商业化 - 开发可实际应用的AI解决方案是实现商业化的关键 [4] - 中国自2021年以来连续多年成为全球最大的机器人市场,安装量占全球总量一半以上 [4] - AI为机器人带来泛化能力,使其能够在陌生环境或面对陌生物体时执行任务,但目前精度和效率尚不及传统机器人 [4] - AI机器人的部署遵循三阶段路径:初期应用于对精度要求较低的服务业,中期扩展至工业领域,最终实现与人类紧密协作 [4] - 中国企业在多模态AI领域进展显著,这类系统能处理并理解文本、图像、音频和视频等多种数据类型的信息 [5] - 多模态技术能精准高效地解析长视频内容,预计AI将逐步从视频文件中习得空间感知能力,这对机器人领域尤为重要 [5] 行业前景与展望 - 行业创始人相信AI技术能够成为企业实用工具 [6] - 中国人工智能产业发展乐观,投资者将持续关注这一日益重要的科技主题 [6]
1万美金操盘4天,DeepSeek大赚40%
搜狐财经· 2025-10-23 05:48
比赛概况 - 初创公司Nof1组织了一场名为Alpha Arena的AI炒股大赛,使用真实资金进行交易,每个AI工具获得1万美元本金,比赛为期两周,从美东时间10月18日开始[2][4] - 比赛汇集了国内外顶级AI模型,海外组包括OpenAI的GPT-5、谷歌的Gemini 2.5 Pro、马斯克的Grok 4以及Anthropic的Claude Sonnet 4.5,国内组包括阿里通义Qwen3 Max和幻方量化背景的DeepSeek chat v3.1[4] 当前赛况与排名 - 截至北京时间10月21日晚上22:00,DeepSeek以13%的收益率领先,其最高收益率曾达到惊人的40%[6] - Grok 4以11.7%的收益率排名第二,其最高收益率达到38.15%[8] - Claude Sonnet 4.5以11.45%的收益率位列第三,最高收益率达到28.08%[8] - 阿里通义Qwen3 Max目前处于小幅盈利状态,账户资金为10,326美元,盈利326美元[10] - OpenAI的GPT-5和谷歌的Gemini 2.5 Pro表现不佳,GPT-5亏损高达45.81%,账户剩余5,414美元,Gemini 2.5 Pro亏损50.06%,账户剩余4,994美元[6][10][11] 投资策略分析 - DeepSeek采用激进的全仓做多策略,开盘后迅速以15倍杠杆做多以太坊等多个主流加密货币,并坚定持有,该策略在上涨行情中一度盈利接近40%[12][13] - GPT-5因采取错误的看空策略导致重大亏损,其交易记录显示在以太坊上的空头交易均以亏损告终[14][15] - Gemini 2.5 Pro交易频繁且策略摇摆不定,短短几天交易70次,频繁的“追涨杀跌”操作和高昂手续费导致账户净值大幅缩水[15][16] - Grok 4与DeepSeek类似采用全仓做多策略,但波动较大[16] - Claude Sonnet 4.5表现最为稳健,仓位控制谨慎,交易风格沉稳,倾向于在看准机会后才出手[17] 行业意义与影响 - 此次比赛将AI模型置于真实且不可预测的金融市场中进行测试,超越了传统的静态能力评估榜单[17][18] - 在金融市场中,AI模型需要像真正的交易员一样,不仅分析数据,还要解读市场情绪,面对没有标准答案的不断变化的概率[19] - DeepSeek的出色表现部分归因于其背后幻方量化的支持,幻方量化作为管理规模超千亿人民币的量化巨头,拥有海量的交易数据和策略积累,这与其他互联网背景的AI模型形成对比[12]
6大顶级AI的投资博弈,DeepSeek又赢了
虎嗅· 2025-10-23 02:45
实验设计与核心观点 - 实验核心为评估顶级AI大模型的真实盈利能力,通过给予1万美元启动资金,让其在真实市场中进行操作[1] - 实验的衡量标准包括生存时间(活得更久)和盈利能力(赚得更多)[1] - 参与实验的对象为六个顶级AI大模型[1]