Workflow
陈丹琦和翁荔成为同事了
36氪·2025-08-28 07:47

公司动态 - 知名AI科学家陈丹琦更新其GitHub主页邮箱后缀为"thinkingmachines.ai",暗示其可能已加入明星AI独角兽Thinking Machines Lab [2] - 在开源模型平台Hugging Face上,陈丹琦已成为Thinking Machines Lab团队成员 [4] - Thinking Machines Lab于2024年7月完成20亿美元(约合人民币143.46亿元)的全球史上最大种子轮融资,投后估值达120亿美元(约合人民币857.87亿元) [6] - 该公司阵容豪华,多位成员曾在OpenAI担任要职,如联合创始人John Schulman和前GPT-4o-mini团队负责人Kevin Lu [6] 行业趋势 - 近年来,越来越多的顶尖AI学者选择投身产业界,形成一种趋势,例如斯坦福大学李飞飞休假创业、MIT教授何恺明加盟DeepMind,以及陈丹琦的此次动向 [28] - 产业界所掌握的海量资金与算力对顶尖学者具有强大吸引力,高校与企业在研究资源上的差距逐渐拉大 [28] 人物背景 - 陈丹琦是普林斯顿大学计算机科学系副教授、NLP小组负责人、语言与智能中心副主任,并曾是西雅图Facebook AI研究院的访问科学家 [22][23] - 她于2008年保送进入清华大学姚班,2012年获学士学位,2018年获斯坦福大学计算机科学博士学位,师从NLP专家Christopher Manning [6] - 她曾两次获得计算语言学顶会ACL的优秀论文奖,并获得谷歌、亚马逊、Meta、Adobe等机构颁发的学者奖项 [6] 学术贡献 - 2016年作为第一作者发表的ACL优秀论文帮助学界认识到数据集缺陷对模型评估可信度的影响,是理解早期机器阅读理解研究局限性的里程碑 [6][7] - 2022年参与指导的ACL优秀论文提出应重新审视对话问答的评估标准,强调单一"标准答案"不足以衡量模型真实能力 [10][13] - 2014年发表的论文是第一个成功的神经网络依存句法分析模型,为谷歌NLP团队后续解析器研究奠定基础 [13] - 2017年发表的论文开启了将信息检索与神经阅读理解方法结合进行开放域问答研究的方向 [13] - 2018年完成的博士论文《神经阅读理解及其拓展》长达156页,成为近十年来最受欢迎的博士论文之一,并被翻译成中文作为该领域必读著作 [14] - 参与研究的RoBERTa论文单篇引用量达36,574次,让NLP社区认识到训练策略与数据规模的关键性,影响后续如GPT-3等大规模语言模型的优化 [17][19] - 根据谷歌学术数据,其总引用量达75,149次,h-index为57,i10-index为89 [18] 研究兴趣 - 陈丹琦近期的学术兴趣包括检索、大语言模型训练部署民主化等 [23] - 她认为检索应在下一代语言模型中发挥基础性作用,以提高其真实性、适应性、可解释性和可信度,其团队正积极探索如何构建有效检索器及与语言模型结合 [27] - 她希望通过改进训练方法、数据管理、优化到模型压缩和下游适配等方式,实现大语言模型训练和部署的民主化,尤其是在学术界 [27]