Workflow
DeepSeek 671B
icon
搜索文档
明晚直播|2GPU+2CPU微调万亿参数超大模型,带你上手开源项目KTransformers
量子位· 2025-11-10 12:02
技术方案核心 - 仅需2个GPU和2个CPU即可在本地微调DeepSeek 671B或Kimi K2 1TB等超大模型 [1] - KTransformers为明星开源项目,可实现更低成本的LoRA微调 [2][4] 项目背景与团队 - 项目核心指导老师为清华大学计算机系副教授章明星,研究方向为计算机系统机构,成果发表于OSDI、SOSP等顶级会议 [6][7] - 项目核心参与者李沛霖来自西北工业大学,即将进入清华大学攻读博士,是微调功能核心技术开发人员 [8][9] 直播活动信息 - 直播将于明晚19点举行,主题为上手实践如何用KTransformers+LLaMA-Factory在本地微调超大模型 [4][5] - 直播核心话题包括认识KTransformers项目、手把手实操以及探讨其背后的技术与思考 [10]