文心轻量化思考模型登顶HuggingFace全球热度榜榜首
模型性能表现 - 在HuggingFace文本模型趋势榜排名第一 总榜排名第三 [1] - 以21B总参数量实现接近SOTA的智能表现 激活参数仅3B [1] - 在逻辑推理 数学 科学 代码与文本生成等专业任务实现显著提升 [1] 技术架构特性 - 采用混合专家(MoE)架构 支持128K上下文窗口 [1] - 基于ERNIE-4.5-21B-A3B训练的深度思考模型 [1] - 通过指令微调及强化学习训练 具备高效工具调用能力 [1] 应用场景定位 - 适用于需要长上下文的复杂推理任务 [1] - 支持复杂任务的自动化处理 [1] - 以轻量级规模实现接近顶级大尺寸模型的表现 [1]