AI Studio软件平台

搜索文档
AI存储“黑科技”登场,助力企业实现90%成本锐减
WitsView睿智显示· 2025-09-15 10:41
文章核心观点 - 人工智能本地化部署面临显存容量和成本两大瓶颈 企业需在高端GPU堆叠与软件定义异构硬件方案间做出选择[2] - 铨兴科技通过QLC eSSD矩阵和超显存融合方案 实现单机20倍显存扩展与90%成本降低 为AI普惠化提供新路径[3][17] 存储产品矩阵战略 - 公司采用分层存储策略 通过eSSD产品矩阵精准匹配AI工作流中数据准备、训练、推理等不同场景的存储需求[4] - QLC eSSD系列专注读取密集型场景 单盘容量达122.88TB 顺序读取速度14,000MB/s 随机读取IOPS超300万[5][7] - TLC eSSD系列覆盖混合读写场景 PCIe 5.0版本顺序读取速度14,000MB/s 随机IOPS达3300K SATA版本容量扩展至15.36TB[8][10] - 产品通过飞腾、龙芯等国产化平台验证 应用于AI服务器、数据中心、高性能计算等多领域[10] 超显存融合技术 - 添翼AI方案通过FPGA控制器与AI Link算法平台 实现GPU显存与扩容卡间微秒级数据交换 单卡等效显存扩展20倍[3][12][14] - 该方案使671B参数大模型所需显卡从168张降至16张 硬件成本从4200万元大幅降低 且推理并发性能提升50%[11][14][15] - 配套AI Studio软件平台提供低代码图形界面 简化模型训练与部署流程[15] 一体化产品布局 - Super AI PC针对初创团队 提供训练到推理完整闭环 内置AI Cache加速训练[15] - Super AI工作站面向专业开发 通过多GPU与加速模块解决模型迭代与数据安全问题[15] - Super AI服务器支持企业级千亿模型训推 将部署周期从数月压缩至可控范围[16] - 解决方案已在政务、法律、高校领域落地 并与联想等系统集成商合作推广[16] 行业价值主张 - 百TB级QLC eSSD将每GB存储成本压至新低 结合缓存加速卡形成性价比路径 支持单机运行百亿级模型[17] - 在GPU高价背景下 通过存储技术创新推动AI普惠化向更广泛场景下沉[17]
AI部署成本有望降至5万元以内 联想发布推理加速引擎 搭载产品预计下半年上市
每日经济新闻· 2025-05-07 04:07
行业趋势 - AI一体机批量现世使企业部署AI和大模型的成本从百万元级别降至20万元左右 并有望进一步下探至数万元级别 [1] - 端侧计算和推理能力将保持指数级增长 未来12个月端侧AI综合能力预计提升至少三倍 [2] 技术创新 - 联想集团推出"联想推理加速引擎" 该软硬件协同优化平台由联想、清华大学及无问芯穹联合研发 [1] - 该引擎通过高性能并行解码、算子融合优化及异构计算技术 结合大模型推理芯片 提升推理速度同时降低功耗和内存占用 [1] - 该引擎可使普通笔记本电脑的本地推理能力媲美OpenAI去年发布的o1-mini云端模型 [1] 产品应用 - 下一代AI PC将搭载"联想推理加速引擎" [2] - 联想展示搭载该引擎的台式电脑产品 内置1张中阶显卡和1张显存扩容卡 整体造价约4万元 [2] - 该产品可实现32B大模型的本地训练 预计2023年下半年上市 [2] 成本优势 - 传统32B大语言模型训练方案成本约200万元 需8张英伟达显卡 [2] - 联想方案使模型本地训练成本下降98% [2] - 该方案将显著降低金融、教育、法律等领域中小企业私有化部署大模型的成本 [2]