generative recommender system with HSTU architecture
搜索文档
Liquid AI Announces Multi‑Year Partnership with Shopify to Bring Sub‑20ms Foundation Models to Core Commerce Experiences
Globenewswire· 2025-11-13 15:00
合作概述 - Liquid AI与Shopify宣布建立多方面合作伙伴关系,Shopify将授权并在其平台上部署Liquid AI的旗舰产品Liquid Foundation Models (LFMs),用于搜索等对质量和延迟敏感的工作流程[1] - 首个生产部署是一个延迟低于20毫秒的文本模型,用于增强搜索功能[1] - 该协议正式化了双方已在进行中的深度共同开发,此前Shopify在2024年12月参与了Liquid AI的2.5亿美元A轮融资[1] 技术优势与性能 - 双方共同开发了具有新颖HSTU架构的生成式推荐系统,在受控测试中,该模型被证明优于之前的系统,带来了更高的推荐转化率[2] - Liquid的LFMs专为低于20毫秒、多模态且保持质量的推理而设计,在类似生产环境的特定任务中,参数数量减少约50%的LFMs在性能上超越了Qwen3、Gemma3和Llama 3等流行开源模型,同时推理速度快2-10倍[3] - Shopify首席技术官证实,Liquid的架构在保证质量的同时实现了高效率,在某些用例中,参数少约50%的模型性能优于阿里巴巴的Qwen和谷歌的Gemma,且运行速度快2-10倍[4] - Liquid AI首席技术官指出,其LFMs采用交织的目标函数设计,旨在最大化质量,并使系统在选定硬件上成为市场上最快的模型[4] 应用场景与未来规划 - LFMs天然适用于电子商务应用,如个性化排名、检索增强生成和会话感知推荐,这些应用均需在严格的延迟和成本预算下提供最佳用户体验[4] - 合作包括针对Shopify低延迟、高质量敏感工作负载的LFMs多用途许可、持续的研发协作以及共享路线图[4] - 当前部署重点是用于搜索的文本模型,但双方正在评估将多模态模型用于更多产品和用例,包括客户档案、智能体和产品分类[4] 公司背景 - Liquid AI构建专为实时、高可靠性关键应用而设计的Liquid基础模型(LFMs),该公司由液态神经网络的研究人员创立,专注于低延迟推理、资源效率和生产级安全性[5]