Workflow
Diffusion Model
icon
搜索文档
高中辍学闯进 OpenAI:拒绝Vibe Coding,用 ChatGPT 自学逆袭成 Sora 团队研究科学家
AI前线· 2025-12-07 05:33
文章核心观点 - 文章通过OpenAI研究科学家Gabriel Petersson的案例,阐述在大模型时代,个人可以通过“项目驱动 + AI递归式补洞 + 一行行读代码”的“野路子”方法,快速掌握复杂知识并达到行业顶尖水平,挑战了传统以学历和按部就班学习为基础的教育与职业路径 [3][4][27] 学习方法论 - **自顶向下、项目驱动学习**:最快的学习方式是从真实项目开始,遇到不懂的环节再针对性学习,而非从底层数学等基础知识学起 [16][20][21] - **“递归式补洞”与AI辅助**:使用ChatGPT等工具,从具体任务(如写一段扩散模型代码)开始,通过不断追问、调试和请求解释(如要求用12岁能懂的语言或画图说明),递归式地填补知识漏洞,直到彻底理解 [24][25][27][28] - **刻意训练关键能力**:学习的关键是训练两种能力:一是敏锐察觉自己哪里没真懂;二是捕捉并优化那种彻底理解时的“啊哈时刻”或“咔哒一声”的感觉 [28][29] - **个性化调教AI**:通过给AI具体的提示词(如“请极度直接、极度具体”、“务必帮我建立直觉”),让其以最适合自己的方式(如多用比喻、图示、中间步骤)进行讲解,可以极大提升学习效率 [29][30][31] 教育与认知转变 - **大学垄断被打破**:以ChatGPT为代表的大语言模型使得大学不再垄断基础知识的获取入口,能动性(agency)成为更重要的学习要素 [20][70] - **传统教育路径低效**:传统的自底向上教育体系(如先学微积分、线性代数,再接触AI)学习效率低,可能导致学生多年后才接触真正感兴趣的内容,而用自顶向下的方式学习扩散模型等复杂概念可能只需3天,传统路径则可能需要6年 [20][73][74] - **纠正对AI的工具认知**:需要将AI从“作弊工具”的叙事转变为“高效学习工具”,引导学生利用AI来深入理解概念和生成练习,而非仅仅完成作业 [22][29] 职业发展与实践路径 - **证明价值重于学历**:对于公司(尤其是创业公司)而言,核心是找到能帮公司赚钱或做出很酷东西的人,一个能快速展示能力和产出的Demo(3秒内让人看懂是什么并看出代码能力)比学历等“代理信号”更有说服力 [52][53][75][79] - **高能动性切入市场**:建议尽快进入真实市场,解决真实问题并为结果负责,可以通过主动为潜在雇主免费提供优化方案或短期合作来证明能力,从而获得机会 [18][55][62][84] - **通过实战与反馈快速成长**:早期职业生涯应追求与最顶尖的团队共事,以合同工等形式保持高机动性,并主动寻求和珍惜严格的代码审查(Code Review)等高质量反馈,以加速学习 [40][41][44][47] - **积累可验证的成果**:在GitHub、Stack Overflow等平台贡献高质量代码和解答(如获得数百万浏览和大量点赞),可以成为向顶级公司证明实力、弥补学历不足的重要筹码 [49][51] 行业影响与趋势 - **大模型推动生产力变革**:大语言模型技术预计将带来全球GDP的两位数百分比增长,任何善于使用ChatGPT等工具的人都能从中获益 [33] - **研究门槛降低**:借助AI工具,没有传统博士学位的人也能从事以往需要博士学历的研究工作,这正在改变顶级AI实验室的人才构成 [33][72] - **加速行业创新循环**:在开发前沿模型(如Sora)时,AI可用于快速头脑风暴、基于现有代码库提出改进思路、提炼论文核心差异以及辅助代码集成,从而加速实验和创新迭代 [34][36]
哈工大提出LAP:潜在空间上的规划让自动驾驶决策更高效、更强大!
自动驾驶之心· 2025-12-03 00:04
文章核心观点 - 提出了一种名为LAP的自动驾驶规划新方法,其核心设计哲学是去除冗余的动力学细节,让模型在高层语义化的潜在空间进行规划,从而提升对复杂、多模态驾驶策略的建模能力并大幅提高推理速度 [1] - 该方法通过引入轨迹变分自编码器、初始状态注入、无分类器引导和细粒度特征蒸馏等关键技术,在nuPlan基准测试中实现了最先进的性能,尤其在最具挑战性的Test14-hard数据集上,闭环评测分数达到78.52,并以十倍的推理速度超越前SOTA方法 [1][22][23] 背景与问题定义 - 自动驾驶运动规划领域的发展面临挑战:基于规则的系统难以扩展,模仿学习方法易受“模式平均”影响,而现有扩散模型方法直接在原始轨迹路点上操作,导致计算效率低且模型容量浪费于底层运动学细节 [9] - LAP方法旨在解决上述问题,通过将高层意图与底层运动学解耦,在解耦得到的潜在空间中进行规划 [2][9] 方法论详解 - **轨迹潜在表示**:设计了一个基于Transformer的轨迹变分自编码器,将原始轨迹压缩到低维、语义化的潜在空间,训练目标包含重建损失、KL散度和差分损失 [10][11][14] - **潜在空间规划**:在VAE训练完成后,训练一个潜在扩散模型来预测轨迹对应的潜在向量,模型采用DiT结构,并引入初始状态注入模块为预测提供明确的先验“锚点” [12][15][19] - **导航引导增强**:在训练中随机丢弃导航信息,并在推理时使用无分类器引导技术来强化导航约束,以缓解模型在闭环规划中出现的“因果混淆”现象 [6][7][16] - **细粒度特征蒸馏**:引入特征蒸馏模块,使用像素空间规划器作为教师模型,将其中间层特征作为目标来指导学生模型,以弥合高度抽象的规划空间与细粒度条件输入之间的信息交互鸿沟 [21][24] 实验结果与分析 - **性能对比**:在nuPlan基准上,LAP在所有基于学习的方法中实现了SOTA性能,在最具挑战性的Test14-hard数据集上,LAP (o1s2)的闭环评测分数达到78.52,大幅超越先前SOTA方法约3.1分 [22][23] - **推理速度**:受益于潜在空间的紧凑性,LAP仅需2步采样即可生成高质量轨迹,推理时间低至18.81-21.69毫秒,相比需要迭代10步采样的Diffusion Planner实现了最高10倍的推理加速 [23][27] - **多模态能力**:潜在空间规划能更好地捕捉多样化的高级驾驶策略,如不同的转弯半径和速度,避免了模式坍缩问题 [28][29] - **潜在空间分析**:潜在空间具有光滑性,线性插值能产生平滑的轨迹过渡;通过降维可视化与聚类分析,证明其学到的语义空间是高度结构化的,并与驾驶意图良好对齐 [30][32][33][34][36] 消融实验与模块影响 - **初始状态注入**:提升了模型在非反应性环境下的性能,但在反应性环境中因“因果混淆”问题可能导致性能下降 [36][38] - **特征蒸馏**:显著提升了模型在非反应性和反应性两种环境下的表现,证明了其有效性 [36][38] - **导航增强**:大幅缓解了反应性环境中的“因果混淆”问题 [36][38] - **采样步数**:1步或2步采样效果最佳,增加步数反而可能导致性能下降,因过于精确的解码可能无法应对闭环规划中的分布外场景 [38] 核心贡献总结 - 利用变分自编码器实现了高层驾驶语义与底层运动学细节的解耦 [40][42] - 引入细粒度特征蒸馏模块,有效弥合了潜在规划空间与向量化场景上下文之间的交互鸿沟 [40][42] - 在nuPlan基准上实现了最先进的闭环性能,同时将推理速度提升了10倍 [40][42]
高中辍学闯进 OpenAI:拒绝Vibe Coding,用 ChatGPT 自学逆袭成 Sora 团队研究科学家
36氪· 2025-11-30 23:57
AI驱动的学习与职业发展模式 - 采用项目驱动和AI递归式补洞的学习方法,通过ChatGPT从真实任务出发自顶向下学习,遇到不懂的概念再逐层深入追问,而非传统自底向上的基础教学路径[21][28][29] - 强调识别知识空洞和捕捉“真正理解”的“啊哈时刻”是关键能力,通过调整提问方式让AI以图示、比喻、具体案例等形式解释复杂概念如线性代数、反向传播等[26][28][29] - 知识本身不再是稀缺资源,AI工具如ChatGPT以每月20美元的低成本提供博士级的知识获取能力,颠覆了大学对基础知识的垄断地位[17][20][35] 非传统路径进入顶尖科技公司的策略 - 通过构建高质量、易理解的Demo(如高性能Web表格组件FastGrid)在3秒内展示技术能力,直接向技术负责人或创始人证明价值,绕过依赖学历的招聘流程[57][59][60] - 利用Stack Overflow等高浏览量回答(累计数百万次浏览)和GitHub贡献作为“实质贡献”证据,辅助申请高门槛签证和进入顶级公司[55][56] - 建议以合同工形式加入顶尖团队,保持高度机动性,主动寻求代码审查反馈,并与资深工程师直接交流以快速获取工程直觉和第一性原理[48][50][53] AI对教育体系与职业准备的影响 - AI工具改变了学习效率,传统大学路径需6年接触扩散模型等前沿概念,而通过AI自顶向下学习仅需3天,但大学环境仍提供社交和资源替代成本极高[20][63][80] - 教育体系需从禁止AI作弊转向教授如何用AI高效学习,学生可通过ChatGPT总结核心概念并生成新题,但教师整体仍排斥此类应用[22][23] - 职业建议应聚焦于证明能帮公司赚钱的核心能力,而非过度依赖传统学历信号,通过免费短期合作展示能动性可快速获得真实工作机会[59][60][68] 个人成长与行业竞争力提升 - 避免“伪努力”陷阱,如过度关注习惯养成而忽略推进真实项目,应尽早进入真实工作环境解决实际问题,以实际产出而非自律表象衡量进步[91][92] - 心理上克服对决策的逃避,通过主动投递简历、参与面试等行动打破舒适区,可能带来收入提升10倍的机会,如从瑞典到旧金山的职业迁移[95][96] - 目标群体为前1%具有能动性的个体,通过AI辅助学习可在全球顶尖公司或研究团队中工作,重点在于持续提问和快速吸收信息的能力[30][98][100]
扩散不死,BERT永生,Karpathy凌晨反思:自回归时代该终结了?
36氪· 2025-11-05 04:44
文章核心观点 - 基于RoBERTa的掩码语言模型可通过引入动态掩码率改造为文本扩散模型,实现从表示学习到文本生成的转变 [1][13][26] - 实验证明改造后的RoBERTa Diffusion能生成视觉连贯的文本,表明BERT系模型本质上是固定掩码率训练的文本扩散模型 [21][24][26] - 文本扩散模型采用在整个Token画布上迭代重采样的双向注意力机制,与自回归模型的单向生成机制形成对比 [27][28] 技术原理与实验 - 文本扩散通过在前向过程逐步添加<MASK>噪声,在反向过程训练模型迭代去噪,将掩码语言建模目标扩展为生成过程 [11][13] - 实验使用10个扩散步骤,每个训练批次随机采样从1.0到0.1的掩码比例,推理时从240个<MASK>开始逐步减少掩码比例 [17][18] - 在H200显卡上训练30分钟后,模型基于256长度提示词生成了连贯文本,尽管存在数据集格式化导致的异常 [21][22] 行业影响与前景 - 该方法表明生成领域仍存在优化创新空间,结合AR-Diffusion等技术可进一步提升生成质量与推理速度 [25][28] - 谷歌DeepMind已发布实验性Gemini Diffusion模型,业界认为扩散语言模型在速度上有优势且是下一代AI发展方向 [30] - 扩散模型采用双向注意力机制迭代更新整个Token画布,与自回归模型的单向追加机制形成技术路径差异 [28]
Diffusion²:一个双扩散模型,破解自动驾驶“鬼探头”难题!
自动驾驶之心· 2025-10-09 23:32
文章核心观点 - 同济大学与威斯康星大学麦迪逊分校提出Diffusion²模型 专为解决自动驾驶中“鬼探头”场景下的瞬时行人轨迹预测难题 [1] - 该模型采用两个串联的扩散模型 分别进行反向历史轨迹预测和正向未来轨迹预测 以捕捉轨迹间的因果依赖性 [2][7] - 通过引入双头参数化机制量化预测不确定性 并结合时间自适应噪声调度器动态调整噪声 在ETH/UCY和斯坦福无人机数据集上实现了最先进的预测性能 [5][7][45] 研究背景与问题定义 - 准确的行人轨迹预测对自动驾驶安全性至关重要 尤其在行人突然从盲区出现等瞬时观测场景中 [2] - 传统方法依赖足够长的观测期(如8帧约3.2秒) 但在现实场景中往往只能获得有限观测数据 导致预测性能显著下降 [2] - 在SDD数据集中 仅有瞬时观测的行人出现频率达2.22 s⁻¹ 在ETH/UCY数据集中为1.02 s⁻¹ 凸显了研究该问题的重要性 [2] - 研究目标为仅使用两帧观测数据作为输入 预测行人的未来轨迹及未观测到的历史轨迹 [8] 模型架构与技术创新 - Diffusion²由DDPMpast和DDPMfut两个顺序连接的扩散模型组成 分别负责反向预测历史轨迹和正向预测未来轨迹 [14] - 双头参数化机制通过两个输出头增强标准噪声预测网络 一个头预测噪声 另一个头估计每个坐标的对数方差以量化偶然不确定性 [4][17][18] - 时间自适应噪声调度器根据预测的历史轨迹不确定性水平 在前向扩散过程中动态调节噪声尺度 高不确定性时注入更多噪声以鼓励探索 [5][22][23] - 模型采用对编码器不敏感的设计 可无缝集成多种编码器 实验中采用了具有卓越表征能力的MOE编码器 [15] 实验性能与结果 - 在ETH/UCY数据集上 Diffusion²的平均ADE(平均位移误差)为0.19 FDE(最终位移误差)为0.33 优于所有对比方法 [45] - 在斯坦福无人机数据集上 ADE为8.26 FDE为14.87 同样达到最先进水平 [45] - 推理延迟方面 在NVIDIA RTX A800硬件上 DDPM版本为412毫秒 DDIM版本为75毫秒 优于部分对比方法 [47] - 消融实验证明 双头参数化机制和自适应噪声调度器的引入均能显著提升模型性能 [48] 技术局限性与未来方向 - 基于扩散的框架存在迭代采样过程 导致推理速度较慢 可能阻碍其在实时场景中的部署 [52] - 训练过程涉及优化多个扩散阶段 计算成本较高 [52] - 在交互密集的场景(如UNIV数据集)中 模型的适应能力有所下降 [54] - 未来工作将探索更高效的训练和推理方法 以降低计算资源开销 并提升在复杂交通场景中的鲁棒性 [53][54]
合伙人招募!4D标注/世界模型/VLA/模型部署等方向
自动驾驶之心· 2025-09-27 23:33
业务拓展计划 - 公司计划在2024年向国内外招募10名业务合伙人 [2] - 合伙人将负责自动驾驶相关课程研发、论文辅导业务开发以及硬件研发 [2] 重点技术方向 - 公司重点关注大模型/多模态大模型、扩散模型、VLA、端到端自动驾驶、具身交互等技术 [3] - 其他关键方向包括联合预测、SLAM、3D目标检测、世界模型、闭环仿真3DGS以及大模型部署与量化感知推理 [3] 人才招聘要求 - 合伙人岗位要求应聘者来自QS200以内高校,并拥有硕士及以上学历 [4] - 拥有顶级学术会议成果的候选人将获得优先考虑 [4] 合伙人待遇与激励 - 合伙人将获得自动驾驶领域的资源共享,包括求职、读博及出国留学推荐等支持 [5] - 公司提供丰厚的现金激励以及创业项目合作与推荐机会 [5]
地平线&清华Epona:自回归式世界端到端模型~
自动驾驶之心· 2025-08-12 23:33
核心观点 - 提出一个统一框架Epona,能同时生成长时高分辨率视频(512×1024,2分钟)和端到端输出连续轨迹,解决现有方法在长时程预测与实时规划上的局限[5][12] - 首创解耦时空建模架构:GPT风格Transformer处理时间动态性,双Diffusion Transformer分别负责空间渲染(VisDiT)和轨迹生成(TrajDiT)[12][18] - 实现20Hz实时轨迹规划,推理算力降低90%,支持多模态异步生成(3秒轨迹与下一帧图像并行)[12] 方法论 模型架构 - **Multimodal Spatiotemporal Transformer (MST)**:1.3B参数,12层结构,将历史驾驶场景与动作序列编码为隐式表征,压缩率提升16倍[16][26] - **Trajectory Planning Diffusion Transformer (TrajDiT)**:50M参数,采用Dual-Single-Stream DiT结构,独立处理历史隐变量与轨迹数据,支持高斯噪声迭代去噪[18] - **Next-frame Prediction Diffusion Transformer (VisDiT)**:1.2B参数,结构类似TrajDiT但集成action control,通过DCAE解码器生成图像[21] 训练策略 - **Chain-of-Forward Training**:周期性用预测帧替代真值输入,抑制自回归漂移问题,通过速度估算加速去噪过程[24] - **Temporal-aware DCAE Decoder**:在32倍下采样的DCAE中增加时空注意力层,解决视频闪烁问题,微调时仅训练解码器[25] 性能表现 视频生成 - 在FID(6.9 vs 7.5)和FVD(82.8 vs 89.4)指标上优于Vista等基线,支持120秒/600帧生成长度,远超DriveDreamer(4秒/48帧)和GAIA-1(40秒/400帧)[28] 轨迹规划 - 在NC(97.9 vs 97.8)、DAC(95.1 vs 91.9)等6项指标上接近人类水平(100),显著超越UniAD、TransFuser等相机/LiDAR融合方案[34] 技术拓展性 - 框架可延伸至闭环仿真、强化学习、行为因果解释,但当前仅支持单相机输入,未解决多传感器一致性与点云生成问题[36] 行业应用 - 自动驾驶领域首个融合图像生成与轨迹预测的世界模型,参数量达2.5B(MST+VisDiT占95%),训练资源为48张A100 GPU/60万次迭代[26][36]
自动驾驶论文速递 | GS-Occ3D、BEV-LLM、协同感知、强化学习等~
自动驾驶之心· 2025-07-30 03:01
自动驾驶技术研究进展 - 清华大学与奔驰合作提出GS-Occ3D算法 首次实现纯视觉的大规模3D占用重建 在Waymo数据集上以0.56倒角距离刷新几何精度SOTA 训练效率仅需0.8小时 并在Occ3D-nuScenes数据集实现33.4 IoU 超越激光雷达基线的31.4 [3][5] - GS-Occ3D创新性地开发了纯视觉占用标签生成管道 摆脱对LiDAR标注依赖 支持利用大规模众包数据进行自监督标注 在长轨迹和复杂场景中保持高几何保真度 [5] - 该算法在Waymo数据集验证中 IoU达44.7 F1分数61.8 在nuScenes零样本测试中IoU 33.4 超越基线31.4 显示强大泛化能力 [6] 多模态场景理解技术 - 慕尼黑应用技术大学提出BEV-LLM框架 通过融合LiDAR点云与多视角图像生成3D场景描述 在nuCaption数据集BLEU-4分数达20.28% 超越SOTA模型5% [9][15] - BEV-LLM采用1B参数轻量级模型 创新使用正弦-余弦位置嵌入技术 将特征空间划分为六个视图 在BLEU系列指标上全面超越7B参数级大模型 [15][16] - 研究团队同步发布nuView(205k样本)和GroundView(7.4k样本)两个新数据集 为环境感知和对象定位研究提供新基准 [9][15] 协同感知技术突破 - 清华AIR研究院联合团队提出CoopTrack框架 在V2X-Seq数据集实现39.0% mAP与32.8% AMOTA 传输成本降至V2X-ViT的2.2% [21][26] - 该框架采用可学习实例关联模块和"融合后解码"流程 实现协作与跟踪的无缝集成 在mAP指标上较Early Fusion提升12个百分点 [26][29] 强化学习应用创新 - 德国研究团队提出自适应行为课程框架 通过多智能体强化学习教师动态生成交通行为 使智能体在未信号化交叉口平均速度提升98%至1.63 m/s [33][39] - 该框架采用图网络架构和新型奖励函数 能生成不同难度水平的交通行为 在最高难度场景(λ=-1)下成功率提升至40% [33][39] 视觉行驶区域预测 - ContourDiff模型突破单目视觉多模态驾驶通道预测技术 在CARLA实现0.7767 IoU与0.02障碍物重叠率 支持6种驾驶行为生成 [45][48] - 该技术首次将行驶区域预测定义为图像感知任务 采用自监督样本生成方法 摆脱对密集标注数据的依赖 [48][49]
Diffusion/VAE/RL 数学原理
自动驾驶之心· 2025-07-29 00:52
Diffusion Model - 扩散模型通过高斯分布的均值(原图提供)和方差(噪声系数提供)进行图像生成 [3] - 模型推导中关键变量α_t与噪声ε_t的线性组合服从N(0,1-α_tα_{t-1})的正态分布 [5] - 网络训练目标是拟合去噪过程中两个高斯分布的均值和方差 [7] - 通过KL散度项拟合理论去噪值与网络预测值 [9] - 将不确定的x_0转化为可预测的噪声ε进行迭代 [15] - 最终模型将分布拟合问题转化为噪声预测问题 [17] VAE模型 - 变分自编码器假设潜在空间服从高斯分布 [19] - 普通自编码器不具备生成能力 [21] - 使用神经网络拟合编码器 [23] - 通过重建损失+KL约束损失避免潜在空间退化 [26] - 最小化KL损失等价于最大化ELBO [27] - 训练过程包含重建损失和KL损失的平衡 [30] 强化学习 - 马尔可夫决策过程描述为状态-动作序列(s1,a1,s2,a2...) [35] - 表征学习分为语义表征(趋近脉冲分布)和生成表征(趋近高斯分布) [36] - 时间差分方法利用后续更准确的结果更新前期估计 [40] - 策略梯度方法学习最优状态-动作转换策略 [42] 自动驾驶行业 - 行业社区规模达4000人,涵盖300+企业和科研机构 [42] - 技术栈覆盖30+方向包括感知/定位/规划控制等领域 [42] - 重点技术包含BEV感知、多传感器融合、轨迹预测等 [42] - 专业课程覆盖端到端自动驾驶、大模型应用等前沿方向 [42]
一边是毕业等于失业,一边是企业招不到人,太难了。。。
自动驾驶之心· 2025-07-23 09:56
自动驾驶行业现状 - 自动驾驶行业面临人才供需失衡,企业招聘需求旺盛但匹配度高的顶尖人才稀缺 [2] - 行业资本趋于理性,公司更注重商业化落地和盈利而非盲目扩张 [2] - 技术栈虽完备但距离大规模低成本商业化仍有工程鸿沟 [3] - 企业招聘标准提高,对技术适配性和前沿研究能力要求严格 [3][4] 自动驾驶技术社区 - 自动驾驶之心知识星球已成为国内最大技术社区,拥有4000+成员和100+行业专家 [7][9] - 社区覆盖30+技术方向学习路线,包括BEV感知、Occupancy、端到端驾驶等前沿领域 [9][69] - 与主流自动驾驶公司建立内推渠道,提供简历直达服务 [8][10] - 每周活跃度位居国内前20,形成学术与产业界的深度互动 [10][71] 技术研究方向 视觉语言模型(VLM) - 涵盖预训练、迁移学习、知识蒸馏等完整技术链条 [15][16][17] - 主流数据集包括LAION5B(50亿图文)、Conceptual 12M(1200万图文)等 [19] - 应用领域覆盖智能交通车辆检索、自动驾驶场景理解等 [27][28] 世界模型 - 聚焦驾驶场景生成与预测,代表工作包括HERMES、DriveDreamer等 [34][36] - 实现3D场景理解与生成的统一,提升自动驾驶系统泛化能力 [34][36] - 2024年涌现InfinityDrive等突破性模型,解决长序列预测难题 [36] 扩散模型 - 在3D重建、视频生成领域形成完整技术体系 [37][42] - DrivingDiffusion等框架实现时空一致性驾驶场景生成 [43] - 应用于数据增强,如Cityscape-Adverse模拟八种恶劣条件 [43] 端到端自动驾驶 - 形成从模仿学习到强化学习的完整方法论 [49][55] - 主流方案融合多模态输入,如DriveGPT4实现可解释决策 [31][55] - 面临开环评估与真实场景的差距挑战 [49][52] 行业应用与数据集 - 专用数据集覆盖200+任务,包括NuScenes(1000小时)、Waymo Open(1200万帧)等 [25][26] - 语言增强系统实现自然语言导航与车辆控制 [26][29] - 决策控制领域涌现GPT-Driver等大模型驱动方案 [29][30]