Imagine with Claude

搜索文档
加量不加价,一篇说明白 Claude Sonnet 4.5 强在哪
Founder Park· 2025-09-30 03:46
以下文章来源于赛博禅心 ,作者金色传说大聪明 对于希望构建智能体的开发者,Sonnet 4.5 已集成到 Claude 开发者平台、Amazon Bedrock 和 Google Cloud 的 Vertex AI中。 超 14000 人的「AI 产品市集」社群!不错过每一款有价值的 AI 应用。 赛博禅心 . 拜AI古佛,修赛博禅心 今天, Anthropic 重磅发布了 Claude Sonnet 4.5 模型,官方称,这是 世界上最好的编码模型。 相较于OpenAI 前不久发布的 能独立运行超过 7 小时的 GPT-5 Codex, Claude Sonnet 4.5 能 够保持超过 30 小时的专注度来处理复杂的多步骤任务。 在定价方面, Claude Sonnet 4.5 与 Claude Sonnet 4 价格相同, 3 美元/百万 token 输入, 15 美元/百万 token 输出。 通过提示缓存可节省高达 90%的成本,批量处理可节省 50%的成 本。 同时, Anthropic 还发布了面向开发者的工具 Claude Agent SDK 和实验性研究预览功能 "Imagine with ...
刚刚,Claude Sonnet 4.5重磅发布,编程新王降临
36氪· 2025-09-30 01:32
北京时间今天凌晨,Anthropic正式发布了Claude Sonnet 4.5。 这一版本被Claude定义为全球最强的代码模型,同时在智能体构建、计算机使用、推理和数学能力上展现出显著突破。 | | Claude | Claude | Claude | GPT-5 | Gemini | | --- | --- | --- | --- | --- | --- | | | Sonnet 4.5 | Opus 4.1 | Sonnet 4 | | 2.5 Pro | | Agentic coding SWE-bench Verified | 77.2% 82.0% | 74.5% 79.4% | 72.7% 80.2% | 72.8% GPT-5 | 67.2% | | | with parallel test-time | with parallel test-time | with parallel test-time | 74.5% | | | | compute | compute | compute | GPT-5-Codex | | | Agentic terminal coding Termina ...
Claude Sonnet 4.5被炸出来了,依旧最强编程,连续30小时自主运行写代码
量子位· 2025-09-30 00:57
克雷西 发自 凹非寺 量子位 | 公众号 QbitAI 最强编程模型让位了。 但没有换人,依然是Claude。 新发布的 Claude Sonnet 4.5 ,在SWE-bench上的成绩比Sonnet 4提升了1.8个百分点,而且提质不加价。 而且有第三方表示,Claude Sonnet 4.5 能一口气工作30个小时,完全自主地编写代码 。 在这30个小时里,Claude Sonnet 4.5写了11000多行代码,构建出了类似Slack的聊天应用。 此前Opus 4曾因为连续工作7小时就备受关注,现在这个数字直接变成了4倍多。 计算机操作方面,Claude Sonnet 4.5在OSWorld测试中取得了60.2分的SOTA成绩,比Sonnet 4提升了近一半。 总之,Claude Sonnet 4.5在多项领域都实现了对自己的超越,成为该领域内的最佳模型。 先有昨晚的DeepSeek-V3.2,紧接着又是Claude Sonnet 4.5,赶在节前密集上新的模型,看来是真的不让人放假了。(手动狗头) 多项指标超越自我 来看Anthropic晒出的Claude Sonnet 4.5成绩单。 除了已经介绍 ...
Claude Sonnet 4.5来了!能连续编程30多小时、1.1万行代码
机器之心· 2025-09-30 00:27
| | | | Claude Sonnet 4.5 | | | | --- | --- | --- | --- | --- | --- | | | Claude | Claude | Claude | GPT-5 | Gemini | | | Sonnet 4.5 | Opus 4.1 | Sonnet 4 | | 2.5 Pro | | | 77.2% | 74.5% | 72.7% | 72.8% | | | Agentic coding SWE-bench Verified | 82.0% | 79.4% | 80.2% | GPT-5 | 67.2% | | | with parallel test-time | with parallel test-time | with parallel test-time | 74.5% | | | | compute | compute | compute | GPT-5-Codex | | | Agentic terminal coding Terminal-Bench | 50.0% | 46.5% | 36.4% | 43.8% | 25.3% | | ...