Anthropic公司近日為其Claude系列大模型推出了全新功能——Opus 4.6極速模式(Fast Mode),這一模式在保持原有回答質量的同時,將處理速度提升至正常模式的2.5倍。然而,這一技術突破伴隨著極具爭議的定價策略:極速模式下的輸出價格高達每百萬token 150美元,是標準模式(25美元/百萬token)的6倍,輸入價格也同步上漲至30美元/百萬token。如此激進的定價策略引發了全球開發者社區的強烈反響,輿論普遍質疑這種"速度稅"是否合理。
根據官方說明,用戶只需在Claude Code命令行輸入"/fast"即可激活極速模式,界面會顯示閃電圖標確認狀態。該功能同時支持VS Code擴展,操作流程與標準模式完全一致,無需額外配置或安裝。Anthropic工程師Alex Albert強調,這種無縫切換體驗是刻意設計的結果,旨在讓開發者能立即感受到速度提升帶來的生產力革命。他透露,在某些場景下,速度提升帶來的體驗改善甚至堪比模型智能水平的躍升。
價格爭議的焦點在于性能與成本的失衡。在長上下文處理場景中,這種失衡更為顯著:當輸入超過20萬token時,標準模式價格會翻倍至輸入10美元、輸出37.5美元/百萬token,而極速模式則飆升至輸入60美元、輸出225美元/百萬token。有開發者計算發現,使用極速模式處理百萬token級代碼庫的成本可能超過2000美元,這還不包括輸入部分的費用。AI工程師Dan McAteer的測試顯示,雖然極速模式確實能在一分鐘內修復bug,但這種效率提升是否值得支付相當于標準模式6倍的費用,仍存在巨大爭議。
支撐Anthropic定價底氣的,是Opus 4.6在多項基準測試中的統治級表現。在Artificial Analysis發布的Intelligence Index v4.0評估中,該模型以53分綜合得分位居榜首,領先第二名OpenAI GPT-5.2兩分。更引人注目的是其在代碼處理能力的突破:在Terminal-Bench 2.0智能體編程測試中取得65.4%的史上最高分,代碼競技場得分較前代暴漲106分,甚至能自主完成從Rust編譯器編寫到Linux內核編譯的復雜系統工程。這些成就使Opus 4.6被業界譽為"當前綜合實力最強的大語言模型"。
技術突破方面,Opus 4.6實現了兩個關鍵里程碑:其100萬token的上下文窗口支持,使模型能處理整個大型代碼庫而無需分段;自我糾錯機制的進化,讓模型能自主判斷任務難度,在復雜部分深度思考,在簡單部分快速推進。這種"智能時間管理"能力在代碼審查場景中表現尤為突出,模型會主動推翻不合理推理路徑,在確定答案前多次審視推理過程。Anthropic完成的Rust編譯器項目證明,當模型具備足夠智能、長上下文和深度推理能力時,AI已能獨立完成傳統需要資深工程師團隊才能勝任的系統工程。
這場定價爭議折射出AI行業發展的深層轉變。當模型智能水平逐漸觸及天花板,速度正成為新的競爭維度。對于需要緊急處理線上事故的工程師而言,每秒等待都可能造成用戶流失;對于獨立開發者,時間節省可直接轉化為產品提前上市的競爭優勢。Anthropic通過極速模式試探市場反應,實質是在探索"速度智能"的商業價值邊界。這種探索能否成功,將取決于開發者是否愿意為時間效率支付溢價,而答案可能重塑整個AI服務市場的定價邏輯。










