5 月 11 日,Anthropic 正式上線 Claude Platform on AWS。AWS 用戶從此可以用既有的 IAM 憑證做認證、合併進同一張 AWS 帳單、用 CloudTrail 稽核,直接呼叫 Anthropic 的原生 API。
要理解這個新平臺,首先要說明 Amazon Bedrock 是什麼。Bedrock 是 AWS 自家的代管 AI 服務,把 Claude、Llama、Mistral、Amazon Nova 等各家模型集中到同一個 API 後面:你呼叫 Bedrock,Bedrock 替你呼叫各家模型,資料留在 AWS 內部處理,模型供應商看不到原始流量。這是過去在 AWS 上使用 Claude 的唯一路徑。
Claude Platform on AWS 帶來一些改變,使用 Bedrock 時會用到的認證、帳單、稽核這幾件事還是跟過去一樣,但呼叫的是 Anthropic 自己的 API,服務跑在 Anthropic 自己的伺服器上,資料不在 AWS 內部處理,換言之,AWS 提供身分驗證和帳單系統,產品本身由 Anthropic 自家經營。
Anthropic 重壓 AWS 換得新的自行營運模式
雲端業者過去對 AI 公司的合作姿態比較高,例如 Azure OpenAI Service 從第一天就是 Microsoft 自己在經營 OpenAI 模型;Google 對 Gemini 也類似,Vertex AI 從頭到尾 Google 自己控制。這個方式對雲端巨頭來說,才能把採購、稽核、安全責任都完全掌握其中。企業用戶往往也喜歡這種模式,比起變化超快的 AI 產業,AI 公司未必是交付資料的可靠對象。
Claude Platform on AWS 是第一個例外——AWS 退出產品經營,只負責基礎設施支援。AWS 為什麼願意接受這個退讓?答案在 4 月 20 日的另一則公告:Amazon 再投資 50 億美元到 Anthropic、未來最多再加 200 億;Anthropic 則承諾未來十年在 AWS 上花費超過 1000 億美元,包下 5 GW 的 Trainium 運算容量。
5 GW 是什麼概念?AI 資料中心的規模是用耗電量算的,1 GW 約等於一座大型電廠的發電量,可以供應一座最高規格的 AI 資料中心。業界一座 1 GW 規模的前沿 AI 資料中心,建置成本約 400 到 500 億美元,主要花在 Nvidia GPU 上。Anthropic 在 Trainium 上的成本每 GW 約 200 億美元——大約便宜一半——因為 Trainium 是 AWS 為大型語言模型客製的晶片,比起 Nvidia 有明顯的價格競爭力。AWS 用便宜的自家晶片鎖定 Anthropic 未來十年的算力訂單;Anthropic 換到的,是讓自家完整產品在 AWS 用戶面前不必再經過 Bedrock 代管的條件。
Anthropic 在 2025 年 10 月和 Google 簽了 TPU 合約,今年內 1 GW 上線。2027 年起再加上 Google 與 Broadcom 的延伸案約 3.5 GW,Nvidia GPU 也仍在組合裡——但 1000 億美元仍超過兩家加總,量級不在同一條線上。AWS 願意讓出產品經營這一步,正是因為 Anthropic 這個重壓的策略。
選用 Claude Platform on AWS 的評估情境
對開發者最直接的影響是新功能上線速度。Skills、MCP connector、Claude Managed Agents、Files API、Code Execution、Web Search、進階 prompt caching——這些過去在 Anthropic 直連 API 上比 Bedrock 早幾週到幾個月出現的功能,現在 AWS 用戶可以同日拿到,不再需要因為最新功能而另外開 Anthropic 帳號。
至於要不要直接把 AWS Bedrock 原本呼叫 API 的方式切換過去,評估的方式可以看是否使用到 Bedrock 的代管功能——像 Guardrails、Knowledge Bases、Bedrock Agents 這些機制搭建應用流程的,轉換成本略高,目前沒有理由一定要更換;多數只是直接呼叫 Claude API 的情境,可以考慮分接到 Claude Platform on AWS,並且新舊路徑並行一段時間評估是否可以整個遷移。
如果是 AWS 用戶,但過去不是使用 Bedrock,而是直連 Anthropic API 的團隊,主要遷換的誘因是整合管理。SDK、提示詞、模型行為都不必動,只把認證換成 AWS IAM、帳單合併進 AWS 主帳——對企業內部,是把一個獨立供應商整進已有的 AWS 採購、稽核、財務體系,省下整輪向資安、法務跑的審核流程。尤其是還在用個人信用卡刷 Anthropic 帳單的團隊,改用新方式節省了不少麻煩。
非 AWS 用戶(GCP、Azure、自建)誘因不大。這條路把開發體驗綁在 AWS 帳號上才有意義;基礎設施不在 AWS 的話,走 Anthropic 直連 API 比較直接,沒必要為了「跑在 AWS 裡」額外開一個 AWS 帳號。
企業合規最常先問的一題是:資料會不會被拿去訓練模型?答案是不會——這在 Anthropic 商用條款裡寫得明確,Anthropic 直連 API、Bedrock、Claude Platform on AWS 三條路都一樣,輸入和輸出都不會用來訓練。差別不在訓練資料,而在物理處理位置:Bedrock 模式下資料留在 AWS 內部處理,Anthropic 看不到原始流量;Claude Platform on AWS 模式下資料離開 AWS、進到 Anthropic 自己的伺服器,預設保留 7 天(可申請延到 30 天作為稽核之用)。對高度監管產業——金融、醫療、政府——這個處理位置的差別才是兩條路真正分歧的地方,如果你的資料有留在 AWS 的前提,Bedrock 仍是唯一的選項。
Bedrock 被拆成兩層的那一天
4 月底 OpenAI 模型透過修訂後的 Microsoft 協議登上 Bedrock,目前仍是 AWS 代管的標準入口。但 OpenAI 也已經和 Amazon 簽了 500 億美元的算力協議、解除與 Microsoft 的獨家授權;如果 Anthropic 在 AWS 內自家經營的這個模式跑得起來,OpenAI 沒有理由不要求同等待遇。
屆時 Bedrock 作為「雲端業者代管所有 AI 模型」的單一品牌策略,會被進一步拆成兩層:底層是 IAM、CloudTrail、帳單這套共用的基礎設施,上層是各家 AI 公司自家經營的產品線。雲端業者過去十年累積的「我代管你的 AI 供應商」這個中介位置,會被壓縮回基礎設施供應商。
不過這條路應該也只對有籌碼的 AI 公司開放。Anthropic 拿到不被 Bedrock 代管的條件,是因為它能拿出 1000 億美元的十年算力承諾;Mistral、Cohere、Stability 這類規模的模型供應商,沒有同等量級的籌碼,可預見的未來仍會以被 Bedrock 代管的形式存在。
對用戶來說,AWS 帳號裡多了一條直通 Anthropic 的路徑,採購流程確實省了一輪;但代價是算力、帳單、稽核、產品體驗都集中在同一個雲端業者手上,增加了綁定深度,增加 vendor lock-in 的風險,也是需要一起思考的事情。