1387 字
7 分鐘
Claude Code 使用心得:OpenRouter 整合與 Agent Teams 實戰

Claude Code 使用心得:OpenRouter 與 Agent Teams#

前言#

成為 Claude Code 重度使用者已經一段時間了。從最初的 Claude Desktop 替代品,到現在的 Agent Teams,這半年左右的變化之大,讓我對 AI 輔助開發有了全新的認識。

題外話:目前主要使用 Claude Code and Pi 作為主要開發工具。

這篇文章想分享兩個,我覺得最值得介紹一下的主題:

  1. OpenRouter 整合 - 如何透過 OpenRouter 獲得更穩定的服務,以及我對多模型路由的看法
  2. Agent Teams - 實戰中的團隊協調經驗,以及什麼情況下真的需要多個 Agent 一起工作

為什麼選擇 OpenRouter?#

老實說,一開始我對「再多一層代理」這件事是懷疑的。直接連 Anthropic API 不好嗎?為什麼要多繞一層 OpenRouter?

真實痛點:API 不穩定時的無助感#

有幾次在趕工的過程中,Anthropic API 突然 rate limit 或是短暫不可用。那種「明明就在趕時間,卻被 API 擋住」的無力感,我想很多人都有過。

p.s. Claude 時常為了擋 DDoS 有點過激了,農曆過年期間,我老家中華電信的網路也被擋,只能使用 5G 網路才可以 orz
p.s. 幸好這次好解決,之前 opencode 登入 claude code 直接被 ban 好幾天

OpenRouter 的第一個價值就在這裡~

Terminal window
# 設定 OpenRouter 作為 Claude Code 的 backend
export OPENROUTER_API_KEY="<your-key>"
export ANTHROPIC_BASE_URL="https://openrouter.ai/api"
export ANTHROPIC_AUTH_TOKEN="$OPENROUTER_API_KEY"
export ANTHROPIC_API_KEY="" # 重要:必須明確設為空

成本與預算控制#

對於團隊來說,OpenRouter 提供了統一的預算管理。你可以:

  • 設定每個成員的 spending limit
  • 即時追蹤 usage patterns
  • 防止 unexpected cost overruns

這些功能在 Anthropic 直接連接時是沒有的。

多模型路由的想像空間#

這是我最感興趣的部分。OpenRouter 支援超多模型,包括:

  • Qwen 3.5 - 在中文理解和程式碼生成上表現出色,並且長 context 的推理速度上有優勢
  • MiniMax M2.5 - 長 context 處理能力強
  • GLM-5 - 在特定領域有獨特優勢

理論上,可以根據任務類型自動路由到最適合的模型,我目前都是用同一個模型跑到底。 目前想到主要編排任務可能還是以 Claude model 為主,小任務則改由 Qwen 3.5 等模型。

關於中國模型的部分,之後累積一點心得再開一篇來講講,目前還在跟同事 HongRen 在進行多項實際場景測試。

NOTE

切換模型的話,需要手動到 openrouter 複製 model id,然後如下圖這樣切換 claude-code-reflection-2

Agent Teams 實戰經驗#

Agent Teams 是實驗性功能,但我認為這是 AI 輔助開發的一個重要方向。

什麼時候需要 Agent Teams?#

不是所有任務都需要 Agent Teams。根據我的經驗,以下情況最適合:

  1. 並行程式碼審查 - 不同隊友專注於安全性、效能、測試覆蓋率
  2. 多假設除錯 - 每個隊友測試不同的根本原因假設
  3. 新功能探索 - 從 UX、技術架構、反對觀點同時切入
  4. 跨層協調 - 前端、後端、測試各由不同隊友負責

與 Subagents 的比較#

很多人會混淆 Agent Teams 和 Subagents。簡單來說:

SubagentsAgent Teams
Context自己的 context window自己的 context window
通訊僅向主代理報告隊友直接相互傳遞訊息
協調主代理管理所有工作共享任務清單,自我協調
Token 成本較低較高

我的經驗法則:

  • 如果只需要「快速完成一個獨立任務」,用 Subagents
  • 如果需要「多個視角討論、相互質疑」的團隊,用 Agent Teams

實際使用範例#

這是一個我常用的模式:並行程式碼審查

Create an agent team to review PR #142. Spawn three reviewers:
- One focused on security implications
- One checking performance impact
- One validating test coverage
Have them each review and report findings.

每個審查者從相同的 PR 工作,但應用不同的篩選器。主管在他們完成後綜合所有三個的意見。

這種方式比單個 reviewer 更有效,因為:

  1. 避免錨定效應 - 單個審查者容易找到一個問題就停止尋找
  2. 專業分工 - 每個隊友可以深入專注於一個領域
  3. 相互質疑 - 隊友之間可以挑戰彼此的結論

啟用 Agent Teams#

在 settings.json 中啟用或者直接設定好環境變數

Terminal window
{
"env": {
"CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS": "1"
}
}

對未來的想法#

AI 輔助開發的演進#

我認為 AI 輔助開發正在經歷三個階段:

  1. 單個助手 - 回答問題、生成程式碼片段
  2. 協作夥伴 - 理解整個專案、主動建議
  3. 團隊協調 - 多個 AI 代理分工合作、相互質疑

我們正處於從第二階段向第三階段邁進,認為目前所有開發者,也要儘早再這之中快速學習、掌握新的開發技術。

結語#

使用 Claude Code 這段時間,我最深的感觸是:

AI 不會取代開發者,但會使用 AI 的開發者會取代不會使用的。

所有人類開發者真正的價值還在於:

  • 你對問題(業務需求)的理解深度
  • 你對技術的掌握程度

LLM 只會給出平庸解,只有人類才會給出靈光乍現的有趣答案。

這是我在 Vibe coding 的一些抱怨 中提過的信念,現在依然堅持。


相關資源#

Claude Code 使用心得:OpenRouter 整合與 Agent Teams 實戰
https://geminixiang.xyz/posts/claude-code-reflection/
作者
Ying Xiang Zhao
發佈於
2026-02-21
許可協議
CC BY-NC-SA 4.0