Claude Code 使用心得:OpenRouter 與 Agent Teams
前言
成為 Claude Code 重度使用者已經一段時間了。從最初的 Claude Desktop 替代品,到現在的 Agent Teams,這半年左右的變化之大,讓我對 AI 輔助開發有了全新的認識。
題外話:目前主要使用 Claude Code and Pi 作為主要開發工具。
這篇文章想分享兩個,我覺得最值得介紹一下的主題:
- OpenRouter 整合 - 如何透過 OpenRouter 獲得更穩定的服務,以及我對多模型路由的看法
- Agent Teams - 實戰中的團隊協調經驗,以及什麼情況下真的需要多個 Agent 一起工作
為什麼選擇 OpenRouter?
老實說,一開始我對「再多一層代理」這件事是懷疑的。直接連 Anthropic API 不好嗎?為什麼要多繞一層 OpenRouter?
真實痛點:API 不穩定時的無助感
有幾次在趕工的過程中,Anthropic API 突然 rate limit 或是短暫不可用。那種「明明就在趕時間,卻被 API 擋住」的無力感,我想很多人都有過。
p.s. Claude 時常為了擋 DDoS 有點過激了,農曆過年期間,我老家中華電信的網路也被擋,只能使用 5G 網路才可以 orz
p.s. 幸好這次好解決,之前 opencode 登入 claude code 直接被 ban 好幾天
OpenRouter 的第一個價值就在這裡~
# 設定 OpenRouter 作為 Claude Code 的 backendexport OPENROUTER_API_KEY="<your-key>"export ANTHROPIC_BASE_URL="https://openrouter.ai/api"export ANTHROPIC_AUTH_TOKEN="$OPENROUTER_API_KEY"export ANTHROPIC_API_KEY="" # 重要:必須明確設為空成本與預算控制
對於團隊來說,OpenRouter 提供了統一的預算管理。你可以:
- 設定每個成員的 spending limit
- 即時追蹤 usage patterns
- 防止 unexpected cost overruns
這些功能在 Anthropic 直接連接時是沒有的。
多模型路由的想像空間
這是我最感興趣的部分。OpenRouter 支援超多模型,包括:
- Qwen 3.5 - 在中文理解和程式碼生成上表現出色,並且長 context 的推理速度上有優勢
- MiniMax M2.5 - 長 context 處理能力強
- GLM-5 - 在特定領域有獨特優勢
理論上,可以根據任務類型自動路由到最適合的模型,我目前都是用同一個模型跑到底。 目前想到主要編排任務可能還是以 Claude model 為主,小任務則改由 Qwen 3.5 等模型。
關於中國模型的部分,之後累積一點心得再開一篇來講講,目前還在跟同事 HongRen 在進行多項實際場景測試。
NOTE切換模型的話,需要手動到 openrouter 複製 model id,然後如下圖這樣切換
Agent Teams 實戰經驗
Agent Teams 是實驗性功能,但我認為這是 AI 輔助開發的一個重要方向。
什麼時候需要 Agent Teams?
不是所有任務都需要 Agent Teams。根據我的經驗,以下情況最適合:
- 並行程式碼審查 - 不同隊友專注於安全性、效能、測試覆蓋率
- 多假設除錯 - 每個隊友測試不同的根本原因假設
- 新功能探索 - 從 UX、技術架構、反對觀點同時切入
- 跨層協調 - 前端、後端、測試各由不同隊友負責
與 Subagents 的比較
很多人會混淆 Agent Teams 和 Subagents。簡單來說:
| Subagents | Agent Teams | |
|---|---|---|
| Context | 自己的 context window | 自己的 context window |
| 通訊 | 僅向主代理報告 | 隊友直接相互傳遞訊息 |
| 協調 | 主代理管理所有工作 | 共享任務清單,自我協調 |
| Token 成本 | 較低 | 較高 |
我的經驗法則:
- 如果只需要「快速完成一個獨立任務」,用 Subagents
- 如果需要「多個視角討論、相互質疑」的團隊,用 Agent Teams
實際使用範例
這是一個我常用的模式:並行程式碼審查
Create an agent team to review PR #142. Spawn three reviewers:- One focused on security implications- One checking performance impact- One validating test coverageHave them each review and report findings.每個審查者從相同的 PR 工作,但應用不同的篩選器。主管在他們完成後綜合所有三個的意見。
這種方式比單個 reviewer 更有效,因為:
- 避免錨定效應 - 單個審查者容易找到一個問題就停止尋找
- 專業分工 - 每個隊友可以深入專注於一個領域
- 相互質疑 - 隊友之間可以挑戰彼此的結論
啟用 Agent Teams
在 settings.json 中啟用或者直接設定好環境變數
{ "env": { "CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS": "1" }}對未來的想法
AI 輔助開發的演進
我認為 AI 輔助開發正在經歷三個階段:
- 單個助手 - 回答問題、生成程式碼片段
- 協作夥伴 - 理解整個專案、主動建議
- 團隊協調 - 多個 AI 代理分工合作、相互質疑
我們正處於從第二階段向第三階段邁進,認為目前所有開發者,也要儘早再這之中快速學習、掌握新的開發技術。
結語
使用 Claude Code 這段時間,我最深的感觸是:
AI 不會取代開發者,但會使用 AI 的開發者會取代不會使用的。
所有人類開發者真正的價值還在於:
- 你對問題(業務需求)的理解深度
- 你對技術的掌握程度
LLM 只會給出平庸解,只有人類才會給出靈光乍現的有趣答案。
這是我在 Vibe coding 的一些抱怨 中提過的信念,現在依然堅持。
