OpenClaw 爆紅之後,Anthropic 為什麼還不做一樣的東西?
OpenClaw 讓很多人第一次體驗到「人類不在場的全自動」。但我後來覺得,那個第一反應問錯了方向。
OpenClaw 最近在 AI 圈爆紅,這隻開源「龍蝦」讓很多人第一次真實體驗到「人類不在場的全自動」。你去睡覺,AI 繼續幫你整理信件、監控訊息、處理任務。
很多人看完之後的第一個反應是興奮,第二個反應是:那 Anthropic 為什麼還不做一樣的東西?(先承認那些人包括我)
但後來我覺得這個問題問錯了方向。
Deployment Overhang:技術天花板不是問題
Anthropic 在今年二月發表了一篇研究報告,分析了數百萬筆 Claude Code 的真實使用數據,裡面提出了一個很值得思考的概念:deployment overhang。
簡單說,就是模型實際上能夠自主處理的任務範圍,遠遠超過用戶在現實中願意放手讓它做的事情。技術的天花板不是問題,人類信任的天花板才是。
這個發現背後藏著一個更大的問題:我們正在建立的人機協作習慣,到底長什麼樣子?
協作直覺是練出來的
Anthropic 的數據顯示,有經驗的 Claude Code 用戶會慢慢發展出一種監督策略——不是每個動作都審核,而是讓 AI 跑,在真正需要的時候介入。這個過程不是偶然的,是人類跟 AI 之間透過反覆互動,共同建構出來的一種協作直覺。
OpenClaw 的設計邏輯恰恰相反。它鼓勵你完全放手,讓 AI 在你不在的時候自主運作。這種體驗確實震撼,但它同時也在快速建立一種使用心態:AI 就是要全自動,人類不需要在場。
如果這成為主流的 AI native 體驗,那我們這一代人對「AI 應該怎麼工作」的基本想像,就會從一開始就定錨在「委託與放棄監督」上。這個想像一旦形成,之後要糾正非常困難。這不只是個人習慣的問題,而是整個產業和社會對 AI 角色的預期都會跟著跑偏。
Anthropic 的謹慎是一種立場
所以 Anthropic 的謹慎,我現在不覺得是保守。Claude Code 的 /loop 功能是 session-scoped 的,關掉工作視窗任務就消失,這不是技術限制,我更傾向把它讀成一種人機協作的立場:AI 的自主性應該跟你的在場綁在一起。
真正值得討論的不是自主跟協作哪個比較好,而是從協作走向自主的這個互動、學習過程,是否可以被跳過?
Anthropic 的立場很清楚:不能。這個過程不只是學習使用工具,而是人類在建立一種跟 AI 共處的判斷,知道什麼時候放手、什麼時候介入。而這種互動方式的培養過程,無法跳過、也不能外包。
值說電子報
不定時寄出,隨時可取消訂閱