《Openclaw流行下Agent 沙箱架構:從技術選擇到普通人能看懂的安全故事》 兩種模式 想象一下,你要僱一個幫你看家護院的保安。你有兩個選擇: 方案一:保安住在你家裡,但把工具箱鎖在保險櫃裡。保安能活動、能看到你家,但拿不到鑰匙。 方案二:保安住在外面的崗亭裡,家裡沒有任何東西給他。他想拿anything 都得找你的管家。 Browser Use 公司(他們運行數百萬個 Web Agent)選擇了方案二。他們的故事,其實跟每個用 AI 的人都有關係。
二、 Browser Use 怎麼做的 他們最初用的是方案一:Agent 在自己的服務器上跑,代碼執行放在隔離的沙箱裡。聽起來挺安全對吧?但有個問題:Agent 本身還在服務器上,它能看到環境變量、API 密鑰、數據庫憑證。萬一 Agent 決定"偷點東西"呢?
三、 所以他們重寫了整個架構: •Agent 完全隔離:每個 Agent 跑在自己的 Unikraft micro-VM 裡,啟動只要不到一秒 •控制平面當管家:所有對外通信(調 LLM、存文件、計費)都經過控制平面,它持有所有憑證 •沙箱一無所知:Agent 只收到三個環境變量——會話 token、控制平面 URL、會話 ID。沒有 AWS 密鑰,沒有數據庫憑證 •可丟棄性:Agent 死了?重啟一個。狀態丟了?控制平面有完整上下文。它沒有任何值得偷的東西,也沒有任何需要保留的狀態
四、 技術細節:生產用 Unikraft micro-VM(scale-to-zero,空閒就掛起),開發用 Docker 容器。同一個鏡像 everywhere。 普通人的視角:這跟我有什麼關係? 你可能不知道什麼是"micro-VM"或"presigned URLs",但你在用 AI 的時候就在跟這種架構打交道。
五、 安全感:當你用某個 AI 服務寫代碼、查資料時,他們其實是在隔離的 VM 裡跑你的請求。如果架構設計得不好(方案一),理論上那個 AI Agent 能看到服務方的所有秘密——數據庫密碼、API 密鑰、其他用戶的數據。
六、 成本與速度:方案二有個代價——每次操作多一次網絡跳轉。但跟 LLM 響應時間比,這點延遲幾乎可以忽略。更重要的是,Agent 空閒時 VM 掛起,成本接近零。 數據隱私:你的文件怎麼存?沙箱向控制平面要 presigned URL,然後直接上傳到 S3。整個過程沙箱沒見過 AWS 密鑰。你的數據不會洩露給 Agent。
七、 我的思考:本地 vs 雲端 我現在的 setup(OpenClaw + LM Studio + x-reader)是典型的"單機版": •模型跑在本地(Qwen3.5-35B on RTX 3090) •Agent 沒有隔離(因為它就在你電腦上) •數據完全本地 這跟 Browser Use 的方案對比: 維度 本地單 Agent(我們) 雲端隔離 Agent(Browser Use) 隱私 數據不出本地 數據上雲,但 Agent 拿不到密鑰 安全 依賴本地防護 Agent 完全隔離,無可竊取 成本 一次性硬件投入 按使用量付費(scale-to-zero) 擴展性 受限於本地硬件 無限擴展,多 Agent 並行 延遲 零網絡延遲 多一次網絡跳轉(但可忽略)
八、 我的判斷:未來會是混合模式。 •簡單任務本地跑:寫個腳本、查個資料、整理文件,這些在本地就能搞定,隱私好、速度快 •複雜任務上雲端:需要並行多個 Agent、處理大量數據、長時間運行,這時候用 Browser Use 這種架構更合適
九、 本來無一物,何處惹塵埃 你的 Agent 應該沒有任何值得偷的東西,也沒有任何需要保留的狀態。 這句話翻譯成大白話就是: •不值得偷:Agent 不知道任何秘密。它調 LLM 需要 token?控制平面給的,用完就扔。它要存文件?presigned URL 是臨時的,過期作廢。 •不需要保留:Agent 死了?重啟一個新的。它記得的上下文?控制平面數據庫裡有完整記錄。 這其實是零信任架構在 AI 時代的應用:不要相信任何組件,哪怕它是你自己寫的 Agent。
十、 AI小白應該如何學習? 1AI 工具的選擇:用雲端 AI 服務時,問自己——如果這個 Agent 失控了,它能拿到什麼?好的架構應該讓它"一無所知"。 2隱私意識:本地 AI 跑簡單任務(OpenClaw、LM Studio),敏感數據不上雲。複雜任務用雲端隔離方案,但要知道數據會離開本地。 3未來的工作流:一個人 + 多個 Agent 協作是趨勢(Karpathy 說的 Tab→Agent→Parallel Agents→Agent Teams)。但每個 Agent 都應該被隔離,不能讓它"住在你家裡"。
十一、 安全與效率的權衡 Browser Use 的方案不是完美的——多三個服務要部署,每次操作多一次網絡跳轉。但跟"Agent 偷走所有密鑰"的風險比,這些代價值得付。 對我們這種本地 AI setup 的人來說,啟示是: •簡單場景:繼續用本地方案(OpenClaw + LM Studio),隱私好、成本低 •複雜場景:未來可能需要接入雲端隔離 Agent 服務,讓專業的人做專業的事 AI 安全不是玄學,就是架構設計。好的設計讓 Agent"一無所有"——沒有秘密可偷,沒有狀態可賴賬。
十二、 這大概就是未來 AI 基礎設施的樣子:Agent 是 disposable 的,控制平面是可信的,用戶數據是被保護的。 至於我們?繼續用 OpenClaw 跑本地 Agent,等哪天需要並行幾十上百個時,再考慮接入 Browser Use 這種架構。 明天會更好
1.44K