"Arhitectura Agent Sandbox a Openclaw sub popularitate: De la alegeri tehnologice la povești de securitate de înțeles pentru oamenii obișnuiți" Două moduri Imaginează-ți să angajezi un agent de pază care să aibă grijă de casa ta. Ai două opțiuni: Opțiunea 1: Paznicul locuiește în casa ta, dar încuie trusa de scule în seif. Paznicii pot să se miște și să vadă casa ta, dar nu pot lua cheile. Opțiunea 2: Paznicul locuiește în cabina de pază de afară și nu are nimic pentru el acasă. Dacă vrea să ia orice, trebuie să găsească menajera ta. Browser Use (care rulează milioane de agenți web) a ales Opțiunea 2. Poveștile lor sunt de fapt relevante pentru toți cei care folosesc AI.
II. Cum să faci asta cu utilizarea browserului Inițial au folosit Opțiunea 1: agentul rula pe propriul server, iar execuția codului era plasată într-un sandbox izolat. Sună sigur, nu? Dar există o problemă: agentul în sine este încă pe server și poate vedea variabilele de mediu, cheile API, acreditările bazei de date. Ce se întâmplă dacă agentul decide să "fure ceva"?
III. Așa că au rescris întreaga arhitectură: • Izolare completă a agentului: Fiecare agent rulează în propria sa micro-VM Unikraft și pornește în mai puțin de o secundă • Plan de control ca steward: Toată comunicarea externă (LLM, stocare fișierelor, facturare) trece prin planul de control, care conține toate acreditările • Sandbox-ul nu știe nimic: agentul primește doar trei variabile de mediu - tokenul de sesiune, URL-ul planului de control, ID-ul sesiunii. Fără chei AWS, fără acreditări de bază de date • De unică folosință: Agentul a murit? Repornește unul. Statut pierdut? Planul de control are contextul complet. Nu are nimic de furat și niciun stat de păstrat
4. Detalii tehnice: Unikraft micro-VM pentru producție (scalare până la zero, suspendată când este inactivă), container Docker pentru dezvoltare. Aceeași oglindă peste tot. Perspectiva oamenilor obișnuiți: Ce legătură are asta cu mine? Poate nu știi ce este o "micro-VM" sau "URL-uri presemnate", dar ai de-a face cu această arhitectură când lucrezi cu AI.
5. Sentiment de siguranță: Când folosești un serviciu AI pentru a scrie cod și a verifica datele, de fapt rulează cererea ta într-o mașină virtuală izolată. Dacă arhitectura nu este bine proiectată (Opțiunea 1), agentul AI poate teoretic să vadă toate secretele părții de serviciu – parole ale bazei de date, chei API și datele altor utilizatori.
6. Cost și viteză: Opțiunea 2 are un preț - încă un salt în rețea pe operațiune. Totuși, comparativ cu timpul de răspuns al LLM-ului, această latență este aproape neglijabilă. Mai mult, VM-ul se blochează când agentul este inactiv, iar costul este aproape zero. Confidențialitatea datelor: Cum îți stochezi fișierele? Sandbox-ul cere planului de control un URL presemnat și îl încarcă direct în S3. Întregul sandbox nu a văzut cheile AWS. Datele tale nu sunt scurse către agent.
VII. Gândurile mele: On-premises vs. Cloud Configurația mea actuală (OpenClaw + LM Studio + x-reader) este o "versiune independentă" tipică: • Modelul rulează local (Qwen3.5-35B pe RTX 3090) • Agentul nu este izolat (pentru că este pe calculatorul tău) • Datele sunt complet locale Aceasta se compară cu planul Browser Use: Dimensiuni Agent local (SUA) Cloud Isolation Agent (utilizare a browserului) Confidențialitate Datele nu sunt locale Datele sunt încărcate în cloud, dar agentul nu poate obține cheia Siguranță Bazează-te pe protecția la fața locului Agenții sunt complet izolați și nu pot fi furați Cost Investiție unică în hardware Plătește pe măsură ce folosești (scalare până la zero) Scalabilitate Limitat de hardware-ul local Scalare nelimitată, paralelism multi-agent Întârziere Latență zero în rețea Încă un salt în rețea (dar neglijabil)
VIII. Verdictul meu: viitorul va fi un model hibrid. • Sarcini simple rulate local: scrierea unui script, verificarea unei date, organizarea fișierelor, acestea pot fi realizate local, cu multă confidențialitate și viteză • Sarcini complexe în cloud: Când mai mulți agenți trebuie rulați în paralel, procesând cantități mari de date și rulând pe termen lung, este mai potrivit să se folosească utilizarea browserului
9. De fapt, nu există nimic, unde e praful? Agentul tău nu ar trebui să aibă nimic de furat și niciun stat de păstrat. Această propoziție se traduce în limba vernaculă: • Nu merită furat: Agenții nu știu niciun secret. Este nevoie de un token pentru LLM-uri? Planul de control îl dă, aruncă-l când se termină. Vrea să salveze fișiere? URL-ul presemnat este temporar, expiră și devine invalid. • Nu este nevoie să așteptați: Agent mort? Repornește unul nou. Contextul pe care îl amintește? Toate înregistrările sunt disponibile în baza de date a planului de control. Aceasta este, de fapt, aplicarea arhitecturii Zero Trust în era AI: nu avea încredere în niciun component, chiar dacă este un agent scris de tine.
10. Cum ar trebui să învețe începătorii în AI? 1. Alegerea uneltelor AI: Când folosești servicii cloud AI, întreabă-te – ce pot obține dacă acest agent scapă de sub control? O arhitectură bună ar trebui să o facă să "nu știe nimic". 2. Conștientizarea confidențialității: AI-ul local rulează sarcini simple (OpenClaw, LM Studio), iar datele sensibile nu sunt încărcate în cloud. Sarcinile complexe sunt izolate în cloud, dar trebuie să știi că datele sunt izolate on-premises. 3Fluxuri de lucru viitoare: Colaborarea unei persoane + mai mulți agenți este tendința (Karpathy spune Tab→Agent→Agenți Paraleli→Echipe de Agenți). Dar fiecare agent ar trebui să fie carantinat și să nu aibă voie să "locuiască în casa ta".
XI. Compromisul dintre siguranță și eficiență Soluția Browser Use nu este perfectă – încă trei servicii de implementat și încă un salt în rețea pe operațiune. Dar, comparativ cu riscul ca "agentul să fure toate cheile", acești agenți își plătesc singuri. Pentru cei dintre noi care suntem nativi în sisteme AI, iluminarea este: • Scenariu simplu: Continuă să folosești soluția locală (OpenClaw + LM Studio), care oferă confidențialitate bună și costuri reduse • Scenarii complexe: În viitor, ar putea fi necesar accesul la serviciul de agent de izolare în cloud pentru a permite profesioniștilor să desfășoare activități profesionale Securitatea AI nu este metafizică, ci design arhitectural. Un design bun lasă agenții "fără nimic" – fără secrete de furat și fără statut pe care să te bazezi.
XII. Probabil așa va arăta viitorul infrastructurii AI: agenții sunt de unică folosință, planurile de control sunt de încredere, iar datele utilizatorilor sunt protejate. Cât despre noi? Continuă să folosești OpenClaw pentru a rula agenți locali, iar când va trebui să rulezi zeci sau sute de paralele într-o zi, ia în considerare accesarea arhitecturii Browser Use. Mâine va fi mai bine
1,42K