Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
"Openclaws agent-sandkassearkitektur under popularitet: Fra teknologiske valg til sikkerhetshistorier forståelige for vanlige folk"
To moduser
Tenk deg å ansette en sikkerhetsvakt til å ta vare på hjemmet ditt. Du har to alternativer:
Alternativ 1: Sikkerhetsvakten bor i hjemmet ditt, men låser verktøykassen i safen. Sikkerhetsvakter kan bevege seg rundt og se hjemmet ditt, men de får ikke tak i nøklene.
Alternativ 2: Sikkerhetsvakten bor i vaktboksen utenfor, og det er ingenting for ham hjemme. Hvis han vil ha noe, må han finne husholdersken din.
Nettleserbruk (som kjører millioner av webagenter) valgte alternativ 2. Historiene deres er faktisk relevante for alle som bruker AI.

II.
Hvordan gjøre det med nettleserbruk
De brukte opprinnelig Alternativ 1: agenten kjørte på sin egen server, og kodeutførelsen ble plassert i en isolert sandkasse. Høres trygt ut, ikke sant? Men det er en hake: agenten selv er fortsatt på serveren, og den kan se miljøvariabler, API-nøkler, databaselegitimasjon. Hva om agenten bestemmer seg for å «stjele noe»?
III.
Så de skrev om hele arkitekturen:
•Agent Fullstendig Isolasjon: Hver Agent kjører i sin egen Unikraft mikro-VM og starter opp på under ett sekund
•Kontrollplanet som forvalter: All ekstern kommunikasjon (LLM, fillagring, fakturering) går gjennom kontrollplanet, som inneholder alle legitimasjoner
• Sandkassen vet ingenting: agenten mottar bare tre miljøvariabler – sesjonstoken, kontrollplan-URL, sesjons-ID. Ingen AWS-nøkler, ingen databaselegitimasjon
• Engangsmulighet: Er agenten død? Start én på nytt. Mistet status? Kontrollplanet har full kontekst. Den har ingenting å stjele og ingen stat å beholde
4.
Tekniske detaljer: Unikraft micro-VM for produksjon (skaler-til-null, suspendert når den er inaktiv), Docker-container for utvikling. Det samme speilet overalt.
Vanlige folks perspektiv: Hva har dette med meg å gjøre?
Du vet kanskje ikke hva en «mikro-VM» eller «forhåndssignerte URL-er», men du har med denne arkitekturen å gjøre når du jobber med AI.
5.
Følelse av trygghet: Når du bruker en AI-tjeneste til å skrive kode og sjekke data, kjører de faktisk forespørselen din i en isolert VM. Hvis arkitekturen ikke er godt designet (Alternativ 1), kan AI-agenten teoretisk sett se alle hemmelighetene på tjenestesiden – databasepassord, API-nøkler og andre brukeres data.
6.
Kostnad og hastighet: Alternativ 2 har en pris – ett nytt nettverkshopp per operasjon. Men sammenlignet med responstid for LLM-er er denne latensen nesten ubetydelig. I tillegg henger VM-en når agenten er inaktiv, og kostnaden er nær null.
Databeskyttelse: Hvordan lagrer du filene dine? Sandkassen ber kontrollplanet om en forhåndssignert URL og laster den opp direkte til S3. Hele sandkassen så ikke AWS-nøkler. Dine data lekker ikke til agenten.
VII.
Mine tanker: On-premises vs. Cloud
Min nåværende oppsett (OpenClaw + LM Studio + x-leser) er en typisk "frittstående versjon":
• Modellen kjører lokalt (Qwen3.5-35B på RTX 3090)
• Agenten er ikke isolert (fordi den er på datamaskinen din)
• Dataene er helt lokale
Dette sammenlignes med Browser Uses plan:
Dimensjoner
Lokal agent (us)
Cloud Isolation Agent (nettleserbruk)
Personvern
Dataene er ikke lokale
Dataene lastes opp til skyen, men agenten får ikke tak i nøkkelen
Sikkerhet
Stol på beskyttelse på stedet
Agenter er fullstendig isolerte og kan ikke stjeles
Kostnad
Engangsinvestering i maskinvare
Pay-as-you-go (skaler-til-null)
Skalerbarhet
Begrenset av lokal maskinvare
Ubegrenset skalering, parallellitet med flere agenter
Forsinkelse
Null nettverksforsinkelse
Ett nettverkshopp til (men ubetydelig)
VIII.
Min dom: fremtiden vil være en hybridmodell.
• Enkle oppgaver kjøres lokalt: skriv et skript, sjekk data, organiser filer, dette kan gjøres lokalt, med god personvern og hastighet
•Komplekse oppgaver i skyen: Når flere agenter må kjøres parallelt, behandle store datamengder og kjøre over lang tid, er det mer egnet å bruke Browser Use
9.
Det er ingenting i utgangspunktet, hvor er støvet?
Agenten din skal ikke ha noe å stjele og ingen stat å beholde.
Denne setningen oversettes til folkespråket:
• Ikke verdt å stjele: Agenter kjenner ingen hemmeligheter. Krever det en token for LLM-er? Kontrollplanet gir den, kast den når den går tom. Vil den lagre filer? Den forhåndssignerte URL-en er midlertidig, utløper og blir ugyldig.
• Ingen grunn til å vente: Agent død? Start en ny start. Konteksten den husker? De fullstendige postene er tilgjengelige i kontrollplanets database.
Dette er faktisk anvendelsen av Zero Trust-arkitekturen i AI-alderen: ikke stol på noen komponent, selv om det er en agent skrevet av deg selv.
10.
Hvordan bør AI-nybegynnere lære?
1. Valg av AI-verktøy: Når du bruker skybaserte AI-tjenester, spør deg selv – hva kan jeg få hvis denne agenten kommer ut av kontroll? En god arkitektur bør få den til å «vite ingenting».
2. Personvernbevissthet: Lokal AI kjører enkle oppgaver (OpenClaw, LM Studio), og sensitiv data lastes ikke opp til skyen. Komplekse oppgaver er isolert i skyen, men vær klar over at dataene forblir på stedet.
3Fremtidige arbeidsflyter: Én person + flere agenter samarbeid er trenden (Karpathy sier Tab→Agent→Parallelle agenter→Agentteam). Men alle agenter bør settes i karantene og ikke få lov til å «bo i hjemmet ditt».
XI.
Avveiningen mellom sikkerhet og effektivitet
Browser Uses løsning er ikke perfekt – tre tjenester til å distribuere, og ett nettverkshopp per operasjon. Men sammenlignet med risikoen for at «agenten stjeler alle nøklene», betaler disse agentene for seg selv.
For oss som er native AI-oppsett, er opplysningen:
• Enkelt scenario: Fortsett å bruke den lokale løsningen (OpenClaw + LM Studio), som har god personvern og lav kostnad
• Komplekse scenarioer: I fremtiden kan det være nødvendig å få tilgang til skyisolasjonsagenttjenesten slik at profesjonelle kan utføre profesjonelle oppgaver
AI-sikkerhet er ikke metafysikk, det er arkitekturdesign. God design etterlater agentene "uten noe" – ingen hemmeligheter å stjele og ingen status å stole på.
XII.
Dette er sannsynligvis hvordan fremtiden for AI-infrastruktur vil se ut: agenter er engangs, kontrollfly er pålitelige, og brukerdata er beskyttet.
Hva med oss? Fortsett å bruke OpenClaw for å kjøre lokale agenter, og når du en dag må kjøre dusinvis eller hundrevis av paralleller, bør du vurdere å få tilgang til arkitekturen til Browser Use.
I morgen blir det bedre
1,38K
Topp
Rangering
Favoritter
