"Openclaws agentsandlådearkitektur under popularitet: Från teknikval till säkerhetsberättelser som är förståeliga för vanliga människor" Två lägen Föreställ dig att anlita en säkerhetsvakt för att ta hand om ditt hem. Du har två alternativ: Alternativ 1: Säkerhetsvakten bor i ditt hem, men låser verktygslådan i kassaskåpet. Säkerhetsvakter kan röra sig runt och se ditt hem, men de kan inte få tag på nycklarna. Alternativ 2: Vakten bor i vaktrummet utanför, och det finns inget för honom hemma. Om han vill ha vad som helst, måste han hitta din hushållerska. Browser Use (som kör miljontals Web Agents) valde alternativ 2. Deras berättelser är faktiskt relevanta för alla som använder AI.
II. Hur man gör det med webbläsaranvändning De använde initialt Alternativ 1: agenten kördes på deras egen server, och kodexekveringen placerades i en isolerad sandlåda. Låter säkert, eller hur? Men det finns en hake: agenten själv finns fortfarande på servern och kan se miljövariabler, API-nycklar och databasuppgifter. Tänk om agenten bestämmer sig för att "stjäla något"?
III. Så de skrev om hela arkitekturen: •Agent Fullständig Isolering: Varje Agent körs i sin egen Unikraft mikro-VM och startar upp på mindre än en sekund •Kontrollplanet som steward: All extern kommunikation (LLM, fillagring, fakturering) går genom kontrollplanet, som innehåller alla inloggningsuppgifter • Sandlådan vet ingenting: agenten får endast tre miljövariabler – sessionstoken, kontrollplans-URL, sessions-ID. Inga AWS-nycklar, inga databasuppgifter • Engångsbarhet: Är agenten död? Starta om ett. Förlorad status? Kontrollplanet har full kontext. Den har inget att stjäla och ingen stat att behålla
4. Tekniska detaljer: Unikraft micro-VM för produktion (skala-till-noll, pausad när den är inaktiv), Docker-container för utveckling. Samma spegel överallt. Vanliga människors perspektiv: Vad har detta med mig att göra? Du kanske inte vet vad en "mikro-VM" eller "försignerade URL:er" är, men du har att göra med denna arkitektur när du arbetar med AI.
5. Känsla av trygghet: När du använder en AI-tjänst för att skriva kod och kontrollera data kör de faktiskt din förfrågan i en isolerad virtuell maskin. Om arkitekturen inte är väl utformad (Alternativ 1) kan AI-agenten teoretiskt se alla hemligheter på tjänstesidan – databaslösenord, API-nycklar och andra användares data.
6. Kostnad och hastighet: Alternativ 2 har ett pris – ett extra nätverkshopp per operation. Men jämfört med LLM:s responstid är denna latens nästan försumbar. Dessutom hänger VM:n när agenten är inaktiv, och kostnaden är nära noll. Dataintegritet: Hur lagrar du dina filer? Sandlådan ber kontrollplanet om en försignerad URL och laddar upp den direkt till S3. Hela sandlådan såg inte AWS-nycklar. Din data läcker inte till agenten.
VII. Mina tankar: On-premises vs. Cloud Min nuvarande setup (OpenClaw + LM Studio + x-reader) är en typisk "fristående version": • Modellen körs lokalt (Qwen3.5-35B på RTX 3090) • Agenten är inte isolerad (eftersom den finns på din dator) • Data är helt lokal Detta kan jämföras med Browser Uses plan: Mått Lokal agent (us) Cloud Isolation Agent (webbläsaranvändning) Integritet Datan är inte lokal Datan laddas upp till molnet, men agenten kan inte få tag på nyckeln Säkerhet Lita på skydd på plats Agenter är helt isolerade och kan inte stjälas Kostnad Engångsinvestering i hårdvara Pay-as-you-go (skala-till-noll) Skalbarhet Begränsad av lokal hårdvara Obegränsad skalning, multiagent-parallellism Fördröjning Noll nätverkslatens Ett nytt nätverkshopp till (men försumbart)
VIII. Mitt omdöme: framtiden kommer att vara en hybridmodell. • Enkla uppgifter körs lokalt: skriv ett skript, kontrollera data, organisera filer, dessa kan göras lokalt, med god integritet och hastighet •Komplexa uppgifter i molnet: När flera agenter måste köras parallellt, bearbeta stora datamängder och köras under lång tid, är det mer lämpligt att använda Browser Use
9. Det finns ingenting från början, var är dammet? Din agent ska inte ha något att stjäla och ingen stat att behålla. Denna mening översätts till vardagligheten: • Inte värt att stjäla: Agenter känner inte till några hemligheter. Kräver det en token för LLM:er? Kontrollplanet ger det, släng det när det tar slut. Vill den spara filer? Den försignerade URL:en är tillfällig och går ut och blir ogiltig. • Ingen anledning att vänta: Agent död? Starta om en ny. Sammanhanget den minns? De fullständiga posterna finns tillgängliga i kontrollplanets databas. Detta är faktiskt tillämpningen av Zero Trust-arkitekturen i AI:s tidsålder: lita inte på någon komponent, även om det är en agent skriven av dig själv.
10. Hur bör AI-nybörjare lära sig? 1. Val av AI-verktyg: När du använder molntjänster för AI, fråga dig själv – vad kan jag få om denna agent spårar ur? En bra arkitektur borde få den att "veta ingenting". 2. Integritetsmedvetenhet: Lokal AI kör enkla uppgifter (OpenClaw, LM Studio), och känslig data laddas inte upp till molnet. Komplexa uppgifter är isolerade i molnet, men vet att datan lämnas lokalt. 3Framtida arbetsflöden: Samarbete mellan en person + flera agenter är trenden (Karpathy säger Tab→Agent→Parallellagenter→Agentteam). Men varje agent bör sättas i karantän och inte få "bo i ditt hem".
XI. Avvägningen mellan säkerhet och effektivitet Browser Uses lösning är inte perfekt – tre tjänster till att distribuera och ett nätverk till per operation. Men jämfört med risken att "agenten stjäl alla nycklar" betalar dessa agenter sig själva. För oss som är infödda AI-uppbyggnader är upplysningen: • Enkelt scenario: Fortsätt använda den lokala lösningen (OpenClaw + LM Studio), som har god integritet och låg kostnad • Komplexa scenarier: I framtiden kan det bli nödvändigt att använda cloud isolation agent-tjänsten för att låta professionella personer utföra professionella saker AI-säkerhet är inte metafysik, det är arkitekturdesign. God design lämnar agenter "med ingenting" – inga hemligheter att stjäla och ingen status att lita på.
XII. Detta är förmodligen hur framtiden för AI-infrastruktur kommer att se ut: agenter är förbrukningsvaror, kontrollplan är betrodda och användardata skyddas. Och oss? Fortsätt använda OpenClaw för att köra lokala agenter, och när du en dag behöver köra dussintals eller hundratals parallella agenter, överväg att använda arkitekturen för Browser Use. Imorgon blir det bättre
1,39K