Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AI-agenter er overalt i overskriftene.
Men adopsjonen skjer fortsatt stort sett på individ- eller småteamnivå.
Institusjoner krever en annen tilnærming.
I vår workshop med @UNDP og @UNDP_AltFinLab forrige uke forklarte vår grunnlegger og administrerende direktør, @0x7SUN, hva som kreves for å bruke AI-agenter sikkert og effektivt i ekte arbeidsflyter.
Tidsstempler:
00:00 KI-kompetansegapet og utviklingen av KI
10:26 Hvordan AI faktisk fungerer: LLM-er, hallusinasjoner og episke feil
25:12 Multi-agent-systemer: Arkitektur og risikoer
1:03:00 Hvordan trygt onboarde AI-agenter i institusjoner (casestudier)
1:24:00 Gyldne regler for bruk av AI-agenter
1:27:00 spørsmål og svar
Viktige høydepunkter ↓
De fleste behandler AI som en søkemotor som henter fakta, mens det ikke er det.
AI er en sannsynlighetsmotor. Det genererer det mest plausible neste ordet, ikke det mest sannferdige.
Dette er den grunnleggende kunnskapen å forstå før man deployerer AI-agenter i noen organisasjon.
AI-hallusinasjoner skjer fordi det er en egenskap ved hvordan sannsynlighetsmotorer fungerer.
Det farlige er at hallusinasjoner kommer pakket inn i polert syntaks og autoritativ tone. Beslutningstakere handler uvitende ut fra fullstendig fabrikkerte data.
Derfor er verifisering hele spillet.
API-integrasjon gjør passiv AI til AI-agenter som kan surfe på nettet, skrive kode, få tilgang til databaser og handle på vegne av mennesker.
AI blir ikke bare mer kapabel, men også mer risikabelt å styre.
AI blir ikke bare mer kapabel, men også mer risikabelt å styre.
Enkelt-AI-agenter kollapser under kompleksitet, akkurat som du ikke ville gitt én praktikant alle oppgaver i organisasjonen.
Den bedre tilnærmingen er systemer med flere agenter, hvor hver agent har en spesifikk rolle.
Det er slik avdelinger kan lage AI som er mer pålitelig for ekte arbeid.
AI har begrenset hukommelse. I lange økter, som flerdagers forhandlinger eller komplekse rapporter, begynner den tidligere konteksten å falme.
Det er «gullfisk-effekten».
Løsningen er aktiv minnehåndtering:
- Gjenta kjerneinstruksjoner periodisk for å oppdatere AI-fokuset
- Del lange dokumenter i mindre, håndterbare deler
- Bruk sammendrag for å opprettholde kjørende kontekst
AI-agenter bidrar til å forbedre effektiviteten, men sikkerhetsrisikoen er reell.
Det finnes flere måter å bygge risikoprofilen på:
- Deployere kun i kontrollerte miljøer
- Streng aktivitetslogging obligatorisk
- Nettverksisolasjon
- Protokoller for menneskelig tilsyn er ikke-forhandlingsbare
AI-onboarding i institusjoner utvikler seg vanligvis i tre nivåer:
- Nivå 1: Bruker sikrede bedrifts-LLM-er i lukkede miljøer uten datalagring og ekstern tilgang, hovedsakelig for trygge og enkle oppgaver.
- Nivå 2: Kobler modeller til interne data via RAG-systemer, slik at output reflekterer reell institusjonell kunnskap.
- Nivå 3: Bygger agentiske arbeidsflyter med fil- og API-tilgang, som krever strenge sikkerhetsmekanismer, testing og menneskelig tilsyn.
Tre casestudier viser hvorfor prompt engineering er en lederferdighet, ikke en teknisk ferdighet, og hvordan man kan forbedre seg.
Casestudie 1: Løsningen med SOP-er (Standard Operating Prompts)
Casestudie 2: Hallusinasjonsfellen
Casestudie 3: Forbedre AI-resultater med persona og begrensninger
Den gyldne regelen for bruk av AI i arbeidsflyten: Ha alltid mennesker med i løkken.
❌ Lim aldri inn klassifiserte data i offentlige AI-verktøy
❌ Aldri publiser AI-generert innhold uten uavhengig verifisering
❌ Aldri tildel vage, åpne oppgaver til en AI-agent
✅ Tildel alltid agentene dine en persona
✅ Gi alltid strukturerte instruksjoner
✅ Implementer alltid beskyttende validering
Dette rammeverket vil i de fleste tilfeller bidra til å forhindre store AI-feil.
183
Topp
Rangering
Favoritter
