Lisa Huang började bygga AI-assistenten för Meta Ray-Ban smarta glasögon 2019. Hon var tvungen att övertyga teamet om att AI-assistenten skulle bli den viktigaste funktionen på glasögonen. Alla höll inte med. Den där noll-till-en-processen avslöjade begränsningar som rena mjukvaruprojektledare aldrig möter. Vikt. Batteritid. Integritet. Åskådaren oroar sig för en kamera på någons ansikte. Och det faktum att Luxottica, ett modeföretag, inte fungerar som ett ingenjörsteam i Silicon Valley. Mängden ingenjörskomplexitet som packas in i något som fortfarande måste se ut som ett par solglasögon är häpnadsväckande. Den största tekniska frågan: molnbaserad eller on-device processing? Molnet är standarden idag. Men Lisa gjorde en förutsägelse i det här avsnittet som jag tycker är värd att uppmärksamma. Hon tror att den stora majoriteten av AI för AR så småningom kommer att köras på enheten. Hennes resonemang är att när du bär en enhet i ansiktet hela dagen och fångar vad du ser och hör, vill folk att datan ska förbli lokal. När modellerna blir mindre och mer effektiva fortsätter de tekniska hindren att sjunka. Detta motsvarar ett bredare mönster som utspelar sig över AI-hårdvaran. Apple investerar kraftigt i modeller på enheten. Den nya vågen av AI-telefoner pressar mer bearbetning till gränsen. Integritet håller på att bli en produktfunktion, inte bara en kontrollruta. Lärdomen Lisa drog för alla projektledare som bygger AI-funktioner, i vilket sammanhang som helst: förstå teknologin djupt, men bli inte förälskad i den. De bästa produkterna finns i skärningspunkten mellan vad användaren faktiskt behöver och vad teknologin pålitligt kan göra idag. Bygg snabbt. Se vad användarna gör. Uppdatera dina antaganden. Upprepa.