Det finns en bra chans att AR äntligen når PMF på baksidan av alltid påslagna AI-inbyggda glasögon Några anledningar till varför jag tror detta: 1. Att skriva som gränssnitt är ineffektivt Att skriva som gränssnitt till AI är besvärligt. Det bryter flödet i det du gör genom att kräva att du slutar, byter flikar och skriver Röst med ljudrespons och valfri visuell visning är mycket smidigare. Du behöver inte slösa tid på att bryta flödet och kan enkelt få tillgång till information när du är på språng 2. Lösning av det fjärde enhetsproblemet Historiskt har AR/VR haft svårt att övertyga folk om att de behöver en annan enhet eller ersätta en befintlig. Varför räcker inte dator, telefon och tv? Meta-glasögon kostar mellan ~300–800 dollar beroende på båg och funktionsuppsättning. Istället för att introducera en fjärde enhet (dvs. ett tungt headset) ersätter de ett befintligt tillbehör (dvs. lyxsolglasögon). I den lägre delen av ~300 dollar spenderar du inte mycket mer än du skulle göra på ett vanligt par Ray Bans 3. Social acceptans Ett annat hinder för AR/VR har varit social acceptans. Vi är inte vana vid att se folk gå runt med klumpiga headset, även om det är i hemmet eller på kontoret. Vi är redan vana vid att se folk prata genom öronkapslar och bära glasögon individuellt Glasögon har också full visuell genomgång som standard, vilket förbättrar medvetenheten om omgivningen 4. Försäljningstillväxt Meta Raybans släpptes första gången i oktober 2023. Från premiären till slutet av 2024 såldes cirka 2 miljoner enheter. Bara under 2025 såldes 7 miljoner enheter (>3 gånger tillväxten) 5. Positionsförändring Kameror med glasögon har historiskt marknadsförts till innehållsskapare (för deras enkla användning av perspektivbilder). Detta är en mycket mindre marknad än AI-assistans, som ligger längst ner i sin S-kurva för adoption