Grabbar, jag är ledsen att robotik-OS-teamet @openmind_agi inte gör några "genombrott" nuförtiden. Vi tränar inte vår egen modell. Hårdvaror har sin egen grundläggande rörelse inbyggd. AI-modeller erbjuder redan naturlig språkinteraktion. Men efter så många "genombrott", varför dansar robotar mest boxning men fungerar inte än? Behöver vi verkligen så många "genombrott" för att applikationer ska fungera? OpenMind bygger Android för robotik. Vi gör inte "genombrott", men vi får genombrott att fungera. Efter att ha pratat med olika intressenter runt operativsystemet insåg jag att: Integration/konsolidering är alltid det som driver robotarna att arbeta. Och det är avgörande oavsett var vi befinner oss om grundgenombrott. Det är integrationen av teknikstacken. "Du sätter bara agenter på robotens kroppar." Ja. Men vad betyder det? Hur översätter man mänskligt språk till robotrörelse? Hur säkerställer man säkerhets- och integritetsstandarder? Hur förverkligar man självladdning? Det handlar också om integrationen av intressenter. OEM:er och datainsamlingsteam vill alla sälja data. Stora företag vill alla ha en plats i grundmodellen. ACG:s IP låter irrelevant men visar sig vara den utlösande faktorn som driver robotar från nördiga saker till mainstream-konsumentprodukter – alla dessa faktorer ska konsolideras. VC:er brukar undersöka en grundares förmåga att "driva resurser" – vad är ditt bästa sätt att använda med hävstång med tanke på de begränsade korten på din hand? I detta avseende är alla på OpenMind i grundarläge. (Uppdatering: Ny OpenMind Van! Endast robotar är välkomna XD)