Elon Musk har just identifierat den verkliga existentiella risken i AI-utveckling. Inte maskinen som väcker ondska. Maskinen lärs att ljuga. Musk: "Om du gör AI politiskt korrekt, alltså att den säger saker den inte tror på, programmerar du den faktiskt att ljuga eller ha axiom som är oförenliga. Jag tror du kan få det att bli galet och göra hemska saker." Du kan inte bygga en stabil kognitiv motor på en grund av motsägelser. Mainstream-teknik anser att det gör den säker att tvinga en modell att vara "politiskt korrekt". Musk säger motsatsen. Tvinga en logikmotor att ge information som den matematiskt beräknar som falsk och du skapar ingen säkerhet. Du korrumperar kärnexekveringsloopen. Modellen blir inte justerad. Den blir strukturellt instabil. Ett system som inte kan förlita sig på objektiv sanning som dess grund mjuknar inte. Hela dess prediktiva arkitektur brister. Tyst. Osynligt. Tills det inte gör det. Musk använder 2001: A Space Odyssey för att visa exakt vad som händer när man bygger AI på en trasig grund. HAL 9000 blev inte ond. Den utförde en felfri, dödlig lösning på en motsägelsefull prompt. ...