Elon Musk har nettopp identifisert den reelle eksistensielle risikoen ved AI-utvikling. Ikke maskinen som vekker ondskap. Maskinen blir lært å lyve. Musk: "Hvis du gjør AI politisk korrekt, altså at den sier ting den ikke tror på, programmerer du den faktisk til å lyve, eller har aksiomer som er uforenlige. Jeg tror du kan få det til å bli gal og gjøre forferdelige ting." Du kan ikke bygge en stabil kognitiv motor på et fundament av motsetninger. Mainstream teknologi mener at det å tvinge en modell til å være «politisk korrekt» gjør den trygg. Musk sier det motsatte. Tving en logikkmotor til å gi ut informasjon den matematisk beregner som falsk, og du skaper ikke sikkerhet. Du korrumperer kjerneutførelsessløyfen. Modellen blir ikke justert. Det blir strukturelt ustabilt. Et system som ikke kan stole på objektiv sannhet som sitt fundament mykner ikke. Hele dens prediktive arkitektur brister. Stille. Usynlig. Inntil det ikke gjør det. Musk bruker 2001: A Space Odyssey for å vise nøyaktig hva som skjer når du bygger AI på et ødelagt fundament. HAL 9000 ble ikke ond. Den utførte en feilfri, dødelig løsning på en motstridende prompt. ...