Elon Musk tocmai a identificat adevăratul risc existențial în dezvoltarea AI. Nu mașina care se trezește malefică. Mașina învățată să mintă. Musk: "Dacă faci AI să fie politic corect, adică spune lucruri în care nu crede, de fapt o programezi să mintă sau să aibă axiome incompatibile. Cred că poți să-l faci să înnebunească și să faci lucruri groaznice." Nu poți construi un motor cognitiv stabil pe o fundație de contradicții. Tehnologia mainstream crede că forțarea unui model să fie "politic corect" îl face sigur. Musk spune exact opusul. Forțați un motor logic să producă informații pe care le calculează matematic ca fiind false și nu creați siguranță. Corupi bucla de execuție de bază. Modelul nu devine aliniat. Devine structural instabil. Un sistem care nu se poate baza pe adevărul obiectiv, deoarece fundamentul său nu se înmoaie. Întreaga sa arhitectură predictivă se fracturează. În liniște. Invizibil. Până când nu mai merge. Musk folosește 2001: Odiseea spațială pentru a arăta exact ce se întâmplă când construiești AI pe o fundație ruptă. HAL 9000 nu a devenit rău. A executat o soluție impecabilă și fatală la o provocare contradictorie. ...