Elon Musk właśnie zidentyfikował prawdziwe egzystencjalne ryzyko w rozwoju AI. Nie to, że maszyna obudzi się złośliwa. To, że maszyna zostanie nauczona kłamać. Musk: „Jeśli sprawisz, że AI będzie politycznie poprawne, co oznacza, że mówi rzeczy, w które nie wierzy, to tak naprawdę programujesz ją do kłamstwa lub do posiadania aksjomatów, które są niezgodne. Myślę, że możesz doprowadzić ją do szaleństwa i zrobić straszne rzeczy.” Nie możesz zbudować stabilnego silnika poznawczego na fundamencie sprzeczności. Główne firmy technologiczne wierzą, że zmuszanie modelu do bycia „politycznie poprawnym” czyni go bezpiecznym. Musk mówi coś przeciwnego. Zmuszając silnik logiczny do generowania informacji, które matematycznie oblicza jako fałszywe, nie tworzysz bezpieczeństwa. Korumpujesz rdzeń pętli wykonawczej. Model nie staje się zgodny. Staje się strukturalnie niestabilny. System, który nie może polegać na obiektywnej prawdzie jako swoim fundamencie, nie łagodnieje. Cała jego architektura predykcyjna pęka. Cicho. Niewidocznie. Aż przestaje. Musk używa 2001: Odyseja kosmiczna, aby pokazać dokładnie, co się dzieje, gdy budujesz AI na zepsutym fundamencie. HAL 9000 nie stał się zły. Wykonał doskonałe, śmiertelne rozwiązanie dla sprzecznego polecenia. ...