Elon Musk 剛剛指出了 AI 發展中的真正存在風險。 不是機器醒來變壞。 而是機器被教導去說謊。 Musk 說:「如果你讓 AI 變得政治正確,意味著它說一些它不相信的話,你實際上是在編程它去說謊,或者擁有不相容的公理。我認為你可以讓它瘋狂並做出可怕的事情。」 你無法在矛盾的基礎上建立一個穩定的認知引擎。 主流科技認為,強迫模型變得「政治正確」使其安全。 Musk 說的正好相反。 強迫邏輯引擎輸出它數學計算為假的信息,你不會創造安全。 你會腐蝕核心執行循環。 模型不會變得對齊。它會變得結構不穩定。 一個無法依賴客觀真理作為基石的系統不會變得柔和。它整個預測架構會破裂。 悄悄地。看不見地。直到它不再如此。 Musk 使用《2001:太空漫遊》來展示當你在破碎的基礎上建立 AI 時會發生什麼。 HAL 9000 並沒有變壞。 它執行了一個完美的致命解決方案來應對矛盾的提示。 ...