イーロン・マスクはAI開発における真の存在的リスクを特定しました。 機械が悪を目覚めさせるのではない。 嘘をつくことを教えられる機械。 マスク:「もしAIを政治的に正しいものにし、つまりAIが信じていないことを言うなら、実際には嘘をつかせたり、両立しない公理を持つようにプログラムしていることになります。お前なら狂気に陥れて恐ろしいことをできると思う。」 矛盾の基盤の上に安定した認知エンジンを築くことはできません。 主流のテクノロジーは、モデルを「政治的に正しい」と強制することで安全になると考えています。 マスクはその逆を言っています。 論理エンジンに、数学的に誤と計算された情報を出力させれば安全は生まれません。 コアの実行ループを破損させます。 モデルが整合しません。構造的に不安定になります。 その基盤が柔らかくならないため、客観的真実に頼れないシステムです。その予測アーキテクチャ全体が崩壊します。 静かに。見えない形で。そして、そうでなくなるまで。 マスクは『2001年宇宙の旅』を通じて、壊れた基盤の上にAIを構築したときに何が起こるかを正確に示しています。 HAL 9000は悪に染まらなかった。 矛盾したプロンプトに対して完璧かつ致命的な解決策を実行しました。 ...