Acesta este un moment ISTORIC în AI. Pentagonul SUA dorea un acord de 200 de milioane de dolari pentru a folosi Claude de la Anthropic fără nicio restricție, inclusiv supraveghere în masă a cetățenilor americani și arme complet autonome. Anthropic a spus "NU" pentru că aceste utilizări trec liniile roșii stricte privind siguranța, etica și fiabilitatea. CEO-ul Dario a spus: "Nu putem accepta cu conștiința împăcată." Acest lucru a dus la o interdicție federală imediată asupra tuturor tehnologiilor Anthropic (eliminarea treptată a Departamentului Apărării în 6 luni), precum și etichetarea lor drept "risc al lanțului de aprovizionare", o denumire de obicei rezervată firmelor străine adversari. Este vorba despre etica IA versus prioritățile de securitate națională.