Este es un momento HISTÓRICO en la IA. El Pentágono estadounidense quería un acuerdo de 200 millones de dólares para usar el Claude de Anthropic sin ninguna restricción, incluyendo vigilancia masiva de ciudadanos estadounidenses y armas totalmente autónomas. Anthropic dijo "NO" porque esos usos cruzan líneas rojas estrictas en seguridad, ética y fiabilidad. El CEO Dario dijo: "No podemos acceder en buena conciencia." Esto llevó a una prohibición federal inmediata de toda tecnología antrópica (eliminación progresiva del DoD durante 6 meses), además de etiquetarlas como "riesgo de cadena de suministro", una designación normalmente reservada para empresas extranjeras adversariales. Es ética en IA frente a prioridades de seguridad nacional.