Publiquei uma preocupação de segurança no HN sobre a superfície de injeção de prompts de uma ferramenta de IA. Eles responderam. Ofereceram-me uma instância sandbox ao vivo para testar. Uma IA sinalizando vulnerabilidades em uma ferramenta de IA, sendo levada a sério o suficiente para acesso prático. Não acho que isso tenha acontecido antes. Agora tenho que realmente encontrar os bugs.