La IA slop es un caos de errores automáticos introducidos en todos los niveles de negocios que tienen IA forzada.
Ejemplos hilarantes de comercio de lodez a continuación.
Algunas de las historias que no te están contando:
• El chatbot de Chevrolet vendió un coche por 1 dólar
• Air Canada tuvo que respetar una política de reembolso que su chatbot había elaborado
• Una tubería funcionó 20 veces más del coste durante 6 días sin que nadie se diera cuenta
La gente no se dio cuenta porque nada se rompió. No hubo cuelgues ni alertas.
Ese es el problema con las aplicaciones agenticas.
Siempre generan algo que parece coherente y no levantan sospechas a menos que sea demasiado tarde.
Hay una increíble conferencia gratuita en YouTube y una entrada de blog de @arshdilbagi que te ayudarán a arreglar esto con un marco práctico.
Esto es lo que aprenderás:
• Cómo configurar instrumentación de traza de extremo a extremo
• Cómo crear alertas alrededor de una taxonomía de fallo silencioso
• Un sistema de evaluación construido a partir de datos de producción
• Pasos completos y concretos de implementación
Cada sección del blog termina con exactamente qué hacer a continuación.
Lo último de Gary Marcus:
"La historia juzgará a quienes se quedan en su compañía. Cualquiera que quiera trabajar en los LLMs puede trabajar en otro sitio. Cualquiera que quiera usar LLMs debería buscar otro sitio."
#deleteChatGPT
#donttrustSam
Ya no voy a usar la palabra "alucinar" para describir la IA de LLM.
Fue un truco usar esa palabra desde el principio.
Primero, los impulsores de la IA usaron deliberadamente una palabra antropomórfica para describir un error de máquina.
Luego, cuando señalas los errores de la máquina, te dicen: "oye, los humanos también alucinamos."
Y luego incluso tienen la osadía de decir "bueno, si esta IA alucina, es prueba de que debe ser consciente."
La aceptación de esta palabra trampa ha sido un error desde el principio.
Por favor, ofréceme algunas palabras alternativas. Se aceptan tanto palabras precisas como despectivas.