AI slop é uma confusão de erros automatizados introduzidos em todas as camadas de negócios que têm AI forçada nelas.
Exemplos hilários de comércio slop abaixo.
Algumas das histórias que não estão a contar-te:
• O chatbot da Chevrolet vendeu um carro por $1
• A Air Canada teve de honrar uma política de reembolso que o seu chatbot inventou
• Um pipeline teve um custo 20x superior durante 6 dias sem que ninguém notasse
As pessoas não perceberam porque nada quebrou. Não houve falhas nem alertas.
Esse é o problema com aplicações agentivas.
Elas sempre geram algo que parece coerente e não levantam suspeitas a menos que seja tarde demais.
Há uma incrível palestra gratuita no YouTube e um post no blog de @arshdilbagi que te ajudará a resolver isso com uma estrutura prática.
Aqui está o que vais aprender:
• Como configurar instrumentação de rastreio de ponta a ponta
• Como construir alertas em torno de uma taxonomia de falhas silenciosas
• Um sistema de avaliação construído a partir de dados de produção
• Passos de implementação completos e concretos
Cada seção do blog termina com exatamente o que fazer a seguir.
O mais recente de Gary Marcus:
"A história julgará aqueles que permanecem na sua empresa. Qualquer um que queira trabalhar em LLMs pode trabalhar em outro lugar. Qualquer um que queira usar LLMs deve ir para outro lugar."
#deleteChatGPT
#donttrustSam
Não vou mais usar a palavra "alucinar" para descrever a IA LLM.
Foi um truque usar esta palavra desde o início.
Primeiro, os defensores da IA usaram deliberadamente uma palavra antropomórfica para descrever o erro da máquina.
Então, quando você aponta os erros da máquina, eles dizem: "ei, os humanos também alucinam."
Depois, eles ainda têm a audácia de dizer "bem, se esta IA alucina, é prova de que deve ser senciente!"
A aceitação desta palavra-truque tem sido um erro desde o início.
Ofereça-me algumas palavras alternativas, por favor. Palavras precisas e depreciativas são ambas aceitas.