A bagunça de IA é uma bagunça de erros automatizados introduzidos em todas as camadas de negócios que têm IA forçada.
Exemplos hilários de comércio de lodagem abaixo.
Algumas das histórias que eles não estão contando:
• O chatbot da Chevrolet vendeu um carro por $1
• A Air Canada teve que respeitar uma política de reembolso criada pelo chatbot
• Um pipeline rodou 20 vezes acima do custo por 6 dias sem que ninguém percebesse
As pessoas não perceberam porque nada quebrou. Não houve travamentos nem alertas.
Esse é o problema das aplicações agenticas.
Eles sempre geram algo que parece coerente e não levantam suspeitas, a menos que seja tarde demais.
Há uma palestra gratuita incrível no YouTube e um post no blog da @arshdilbagi que vão te ajudar a resolver isso com uma estrutura prática.
Aqui está o que você vai aprender:
• Como configurar instrumentação de traços de ponta a ponta
• Como construir alertas em torno de uma taxonomia de falha silenciosa
• Um sistema de avaliação construído a partir de dados de produção
• Etapas completas e concretas de implementação
Cada seção do blog termina exatamente com o que fazer a seguir.
O mais recente Gary Marcus:
"A história julgará aqueles que ficam em sua companhia. Qualquer um que queira trabalhar com LLMs pode trabalhar em outro lugar. Quem quiser usar LLMs deve procurar outro lugar."
#deleteChatGPT
#donttrustSam
Não vou mais usar a palavra "alucinar" para descrever IA LLM.
Foi um truque usar essa palavra desde o começo.
Primeiro, os promotores da IA usaram deliberadamente uma palavra antropomórfica para descrever erro de máquina.
Aí, quando você aponta os erros das máquinas, eles dizem: "ei, humanos também têm alucinações."
Então eles até têm a audácia de dizer "bem, se essa IA alucina, é prova de que deve ser senciente!"
A aceitação dessa palavra-truque foi um erro desde o início.
Me ofereça algumas palavras alternativas, por favor. Palavras precisas e depreciativas são aceitas.