AI-slop is een rommel van geautomatiseerde fouten die in alle lagen van bedrijven worden geïntroduceerd waar AI in is gedwongen.
Hilarische voorbeelden van slopcommerce hieronder.
Enkele van de verhalen die ze je niet vertellen:
• De chatbot van Chevrolet verkocht een auto voor $1
• Air Canada moest een terugbetalingsbeleid honoreren dat zijn chatbot had verzonnen
• Een pijpleiding overschreed 20x de kosten gedurende 6 dagen zonder dat iemand het opmerkte
Mensen realiseerden het zich niet omdat er niets kapot ging. Er waren geen crashes en geen waarschuwingen.
Dat is het probleem met agentische toepassingen.
Ze genereren altijd iets dat coherent lijkt en wekken geen argwaan, tenzij het te laat is.
Er is een geweldige gratis YouTube-lezing en blogpost van @arshdilbagi die je zal helpen dit op te lossen met een praktisch kader.
Hier is wat je zult leren:
• Hoe je end-to-end trace-instrumentatie opzet
• Hoe je waarschuwingen bouwt rond een stille falen taxonomie
• Een evaluatiesysteem gebouwd op basis van productiedata
• Volledige en concrete implementatiestappen
Elke sectie van de blog eindigt met precies wat je daarna moet doen.
De laatste Gary Marcus:
"De geschiedenis zal degenen beoordelen die bij zijn bedrijf blijven. Iedereen die aan LLM's wil werken, kan elders werken. Iedereen die LLM's wil gebruiken, moet elders gaan."
#deleteChatGPT
#donttrustSam
Ik ga het woord "hallucinate" niet meer gebruiken om LLM AI te beschrijven.
Het was een truc om dit woord vanaf het begin te gebruiken.
Eerst gebruikten de AI-promoters opzettelijk een antropomorf woord om machinefouten te beschrijven.
Toen je de machinefouten aanwijst, zeggen ze: "hé, mensen hallucineren ook."
Dan hebben ze zelfs de audacity om te zeggen: "nou, als deze AI hallucinates, is dat bewijs dat het sentient moet zijn!"
De acceptatie van dit trucwoord is vanaf het begin een fout geweest.
Bied me alsjeblieft enkele alternatieve woorden aan. Nauwkeurige en denigrerende woorden zijn beide welkom.