Några av de historier de inte berättar för dig:
• Chevrolets chattbott sålde en bil för 1 dollar
• Air Canada var tvunget att respektera en återbetalningspolicy som deras chatbot hade tagit fram
• En pipeline gick 20 gånger över kostnaden i 6 dagar utan att någon märkte det
Folk märkte det inte eftersom inget gick sönder. Det var inga krascher och inga larm.
Det är problemet med agentiska applikationer.
De genererar alltid något som ser sammanhängande ut och väcker inga misstankar om det inte är för sent.
Det finns en fantastisk gratis YouTube-föreläsning och blogginlägg från @arshdilbagi som hjälper dig att lösa detta med en praktisk ram.
Här är vad du kommer att lära dig:
• Hur man sätter upp end-to-end spårinstrumentering
• Hur man bygger varningar kring en taxonomi med tyst misslyckande
• Ett utvärderingssystem byggt på produktionsdata
• Fullständiga och konkreta implementeringssteg
Varje sektion av bloggen avslutas med exakt vad du ska göra härnäst.
Den senaste Gary Marcus:
"Historien dömer dem som stannar hos honom. Alla som vill arbeta med LLM kan arbeta någon annanstans. Alla som vill använda LLM:er borde gå någon annanstans."
#deleteChatGPT
#donttrustSam
Jag kommer inte att använda ordet "hallucinera" längre för att beskriva LLM AI.
Det var ett trick att använda det ordet från början.
För det första använde AI-pusharna medvetet ett antropomorft ord för att beskriva maskinfel.
När du sedan påpekar maskinfel säger de, "hej, människor hallucinerar också."
Sedan har de till och med fräckheten att säga "om den här AI:n hallucinerar är det bevis på att den måste vara medveten!"
Att acceptera detta trickord har varit ett misstag från början.
Erbjud mig några alternativa ord, tack. Både korrekta och nedsättande ord accepteras.