AI-slurk er et rot av automatiserte feil som introduseres i alle lag av virksomheter som har fått AI presset inn i seg.
Morsomme eksempler på slaskehandel nedenfor.
Noen av historiene de ikke forteller deg:
• Chevrolets chatbot solgte en bil for 1 dollar
• Air Canada måtte respektere en refusjonspolicy som chatboten deres hadde laget
• En pipeline kjørte 20 ganger over kostnad i 6 dager uten at noen merket det
Folk skjønte det ikke fordi ingenting gikk i stykker. Det var ingen krasj og ingen varsler.
Det er problemet med agentiske applikasjoner.
De lager alltid noe som ser sammenhengende ut og vekker ingen mistanke med mindre det er for sent.
Det finnes en fantastisk gratis YouTube-forelesning og blogginnlegg fra @arshdilbagi som vil hjelpe deg å fikse dette med et praktisk rammeverk.
Her er hva du vil lære:
• Hvordan sette opp ende-til-ende sporinstrumentering
• Hvordan bygge varsler rundt en stille feiltaksonomi
• Et evalueringssystem bygget opp fra produksjonsdata
• Fullstendige og konkrete implementeringssteg
Hver del av bloggen avsluttes med nøyaktig hva du skal gjøre videre.
Den siste Gary Marcus:
"Historien vil dømme dem som bor i hans selskap. Alle som ønsker å jobbe med LLM-er kan jobbe andre steder. Alle som ønsker å bruke LLM-er bør gå et annet sted.»
#deleteChatGPT
#donttrustSam
Jeg kommer ikke til å bruke ordet «hallusinere» lenger for å beskrive LLM AI.
Det var et triks å bruke dette ordet fra starten av.
For det første brukte AI-pusherne bevisst et antropomorft ord for å beskrive maskinfeil.
Så når du påpeker maskinfeilene, sier de: «hei, mennesker hallusinerer også.»
Så har de til og med frekkheten til å si «vel, hvis denne AI-en hallusinerer, er det bevis på at den må være bevisst!»
Aksepten av dette triksordet har vært en feil fra starten av.
Tilby meg noen alternative ord, vær så snill. Både nøyaktige og nedsettende ord er akseptert.