Tekoälyn sotku on automaattisten virheiden sekamelska, joka on tuotu kaikille yrityskerroksille, joihin tekoäly on pakotettu.
Alla on hauskoja esimerkkejä roskakaupasta.
Joitakin tarinoita, joita he eivät kerro sinulle:
• Chevroletin chatbot myi auton yhdellä dollarilla
• Air Canadan oli noudatettava chatbotin laatimaa hyvityskäytäntöä
• Putki pyöri 20-kertaisella hinnalla kuusi päivää ilman, että kukaan huomasi
Ihmiset eivät huomanneet, koska mikään ei mennyt rikki. Ei ollut onnettomuuksia eikä hälytyksiä.
Siinä on ongelma agenttisovelluksissa.
Ne tuottavat aina jotain, joka näyttää johdonmukaiselta eikä herätä epäilyksiä, ellei ole liian myöhäistä.
On olemassa upea ilmainen YouTube-luento ja blogikirjoitus @arshdilbagi:lta, jotka auttavat sinua korjaamaan tämän käytännön viitekehyksen avulla.
Tässä mitä opit:
• Kuinka perustaa päästä päähän -jäljen instrumentointi
• Kuinka rakentaa hälytyksiä hiljaisen epäonnistumisen taksonomian ympärille
• Arviointijärjestelmä, joka on rakennettu tuotantodatasta
• Täydelliset ja konkreettiset toteutusvaiheet
Jokainen blogin osio päättyy siihen, mitä tehdä seuraavaksi.
Uusin Gary Marcus:
"Historia tuomitsee ne, jotka jäävät hänen yritykseensä. Kuka tahansa, joka haluaa työskennellä LLM:ien parissa, voi työskennellä muualla. Jokaisen, joka haluaa käyttää LLM:ää, kannattaa mennä muualle."
#deleteChatGPT
#donttrustSam
En aio enää käyttää sanaa "hallusinoida" kuvaamaan LLM-tekoälyä.
Oli temppu käyttää tätä sanaa alusta alkaen.
Ensinnäkin tekoälyn ohjaajat käyttivät tarkoituksella antropomorfista sanaa kuvaamaan koneen virhettä.
Sitten kun osoitat koneen virheet, he sanovat: "hei, ihmisetkin näkevät hallusinaatioita."
Sitten heillä on jopa pokkaa sanoa: "No, jos tämä tekoäly hallusinoi, se on todiste siitä, että sen täytyy olla tietoinen!"
Tämän temppusanan hyväksyminen on ollut virhe alusta alkaen.
Tarjoa minulle vaihtoehtoisia sanoja, kiitos. Sekä tarkat että halventavat sanat hyväksytään.