AI slop to bałagan zautomatyzowanych błędów wprowadzonych na wszystkich poziomach firm, w które wprowadzono AI.
Zabawne przykłady slop commerce poniżej.
Niektóre z historii, których ci nie mówią:
• Chatbot Chevroleta sprzedał samochód za 1 $
• Air Canada musiała honorować politykę zwrotów, którą wymyślił jej chatbot
• Rurociąg przekroczył koszty 20 razy przez 6 dni, a nikt tego nie zauważył
Ludzie nie zdawali sobie sprawy, ponieważ nic się nie zepsuło. Nie było żadnych awarii ani powiadomień.
To jest problem z aplikacjami agentowymi.
Zawsze generują coś, co wygląda spójnie i nie budzi żadnych podejrzeń, chyba że jest za późno.
Jest niesamowity darmowy wykład na YouTube i wpis na blogu od @arshdilbagi, który pomoże ci to naprawić za pomocą praktycznej ramy.
Oto czego się nauczysz:
• Jak skonfigurować instrumentację śledzenia end-to-end
• Jak zbudować powiadomienia wokół taksonomii cichych awarii
• System ewaluacji zbudowany na danych produkcyjnych
• Kompletne i konkretne kroki wdrożeniowe
Każda sekcja bloga kończy się dokładnie tym, co zrobić następnie.
Najnowszy Gary Marcus:
"Historia oceni tych, którzy pozostaną w jego firmie. Każdy, kto chce pracować nad LLM, może pracować gdzie indziej. Każdy, kto chce korzystać z LLM, powinien iść gdzie indziej."
#deleteChatGPT
#donttrustSam
Nie zamierzam już używać słowa "halucynować" do opisywania AI LLM.
To był podstęp, aby od początku używać tego słowa.
Po pierwsze, zwolennicy AI celowo użyli antropomorficznego słowa do opisania błędów maszyny.
A potem, gdy wskazujesz na błędy maszyny, mówią: "hej, ludzie też halucynują."
Nawet mają czelność powiedzieć: "cóż, jeśli to AI halucynuje, to dowód, że musi być świadome!"
Akceptacja tego podstępnego słowa była błędem od samego początku.
Proszę, zaproponuj mi jakieś alternatywne słowa. Zarówno dokładne, jak i pejoratywne słowa są akceptowane.