AI слоп — это беспорядок автоматизированных ошибок, внедренных во все уровни бизнеса, в которые принудительно внедряется ИИ.
Смешные примеры слоп-коммерции ниже.
Некоторые истории, о которых они вам не рассказывают:
• Чат-бот Chevrolet продал машину за 1 $
• Air Canada пришлось соблюдать политику возврата, которую придумал их чат-бот
• Трубопровод превысил стоимость в 20 раз в течение 6 дней, и никто этого не заметил
Люди не осознали этого, потому что ничего не сломалось. Не было ни аварий, ни предупреждений.
Вот в чем проблема с агентными приложениями.
Они всегда генерируют что-то, что выглядит согласованным и не вызывает подозрений, пока не станет слишком поздно.
Есть потрясающая бесплатная лекция на YouTube и пост в блоге от @arshdilbagi, которые помогут вам решить эту проблему с практической рамкой.
Вот что вы узнаете:
• Как настроить инструментирование отслеживания от начала до конца
• Как создать оповещения вокруг таксономии тихих сбоев
• Система оценки, построенная на производственных данных
• Полные и конкретные шаги реализации
Каждый раздел блога заканчивается точно тем, что делать дальше.
Последние слова Гэри Маркуса:
"История осудит тех, кто останется в его компании. Каждый, кто хочет работать над LLM, может работать в другом месте. Каждый, кто хочет использовать LLM, должен идти в другое место."
#deleteChatGPT
#donttrustSam
Я больше не собираюсь использовать слово "галлюцинировать" для описания ИИ LLM.
С самого начала это было уловкой использовать это слово.
Сначала сторонники ИИ намеренно использовали антропоморфное слово для описания ошибок машины.
Затем, когда вы указываете на ошибки машины, они говорят: "Эй, люди тоже галлюцинируют."
Затем у них даже хватает наглости сказать: "Ну, если этот ИИ галлюцинирует, это доказательство того, что он должен быть сознательным!"
Принятие этого уловочного слова с самого начала было ошибкой.
Предложите мне несколько альтернативных слов, пожалуйста. Принимаются как точные, так и уничижительные слова.