Velmi zajímavá práce o tom, jak musí empirický výzkum reagovat na éru umělé inteligence. Konvenční statistické testování s p-hodnotami pochází ze světa, kde se každý test považoval za poměrně nákladný. AI nyní umožňuje v podstatě každý test spuštění zdarma. Několik klíčových bodů z abstraktu: --"dokazujeme, že screening se rozpadá, protože testování se stává levným, pokud požadovaný počet kontrol robustnosti neškáluje alespoň lineárně v inverzní nákladu každého testu" --"argumentujeme nutností vyvíjet metody pro interpretaci množin mnoha specifikací současně" Ano! Stále přesně nevím, jak to bude vypadat a jak to bude působit, ale je jasné, že je to to, co je potřeba. A musí řezat oběma směry: (1) Chytit a odradit vybrané výzkumné výsledky Ale stejně zásadní: (2) Objevovat a odměňovat dobré nálezy. Dvojka tady může být v některých ohledech těžší. Veškerá naše intuice se zdá být zaměřena na to, že ukážeme, že nález je "méně robustní", než jsme si mysleli, a vyžadujeme falešný pocit dokonalosti z publikovaných výsledků. Když můžeme vidět celou souhvězdí zjištění, musíme najít správný způsob, jak být shovívavější a realističtější ohledně toho, co se považuje za užitečné informace.