Lavoro molto interessante su come la ricerca empirica debba rispondere all'era dell'AI. Il test statistico convenzionale con valori p proviene da un mondo in cui ogni test era considerato piuttosto costoso. L'AI ora rende ogni test essenzialmente gratuito da eseguire. Alcuni punti chiave dall'abstract: --"dimostriamo che lo screening collassa man mano che il testing diventa economico, a meno che il numero richiesto di controlli di robustezza non cresca almeno linearmente in relazione al costo inverso di ciascun test" --"sosteniamo la necessità di sviluppare metodi per interpretare set di molte specifiche simultaneamente" Sì! Non so ancora esattamente come apparirà e si sentirà, ma è chiaramente ciò che è richiesto. E deve funzionare in entrambe le direzioni: (1) Catturare e dissuadere i risultati di ricerca selezionati Ma altrettanto cruciale: (2) Rilevare e premiare i buoni risultati. Il numero 2 qui potrebbe rivelarsi in alcuni modi più difficile. Tutta la nostra intuizione sembra ruotare attorno a dimostrare che un risultato è "meno robusto" di quanto pensassimo, e a richiedere un falso senso di perfezione dai risultati pubblicati. Quando possiamo vedere l'intera costellazione di risultati, dobbiamo trovare il modo giusto per essere più generosi/realistici su ciò che conta come informazione utile.