Un trabajo muy interesante sobre cómo la investigación empírica necesita responder a la era de la IA. Las pruebas estadísticas convencionales con valores p provienen de un mundo en el que se pensaba que cada prueba era bastante costosa. La IA ahora hace que cada prueba sea esencialmente gratuita de ejecutar. Algunos puntos clave del resumen: --"demostramos que el cribado colapsa a medida que las pruebas se vuelven baratas, a menos que el número requerido de verificaciones de robustez escale al menos linealmente en el costo inverso de cada prueba" --"abogamos por la necesidad de desarrollar métodos para interpretar conjuntos de muchas especificaciones simultáneamente" ¡Sí! Aún no sé exactamente cómo se verá y se sentirá esto, pero está claro que es lo que se requiere. Y tiene que funcionar en ambas direcciones: (1) Capturar y disuadir los hallazgos de investigación seleccionados Pero igual de crucial: (2) Detectar y recompensar los buenos hallazgos. El número 2 aquí podría resultar en algunos aspectos más difícil. Toda nuestra intuición parece girar en torno a mostrar que un hallazgo es "menos robusto" de lo que pensábamos, y exigir un sentido falso de perfección de los resultados publicados. Cuando podemos ver toda la constelación de hallazgos, necesitamos encontrar la manera correcta de ser más generosos/realistas sobre lo que cuenta como información útil.