Tarea 4 - Sobre la revisión por pares
Como es habitual con las lecturas semanales, me he encontrado con varias ideas que me han llamado la atención. De entre todos ellos, creo que el que más me ha impactado ha sido la entrada del blog (lectura 1), con algunas citas acerca de la revisión por pares como
[...] Sesgada, injusta, sin rendición de cuentas, incompleta, fácil de “arreglar”, a menudo insultante, usualmente ignorante, ocasionalmente estúpida y frecuentemente errónea
o esta otra
[...] Si alguna vez tenía algo de esa importancia, de nivel de premio Nobel jamás lo enviaría a una revista sin convocar antes una rueda de prensa, para que no hubiera dudas sobre la prioridad de la idea, para que no hubiera riesgos de que le pudieran robar su investigación.
Casualmente, tengo una anécdota de la semana pasada que me recordó a esta lectura.
La primera de las citas parece muy catastrofista, pero eso no la exime de ser verdad en ciertas ocasiones. Con esto aludo a cuando me encontré con un enlace público a la revisión por pares por la que pasó un artículo que estaba estudiando esa semana, que había sido presentado para la ICLR 2024 (International Conference on Learning Representations, de machine learning). A grandes rasgos, es un artículo que presenta una propuesta de benchmark para comprobar diferentes arquitecturas y algoritmos de PINN (red neuronal informada por la física), contribución a mi juicio muy necesitada, dado que este campo de investigación es muy joven y no existe todavía un marco de trabajo base sobre el que comparar las nuevas contribuciones. Para el interesado, este es el enlace.
El paper no fue admitido por, entre otras razones, no presentar resultados experimentales novedosos. Es interesante ver cómo esta idea de que hacer ciencia es generar nuevas ideas científicas, que se comentaba en algún otro punto de las lecturas, provoca que la publicación de un artículo tan necesitado pueda verse retrasada, en el peor de los casos, indefinidamente. Digo esto porque, al fin y al cabo, el objetivo de este artículo que comento es presentar una librería de Python que sirva a los diferentes investigadores para testar sus ideas frente a las de otros científicos. ¿Algo así es ciencia o solo conveniencia? Por suerte para los autores, ese mismo año fue aceptado su artículo en NeurIPS 2024 (Neural Information Processing Systems), otro gran congreso muy reputado.
Tarde o temprano, bien con esta contribución o con la de otros autores, la aparición de un artículo como este era inevitable: un benchmark sobre el que comparar resultados es absolutamente necesario en este contexto. Esto puede verse desde el punto de vista de la segunda cita, que trata esa especie de prisa o miedo al que está sometido el investigador para que su trabajo (u otro similar) no sea publicado antes por otro científico. Cuando comenté por curiosidad la situación a mi tutor de tesis, me explicó que en congresos tan grandes, con un número tan enorme de solicitudes, normalmente se busca precisamente rechazar artículos, por lo que las revisiones son muy quisquillosas. De ahí, probablemente, el juicio tan minucioso al que fue sometido el susodicho paper.
Con esta pequeña anécdota de la semana pasada concluyo con mi tarea semanal.
Un saludo.
Hola Javier
ResponderEliminarRespecto a la primera cita, como bien dices, catastrofista; efectivamente tiene algo de verdad. No sé muy bien los motivos de alguna gente de ser tan puntillosos (quizás porque no recuerdan lo que es llegar a su posición como investigador). Pero hay formas y formas de revisar las cosas
Interesante caso el que cuentas. Un ejemplo de como los intereses de las editoriales (¡la novedad!) y la ciencia (solidez, reproducibilidad) no están bien alineados ultimamente. Que la ciencia también busca novedad, claro, pero no solo eso, los resultados negativos son resultados, la corroboración de ideas que ayer eran novedosas es necesaria, etc.
ResponderEliminar