Evaluar la investigación
Sorprende que los que cada día trabajan en disciplinas en las que se intenta objetivizar el conocimiento (es decir, científicos) sean los primeros en protestar contra los intentos similares de llevar la objetividad a la evaluación de su actividad científica, que confunden, como D. Manuel Abellanas en su carta (Evaluación científica, EL PAÍS, lunes 4 de diciembre) con "mecanismos de evaluación automática". Es notorio que siempre se repitan los mismos argumentos, entre ellos el de que un artículo puede ser citado por ser erróneo, sin aclarar cuántos artículos han sido muy citados por eso, para que tal posible fallo del sistema sea estadísticamente relevante. Da la impresión de que la protesta contra el método es simplemente una protesta contra el resultado obtenido.
Porque de eso es de lo que se habla: la Ciencia está basada en la estadística y el número de grandes científicos cuyos artículos no se citan es (si existe) estadísticamente irrelevante. Está claro que, siendo la ciencia una empresa del ser humano que no conoce fronteras, solamente el aprecio de la comunidad internacional, expresada a través de las citas (¿cómo si no? porque D. Manuel Abellanas no propone ninguna alternativa que no sea la tradicional de "Yo conozco a este chaval y me parece muy bueno") puede dar una idea cuantitativa de la relevancia de un trabajo científico.
Como intento de objetivizar la evaluación, la estadística ha de aplicarse con inteligencia e integridad: no sólo el número de citas es importante, sino que hay otros números (índice "h" y otros) que permiten un mejor conocimiento del impacto de un trabajo científico. Además deberían tenerse en cuenta, como en cualquier medida científica, los márgenes de error del método.
Todo es susceptible de mejora, pero no podemos volver atrás, a la época de los grandes académicos improductivos completamente desconocidos más allá de nuestras fronteras.