Sans nom 1 .pdf



Nombre del archivo original: Sans nom 1.pdf
Autor: Wilkituski

Este documento en formato PDF 1.4 fue generado por Writer / OpenOffice.org 3.2, y fue enviado en caja-pdf.es el 12/10/2012 a las 11:40, desde la dirección IP 88.13.x.x. La página de descarga de documentos ha sido vista 1700 veces.
Tamaño del archivo: 74 KB (3 páginas).
Privacidad: archivo público



Vista previa del documento


Sobre el factor de impacto
Actualmente, y desde hace unos años, estamos asistiendo a un período de cambio en la
ciencia. Atrás quedaron ya aquellos grandes genios solitarios que vivían la ciencia por la ciencia,
experimentando por su cuenta en sus propias casas u otros laboratorios personales. A día de hoy,
como tantas otras cosas, la ciencia ha caído en las redes de las grandes empresas y los
experimentos pasaron del sótano de la casa del científico de turno a los laboratorios de los
equipos privados de tal o cual compañía (o gobierno). Como todo lo que es fagocitado por el
sistema económico, la investigación pasó a estar sujeta a criterios de productividad y
rentabilidad, para lo que, obviamente, se necesitaba un factor que pueda medir tal cosa. Este
factor es el factor de impacto.
El Instituto de Información Científica calcula, clasifica y ordena la relevancia de las
publicaciones científicas en función de dos variables: por un lado, el número de citas recibidas;
por otro, el número de artículos publicados. El factor de impacto de una determinada revista es
directamente proporcional al número de veces que es citado e inversamente proporcional al
número de artículos que ha publicado, lo que elimina la ventaja de la que gozarían aquellas
revistas que publicasen mayor cantidad de contenidos. En otras palabras, el factor de impacto es
la media de citas por artículo de la revista, ni más, ni menos. El problema de este cálculo viene
de la extrapolación de las citas recibidas a la calidad científica de la revista.
El factor de impacto es un medidor de calidad demasiado arbitrario para las importantes
repercusiones que acarrea en el panorama científico., más aún teniendo en cuenta las
consecuencias negativas de esta influencia.
En primer lugar, la medición de la supuesta importancia de una publicación científica queda
marcadamente sesgada por una de las características principales de la ponderación: sólo se tienen
en cuenta artículos con menos de dos años. Precisamente, ese es el tiempo aproximado que toma
llegar a publicar en alguna de las revistas más importantes, por lo que los descubrimientos ya
habrán perdido su novedad (y, por consiguiente, buena parte de su interés) para cuando se hayan
publicado. Por otra parte, de cuando en cuando podría surgir algún artículo especialmente
revelador para la ciencia que continuase siendo citado mucho después de esos dos años, pero sin
contribuir a aumentar la puntuación de la revista en que haya aparecido. Así pues, no podemos
tomar el factor de impacto como un indicador realmente preciso del prestigio o del peso de una
revista en la comunidad científica, ya que se ve afectado de forma decisiva por un criterio tan
carente de sentido como la novedad de los artículos citados.
Por otra parte, el segundo sesgo importante a la hora de tomar las cifras con que se calcula la
relevancia de una revista es el hecho de que cuentan las citas tanto propias como las ajenas. Es
decir, no importa si un artículo es citado desde otra revista o desde la misma en que se haya
publicado. Si bien no sería justo que un artículo no contribuyese al numerador del índice de
impactos por el mero hecho de que aquellos investigadores que lo citen publiquen en su misma
revista, lo es aún menos que los interesados en aumentar dicho índice sean aquellos mismos que
tienen control sobre él. Dicho de otro modo, una revista que dé prioridad a aquellos artículos de
los que obtendrá más citas para sí misma, verá notablemente incrementado su supuesto prestigio,
lo que da pie a los más diversos tejemanejes y a estrategias de márketing que poco tienen que ver
con el verdadero progreso científico.
No hay un número máximo de citas en lo que respecta al contenido de un artículo. Es decir,
los artículos de una determinada revista citados en una nueva publicación pueden ser desde tan
pocos como ninguno hasta tantos como todos: bastaría un sólo artículo publicado en una cierta
Eloy Granda del Valle – Filosofía de la Ciencia

revista que citase a todos los demás artículos de los últimos dos años para subir como la espuma
el presunto prestigio de la misma de una forma completamente artificial, casi aberrante. Casos
como este ya se han dado. No obstante, no hace falta irse a tales excepciones, pues en el mismo
día a día, una revista puede decantarse por publicar un artículo en que obtenga un par de citas
para sí, rechazando otros que se basen en artículos de la competencia. Así de interesada es la
selección de artículos.
En esta misma línea, este método podría favorecer conductas nocivas para la ciencia, tales
como la eliminación de contenidos que se juzguen como poco rentables, y la subsiguiente
focalización en la ciencia capitalista. Esto es, existiría cierto peligro en cuanto a que las
secciones o artículos que reportan un mayor número de citas a una revista acaparasen todo el
contenido, dejando fuera del circuito editorial a aquellos temas o líneas de investigación que no
suscitasen tantas citas. El principal riesgo de esta práctica vendría dado por la falta de
coincidencia entre el contenido de calidad y el contenido más citado, lo que, salvando las
diferencias, viene a ser el mismo mecanismo por el que, en otros medios, el amarillismo triunfa
por encima de los programas culturales. Esta promoción o selección interesada puede
desembocar fácilmente en una especialización excesiva hacia aquello que genere más prestigio y
publicite más para la revista, y a una búsqueda de investigaciones no más verdaderas, sino más
provechosas y halagadoras hacia los editores por parte de los científicos.
La influencia del factor de impacto en el desarrollo de la comunidad científica no es cosa
baladí. Tanto instituciones como individuos son evaluados con esta referencia. Para muchas
selecciones de candidatos, en lugar de examinarse a fondo a cada científico, se relega la decisión
hacia una comparativa de logros evaluados según tan arbitrario factor.
La evaluación del mérito científico individual dependiendo de en qué revistas ha publicado
un sujeto en cuestión es una clasificación bastante tosca y defectuosa. Aún pasando por alto los
evidentes fallos del factor de impacto, éste se realiza para cada revista, no para cada artículo
individual. Es decir, es una media, y de las medias no puede deducirse la calidad un elemento en
concreto del conjunto, que bien podría ser de una calidad muy inferior o muy superior al resto de
artículos publicados por la misma revista.
Este sistema de prestigio y rentabilidad, de llegar a desarrollarse por completo, supondría un
atentado contra el sentido fundamental de la ciencia: la expansión imparcial de nuestro
conocimiento del mundo. Una especialización excesiva en cuanto a aquello que resulta
económicamente provechoso cortaría el progreso en algunas áreas de efectos benéficos, y con
total seguridad impulsaría nuevos inventos nocivos y más complicadas picarescas, como es el
caso de la industria armamentística o las obsolencencias programadas, respectivamente.
Volviendo a las repercusiones negativas del factor de impacto en la evaluación científica que
ya se dan en el presente, tenemos el cambio que producen en el comportamiento de los
científicos en sí. El mérito de un científico viene ahora dado no tanto por sus descubrimientos
efectivos, sino por lo mediáticos que son. Así pues, se fomenta un comportamiento en el
científico consistente en buscar publicar artículos en revistas, cuanto más populares mejor (cosa
que, por su parte, también puede contribuir a generar monopolios científicos, en cierta forma), en
lugar de dedicarse a su profesión propiamente, la experimentación. Aún más sangrante es el
hecho de que las revistas rechazan a la práctica totalidad de los candidatos, dependiendo del
presunto nivel de la publicación, quedándose con muy pocos, que han sido escogidos con el
tramposo método anteriormente expuesto en buena parte de los casos. Este rechazo sistemático
del trabajo de los científicos, no sólo es peligrosamente desmoralizador para aquellos con menos
experiencia editorial, sino que supone una pérdida efectiva de valioso tiempo de trabajo que
Eloy Granda del Valle – Filosofía de la Ciencia

podía haber sido dedicado a la ciencia en sí.
La presión por conseguir un requisito demasiado estricto de cara a patrocinadores y empresas
(quienes, a fin de cuentas, serán los que posibiliten a un científico poder continuar realmente con
su trabajo) siembran la discordia. No es difícil darse cuenta de que una competencia desleal
supone una ventaja a la hora de alcanzar cierto objetivos, sobre todo si ya han entrado en juego
otros científicos con la misma estrategia anteriormente. Es en este plano en el que aparecen los
fraudes científicos, los datos falseados, los impostores que consiguen pasar la revisión por pares
y similares engaños. Cuando lo que se está disputando es de gran importancia, el pasar por
encima de los demás para conseguirlo se vuelve muy tentador. Si el prestigio obtenido de las
publicaciones científicas no tuviese el peso que tiene en la actualidad, estas prácticas serían
mucho menos frecuentes.
En conclusión, la influencia del factor de impacto es muy negativa en general. La agilización
de la elección de candidatos, la clasificación por renombre de las revistas evaluadas y sus pocos
otros beneficios no compensan ni de lejos todos los problemas que traen consigo y con su
implantación en el mercado de la ciencia. La principal consecuencia del uso del factor de
impacto es una duerte de mercantilización nociva de la ciencia y una eliminación de sus ramas
menos exitosas para los mercados. Mantener el factor de impacto como referencia efectiva en el
terreno científico no respondería sino a una pereza académica muy dañina, puesto que es difícil
ponderar el mérito real de cada científico individual, pero no por ello es tolerable incurrir en
métodos rápidos, pero defectuosos.

Bibliografía


Eva Marder.Helmut Ketenmann. and Sten Grillner. PNAS. nº.14. Diciembre. 2010



Cantidad y calidad de los artículos científicos, El País, 25 Octubre 2006.



http://es.wikipedia.org/wiki/Factor_de_impacto

Eloy Granda del Valle – Filosofía de la Ciencia


Sans nom 1.pdf - página 1/3



Sans nom 1.pdf - página 2/3



Sans nom 1.pdf - página 3/3


Descargar el documento (PDF)

Sans nom 1.pdf (PDF, 74 KB)





Documentos relacionados


Documento PDF sans nom 1
Documento PDF convocatoria evaluaci n de impacto programas sociales ds69
Documento PDF guiaapa
Documento PDF c mo citar trabajos academicos
Documento PDF c mo citar trabajos academicos
Documento PDF gaceta universitaria 19 octubre 2011

Palabras claves relacionadas