martes, 30 de diciembre de 2014

La firma científica

Hola a todos,

Yo tuve que elegir mi firma científica hace un par de años, aunque en mi caso la decisión no fue muy complicada. Dado que mi primer apellido es extremadamente común (Martínez) tenía bastante claro que tendría que usar como mínimo ambos apellidos. Aunque si soy sincera, debo reconocer que aunque mi primer apellido no hubiese sido tan común, habría usado también mis dos apellidos porque sabía que a mi madre le haría ilusión ver algo de ella en los artículos científicos, jejeje. 

Así que probé con Martinez-Herrero S. en Pubmed y en Google Scholar y no me aparecía ningún resultado. Cuando tuve acceso a las bases de datos de ISI Web of Science también lo comprobé y de nuevo no aparecía nada. Así que me quedé con esa firma científica y es la que he usado desde entonces. 

Como veis en mi caso no fue muy complicado, pero sé por compañeros de trabajo que encontrar una firma científica puede ser una misión casi imposible con el crecimiento exponencial de personas que se dedican a la publicación científica. 

Un saludo a todos y feliz 2015!

Sonia M.H.

Escribir y publicar ciencia, ¿una serie de catastróficas desdichas?


Respecto al tema de escribir y publicar ciencia, debo decir que he encontrado todo el material sumamente interesante (y divertido, para qué negarlo). 

Debo reconocer que yo ya me he enfrentado antes al reto de escribir artículos científicos y publicarlos, presentar trabajos en congresos, y dado que mi intención es presentar mi tesis por compendio de artículos, de aquí a que termine deberé enfrentarme a este reto por lo menos otras tres veces. 

Es cierto que a veces el trabajo del laboratorio parece más sencillo que ponerte a escribir un artículo sobre dicho trabajo. Muchos sufrimos a la hora de sentarnos a escribir algo que nos va a exponer frente a los demás, y la tarea de escribir y publicar puede acabar siendo una serie de catastróficas desdichas: el miedo a la página en blanco, no encuentras la página "x" donde habías apuntado algo importante sobre el experimento, no sabes cómo explicar tus resultados, el ordenador se cuelga en un momento de inspiración cuando llevabas escritas 40 páginas y sin guardar, un virus te formatea el disco duro y no habías hecho copias de seguridad, el corrector ortográfico decide volverse loco y cambiar por su cuenta y riesgo una de las palabras que has escrito, le pasas el manuscrito a tu jefe y cuando te lo devuelve hay más tinta roja que negra en él, los revisores te piden que repitas un experimento y no tienes más muestras... Y seguro que hay cientos de tragedias más en lo referente a recopilar tu trabajo y ponerlo por escrito. Pero tras el estrés, el desánimo, los nervios... cuando por fin ves tu trabajo publicado, es una recompensa gigante a tu trabajo. 

Porque nosotros como científicos tenemos un deseo oculto de descubrir cosas nuevas y de comunicarlas, la ciencia sin divulgación no es ciencia. Sólo hay que perder un poco el miedo a escribir. 

Realmente organizar lo que vamos a escribir es muy sencillo, la estructura en sí del artículo científico está perfectamente definida con el método IMRAD (de ahí que hasta un programa informático puede generar papers falsos), lo complicado es la comunicación de esos contenidos de una forma clara, concisa y sencilla, de modo que cualquier persona lo pueda entender, porque como dice G.D. Lapin "the most important of these is to remember your audience.". Y a pesar de que todo esté tan claro o de que ya tengamos experiencia previa siempre se puede mejorar y aprender, yo por ejemplo sabía que los apartados de Material y Métodos y de Resultados deben escribirse en pasado, mientras que en los de Introducción y Discusión pueden usarse distintas formas verbales, lo que no sabía es que debes elegir una de esas formas verbales y mantenerlas aunque suene un tanto extraño.

Tres ideas que me han parecido muy importantes a raíz de todo lo que he leído son:

Por un lado que a veces no usamos bien las figuras de un artículo. Tendemos a abusar de las tablas, que además llenamos con mucha información innecesaria, cuando en muchos casos un gráfico podría contener la misma información de una forma más sencilla y accesible para el lector. Los gráficos bien hechos nos permiten acceder a grandes cantidades de datos contextualizados gracias a nuestra percepción visual. Y seguro que el lector agradece que se le aligere un poco el trabajo. 

Por otro lado, la importancia de publicar los resultados negativos. Muchas veces asociamos un resultado negativo a nuestra propia incompetencia, y nos da miedo o vergüenza publicar esos resultados. Pero si en el experimento hemos incluido controles podemos saber si es que realmente eso que estamos intentando no puede hacerse o es fruto de que no hemos sabido hacerlo bien. Me parece muy importante que en el caso de que algo no se pueda hacer se comunique, porque ahorras trabajo, recursos económicos, materiales y tiempo a toda la ciencia en general. La idea del registro previo de experimentos me ha parecido sumamente atractiva, de hecho, con los ensayos clínicos ya se hace, debes registrarlos antes de empezar si quieres que tengan validez a posteriori

Y por último, yo creía que la comunidad científica estaba más concienciada con el tema de las referencias bibliográficas, pero tras leer editorial de Roger A. Lessard parece que yo me equivocaba: "In fact, often researchers, either intentionally or by lack reviewing previous work, do not cite prior work". Citar el trabajo de alguien parece algo lógico, si es relevante y te ha ayudado en tu investigación debes reconocer el mérito de esas personas y citarlas, de este modo contribuyes a que su trabajo cobre importancia y lo haces más visible para otros. Si usas de cualquier modo el trabajo de otro grupo científico y no los citas o no los citas bien, es como si les estuvieses "pirateando" su trabajo. 

En resumen, no hay que tener miedo a la comunicación de nuestros resultados científicos por la vía que sea, puesto que la divulgación es una parte intrínseca a la ciencia. Solo debemos ser muy cuidadosos (también mientras hacemos los experimentos, hay que anotarlo TODO, porque eso luego facilita muchísimo el proceso de escribir), pensar un poco antes de escribir y luego revisar el documento por triplicado como mínimo en busca de cosas que mejorar, eliminar, pulir, etc. Y una vez terminado, elegir el mejor destino posible para nuestro artículo, siendo realistas y no desanimándonos si nos rechazan en alguna revista. 

Un saludo a todos,

Sonia M.H.

Indicadores de calidad en ciencias de la salud


Tras reflexionar un poco y leer los documentos para esta tarea, creo que puedo afirmar que a día de hoy el indicador de calidad por excelencia dentro de las ciencias de la salud es el Factor de Impacto (al que voy a pasar a referirme como IF -impact factor- por aquello de abreviar).

En el pdf de Alonso-Gamboa se define el IF como un indicador calculado cada año por la empresa ISI Thompson que se usa como referente del reconocimiento que la comunidad científica otorga a cierta revista y que con frecuencia se asocia también con la calidad de sus artículos. Se calcula como la cantidad de artículos publicados pro una revista en los dos últimos años entre el número de citas recibidas en ese mismo período.

Como ya he comentado en entradas anteriores, el síndrome de "publish or perish" se ha extendido de una forma casi virulenta en la comunidad científica, y actualmente para cualquier científico del mundo publicar es vital. Y no sólo importa el contenido que vas a publicar, igual de importante es dónde publicas los resultados de tu trabajo que tanto te han costado conseguir. Como autor buscas siempre publicar en las mejores revistas; igual que intentas mandar a tus hijos a los mejores colegios que están a tu alcance, intentas publicar los frutos de tu duro trabajo en la mejor revista posible. Pero... ¿cómo podemos saber cuál es la mejor revista?. Se deduce por tanto que la clasificación de las revistas se convierte en un elemento clave del sistema de publicación científica.

Dentro de las ciencias de la salud,  y creo que esto es extensible a todas las llamadas "ciencias duras", el IF es sin duda el indicador estrella. La idea en la que se basa el IF tiene una buena lógica: los artículos con contenidos más interesantes y con mayor impacto científico serán más citados, y por extensión, las mejores revistas serán las que contengan los artículos de mayor interés científico, o lo que es lo mismo, con más citas.

Esta teoría no es mala, y el IF tiene una gran utilidad y muchas ventajas. El problema real se produce cuando el lector extrapola el concepto del IF y sustituye en su cabeza la palabra "interés" por "calidad". El IF es muy útil para establecer la influencia de las revistas científicas dentro de una misma disciplina científica; sin embargo, no puede ser usado como una medida directa de calidad y debe ser empleado con mucho cuidado.  Es cierto que a veces una revista puede despertar mucho interés dentro de un área de la ciencia debido a su calidad, pero no siempre tiene porqué ser así; por ejemplo, una revista de baja calidad cuyos trabajos se citen para ser rebatidos estará generando un gran impacto dentro de la comunidad científica, pero este impacto no es positivo. Además, tampoco debemos perder de vista que dentro de las referencias de artículos hay muchas sombras ("concursos de popularidad", si me citas te cito, y un largo etc.).

En el brillante texto de Amin y Mabe quedan patentes a la perfección todas las limitaciones del IF y aquellos puntos con los que se debe tener especial cuidado a la hora de interpretar los valores de este indicador:

-El valor medio absoluto del IF demuestra una gran variación entre distintos temas. Por tanto, las comparaciones entre IF debe realizarse solo entre revistas del mismo área temática. Debido a que ciertos temas tienes actualmente más repercusión que otros, las revistas de ese área tienen unos IF muy abultados, por ello, la última revista del ranking del área de oncología puede tener un IF mayor que la revista que ocupa el primer puesto dentro del área de la paleontología (por poner un ejemplo), y no por ello significará que su calidad sea menor. 

-Dada la tendencia de los autores a citar sus propios trabajos, no es de extrañar que exista una fuerte correlación entre el número de autores de un artículo y su número de citas. En este punto, la idea de Alonso-Gamboa de excluir las auto-citas me parece una solución razonable y adecuada. 

-Incluso dentro del mismo área temática existe una alta variación del IF según el tipo de revista  o el tipo de artículos contenidos en dicha revista. De ahí que haya que tener especial cuidado al comparar el IF de distintos tipos de revistas o que contengan mezclas de distintos tipos de artículos.

-Como el IF es una media, también sufre variaciones asociadas a efectos estadísticos, los cuales pueden depender del tamaño de la revista (en revistas pequeñas pueden observarse variaciones en el IF de +/- 40% de un año a otro, mientras que en las revistas grandes el IF suele mantenerse más estable y fluctuar en torno al 15%) o de la ventana de medición (cuando aumentamos el marco de años para calcular el IF vemos que las fluctuaciones se suavizan mucho, por lo que usar el IF de los últimos 5 años parece mejor).

-Usar el IF para evaluar a científicos de forma individual es altamente dudoso, dada la variabilidad estadística y sociológica del IF.

-A la hora de calcular el IF hay que tener cuidado con el llamado "problema numerador/denominador": para el denominador muchas revistas solo tienen en cuenta los artículos originales, revisiones y los proceeding papers; mientras que se incluyen las citas de todas las publicaciones de la revista (editoriales, cartas al editor, etc.) en el numerador. Esto conduce a un IF "inflado". De hecho, se estima que el 40% de las revistas de medicina tienen un IF un 10% superior al que les correspondería realmente. 

En conclusión, los llamados indicadores de calidad son totalmente necesarios dentro del mundo de la publicación científica. Dentro de estos, el más extendido en las ciencias fundamentales es el IF, que aunque es muy útil, debe ser interpretado con extremada precaución, ya que no es una medida de directa de calidad, solo de la repercusión que tiene una revista dentro de la comunidad científica. Sin embargo, y como reflexión propia, el hecho de que pertenezca a una empresa privada que cobra por tener acceso a muchos de sus servicios me parece un punto importante en su contra. Creo que la comunidad científica debería tratar de apoyar y propulsar otras iniciativas que contemplen otros indicadores como Scopus o Latinindex, de modo que no se cree una desventaja para las revistas que no se encuentren indexadas en la plataforma de la ISI Web of Science.

Un saludo a todos, feliz navidad y que nadie se atragante con las uvas ;)

Sonia M.H.

sábado, 13 de diciembre de 2014

La documentación científica: las revistas científicas


Tras este descanso de dos semanas, hola de nuevo a todos.

La sesión de ayer me pareció realmente interesante y una gran oportunidad para conocer "cara a cara" a las revistas científicas, de las cuales, hasta ayer yo solo tenía su imagen web. 

Dentro de las revistas relacionadas con las ciencias de la salud, lo primero que me sorprendió fue su tamaño, mucho mayor de lo que me hubiese esperado. Cuando pienso en el concepto "revista" me viene a la mente la típica revista de kiosco, mientras que las revistas científicas parecen auténticos libros. Otra cosa que me llamó mucho la atención fue que una de las revistas que cogí contenía publicidad, de empresas relacionadas con el mundo de la investigación, pero aún así fue algo que me sorprendió mucho, sobretodo en relación con uno de los temas tratados durante la sesión, el económico: si las revistas ya obtienen beneficios de la publicidad, ¿hasta qué punto es comprensible los astronómicos precios que cobran bien al lector, bien al que publica?. Aunque como ya quedó demostrado ayer, eso es tema para otra entrada en exclusiva. Y lo último que me resultó muy curioso es que no fui capaz de encontrar revistas físicas relacionadas con la biología posteriores a 2005, y las que cogí en la propia portada ya adelantaban que en la revista on-line había material extra no incluido en la edición impresa. Esto nos da una pista de cómo ha sido la evolución del papel a la pantalla del ordenador dentro de las revistas científicas del área de ciencias de la salud. 

A parte de esas tres características, el resto era bastante similar a como yo lo había imaginado leyendo previamente artículos científicos. Los artículos tienen una extensión media de 10 páginas, la presentación del contenido es en dos columnas, siempre en inglés, todos los artículos primarios se ciñen al método IMRAD en su estructura interna, contienen abundantes tablas, gráficos y figuras, cada artículo suele tener una media de 40 referencias cuyo formato se ajusta al definido por cada revista, aunque la inmensa mayoría son formato Vancouver o similar,  con ligeras variaciones (por si alguien no lo conoce y le interesa saber cómo es, aquí dejo este enlace: Estilo Vancouver). 

Al margen de esa toma de contacto con la revista física, una de las cosas más interesantes de la sesión fue poder comparar las revistas científicas de nuestro propio ámbito con las de otras ramas de la ciencia.
Por lo que pude comprobar, las revistas de ingeniería (que es una rama más próxima a la biología) siguen un esquema casi idéntico, aunque en ellas podemos encontrar muchísimas ecuaciones propias de la disciplina. 

Mi mayor sorpresa fue ver la diferencias con las revistas de los ámbitos de ciencias sociales. Ya externamente hay diferencias entre ellas: mientras que las revistas de las llamadas "ciencias duras" tienen el tamaño de un cuaderno grande, todas las revistas que vi de ciencias sociales tenían el tamaño más compacto, como el de un libro de bolsillo. También había revistas físicas mucho más actuales, incluso del 2014, mientras que de biología y de ingeniería fue imposible encontrar revistas de los últimos 10 años. Además se nota que en nuestro país estas ciencias tienen más peso y están más desarrolladas que las llamadas "ciencias duras", porque hay muchas revistas de ámbito nacional y escritas en castellano, cosa impensable si te dedicas a la investigación biomédica (lo más cercano a España que puedes aspirar a publicar es en alguna revista europea, ya que las revistas españolas de biomedicina son más divulgativas que otra cosa). Y al abrirlas encontré todo un mundo nuevo dentro de la literatura científica.

En las revistas de sociología, los artículos sí que siguen el método IMRAD, aunque el formato del texto es a página completa, no en dos columnas, todos los artículos estaban escritos en castellano, el apartado de metodología debe comprender tanto la metodología cuantitativa como la cualitativa, el número de elementos diferentes de texto plano es menor que en las revistas de ciencia de la salud o ingeniería (la mayoría son tablas o gráficas relacionadas con la estadística de los datos)... Aunque quizá lo que más me sorprendió fue la existencia de abundantes notas a pie de página (cosa que yo a día de hoy no he visto en ningún artículo del área de ciencias de la salud). 

Y probablemente las más distintas de todas eran las revistas de ciencias jurídicas. Estas revistas sí que parecen más un libro estructurado en capítulos. Los artículos tienen una extensión media de 30 páginas, de nuevo el formato del texto es a página completa, no en dos columnas, también escritos en castellano (a excepción de algunos abstracts en inglés), el formato de cada artículo es totalmente libre, no siguen el método IMRAD, muchos artículos no incluyen conclusiones finales ni un resumen inicial, y tampoco fuimos capaces de encontrar tablas o figuras en las cuatro revistas que consultamos. De nuevo aquí aparecen abundantes notas a pie de página, mucho más extensas que las de las revistas de sociología. 

La conclusión a la que yo llegué en la sesión de ayer es la misma que ya venía elaborando en semanas anteriores: dentro de la ciencia no existe una receta universal en ningún área. No hay un método científico único y por tanto no puede existir un método único de comunicar los resultados científicos. Cada disciplina científica debe buscar sus propios y más adecuados caminos para elaborar y comunicar ciencia. 

Un saludo a todos,

Sonia.

PD: muchas gracias a mis compañeros por darme la oportunidad de conocer todas estas cosas nuevas.