SCImago Institutions Rankings

30 septiembre 2009

SCImago Journal & Country Rank (SJR) no sólo está extendiendo su influencia en la práctica de la evaluación métrica de la investigación, sino que aumenta sus contenidos, siempre sobre la base de la información bibliográfica y de citas procedente de la base de datos Scopus. Nacido hace menos de dos años, SJR acaba de lanzar su sección de ranking de instituciones científicas, SIR, que se suma a los rankings ya disponibles de revistas y de países.

Scimago Institutions Rankings (SIR) constituye un informe sobre las 2.080 instituciones de investigación con mayor producción científica de todo el mundo. En su primera edición, de este año, SIR incluye organismos pertenecientes a 84 países agrupados en varios sectores: centros de educación superior, entidades públicas de investigación, centros biosanitarios, empresas y otros.

De todas ellas, SIR analiza su rendimiento científico entre 2003 y 2007 a través de cinco factores: i) producción total de documentos; ii) citas recibidas por documento en el periodo; iii) colaboración internacional (proporción de artículos publicados en cooperación con investigadores y centros extranjeros); iv) indicador SJR normalizado (media global de la relación entre el SJR de las revistas en que publica la institución y el SJR promedio de las revistas del mismo área temática); y v) índice de citación normalizado (proporción entre el nivel de citas recibidas por la institución y el nivel medio de citas en las áreas temáticas de los artículos publicados).

El informe SIR hace referencia al enorme trabajo realizado para sortear  la dificultad de identificar y normalizar los nombres de las instituciones que los autores mencionan en los datos de afiliación, problema que, desde luego, aunque no se dice, en Scopus se encuentra muy lejos de estar resuelto a pesar del código de identificación que el año pasado introdujeron para controlar los centros de investigación.

Por otro lado, ignoro cómo se las habrán arreglado también en SIR con el problema de que en Scopus hay ¿muchas? referencias sin datos completos de autoría, es decir, que omiten buena parte de los investigadores e instituciones participantes, lo que distorsionaría los resultados, obviamente.

Institutions Rankings 2009 World Report puede consultarse en forma de listado pdf y en versión hoja de cálculo. Además, se presenta como un primer avance de lo que pretende ser una herramienta para hacer evaluación institucional de la investigación, con prestaciones de análisis de datos que permitan monitorizar y auditar el rendimiento científico. El acceso a los instrumentos interactivos, sin embargo, aunque se ofrece en la página de SIR, parece estar pendiente de implementación.

En cualquier caso, no deja de ser impresionante, como decía cuando apareció SJR, que un proyecto semejante de análisis métrico de la ciencia, con tanta fuerza, esté creciendo en España. Su influencia va en aumento, pero, de todas formas, ¿es suficientemente valorado?

Anuncios

“Going beyond Google”

17 mayo 2009

9781555706333

  1. Characteristics of the invisible web
  2. Use of the web for research
  3. Introducing students to the invisible web
  4. Further exploration of the invisible web
  5. Internet research strategies: an example
  6. A sampler of tools for mining the invisible web
  7. Visible versus invisible web: shifting boundaries

Going beyond Google trata sobre la utilización de la web invisible en la educación: en las enseñanzas informacionales (ALFIN) y en las bibliotecas escolares o académicas, pero también en la enseñanza en general, sin más. Ofrece explicaciones sobre la definición o alcance de la web superficial y la profunda, así como orientaciones y ayuda para impartir clases o formación que conduzca a los estudiantes a ir más allá, a no conformarse con lo que los buscadores generalistas hallan en la red.

La web profunda incluye contenidos seleccionados, evaluados, de calidad, localizables en o a través de bases de datos, repositorios, catálogos y sitios web especializados. Conocer y acceder a esta información es vital para adquirir una preparación intelectual solvente en las escuelas y universidades, piensan los autores, aunque utilizarla no sea tan cómodo, rápido, barato y simple como limitarse a los primeros resultados de Google. 

Transcender a Google, profundizar, es en efecto un ideal educativo, un factor de excelencia, hoy por hoy. Y parece también muy aconsejable una metodología docente que empiece por, que arranque del uso habitual de los buscadores para hacer comprender sus límites y llegar a otros parajes de mayor exigencia, complejidad y calidad. Una metodología ALFIN que enseñe a bucear, frente al corriente surfing.

Pero que Google, u otro ingenio ordenador del conocimiento social más perfeccionado, sea el que de hecho señale el ámbito de lo cognoscible y aprehensible comúnmente (dejando lo exterior para las excepciones) no me parece improbable. ¿Se podrá sobrevivir y prosperar sin saber ni acceder a otra cultura que la que este buscador (o sucesores) transmitan? ¿Será necesario, realmente, aprender, o bastará acudir al conocimiento fácilmente disponible, según vaya haciendo falta?


Wolfram|Alpha, el anuncio

7 mayo 2009

Reina la expectación, está a punto de nacer, este mismo mes, Wolfram|Alpha, computational knowledge engine, el buscador inteligente. No tengo ni idea si representará la revolución que tantos pronostican, o si por el contrario será más el ruido que las nueces y todo quedará a la larga en poca cosa. Tal vez destrone a Google, según dicen, como ingenio ordenador del conocimiento social, o quizá resulte sin más una nueva herramienta que añadir a la lista de los motores de búsqueda peculiares. El propio anuncio y la ávida curiosidad que rodea su lanzamiento, en todo caso, son significativos de la época que vivimos.

Parece que Wolfram|Alpha explora una base de conocimientos propia procedente de la web profunda, más que rastrear la web. Y pretende dar un salto importante en la recuperación de información mediante lenguaje natural y en el procesamiento inteligente de las consultas, para entregar respuestas elaboradas, aunque a preguntas concretas. Es un buscador factual, según Danny Sullivan.

Lo consiga mejor o peor, lo cierto es que Wolfram|Alpha constituye un intento más en el desarrollo de la inteligencia en red, externalizada, colectiva y digital, que hace menos necesario el aprendizaje y el conocimiento individuales. Cada vez más capacidad de computación y memoria está fuera de los sistemas cognitivos naturales.

Así explica su proyecto el propio Stephen Wolfram en un video:

También en estos sitios, entre muchos otros, se trata del tema:


“Googléame”, de B. Cassin

19 abril 2009
  • Cassin, Barbara. Googléame: La segunda misión de los Estados Unidos. Buenos Aires: Fondo de Cultura Económica, 2008.

276822343_140

Los libros sobre Google casi son un género. Éste en concreto, traducido y publicado en Argentina, muy recomendable, es un examen desde el lado de la filosofía francesa. Barbara Cassin presenta al buscador como lo que pretende ser, el gran ordenador mundial de la información, desempeñando una misión de globalización estadounidense, destinada a poner orden en el caos. Una misión que se añadiría a la primera vocación de la gran potencia, combatir las fuerzas del mal.

La autora analiza críticamente la actividad de Google bajo sus dos lemas (organizar toda la información del mundo haciéndola accesible a todos y no ser malvado) y cuestiona su potencial para democratizar de verdad la cultura y el conocimiento. Según Cassin, en Google la calidad y la relevancia aparecen como propiedades emergentes de la cantidad (de enlaces), de manera automática y opaca, sin deliberación, crítica, ni consenso. La cultura y el conocimiento se reducen a mera información. Google revela y ordena toda la web con unas pretensiones que Cassin tacha de totalitarismo organicista, detentando un monopolio de facto en la red, propio de un Gran Hermano.

La conducta del buscador en la confidencialidad del correo electrónico, en sus relaciones con los poderes políticos (E.U.A., China), su multilingüismo superficial (diversos sabores y plato único), o sus ambiciones en la digitalización de libros, demuestran para Barbara Cassin que Google no es fiel al universalismo democrático que predica ni respeta una noción integral de la cultura. Google aparece como el gran mediador, mercader y calculador de las opiniones, más que de las verdades, a la altura de la sofística griega, pero carente de paideia.

“… Google es un campeón de la democracia cultural, pero sin cultura ni democracia. Porque no es un maestro ni en cultura (la información no es la paideia) ni en política (la democracia de los clics no es una democracia) (…) … Google es antidemocrático porque es profundamente estadounidense, sin darnos los medios de saberlo, de cuestionar su universalidad, de tal modo que estadounidense caiga por su propio peso como universal…”

  • La crítica de Cassin me parece en general atinada, pero expresada con la envoltura filosófica propia de la melancolía culturalista y humanista. Lo cierto es que, de hecho, la cultura no es más que información, por más que Google lo venga a poner de manifiesto al representar un gran paso en la industrialización de la información y en el desarrollo de una inteligencia compartida e intermedia, neurodigital. Y al patentizarlo empresarialmente.
  • La relevancia googleleana se inspira en la técnica de la citación científica, que extiende a toda la red, bien que de forma automática y, en efecto, “sin deliberación”. Pero tampoco el desarrollo de la ciencia es perfectamente racional y deliberativo… El problema es que estamos, de nuevo, simplemente, ante un caso de masiva industrialización informacional, que se contrapone a la artesanía y al arte del conocimiento y la educación, sin duda más cuidadosos. Google ejerce el poder de la simplificación.
  • La defensa del pluriculturalismo y la apuesta por lo francés o lo europeo, por parte de Cassin, deberían ir acompañadas de la contrición por la frecuente impotencia e incompetencia continentales frente a la globalización angloamericana.

Papers, de Mekentosj

21 marzo 2009

Papers es un software para organizar y gestionar una colección personal de artículos científicos (pdfs, etc.) en el ordenador propio. Permite trabajar con las referencias bibliográficas, buscar y conseguir los documentos en internet explorando diversas bases de datos y repositorios científicos, clasificarlos y localizarlos de diversas maneras, incluso rastrear por texto completo, grabar anotaciones en ellos al leerlos, etc. Sirve para usar la documentación de forma muy flexible, variada y cómoda, pero no tiene, sin embargo, por ahora, todas las prestaciones de RefWorksEndNote para la inclusión de citas en la redacción de nuevos textos.

Mekentosj, nacido como Mek&Tosj, es una compañía formada por dos investigadores holandeses del campo biomédico dedicados ahora a la informática científica. El nombre de la empresa es un juego de palabras en neerlandés con la marca del célebre ordenador de Apple y los supuestos apodos de ambos colegas, entusiastas de dicha tecnología.

Papers, que nació en 2007, pertenece en efecto sólo al mundo Apple, no lo hay para Windows o Linux. Desde hace poco se ha lanzado, en cambio, una versión para iPods e iPhones. Funciona, se dice, muy al estilo de iTunes, el software de Apple para música. Aunque limitado a ese hardware, Papers está teniendo bastante éxito. Una licencia individual cuesta sólo 29 €. Quizá su penetración es mayor en el terreno biomédico que en otros sectores, porque es donde ha nacido, en sintonía con PubMed. Pero también capta información bibliográfica y/o documentos de Web of Science y Scopus, CiteSeer, ArXiv, NASA/ADS, ACM Library, IEEE Xplore, MathSciNet, Google Books/Scholar, etc.

Por lo que opinan sus usuarios, Papers es un instrumento sencillo, potente, versátil y práctico. Pero va un tanto a contrapelo, y no sólo, que también, por ser Apple. No almacena información en la nube, sino que la guarda en casa. Da rienda suelta a la pasión por hacerse y atesorar la propia biblioteca particular recopilando pdfs, creando el “autorrepositorio”. Y sólo facilita la movilidad a través de gadgets físicos y muy personales.

De esta manera, el programa Papers no resulta nada social, es más bien individualista y materialista. Representa una perspectiva diferente a la de “compartir e intercambiar” aprovechando la sabiduría 2.0 de las multitudes (o al menos la de grupos selectos), presente en otras herramientas (CiteULike, Connotea, 2collab) y hasta en los gestores de referencias que permiten compartir archivos (RefShare). Con Papers el investigador se orienta más bien a buscar su autonomía con contenidos seleccionados y organizados por sí mismo que conserva físicamente a buen recaudo. Un workflow introvertido, digamos. Incluso, de manera ligeramente provocadora, Mekentosj usa el lema “Your personal library of Science”, que alude a la PLoS.

Parece que, simplemente, en el fecundo caldo de cultivo de las TIC proliferan especies informativas muy distintas, de contenidos y de contenedores; reina la diversidad, tal vez ni siquiera la competencia. ¿O quizás ésta es una fase en la evolución del programa y también Papers se hará inexorablemente social?


“La revolución Wikipedia”

7 marzo 2009

wikipedia

La revolución Wikipedia es un breve y ameno reportaje sobre (y en buena medida contra) la célebre enciclopedia cooperativa online. Es un ensayo de tipo periodístico y, aunque no puede considerarse un estudio profundo y riguroso, no le falta ponderación, dentro de una perspectiva claramente crítica. Reúne además numerosas anécdotas y ejemplos que ilustran, a juicio de los autores, la organización y funcionamiento de Wikipedia y, por tanto, en muchos casos, sus defectos y problemas.

La sustancia de la crítica que se realiza a Wikipedia en la obra reside en su falta de fiabilidad (errores, bromas, manipulaciones, parcialidad, escaso rigor, bajo nivel, ausencia de garantías, etc.) y en su falta de sistema (no estructura, ni organiza, ni clasifica, ni ordena, ni jerarquiza el conocimiento, es puramente acumulativa).

En sentido contrario, La revolución Wikipedia muestra escaso aprecio hacia las presuntas virtudes de la revolución: participación colectiva, accesibilidad ubicua, gratuidad universal, reactividad a las novedades, etc. Parece que atribuye algunas de estas virtudes más que a una supuesta democracia a una auténtica demagogia del conocimiento.

El último capítulo (Cómo ser wiki-inteligente) es bastante interesante, porque plantea la cuestión de la pedagogía o de la educación informacional con Wikipedia: opciones para un uso inteligente de la herramienta, para aprender a utilizar críticamente las fuentes de información en general, para profundizar con los instrumentos de acceso al conocimiento. Uno de los aspectos que aborda es las ventajas que aporta ser redactor activo de Wikipedia, frente a consumir de forma pasiva sus contenidos.

En mi opinión, en una perspectiva micro, seguramente tiene sentido esa intervención educativa, dirigida a enseñar el uso inteligente individual de Wikipedia u otros recursos digitales de información: una enseñanza que ni impugna globalmente como anatema, ni ensalza como panacea, la Wikipedia, sino que la coloca en su lugar.

Examinando el asunto con una perspectiva más amplia, Wikipedia es una forma de inteligencia colectiva, de enjambre… En cuanto tal, su virtud no es la excelencia, sino la extensión. Pero posee una estructura relativamente organizada y convencional en comparación con géneros informativos más recientes y futuros; de hecho, algunos le reprochan no ser bastante interactiva, distribuida y reticular. En cualquier caso, forma parte de un complejo de información ubicua, externalizada y replicable, en buena medida alternativo al basado en la educación y el aprendizaje personal.


JCR con Eigenfactor y más

4 febrero 2009

Las últimas novedades introducidas hace pocos días en los Journal Citation Reports (JCR) del ISI Web of Knowledge suponen una mejora interesante en la información métrica que ofrecen sobre las revistas científicas. Sobre todo porque facilitan datos complementarios al clásico y omnipresente factor de impacto. Los cambios principales son cuatro, pero sólo afectan a las ediciones de JCR (Science y Social Science) de 2007, no a las anteriores:

  1. Se proporcionan de cada revista dos nuevos indicadores procedentes de Eigenfactor.org: Eigenfactor y Article Influence. (Puede verse otra entrada en este blog al respecto). Son indicadores elaborados con datos de Web of Science pero fuera de su entorno, obtenidos, por acuerdo con sus desarrolladores. Valoran la importancia de las revistas en función de la propia influencia iterativamente ponderada de las revistas que la citan, siguiendo el modelo del algoritmo PageRank de Google, e igual que hace el indicador SJR de SJR Journal & Country Rank sobre datos bibliográficos de Scopus.
  2. JCR ha añadido también un nuevo factor de impacto a 5 años, es decir, calculado sobre la base de las citas realizadas a los artículos de cinco (y no dos) años de cada revista. Ello es obviamente útil para sectores de la ciencia donde la vida útil de los artículos es más dilatada en el tiempo, como en las matemáticas, las ciencias sociales, etc.
  3. Con los datos de cada revista, ahora se muestra Journal Rank in Categories, una tabla síntesis de su posición por factor de impacto en las categorías temáticas a las que pertenece, que resulta práctica para enterarse rápidamente de su situación relativa respecto a los demás títulos, sin tener que ir a localizarla en cada lista. También se ofrece un gráfico con la distribución de los valores del factor de impacto en la categoría temática (media, mediana, percentiles, etc.)
  4. También con los datos de cada revista, otra tabla informa de la contribución de sus autocitas a su factor de impacto, mejorándose la vigilancia y control sobre este aspecto de la evaluación de las revistas que tantas suspicacias levanta.

Las nuevas prestaciones de JCR no sólo enriquecen los servicios de la fuente de información, sino que es de esperar que ayuden a aligerar la obsesión excesiva con el factor de impacto como único patrón de medida de la calidad científica. Ver en el propio JCR más criterios de calidad, tan interesantes como Eigenfactor, hacer comparaciones fáciles, puede contribuir a descongestionar.

Tácticamente, todo ello pone en valor a JCR permitiéndole eludir la sempiterna acusación por la responsabilidad de la impactitis reinante en todas partes: se ha diversificado.

Lo que se echa de menos, en fin, es una mejora en la interfaz de consulta, que ha evolucionado poco para lo que suelen cambiar estas cosas ahora.