SCImago Institutions Rankings

30 septiembre 2009

SCImago Journal & Country Rank (SJR) no sólo está extendiendo su influencia en la práctica de la evaluación métrica de la investigación, sino que aumenta sus contenidos, siempre sobre la base de la información bibliográfica y de citas procedente de la base de datos Scopus. Nacido hace menos de dos años, SJR acaba de lanzar su sección de ranking de instituciones científicas, SIR, que se suma a los rankings ya disponibles de revistas y de países.

Scimago Institutions Rankings (SIR) constituye un informe sobre las 2.080 instituciones de investigación con mayor producción científica de todo el mundo. En su primera edición, de este año, SIR incluye organismos pertenecientes a 84 países agrupados en varios sectores: centros de educación superior, entidades públicas de investigación, centros biosanitarios, empresas y otros.

De todas ellas, SIR analiza su rendimiento científico entre 2003 y 2007 a través de cinco factores: i) producción total de documentos; ii) citas recibidas por documento en el periodo; iii) colaboración internacional (proporción de artículos publicados en cooperación con investigadores y centros extranjeros); iv) indicador SJR normalizado (media global de la relación entre el SJR de las revistas en que publica la institución y el SJR promedio de las revistas del mismo área temática); y v) índice de citación normalizado (proporción entre el nivel de citas recibidas por la institución y el nivel medio de citas en las áreas temáticas de los artículos publicados).

El informe SIR hace referencia al enorme trabajo realizado para sortear  la dificultad de identificar y normalizar los nombres de las instituciones que los autores mencionan en los datos de afiliación, problema que, desde luego, aunque no se dice, en Scopus se encuentra muy lejos de estar resuelto a pesar del código de identificación que el año pasado introdujeron para controlar los centros de investigación.

Por otro lado, ignoro cómo se las habrán arreglado también en SIR con el problema de que en Scopus hay ¿muchas? referencias sin datos completos de autoría, es decir, que omiten buena parte de los investigadores e instituciones participantes, lo que distorsionaría los resultados, obviamente.

Institutions Rankings 2009 World Report puede consultarse en forma de listado pdf y en versión hoja de cálculo. Además, se presenta como un primer avance de lo que pretende ser una herramienta para hacer evaluación institucional de la investigación, con prestaciones de análisis de datos que permitan monitorizar y auditar el rendimiento científico. El acceso a los instrumentos interactivos, sin embargo, aunque se ofrece en la página de SIR, parece estar pendiente de implementación.

En cualquier caso, no deja de ser impresionante, como decía cuando apareció SJR, que un proyecto semejante de análisis métrico de la ciencia, con tanta fuerza, esté creciendo en España. Su influencia va en aumento, pero, de todas formas, ¿es suficientemente valorado?


«Going beyond Google»

17 May 2009

9781555706333

  1. Characteristics of the invisible web
  2. Use of the web for research
  3. Introducing students to the invisible web
  4. Further exploration of the invisible web
  5. Internet research strategies: an example
  6. A sampler of tools for mining the invisible web
  7. Visible versus invisible web: shifting boundaries

Going beyond Google trata sobre la utilización de la web invisible en la educación: en las enseñanzas informacionales (ALFIN) y en las bibliotecas escolares o académicas, pero también en la enseñanza en general, sin más. Ofrece explicaciones sobre la definición o alcance de la web superficial y la profunda, así como orientaciones y ayuda para impartir clases o formación que conduzca a los estudiantes a ir más allá, a no conformarse con lo que los buscadores generalistas hallan en la red.

La web profunda incluye contenidos seleccionados, evaluados, de calidad, localizables en o a través de bases de datos, repositorios, catálogos y sitios web especializados. Conocer y acceder a esta información es vital para adquirir una preparación intelectual solvente en las escuelas y universidades, piensan los autores, aunque utilizarla no sea tan cómodo, rápido, barato y simple como limitarse a los primeros resultados de Google. 

Transcender a Google, profundizar, es en efecto un ideal educativo, un factor de excelencia, hoy por hoy. Y parece también muy aconsejable una metodología docente que empiece por, que arranque del uso habitual de los buscadores para hacer comprender sus límites y llegar a otros parajes de mayor exigencia, complejidad y calidad. Una metodología ALFIN que enseñe a bucear, frente al corriente surfing.

Pero que Google, u otro ingenio ordenador del conocimiento social más perfeccionado, sea el que de hecho señale el ámbito de lo cognoscible y aprehensible comúnmente (dejando lo exterior para las excepciones) no me parece improbable. ¿Se podrá sobrevivir y prosperar sin saber ni acceder a otra cultura que la que este buscador (o sucesores) transmitan? ¿Será necesario, realmente, aprender, o bastará acudir al conocimiento fácilmente disponible, según vaya haciendo falta?


Wolfram|Alpha, el anuncio

7 May 2009

Reina la expectación, está a punto de nacer, este mismo mes, Wolfram|Alpha, computational knowledge engine, el buscador inteligente. No tengo ni idea si representará la revolución que tantos pronostican, o si por el contrario será más el ruido que las nueces y todo quedará a la larga en poca cosa. Tal vez destrone a Google, según dicen, como ingenio ordenador del conocimiento social, o quizá resulte sin más una nueva herramienta que añadir a la lista de los motores de búsqueda peculiares. El propio anuncio y la ávida curiosidad que rodea su lanzamiento, en todo caso, son significativos de la época que vivimos.

Parece que Wolfram|Alpha explora una base de conocimientos propia procedente de la web profunda, más que rastrear la web. Y pretende dar un salto importante en la recuperación de información mediante lenguaje natural y en el procesamiento inteligente de las consultas, para entregar respuestas elaboradas, aunque a preguntas concretas. Es un buscador factual, según Danny Sullivan.

Lo consiga mejor o peor, lo cierto es que Wolfram|Alpha constituye un intento más en el desarrollo de la inteligencia en red, externalizada, colectiva y digital, que hace menos necesario el aprendizaje y el conocimiento individuales. Cada vez más capacidad de computación y memoria está fuera de los sistemas cognitivos naturales.

Así explica su proyecto el propio Stephen Wolfram en un video:

También en estos sitios, entre muchos otros, se trata del tema:


«Googléame», de B. Cassin

19 abril 2009
  • Cassin, Barbara. Googléame: La segunda misión de los Estados Unidos. Buenos Aires: Fondo de Cultura Económica, 2008.

276822343_140

Los libros sobre Google casi son un género. Éste en concreto, traducido y publicado en Argentina, muy recomendable, es un examen desde el lado de la filosofía francesa. Barbara Cassin presenta al buscador como lo que pretende ser, el gran ordenador mundial de la información, desempeñando una misión de globalización estadounidense, destinada a poner orden en el caos. Una misión que se añadiría a la primera vocación de la gran potencia, combatir las fuerzas del mal.

La autora analiza críticamente la actividad de Google bajo sus dos lemas (organizar toda la información del mundo haciéndola accesible a todos y no ser malvado) y cuestiona su potencial para democratizar de verdad la cultura y el conocimiento. Según Cassin, en Google la calidad y la relevancia aparecen como propiedades emergentes de la cantidad (de enlaces), de manera automática y opaca, sin deliberación, crítica, ni consenso. La cultura y el conocimiento se reducen a mera información. Google revela y ordena toda la web con unas pretensiones que Cassin tacha de totalitarismo organicista, detentando un monopolio de facto en la red, propio de un Gran Hermano.

La conducta del buscador en la confidencialidad del correo electrónico, en sus relaciones con los poderes políticos (E.U.A., China), su multilingüismo superficial (diversos sabores y plato único), o sus ambiciones en la digitalización de libros, demuestran para Barbara Cassin que Google no es fiel al universalismo democrático que predica ni respeta una noción integral de la cultura. Google aparece como el gran mediador, mercader y calculador de las opiniones, más que de las verdades, a la altura de la sofística griega, pero carente de paideia.

«… Google es un campeón de la democracia cultural, pero sin cultura ni democracia. Porque no es un maestro ni en cultura (la información no es la paideia) ni en política (la democracia de los clics no es una democracia) (…) … Google es antidemocrático porque es profundamente estadounidense, sin darnos los medios de saberlo, de cuestionar su universalidad, de tal modo que estadounidense caiga por su propio peso como universal…»

  • La crítica de Cassin me parece en general atinada, pero expresada con la envoltura filosófica propia de la melancolía culturalista y humanista. Lo cierto es que, de hecho, la cultura no es más que información, por más que Google lo venga a poner de manifiesto al representar un gran paso en la industrialización de la información y en el desarrollo de una inteligencia compartida e intermedia, neurodigital. Y al patentizarlo empresarialmente.
  • La relevancia googleleana se inspira en la técnica de la citación científica, que extiende a toda la red, bien que de forma automática y, en efecto, «sin deliberación». Pero tampoco el desarrollo de la ciencia es perfectamente racional y deliberativo… El problema es que estamos, de nuevo, simplemente, ante un caso de masiva industrialización informacional, que se contrapone a la artesanía y al arte del conocimiento y la educación, sin duda más cuidadosos. Google ejerce el poder de la simplificación.
  • La defensa del pluriculturalismo y la apuesta por lo francés o lo europeo, por parte de Cassin, deberían ir acompañadas de la contrición por la frecuente impotencia e incompetencia continentales frente a la globalización angloamericana.

Papers, de Mekentosj

21 marzo 2009

Papers es un software para organizar y gestionar una colección personal de artículos científicos (pdfs, etc.) en el ordenador propio. Permite trabajar con las referencias bibliográficas, buscar y conseguir los documentos en internet explorando diversas bases de datos y repositorios científicos, clasificarlos y localizarlos de diversas maneras, incluso rastrear por texto completo, grabar anotaciones en ellos al leerlos, etc. Sirve para usar la documentación de forma muy flexible, variada y cómoda, pero no tiene, sin embargo, por ahora, todas las prestaciones de RefWorksEndNote para la inclusión de citas en la redacción de nuevos textos.

Mekentosj, nacido como Mek&Tosj, es una compañía formada por dos investigadores holandeses del campo biomédico dedicados ahora a la informática científica. El nombre de la empresa es un juego de palabras en neerlandés con la marca del célebre ordenador de Apple y los supuestos apodos de ambos colegas, entusiastas de dicha tecnología.

Papers, que nació en 2007, pertenece en efecto sólo al mundo Apple, no lo hay para Windows o Linux. Desde hace poco se ha lanzado, en cambio, una versión para iPods e iPhones. Funciona, se dice, muy al estilo de iTunes, el software de Apple para música. Aunque limitado a ese hardware, Papers está teniendo bastante éxito. Una licencia individual cuesta sólo 29 €. Quizá su penetración es mayor en el terreno biomédico que en otros sectores, porque es donde ha nacido, en sintonía con PubMed. Pero también capta información bibliográfica y/o documentos de Web of Science y Scopus, CiteSeer, ArXiv, NASA/ADS, ACM Library, IEEE Xplore, MathSciNet, Google Books/Scholar, etc.

Por lo que opinan sus usuarios, Papers es un instrumento sencillo, potente, versátil y práctico. Pero va un tanto a contrapelo, y no sólo, que también, por ser Apple. No almacena información en la nube, sino que la guarda en casa. Da rienda suelta a la pasión por hacerse y atesorar la propia biblioteca particular recopilando pdfs, creando el «autorrepositorio». Y sólo facilita la movilidad a través de gadgets físicos y muy personales.

De esta manera, el programa Papers no resulta nada social, es más bien individualista y materialista. Representa una perspectiva diferente a la de «compartir e intercambiar» aprovechando la sabiduría 2.0 de las multitudes (o al menos la de grupos selectos), presente en otras herramientas (CiteULike, Connotea, 2collab) y hasta en los gestores de referencias que permiten compartir archivos (RefShare). Con Papers el investigador se orienta más bien a buscar su autonomía con contenidos seleccionados y organizados por sí mismo que conserva físicamente a buen recaudo. Un workflow introvertido, digamos. Incluso, de manera ligeramente provocadora, Mekentosj usa el lema «Your personal library of Science», que alude a la PLoS.

Parece que, simplemente, en el fecundo caldo de cultivo de las TIC proliferan especies informativas muy distintas, de contenidos y de contenedores; reina la diversidad, tal vez ni siquiera la competencia. ¿O quizás ésta es una fase en la evolución del programa y también Papers se hará inexorablemente social?


«La revolución Wikipedia»

7 marzo 2009

wikipedia

La revolución Wikipedia es un breve y ameno reportaje sobre (y en buena medida contra) la célebre enciclopedia cooperativa online. Es un ensayo de tipo periodístico y, aunque no puede considerarse un estudio profundo y riguroso, no le falta ponderación, dentro de una perspectiva claramente crítica. Reúne además numerosas anécdotas y ejemplos que ilustran, a juicio de los autores, la organización y funcionamiento de Wikipedia y, por tanto, en muchos casos, sus defectos y problemas.

La sustancia de la crítica que se realiza a Wikipedia en la obra reside en su falta de fiabilidad (errores, bromas, manipulaciones, parcialidad, escaso rigor, bajo nivel, ausencia de garantías, etc.) y en su falta de sistema (no estructura, ni organiza, ni clasifica, ni ordena, ni jerarquiza el conocimiento, es puramente acumulativa).

En sentido contrario, La revolución Wikipedia muestra escaso aprecio hacia las presuntas virtudes de la revolución: participación colectiva, accesibilidad ubicua, gratuidad universal, reactividad a las novedades, etc. Parece que atribuye algunas de estas virtudes más que a una supuesta democracia a una auténtica demagogia del conocimiento.

El último capítulo (Cómo ser wiki-inteligente) es bastante interesante, porque plantea la cuestión de la pedagogía o de la educación informacional con Wikipedia: opciones para un uso inteligente de la herramienta, para aprender a utilizar críticamente las fuentes de información en general, para profundizar con los instrumentos de acceso al conocimiento. Uno de los aspectos que aborda es las ventajas que aporta ser redactor activo de Wikipedia, frente a consumir de forma pasiva sus contenidos.

En mi opinión, en una perspectiva micro, seguramente tiene sentido esa intervención educativa, dirigida a enseñar el uso inteligente individual de Wikipedia u otros recursos digitales de información: una enseñanza que ni impugna globalmente como anatema, ni ensalza como panacea, la Wikipedia, sino que la coloca en su lugar.

Examinando el asunto con una perspectiva más amplia, Wikipedia es una forma de inteligencia colectiva, de enjambre… En cuanto tal, su virtud no es la excelencia, sino la extensión. Pero posee una estructura relativamente organizada y convencional en comparación con géneros informativos más recientes y futuros; de hecho, algunos le reprochan no ser bastante interactiva, distribuida y reticular. En cualquier caso, forma parte de un complejo de información ubicua, externalizada y replicable, en buena medida alternativo al basado en la educación y el aprendizaje personal.


JCR con Eigenfactor y más

4 febrero 2009

Las últimas novedades introducidas hace pocos días en los Journal Citation Reports (JCR) del ISI Web of Knowledge suponen una mejora interesante en la información métrica que ofrecen sobre las revistas científicas. Sobre todo porque facilitan datos complementarios al clásico y omnipresente factor de impacto. Los cambios principales son cuatro, pero sólo afectan a las ediciones de JCR (Science y Social Science) de 2007, no a las anteriores:

  1. Se proporcionan de cada revista dos nuevos indicadores procedentes de Eigenfactor.org: Eigenfactor y Article Influence. (Puede verse otra entrada en este blog al respecto). Son indicadores elaborados con datos de Web of Science pero fuera de su entorno, obtenidos, por acuerdo con sus desarrolladores. Valoran la importancia de las revistas en función de la propia influencia iterativamente ponderada de las revistas que la citan, siguiendo el modelo del algoritmo PageRank de Google, e igual que hace el indicador SJR de SJR Journal & Country Rank sobre datos bibliográficos de Scopus.
  2. JCR ha añadido también un nuevo factor de impacto a 5 años, es decir, calculado sobre la base de las citas realizadas a los artículos de cinco (y no dos) años de cada revista. Ello es obviamente útil para sectores de la ciencia donde la vida útil de los artículos es más dilatada en el tiempo, como en las matemáticas, las ciencias sociales, etc.
  3. Con los datos de cada revista, ahora se muestra Journal Rank in Categories, una tabla síntesis de su posición por factor de impacto en las categorías temáticas a las que pertenece, que resulta práctica para enterarse rápidamente de su situación relativa respecto a los demás títulos, sin tener que ir a localizarla en cada lista. También se ofrece un gráfico con la distribución de los valores del factor de impacto en la categoría temática (media, mediana, percentiles, etc.)
  4. También con los datos de cada revista, otra tabla informa de la contribución de sus autocitas a su factor de impacto, mejorándose la vigilancia y control sobre este aspecto de la evaluación de las revistas que tantas suspicacias levanta.

Las nuevas prestaciones de JCR no sólo enriquecen los servicios de la fuente de información, sino que es de esperar que ayuden a aligerar la obsesión excesiva con el factor de impacto como único patrón de medida de la calidad científica. Ver en el propio JCR más criterios de calidad, tan interesantes como Eigenfactor, hacer comparaciones fáciles, puede contribuir a descongestionar.

Tácticamente, todo ello pone en valor a JCR permitiéndole eludir la sempiterna acusación por la responsabilidad de la impactitis reinante en todas partes: se ha diversificado.

Lo que se echa de menos, en fin, es una mejora en la interfaz de consulta, que ha evolucionado poco para lo que suelen cambiar estas cosas ahora.


Dialnet, un caso singular

24 enero 2009

Dialnet es un producto o servicio peculiar, atípico en el ecosistema español. No ha nacido como resultado de un macroproyecto financiado por algún modernizador programa europeo; no es fruto de un complejo esfuerzo cooperativo, confederativo o consorciado por parte de diferentes instancias políticas, geográficas, administrativas o empresariales; no se mantiene tampoco hospedado en un nicho de los presupuestos públicos por la pura inercia de una larga trayectoria discutiblemente fecunda… Es además algo surgido entre bibliotecarios, desprovisto, a pesar de su importante proyección, de bendiciones políticas o glamour tecnovanguardista.

dialnet_22 

En realidad, por su curriculum, Dialnet parece norteamericano, algo forjado por sí mismo. Lo crearon en La Rioja para solucionar sus problemas y se ha ido desarrollando en función de las necesidades, siguiendo un hilo conductor, pero con pocos apriorismos. De hecho, Dialnet es un recurso singular (y hasta difícil de definir), que no copia sin más modelos ajenos, en contra de lo que es frecuente en España. Aunque expuesto a las influencias y las tendencias, ha abierto y recorre su propio camino: creciendo, progresando y extendiéndose de abajo arriba, de dentro afuera, de menos a más. Con liderazgo claro y sin perder el timón, desde La Rioja han ido agregando voluntades, aunando esfuerzos, incorporando socios y contenidos… demostrando que no se trata de un producto de temporada.

Extraño también es que, exagerando, la Universidad de la Rioja casi podría llegar a ser conocida en el mundo como el lugar desde cuya Biblioteca se puso en marcha Dialnet. Siendo quizá la universidad pública más pequeña de España, de la más pequeña región, es muy notable que dirija una empresa así, que en el ámbito de los negocios podría considerarse un líder global en su sector.

No voy a comentar aquí las prestaciones o el funcionamiento de Dialnet, pues me interesa más su peculiar biografía, su estilo como especimen informacional en el paisaje español. Seguramente no hace todo bien, no es perfecto. Tampoco todas sus decisiones son dignas de aplauso. Pero es algo especial por su recorrido y por los resultados que ha alcanzado.

La verdad es que siempre he tenido la incómoda sensación de no saber bien qué es, o adónde va, Dialnet. Siempre me ha parecido un poco desdibujado, sin perfiles nítidos, sin objetivos claros. Pero esta ambigüedad o indefinición tal vez es parte de su éxito, una inconcreción que le abre puertas y posibilidades. Quizá entre los servicios gratuitos, en línea, no sea tan necesario delimitar perfectamente los productos y mercados como contar con masa crítica: suficientes contenidos, prestaciones y usuarios.

El caso es que una finalidad al menos siempre ha estado clara: gracias a Dialnet mucha de la producción científica hispana es visible y accesible en internet, a través de buscadores, etc. Ello lo convierte en un importante foco de difusión cultural en la red, con un sentido abierto e integrador, universalista y eficaz al tiempo. Su propia definición y vocación como «hispano» es sin duda sensible y singular, inteligente y bien trabada, uno de sus muchos aciertos.


WikiGenes, ¿la ciencia wiki?

20 enero 2009

Hace casi un año comentaba la noticia sobre una sugerencia para desarrollar GenBank al estilo «Wikipedia». Han aparecido otras iniciativas y experimentos en esa línea, casi siempre en las ciencias de la vida: PDBWiki, Proteopedia, Topsan, WikiPathways, WikiGenes, SNPedia, etc. (*) Pero no está claro que la ciencia wiki vaya a despegar como nuevo género o formato de comunicación científica; tal vez sólo sirva para el saber consolidado, el conocimiento común: ¿demasiada competencia en la frontera para aportaciones desinteresadas?

Hoy día hay tecnología para cultivar la producción, acumulación y mejora colectivas del conocimiento a partir de contribuciones individuales. Y en algunas ramas del saber muy productivas, en biología y medicina sobre todo, se necesitan grandes fuentes de información actualizada y sintética, con datos e interpretaciones, que podrían crecer de forma continua y cooperativa. Sin embargo, desarrollar una gran base de conocimiento especializado a partir de numerosas aportaciones sucesivas y graduales encierra dificultades metodológicas (evaluación, integración y coherencia del nuevo conocimiento) y organizativas (en el sistema institucionalizado de investigación interesa que la responsabilidad de cada investigador quede de manifiesto, por múltiples razones).

wikigenespng

WikiGenes representa un curioso intento: es una wiki en la que la autoría importa, en la que se puede identificar cada aportación al desarrollo de la fuente de información. Se trata de una plataforma para que la comunidad científica reúna, difunda y evalúe información científica sobre genes, proteínas, sustancias químicas, enfermedades y otros temas de biología y medicina en general, en acceso abierto. Su pretensión es llegar a ser una herramienta científica rigurosa a través de la revisión continua y colectiva de sus contenidos.

Una nota publicada en Nature Genetics hace meses por Robert Hoffmann, uno de sus responsables, explica que WikiGenes surge de abajo arriba, desde la colaboración individual de los investigadores, y que se plantea como un híbrido de publicación científica tradicional y de publicación dinámica y cooperativa (wiki). WikiGenes ha arrancado, como substrato, de unos cien mil artículos generados automáticamente a partir de otra fuente de información, IHOP.

WikiGenes permite al lector, pulsando las diferentes palabras y con menús contextuales, ver con (cierta) claridad qué autor ha introducido o modificado cada fragmento de texto y qué textos ha interpolado cada autor, en un documento y en el conjunto de la fuente. Con ello se intenta atribuir a cada cual sus méritos y además prevenir el vandalismo anónimo. Las contribuciones de los investigadores, además, pueden ser evaluadas por los colegas mediante un sistema de puntuación, una forma de open peer review con la que se pretende reemplazar en cierto modo el refeering. Obviamente, para agregar contenidos es preciso registrase con una cuenta personal. Los procedimientos de edición son sencillos, y también es posible la gestión controlada de terminología científica para crear hipervínculos unívocos con los conceptos de genes, sustancias químicas, etc.

Desde luego WikiGenes es técnicamente ingenioso. Pero me quedan dudas de si para una gran fuente textual el sistema de control de la autoría resulta inteligible y manejable, útil y atractivo, práctico, etc. Habrá que esperar y ver lo que la comunidad científica decide.

La ciencia wiki en general es un tema que mueve a la reflexión y plantea incertidumbre. Se trata de otra forma de inteligencia colectiva y de ciencia 2.0… Y parece una manera de fomentar la producción industrializada, rápida y a gran escala, de conocimiento. Pero no sé, y creo que no se sabe, si es viable o no pasa del experimento.

(*) Waldrop, M. 2008. Big Data: Wikiomics. Nature, 455(7209):22-25.

P.S. 02-07-09: Sobre este tema he escrito también en ThinkEPI esto: Academia y ciencia colectiva.


Proceedings Citation Indexes

21 octubre 2008

En la esforzada pugna que mantiene con Scopus, de Elsevier, y también con Google Scholar, la plataforma de bases de datos científicas ISI Web of Knowledge, de Thomson Reuters, acaba de realizar un importante avance al fortalecer el potencial de su Web of Science con los nuevos Conference Proceedings Citation Indexes: ha transformado sus dos bases de datos tradicionales ISI Proceedings en índices de citas, al estilo del Science Citation Index, creando:

  • Conference Proceedings Citation Index, Science
  • Conference Proceedings Citation Index, Social Sciences & Humanities,

y ha incorporado ambos recursos, con el resto de los Citation indexes, al conjunto Web of Science, que se consulta en el ISI Web of Knowledge.

El cambio es significativo:

  • Mejora la integración o cohesión de la plataforma de bases de datos, uno de sus puntos débiles, al reducirse el número de ficheros o lugares donde buscar, sin merma de funcionalidad (como sucede en la búsqueda transversal de «All databases»).
  • Se posibilita ahora la recuperación y análisis de citas basados en el tratamiento correspondiente de la literatura de congresos y conferencias, tan relevante en algunos sectores de conocimiento muy dinámicos y profesionales.
  • Se incorpora al Web of Science mucha documentación aplicada, se deshace la disociación entre la investigación pura y la tecnológica, rompiéndose con una trayectoria del Science Citation Index de especialización en la ciencia-ciencia.
  • El Web of Science pasa a reunir referencias de revistas científicas junto con literatura de congresos, seminarios y simposios, el artículo de revista pierde algo de su hegemonía y se atiende a información científicotécnica menos consolidada o madura.
  • Con todo ello aumenta el volumen del recurso y su capacidad para atender a distintos sectores del conocimiento, permitiéndole competir mejor con la enorme cobertura e integración que ofrecen al usuario Scopus y Google Scholar.

De hecho, este movimiento realizado por Thomson Reuters en el ISI Web of Knowledge (como el de acoger centenares de revistas regionales) revela que se siente touché y que está dispuesto en parte a sacrificar la pureza originaria (basada en un fuerte espíritu de selección y de concentración en la ciencia pura, publicada en revistas en inglés…), a cambio de mantener su propio impacto.


Maritime Answers y workflows

13 octubre 2008

Maritime Answers es un buscador especializado en temas de náutica, transporte y navegación marítima. Ha sido puesto en marcha hace pocos meses, fruto de la colaboración entre Informa Maritime & Transport, una editorial del sector naval responsable del portal de información y las publicaciones Lloyd’s List, y la empresa tecnológica Convera, que crea servicios de «búsqueda vertical» en internet (más recientemente ha desarrollado un buscador para óptica e ingeniería fotónica con el Institute of Physics: search.optics.org).

Maritime Answers permite buscar en All Maritime Answers domains o en la Web en general, pero no aclara qué dominios o tipos de contenidos explora, o qué motor de búsqueda o técnicas emplea. Clasifica los resultados obtenidos en cuatro categorías: All, news, jobs, events. No ofrece asistencia o consejos sobre cómo buscar y carece de una búsqueda avanzada. Acompaña los resultados con noticias, búsquedas populares y enlaces recomendados que remiten en muchos casos a contenidos de la empresa editorial patrocinadora.

Una aportación extra de los editores a Maritime Abstracts es una especie de wiki-diccionario sobre el sector de la industria naval, Shippipedia, que complementa con definiciones y artículos breves la información localizada en páginas web a través del buscador.

Maritime Abstracts sin duda parece útil e interesante, por su especialización sectorial, y a pesar de su simplicidad. Lo peor es la falta de explicación sobre su funcionamiento, alcance, límites y contexto: esa manera de tratar al usuario como un mero target al que fidelizar en el consumo de información del editor/propietario de contenidos que promociona el buscador. Pero así son las cosas.

Como dice expresivamente la nota de prensa que los socios de Maritime Answers sacaron con motivo de su lanzamiento: lo esencial es colocarse en los workflows de los clientes (en los nuevos workflows digitales, colaborativos, etc.), situando en ellos las marcas editoriales mediante buscadores verticales, widgets, toolbars y otras herramientas o dispositivos. 

Maritime Answers es un caso de marketing digital que ayuda entender otras iniciativas editoriales y comunicativas. Introducirse en los workflows del cliente y canalizar tráficos hacia los contenidos propios, creando comunidades online leales, permite competir con y segmentar el macronegocio transversal de Google. Un buscador vertical además aprovecha la ventaja comparativa de la pertinencia y especialización, frente al maremágnum generalista de Google. 


CiteSeerX, y ChemXSeer

25 septiembre 2008

Después de diez años de funcionamiento, hace varios meses que CiteSeer, la conocida fuente de información y documentos del sector de las ciencias de la computación, se ha renovado y ha renacido como CiteSeerX, con un nuevo sistema e interfaz. Alojada en el College of Information Sciences and Technology de la Pennsylvania State University, está ahora sólo bajo la dirección de C. Lee Giles.

Continuidad:

CiteSeerX vuelve a definirse como un buscador y una biblioteca digital de literatura científica. Mantiene la misma orientación de promover la comunicación libre y gratuita del conocimiento. Continúa capturando los artículos que los autores inscriben con su localización en la Red. Proporciona referencias, documentos digitales en PDF y PostScript y todo un sistema de índices de citas. Incluye informes técnicos, prepublicaciones, artículos de revista y, sobre todo, papers de congresos y conferencias, un tipo de literatura que es tan relevante en informática y computación.

CiteSeerX sigue explotando su sistema automático de indización de citas (Autonomous Citation Indexing) y mostrando el contexto que rodea a las citas en el texto del documento citante. Ofrece como antes listas de documentos relacionados (co-citados, co-citantes) y datos de citas a documentos no incluidos en el sistema. Y permite también buscar por texto completo.

Y cambio:

Entre las novedades, destaca el crecimiento que supone CiteSeerX: se ha pasado de 760.000 a 1.160.000 documentos. El sistema de búsqueda avanzada, con ser bastante esquemático, significa también una considerable mejora respecto a la «caja única» del antiguo CiteSeer. En general, la presentación se ha enriquecido, dentro de un estilo marcadamente espartano. A tono con ello, han aparecido prestaciones personalizadas, previo registro: MyCiteSeerX.

Lo más interesante de todo es que los datos y contenidos están actualizados. Por ejemplo, los más básicos y utilizados rankings de impacto de las fuentes («venues») son muy recomendables, porque calculan el impacto de series de congresos y conferencias que no figuran en Web of Science, Journal Citation Reports, Scopus, SJR, etc. Y en España, seguro, se usan mucho. Aparecen rankings anuales desde 1993 hasta 2007: 576 títulos en este último año. También hay rankings de autores, documentos y citas (referencias citadas no incluidas en CiteSeerX) más citados.

No veo, sin embargo, ni rastro en CiteSeerX de la búsqueda por agradecimientos («acknowledgements»), que existía en CiteSeer y representaba un desarrollo experimental muy sugerente para la indagación sobre la estructura social de la ciencia.

Y también ChemXSeer:

En la estela de CiteSeerX, pero en el campo de la química, sobre todo de la química ambiental, está comenzando su camino ChemXSeer, también bajo el impulso peculiar del profesor C. Lee Giles. Se trata de un motor de búsqueda, fuente de documentos y de datos que por ahora opera de modo experimental, indizando sobre todo contenidos de la Royal Society of Chemistry.

ChemXSeer aspira a rastrear en internet y a alojar documentos científicos, así como a explotar inteligentemente la información química, al menos en tres direcciones: (i) la búsqueda de entidades químicas, moléculas, etc., (ii) la extracción automática y aprovechamiento de datos de tablas contenidas en los documentos y (iii) el tratamiento, conservación y recuperación de data sets (bancos de datos) experimentales obtenidos de varias procedencias y en distintos formatos.