RefAware, alertas de RefWorks

31 marzo 2008

Hace pocas semanas la empresa ProQuest anunció que había adquido el gestor de referencias RefWorks y ahora acaba de poner en marcha RefAware, una herramienta que proporciona alertas sobre artículos publicados en revistas internacionales.

refaware.gif

Aunque se puede contratar por sí solo, RefAware se facilita como un complemento a las instituciones que utilizan RefWorks, cuyos usuarios pueden probar este nuevo servicio dándose de alta con el correo electrónico de su cuenta RefWorks. Con RefAware se pueden suscribir alertas sobre los contenidos que se publican en unas 8.000 revistas científicas (cuya relación se muestra en una ayuda, e incluso hay un formulario para proponer la inclusión de nuevas fuentes). Es posible mantener hasta diez alertas, que se definen mediante palabras clave, títulos de revista o autores.

RefAware permite una sencilla administración de las referencias periódicamente obtenidas y enlazar a los textos completos. Por supuesto, facilita la exportación de los registros seleccionados a RefWorks, o a archivos de texto. De forma opcional, el usuario puede encargar notificaciones por correo electrónico que le avisen de las nuevas referencias encontradas. En definitiva, RefAware funciona de manera similar a un agregador de feeds, pero no requiere suscribir cada feed por separado (de hecho, RefWorks incluye ya un lector de feeds).

Diríamos, pues, que RefAware sirve para alimentar a RefWorks, aparece como un proveedor de referencias, sencillo y general, para el gestor bibliográfico: una forma de suministrar gratuita, regular y fácilmente contenidos directos a las cuentas de RefWorks. Así, la nueva herramienta enriquece al gestor de referencias y refuerza su posición, frente a los productos de Thomson Scientific y especialmente frente a la fuerte asociación ISI Web of KnowledgeEndNote Web.

Desde el punto de vista del usuario, RefAware puede ser otro dispositivo más para capturar información. En comparación con bases de datos especializadas no se ve mayor ventaja que la posible anticipación con que aparecen los contenidos de las revistas (muchas veces en fase de preparación), frente a los servicios de los editores secundarios. Los inconvenientes son la menor cobertura de la documentación (fuentes que no son revistas, etc.) y un peor análisis de la información (descriptores, sistemas de búsqueda, etc.)

Anuncios

GenBank, ciencia y lo wiki

29 marzo 2008

Otro ejemplo relevante de e-ciencia, aunque no tiene que ver con grid, ni con ciencia distribuida, es GenBank, una de las fuentes de datos científicos más conocidas, seguramente, y un exponente básico de la tecnociencia biológica. GenBank es un archivo de secuencias de DNA obtenidas como resultado de investigaciones específicas, avaladas mediante alguna publicación formal, que se ponen a disposición de la comunidad científica. Se trata, pues, de un sistema público, abierto y cooperativo, sostenido por el National Center of Biotechnology Information (NCBI) de los National Institutes of Health (NIH).

GenBank nació hace ya tiempo, en 1982, si bien su despegue y crecimiento está siendo espectacular desde hace diez años, como el de toda la genómica, proteómica y la biotecnología en general. Ahora incluye cerca de doscientos mil millones de bases de DNA, según una noticia reciente de la revista Science (*). Los registros de GenBank se pueden consultar en diferentes configuraciones de ficheros y mediante diversas interfaces de recuperación y explotación: principalmente Entrez, el sistema con que también se utiliza PubMed, y BLAST, un conjunto de herramientas especializadas para el tratamiento informático de biosecuencias.

Me ha llamado la atención el contenido de la mencionada noticia de Science (*). El precipitado crecimiento de GenBank, según sus críticos, está llevando a demasiados errores, que resultan muy graves, porque el archivo en cuestión es una de las fuentes de referencia para el progreso en la investigación genética (junto con las que mantienen, coordinadamente, EMBL en Europa y el DNA Data Bank of Japan). Pues bien, varios especialistas en micología, habiendo detectado errores importantes en secuencias de DNA de diversos hongos, se han dirigido al NCBI para proponer que se permita a los investigadores que descubran fallos en GenBank corregirlos libremente, modificar los datos en el archivo. O sea, editar los contenidos un poco al estilo de la Wikipedia. Los responsables del NCBI han contestado que ni hablar, y que existen procedimientos para promover la corrección o las apostillas a los datos. Que no van a “wikizar” GenBank.

La ciencia es una actividad intersubjetiva de depuración y tratamiento de información en la que se genera nueva información más fiable, pero este caso conduce a reflexionar y dudar acerca de cuánto de abierta, interactiva y participativa haya de ser dicha tarea. O sea, sabemos que la ciencia es esencialmente comunicativa, pero los asuntos ahora se complican: ¿cuánto de comunicativa, cuánto de wiki debe ser, exactamente? Se construyen e-infraestructuras para hacer ciencia distribuida, ¿debería ser GenBank más liberal, más moderno? ¿Dónde se ponen los límites y en qué casos se ponen límites? ¿Habrá que estudiar cada proyecto, cada circunstancia, analizar en concreto, en cada comunidad investigadora?

(*)  Pennisi, E. Proposal to ‘Wikify’ GenBank Meets Stiff Resistance. Science, 2008, 319(5870):1598-1599 


E-ciencia, casos y ejemplos

26 marzo 2008

C. Borgman propone en su libro (Scholarship in the digital age) promover la “content layer” de la e-ciencia, que incluiría los resultados de la investigación, documentos y datos, objeto de organización y conservación estables en un marco semidocumental, según ella.

La e-ciencia es tecnociencia en su máxima expresión, investigación tan industrializada como es posible. Consiste en infraestructuras tecnológicas para la producción colectiva y organizada de conocimiento científico. Y me temo que distinguir o separar continentes y contenidos, resultados y medios, no va a ser fácil en un futuro fertilizado por la capacidad prolífica de la computación científica a gran escala, por el vigor de la información depurándose, especializándose y propagándose en red. 

La e-ciencia se desarrolla, con grandes apoyos públicos, en los terrenos clásicos de la big science (altas energías, astronomía y espacio, biología molecular, etc.) y también en aquellos que usan muchos datos y potencia de cálculo: ciencias de la tierra, clima y atmósfera, fluidos, materiales, problemas complejos de biomedicina e ingeniería, etc. Una gran parte de la e-ciencia usa tecnologías grid, de computación distribuida (hay un artículo breve en las CSA Discovery Guides sobre Grid computation).

La e-ciencia puede incluir: captación de información observacional, mediante sensores remotos e instrumentación; simulación o modelización computacional de fenómenos; cálculo y tratamiento numérico de datos masivos y complejos; herramientas colaborativas de interacción; y almacenamiento y uso compartido de resultados factuales, textuales y documentales, en diversos estadios de elaboración o maduración, por parte de las comunidades científicas.

Algunos sitios de interés, experiencias e iniciativas sobre e-ciencia son por ejemplo los siguientes: 

  • EGEE, Enabling Grids for E-sciencE: proyecto de la Unión Europea que proporciona una plataforma de computación grid multidisciplinar e internacional (32 países).
  • NeSC, National e-Science Centre: centro nacional británico para la e-ciencia, sitio general informativo sobre e-ciencia en el Reino Unido, con enlaces a todo el sistema.
  • OSG, Open Science Grid: infraestructura grid estadounidense para computación científica distribuida, financiada por la NSF y la Office for Science del Department of Energy.
  • GEON, Geosciences Network: plataforma de investigación geocientífica cooperativa de diversas instituciones norteamericanas, ya muy consolidada.
  • TeraGrid: infraestructura de computación científica norteamericana, multisectorial y cooperativa, de gran capacidad.
  • NEON, National Ecological Observatory Network: sistema de observación y seguimiento de los ecosistemas, en EUA, para estudiar su evolución, mediante sensores remotos.
  • Interactive European Grid: proyecto de plataforma grid europea, coordinado por el Instituto de Física de Cantabria, del CSIC.
  • OGF, Open Grid Forum: comunidad internacional para el desarrollo y estandarización de tecnologías grid.
  • IRISGrid: iniciativa nacional para la implantación y desarrollo de entornos grid en España, gestionada por RedIRIS
  • Iniciativa e-Ciencia del IFCA, Instituto de Física de Cantabria (CSIC): proyectos, información y documentación sobre e-ciencia.

P.S. 02-07-09: En relación con este tema he escrito en ThikEPI también esto: Academia y ciencia colectiva.


Scholarship in the digital age

19 marzo 2008

pubda-med.jpg

Scholarship in the digital age está escrito desde la perspectiva de los “estudios sobre información” (Information studies), con un enfoque cercano a la Documentación. Desde ese ángulo examina el desarrollo de lo que, simplificando, puede llamarse e-ciencia, la ciencia en el mundo digital y sus infraestructuras tecnológicas. Describe su evolución, sus problemas y las vías de solución o mejora para el futuro. Reseño los aspectos que a mí me parecen más destacados.

Reivindicación de los contenidos. Borgman reivindica ante todo el valor de la propia información científica, de los contenidos, así como la necesidad de promover, cuidar y desarrollar organizada y eficazmente la “content layer” de la e-ciencia, la infraestructura para la información, y no sólo la infraestructura técnica (equipos, comunicaciones, sistemas, cálculo, etc.) Una llamada de atención al instrumentalismo.

Importancia de las fuentes de datos. La autora destaca con acierto la relevancia creciente, en particular, de los datasets de la investigación (“data deluge”), los archivos de datos observacionales, experimentales, de modelización informática, etc., como contenidos de la e-ciencia (Open data, etc.) Sin embargo, no trata este fenómeno en relación con la computación científica (Grid, etc.), que cita sólo al inicio del libro.

E-ciencia y ciencia abierta. Borgman entiende, con razón, que, siguiendo una antigua tradición (Principio de acceso), la e-ciencia está destinada a procurar la comunicación y uso compartidos de los recursos intelectuales, y que por tanto está vinculada, por unos u otros caminos, a la idea de ciencia abierta, de acceso abierto al conocimiento.

TICs y normas sociales de la ciencia. Las instituciones, pautas y procedimientos por los que se rige la investigación están cambiando mucho menos que la tecnología informacional. Borgman propone que las futuras novedades dirigidas a desarrollar la e-ciencia tengan muy en cuenta las dinámicas sociales del sistema, para conseguir sus objetivos transformadores.

“Vamos a construir la e-ciencia”. Todo el libro está imbuido de la idea de que vivimos un momento crítico en el que podemos y debemos planear y organizar cómo será globalmente en el futuro una infraestructura estable y duradera de la información científica. Yo creo, al contrario, que el éxito de las innovaciones no se puede programar y que el complejo mundo digital no se planifica de una vez, sino que crece y se desarrolla más bien como la madreselva. Tampoco es de esperar nada estable, duradero o uniforme.

Cadena de valor y tecnociencia. Inteligentemente, Borgman apela al concepto de “cadena de valor” para defender la necesidad de una e-ciencia integrada y coherente. En buena ingeniería de procesos, una tecnociencia industrial y productiva exigiría una cadena de valor bien organizada para la elaboración sistemática y rentable de conocimiento, frente a la proliferación desordenada de contenidos. Y sin embargo …

Organizando el saber humano. Bajo los rigurosos análisis y descripciones de Borgman late el viejo ideal de avanzar en la organización del saber humano, un (mito) clásico entre profesionales de la información. Me parece que Borgman está defendiendo para estos (legítimamente) un lugar al sol de la e-ciencia, entre tantos y tantos “stakeholders” como tiene el invento.


ResearchTrail, buscar experto

14 marzo 2008

Parece sensato pensar que volúmenes de información mayores suponen una dificultad creciente para recuperar información pertinente. Ha pasado siempre, de forma inapelable, con cualquier medio de registro de la información. Cuando la tecnología de recuperación de repente mejora gana terreno un tiempo, hasta que la tecnología de producción de contenidos (que es básicamente la misma) satura de nuevo el ambiente, restaurando el equilibrio inestable. Y viceversa. Es aquello de las disoluciones, los solutos y los disolventes, algo físico, algo natural.

logo_home.jpg

Una de las estrategias a las que se está recurriendo, o volviendo a recurrir, ahora, para encontrar información entre tanta información, es utilizar organizamente a buscadores humanos expertos. Un ejemplo reciente, recién puesto en marcha, es el de ResearchTrail, subtitulado Expert Powered Search, y que tiene como lema “Stop searching. Start Finding”.

ResearchTrail se define como una comunidad de búsqueda, un entorno de colaboración entre personas expertas en buscar información y personas que necesitan información. O sea, intenta ser un lugar de encuentro donde individuos y empresas puedan intercambiar tanto apoyo gratuito como prestaciones comerciales en materia de servicios y búsquedas de información.

La formulación más sugerente de la finalidad de ResearchTrail, en sus propios términos, es que pretende cubrir el hueco que hay entre (i) el extenso y profundo conocimiento de las fuentes de información y de las técnicas de búsqueda que tienen los especialistas en información y (ii) el planteamiento de “meter un par de palabras en Google” con que la mayoría de la gente afronta las búsquedas, con las consiguientes deficiencias en la calidad de los resultados. Intuyo que en esta descripción del asunto no andan descaminados.

Obviamente, los promotores de ResearchTrail son profesionales de la información que quieren abrir un espacio de actividad y un mercado para los conocimientos profesionales de quienes están especializados (SearchPros) en buscar información y pueden ser útiles, por solidario amor al arte o facilitando sus servicios mediante una tarifa.

Entre los riesgos que se pueden atisbar en ResearchTrail está la excesiva complejidad, tanto desde el punto de vista técnico como funcional, al pretender incluir demasiadas cosas: ofertantes y demandantes de información, prestaciones gratuitas y comerciales, de diferentes categorías y niveles, difíciles de normalizar y empaquetar inteligiblemente. Otro de los peligros es el de la proliferación de las menudencias y trivialidades: por el momento en ciencia y tecnología los temas (Trails) dominantes (entre seis, a día de hoy) son las plantas de interior en habitaciones con poca luz y cómo evitar las peleas entre hamsters.

Ignoro cuánto recorrido puede tener por delante esta iniciativa, pero ha llamado mi atención, entre otras cosas, por el coraje que demuestran los profesionales norteamericanos.


“Technical writing A-Z”

11 marzo 2008

Como su título indica con claridad, este es un libro sobre redacción técnica en ingeniería organizado alfabéticamente. Aborda 150 temas o entradas que cubren todos los aspectos básicos de la materia, tratados de manera muy sencilla y breve, para estudiantes y jóvenes titulados que necesiten una guía dónde consultar con rapidez alguna cosa. Como tiene 230 páginas, de media se dedica a cada tema una página y media.

az.jpg 

El contenido de la obra, dentro de su simplicidad, deliberada, está muy bien. Está pensado para resolver dudas concretas, más que para aprender y formarse, desde luego. Ofrece recomendaciones claras y escuetas sobre formato, clases y estructura de los escritos técnicos; escritura, redacción y lenguaje (en idioma inglés); notación matemática y simbología científica; abreviaturas, números, unidades y conversión de magnitudes; composición de figuras y tablas; manuales de estilo y convenciones de escritura; técnicas de cita y elaboración de referencias; propiedad intelectual y plagio; etc.

Sin embargo, a mí la ordenación alfabética de una guía de este tipo me pone nervioso. Porque incluso aunque se encuentre pronto, en el mejor de los casos, la entrada donde resolver la duda que se busca aclarar, faltará el contexto, la red de relaciones, la posición en una estructura conceptual. Y frecuentemente hay que empezar un recorrido de entrada en entrada, gracias a las remisiones en negrita, para reconstruir todo un tema por cuenta propia, lo que es más costoso que verlo organizado por el autor. Y además se pierde el armazón global de la estructura del libro, que es significativo y útil en sí mismo, aunque no se lea de principio a fin y se consulte sólo fragmentariamente. A mí me parece que la ordenación sistemática de una guía es más didáctica e informativa, más racional y clara que la desestructuración alfabética. Porque esto no es una enciclopedia ni un directorio.


Contagio y educación (2)

9 marzo 2008

La sociedad de la información aparece cuando las tecnologías electrónicas provocan rápidos flujos y masiva proliferación y recombinación de información, que acelera todos los procesos sociales. Se trata de un fenómeno natural de aumento de la densidad informacional, que prolonga en el ámbito sociocultural la organización biológica basada en códigos genéticos (El continuo informacional).

El resultado es que la información, sustentada electrónicamente, envuelve a los homosapiens. Las potentes dinámicas informacionales que se generan ponen de manifiesto el papel de la información como sujeto impulsor de los cambios y la evolución social (Hipótesis sobre la información).

En particular, con las TIC se multiplica el contagio viral de la información: formas simples y automatizadas de transferencia informativa, de aprendizaje colectivo y de generación replicativa de conocimiento social. Estos fenómenos de contagio tienen lugar dentro de una simbiosis homosapiens-máquina, en la que los individuos-sujeto y la sociedad-sujeto pierden relevancia frente a la inteligencia compartida en red. En estas formas de conocimiento, los individuos aportan poco de su parte a la formación del saber, son más bien nodos por los que fluye la información colectiva.

La intervención educativa, en cualquiera de las dos versiones descritas en Contagio y educación (1), ha estado basada en el papel activo de la sociedad (educador) o del individuo (educando) como sujetos agentes de un aprendizaje formal y estructurado. Si los individuos se forman ahora predominante y tempranamente por impregnación e inmersión difusas en una red de inteligencia tecnosocial, los especialistas en diseño curricular lo tienen difícil. Tanto el poder socializador de la educación como la autonomía reflexiva del individuo están en cuestión frente a la avalancha informacional.

Por otra parte, ya puestos en pesimista a inventariar riesgos, un exceso de contagio viral no sólo cuestiona la educación tradicional:

  • La inmersión semiinconsciente de los individuos en los impetuosos circuitos y mercados de la información, de las industrias y economía de la información, puede convertirlos en esclavos consumidores, alienados en un entramado que les absorbe sin mediaciones reflexivas. 
  • La conexión automática de los individuos a los potentes sistemas de replicación de la información, puede también convertirlos en nodos intelectualmente pasivos, en meros reproductores digitales de contenidos, enganchados al poder inmenso de la red simbiótica de conocimiento externalizado.

Claro, todo esto son riesgos (relativamente) si especulamos sub specie humanitatis, porque mirando el asunto en cuanto polvo de estrellas el orden cósmico no se verá afectado para nada.