TIC y creación de conocimiento

7 octubre 2009

Siento curiosidad sobre la influencia de la tecnología digital, del crecimiento del medio tecnodigital, en las dinámicas informacionales y cognitivas que tienen lugar en individuos, organizaciones y poblaciones humanas. Por eso me ha sorprendido gratamente un artículo que constituye un estudio empírico sobre la relación entre la aplicación de las TIC y la generación de conocimiento en las empresas, basado en concreto en el análisis del trabajo de dos equipos de investigación dedicados a desarrollar nuevos productos en el sector de la automoción:

VACCARO, A.; VELOSO, F.; BRUSONI, S. 2009. The impact of virtual technologies on knowledge-based processes: an empirical study. Research Policy, 38(8):1278-1287. DOI 10.1016/j.respol.2009.06.012.

El trabajo se basa en el esquema de los cuatro modos de creación de conocimiento en las organizaciones de Nonaka (*): SOCIALIZACIÓN (de tácito a tácito), EXTERNALIZACIÓN (de tácito a explícito), COMBINACIÓN (de explícito a explícito) e INTERNALIZACIÓN (de explícito a tácito). Las conclusiones más interesantes para mí del estudio son que la aplicación intensiva de las TIC a los procesos de innovación en las empresas:

  • Crea una dimensión, un entorno virtual que influye de forma decisiva en los procesos cognitivos individuales y corporativos.
  • Genera un super conocimiento tácito más rico y difícil de volcar explícitamente que el generado con métodos tradicionales.
  • Impulsa la socialización suprageográfica del conocimiento, elimina la necesidad de proximidad física para aprender/innovar.
  • Cataliza los procesos de internalización cognitiva en la organización, por diversos procedimientos.
  • Tiene un impacto muy limitado, en cambio, paradójicamente, en la externalización, codificación o formalización del conocimiento.

Aparte de las consecuencias prácticas para las empresas que los autores deducen de todo esto, yo extraigo ideas que no dejan de sorprenderme:

Las TIC hacen crecer sobre todo el CONOCIMIENTO TÁCITO, menos formal y verbalizable, más vinculado a los propios sistemas cognitivos, en este caso artificiales, que a documentos. Potencian la inteligencia dependiente del propio medio tecnodigital, radicada en sistemas de enseñanza y entrenamiento virtuales, simuladores y entornos de aprendizaje, redes de conocimiento compartido, etc. Con ello adquiere más importancia la propagación viral de conocimiento, el aprendizaje por contagio, la imitación informal… Más inteligencia, inexpresable, reside en el medio externo a los homosapiens; más que en la codificación formalizadora y racionalizadora, consciente.

(*) NONAKA, I. A dynamic theory of organizational knowledge creation. Organization Science, 1994, 5(1):14-37


RUSC, universidad, educación

31 May 2009

La Universitat Oberta de Catalunya (UOC) viene publicando desde 2004 la Revista de Universidad y Sociedad del Conocimiento (RUSC), que se dedica al estudio y promoción del e-learning y las TIC en la educación superior. Se completan dos números al año y el director de la publicación es Josep M. Duart, profesor de la UOC y responsable de su Cátedra UNESCO de e-learning.

RUSC es sin duda una de las más interesantes publicaciones que se editan en España sobre educación basada en la tecnología, por los autores que colaboran y la especialización y calidad de sus contenidos. Ha abordado temas como los aspectos sociales del e-learning, las estrategias universitarias de transformación tecnológica y la presencia de las universidades en internet, el uso de contenidos digitales en la enseñanza, las formas de aprendizaje mediante las TIC, el acceso abierto a los materiales educativos, la economía del e-learning, la participación de las universidades en la globalización y en el desarrollo regional, la construcción cooperativa de conocimiento, la relación entre cultura digital y educación, etc.

RUSC, como otras publicaciones, estudios y foros semejantes, combina lo tecnológico y lo pedagógico en una síntesis peculiar: un discurso que podríamos llamar tecnoeducación o edutecnología:

  • La tecnoeducación propicia que la enseñanza, los profesores y los estudiantes se adapten fielmente a la evolución de internet y las TIC, las cuales no son ya tanto medios intrumentales como los elementos determinantes del proceso y el contexto educativo.
  • Aunque el discurso tecnoeducativo es relativamente unitario y coherente, no proporciona modelos organizativos para la práctica docente: las soluciones efectivas son múltiples, heterogéneas y cambiantes, la enseñanza se «desformaliza» o «desistematiza».
  • La transmisión o la adquisición de conocimientos es reemplazada por la depuración de las capacidades manipulativas de los estudiantes y por la inmersión y participación conjunta, de alumnos y profesores, en la red digital del conocimiento social.
  • La tecnoeducación amalgama, colectiviza; la comunidad y la inteligencia comunitaria basada en las TIC tienden a ser las protagonistas; el trabajo y el saber cooperativos, a través de contenedores y canales tecnológicos, representan el ideal.
  • La antigua ambición de formación integral de las personas, de una pieza, deja el sitio preferente al objetivo de adquirir y desarrollar competencias, destrezas o habilidades en función de las demandas del individuo, la sociedad y el mercado.
  • Se propugna la transformación tecnológica de las universidades, aún a pesar de que los sistemas de gestión y organización de estas instituciones apenas cambian y no facilitan estrategias unitarias, ágiles y consistentes.

Así pues, el discurso tecnoeducativo envuelve, sigue, acompaña, a la evolución de la infotecnología y a la propagación de contenidos mediante ella. Aporta coherencia y apoya a las realidades emergentes, en su plural conformación. ¿Intenta quizás de esta manera salvar la educación, en alguna versión al menos?


«Piel digital», de Juan Freire

7 enero 2009

He descubierto el blog de Juan Freire en Soitu.es, llamado Piel digital. De Juan Freire conocía su reciente y breve artículo en El profesional de la información, Redes sociales: ¿modelos organizativos o servicios digitales?, que me gustó mucho, la verdad, por dos razones: por las raíces hasta cierto punto naturalistas de su enfoque (al fin y al cabo, él es biólogo) y porque no viene a ser un publirreportaje de MySpace, Facebook y demás negocios 2.0.

Piel digital constituye también una lectura estimulante, ciertamente, y lo recomiendo a cualquiera. Trata sobre «lo digital», así bastante en general: la cultura, la educación, la tecnología, la economía, el arte, la sociedad, las empresas, etc. Quede para otra ocasión comentar quizá algunos de los temas que trata en particular, muy interesantes,  como los cyborgs cognitivos, el comisariado digital, la educación informal, etc. Con algunas cosas estoy de acuerdo y con otras no.

Pero Piel digital lleva como lema o subtítulo «La tecnología nos hace humanos» y me parece que nada puede ser más contradictorio: la piel no nos puede hacer humanos. Es verdad que en la polifacética y casi enciclopédica proyección intelectual de Juan Freire también está el urbanismo y la arquitectura (publica en ADN otro blog: Ciudades enredadas). Y que, por lo que explica, bajo esa inspiración de los «espacios urbanos» ha elegido el título Piel digital. Pero yo creo que la biología ofrece claves (y metáforas) mucho más sólidas y fecundas para entender lo digital que el urbanismo.

Es muy cierto que la tecnología nos hace humanos, desde el momento en que el homosapiens surge fabricando y comunicándose sus «fabricaciones». Pero no puede decirse que lo digital sea epidérmico y superficial (salvo en un sentido superficial), que nos circunde como un revestimiento o segunda piel, o como un simple ámbito o espacio en que nos movemos libremente… Lo digital es información, y es por tanto prolongación de lo neural y lo genético, de lo que nos constituye, no de lo que nos envuelve. Porque existimos y funcionamos como resultado de la información, de alguna clase, digital o no. Y otras perspectivas son ilusorias.

Por tanto, lo de la piel digital, es una imagen que me convence poco, que puede valer para el diseño urbano o el interiorismo, pero que difícilmente ayuda a comprender la evolución sociocultural. Al fin y al cabo la piel es un terminal bastante tonto del dispositivo neurológico y hasta como elemento de «relación» y de «percepción» resulta más bien rudimentario. O sea, que no me convence el título del blog, por muy interesante que sea su contenido.


Límites de la investigación

22 noviembre 2008

Leyendo algunas noticias o atendiendo a debates recientes sobre la ética de la investigación científica o el desarrollo tecnológico, sobre lo que se debe y no se debe hacer, vuelvo a recordar la naturaleza inexorablemente prometeica (o frankensteiniana) de los homosapiens, de la que escribía hace tiempo.

En realidad las noticias y debates son constantes: el uso de materiales y dispositivos nanotecnológicos, el desarrollo y cultivo de plantas y organismos modificados genéticamente, la investigación con células madre, la producción selectiva de embriones o criaturas de nuestra especie con fines terapéuticos o de otro tipo, etc. Aunque tan diferentes, todos son casos que despiertan enconadas discusiones sobre la conveniencia social y los límites morales, políticos, etc. del conocimiento y la técnica… Feas palabras: límites, prohibiciones, censuras… que suenan mal a los oídos contemporáneos.

En caso de que se quisiera, creo que sería difícil, a largo plazo, poner restricciones eficaces a la investigación y al desarrollo de la tecnología. Constitutivamente, los sistemas neuronales de los homosapiens, y mucho más ahora con el complemento de la computación artificial (masiva, reticular y ubicua) son un medio en el que la información y el conocimiento evolucionan y se propagan de forma enérgica. Si esta característica natural se refuerza porque existen incentivos o catalizadores como el lucro, el bienestar, la seguridad o la supervivencia inmediatas, entonces la investigación, la depuración de la información, es probable que avance con fuerza, por muchas cortapisas que se introduzcan. Otra cosa es que los mercados no demanden determinadas novedades. (O que, a sabiendas de todo esto, se juzgue necesario, a pesar de todo, intentar las restricciones, en alguna medida).

tree_of_knowledge

La pasión de la curiosidad hasta el extremo no sólo está representada en el mito griego de Prometeo o en la creación romántica del Doctor Frankenstein de Shelley. También, por supuesto, figura en el mito judeocristiano del Árbol de la ciencia del bien y del mal.

Este árbol tenía el único fruto prohibido del Paraíso, pero estoy convencido de que Dios sabía perfectamente que el hombre y la mujer acabarían comiendo justo de él, asegurándose en consecuencia a la larga una vida esforzada y penosa: que estaban destinados a esa elección.


Proceedings Citation Indexes

21 octubre 2008

En la esforzada pugna que mantiene con Scopus, de Elsevier, y también con Google Scholar, la plataforma de bases de datos científicas ISI Web of Knowledge, de Thomson Reuters, acaba de realizar un importante avance al fortalecer el potencial de su Web of Science con los nuevos Conference Proceedings Citation Indexes: ha transformado sus dos bases de datos tradicionales ISI Proceedings en índices de citas, al estilo del Science Citation Index, creando:

  • Conference Proceedings Citation Index, Science
  • Conference Proceedings Citation Index, Social Sciences & Humanities,

y ha incorporado ambos recursos, con el resto de los Citation indexes, al conjunto Web of Science, que se consulta en el ISI Web of Knowledge.

El cambio es significativo:

  • Mejora la integración o cohesión de la plataforma de bases de datos, uno de sus puntos débiles, al reducirse el número de ficheros o lugares donde buscar, sin merma de funcionalidad (como sucede en la búsqueda transversal de «All databases»).
  • Se posibilita ahora la recuperación y análisis de citas basados en el tratamiento correspondiente de la literatura de congresos y conferencias, tan relevante en algunos sectores de conocimiento muy dinámicos y profesionales.
  • Se incorpora al Web of Science mucha documentación aplicada, se deshace la disociación entre la investigación pura y la tecnológica, rompiéndose con una trayectoria del Science Citation Index de especialización en la ciencia-ciencia.
  • El Web of Science pasa a reunir referencias de revistas científicas junto con literatura de congresos, seminarios y simposios, el artículo de revista pierde algo de su hegemonía y se atiende a información científicotécnica menos consolidada o madura.
  • Con todo ello aumenta el volumen del recurso y su capacidad para atender a distintos sectores del conocimiento, permitiéndole competir mejor con la enorme cobertura e integración que ofrecen al usuario Scopus y Google Scholar.

De hecho, este movimiento realizado por Thomson Reuters en el ISI Web of Knowledge (como el de acoger centenares de revistas regionales) revela que se siente touché y que está dispuesto en parte a sacrificar la pureza originaria (basada en un fuerte espíritu de selección y de concentración en la ciencia pura, publicada en revistas en inglés…), a cambio de mantener su propio impacto.


«The claims of Google Scholar»

21 septiembre 2008

En este artículo Bruce White opina que, desde su aparición en 2004, Google Scholar ha causado entre los profesionales de la información y las bibliotecas un gran revuelo, pero que, en general, se han mostrado críticos: según ellos no es una fuente de información científica seria y valiosa; por su deficiente funcionamiento, no se puede comparar con bases de datos como Web of Science, PubMed, SciFinder, etc.

Gran parte del revuelo suscitado entre dichos profesionales, se debe, según White, al miedo de que, a pesar de todo, los usuarios finales (científicos, estudiantes, etc.) acaben enganchados a Google Scholar, abandonando las fuentes de calidad. Se teme que sean víctimas de la adición a lo fácil, cómodo y rápido, a costa del rigor y la excelencia.

El autor del artículo, por el contrario, no cree que los usuarios acaten esa ley del mínimo esfuerzo de forma inexorable. Y piensa además que hay aspectos en que Google Scholar puede ser útil como una fuente de información científica seria y formal, ilustrándolo con diversos ejemplos y comparaciones. Las virtudes fundamentales del buscador, según White, serían en resumen las siguientes:

  • Busca por texto completo en lugar de mediante referencias o abstracts
  • Recupera documentos escondidos en sitios recónditos de la Red
  • La cobertura de contenidos es sumamente extensa
  • Coloca los resultados más relevantes los primeros
  • Reúne documentos de repositorios digitales junto a los arbitrados 
  • Rastrea muy eficazmente las citas de los artículos

B. White también reconoce limitaciones en el buscador: la pobreza del sistema de recuperación, las inconsistencias en los resultados, la precariedad de la ordenación por fechas, la falta de metadatos fiables, etc. Explica y excusa estas deficiencias porque Google Scholar opera rastreando y amalgamando una gran cantidad de fuentes primarias y secundarias, estructural y tipológicamente muy heterogéneas.

Bruce White ofrece una visión sensata de Google Scholar, pero más centrada en la parte medio llena de la botella. Supongo que muchos de los críticos que han estudiado la parte medio vacía tampoco han dicho en realidad que Google Scholar no sirva para nada a los científicos o a los profesionales de la información. ¿Cómo lo veo yo?

Es cierto que Google Scholar barre una enorme extensión de la Red, recogiendo toda clase de cosas procedentes de muchos rincones (aunque se deje algunos). Encontrar más resultados, sin embargo, no es siempre la meta, a veces se buscan mejores, seleccionados. Buscar por texto completo puede ser muy útil en ocasiones, pero tampoco siempre, y carecer de la capacidad para discriminar estructuras o relevancias textuales (resúmenes, descriptores, referencias, etc.) no se ve que pueda ser ventajoso. Sabemos que el Scholar es un motor de búsqueda, no una base de datos, y que aporta un enfoque complementario a la recuperación de información, pero ha de justificarse por sus resultados. Y en cuanto a los resultados… los jerarquiza de forma unívoca, imponiendo su patrón de relevancia…

El Scholar es una herramienta imprecisa, pero poderosa, que abarca mucho y se usa con facilidad. Como su padre, el gran Google, automatiza, simplifica el penoso trabajo de pensar dónde acudir y cómo buscar y reunir la información, sustituyéndolo por el de rellenar casilleros triviales y recorrer pantallas previamente organizadas, y liberando la mente para otras tareas… Tiene el poder de la simplificación, frente a la dispersión, complejidad, dificultad, etc. Su gran virtud no radica en ninguna clase de calidad sino en su potencia para mediar de manera simple en el tráfico de información científica.

Tal vez, cuando la situación de la comunicación científica sea aún más confusa e intrincada que ahora, con volúmenes todavía mayores de datos y documentos, o si flaquean sus asentados competidores, las bases de datos, Google Scholar consiga con su poder de simplificación hacerse con un cierto monopolio, en virtud de la ley del mínimo esfuerzo, que es casi tan inapelable como las de la Termodinámica (si es que no se reduce a ellas). Por ahora, el Scholar es útil como complemento de las bases de datos científicas («a valuable supplement», dice el propio Bruce White).


NTIS, con una nueva interfaz

10 May 2008

El National Technical Information Service (NTIS) de los E.U.A. reúne informes técnicos encargados o realizados por departamentos del gobierno federal y otros organismos nacionales y extranjeros. Cuenta con casi tres millones de documentos, incluyendo textos electrónicos, microformas, software, registros audiovisuales, etc. Se trata de informes de trabajos de investigación y estudios de carácter científico, tecnológico, industrial, económico, etc. de todas las ramas del conocimiento y sectores de actividad. NTIS suministra copias de estos documentos a quien los solicita, previo pago de sus tarifas, pues es un organismo que se autofinancia con sus servicios.

NTIS distribuye documentación de esta forma a todo el mundo, es un centro clave en materia de información tecnológica y un exponente más de la influencia internacional que los E.U.A. ejercen no sólo mediante el liderazgo militar o industrial, sino abriendo su masa crítica de cultura y conocimiento al exterior, permitiendo que se propague con la ayuda del idioma y, ahora, de las TIC.

Desde 1964 NTIS mantiene una base de datos muy detallada sobre su documentación, cuya consulta ha venido facilitando tradicionalmente a través de diversos distribuidores comerciales de información (STN, Dialog, SilverPlatter, Engineering Information, etc.) De esta manera, desde hace mucho, ha promovido la difusión de sus colecciones y servicios, generando al mismo tiempo ingresos también por la información referencial.

Con el desarrollo de Internet, sin embargo, NTIS ha abierto poco a poco su base de datos a la consulta a través de su propia web, de un modo cada vez más cómodo y eficiente. El interés por fomentar directamente la venta online de sus documentos ha hecho necesario proporcionar una herramienta de búsqueda básica y gratuita, a modo de catálogo. Así, mejora la accesibilidad de sus contenidos, de acuerdo con su misión, pero sin renunciar a la explotación comercial.

Desde hace unas semanas, NTIS tiene una nueva interfaz de búsqueda de informes en su web, con prestaciones más potentes:

  • El formulario de búsqueda tiene bastantes posibilidades, pero no es tan flexible como el de una base de datos comercial.
  • Permite restringir la búsqueda por fechas, por áreas temáticas, tipología de los documentos y por organismos patrocinadores.
  • Tiene más capacidad de recuperación booleana, embebida en los formularios, así como una ayuda muy desarrollada y explícita.
  • El refinado, análisis, tratamiento o explotación de los resultados de un rastreo son prácticamente imposibles, pues el sistema funciona más bien a la manera de un buscador.
  • La visualización y contenido de las referencias son muy pobres, sobre todo si se compara con la exhaustiva información que aparece en la base de datos NTIS vía proveedores comerciales.
  • En particular, del resumen sólo se muestra el comienzo, las cuarenta primeras palabras más o menos, lo que dificulta la decisión sobre si interesa o no adquirir el documento, a menos que se cuente con la referencia completa a través de un proveedor comercial.
  • Por otro lado, también es cierto que la consulta integrada de la base de datos NTIS con otras fuentes de información especializada incluidas en las plataformas comerciales es muy enriquecedora.
  • Además, mientras que en su sitio web NTIS sólo incluye referencias desde 1964, la versión comercial de la base de datos puede incluir informes desde principios de siglo, la cobertura no es la misma.

Así pues, aunque la nueva interfaz resulta un progreso interesante, por supuesto no hace prescindible la base de datos NTIS comercial, pues el organismo no renuncia a facilitar valor añadido a través de distribuidores de pago. Practica un hábil equilibrio impulsando su penetración directa en Internet sin prescindir de la indirecta.


«Technology matters», de Nye

6 May 2008

Technology matters está escrito desde la perspectiva de un historiador que reflexiona sobre aspectos clave de la tecnología en el mundo actual a la luz de lo que le enseña el examen del pasado. Me ha parecido una obra muy sugestiva, y es interesante y adecuada para cualquier lector inquieto. Se plantea diez cuestiones polémicas que forman parte de las preocupaciones del presente: cómo se dirige la tecnología, determinismo y predictibilidad tecnológicas, evaluación social y mercado, sostenibilidad, diversidad cultural, seguridad, empleo y bienestar, impacto psicosocial, etc. Trata además estos temas de manera razonada y amena, incluyendo numerosos ejemplos de la historia reciente de la tecnología, que hacen entretenida la lectura.

Nye no da respuestas claras a todas las preguntas que plantea, le parecen cuestiones con las que convivir. Pero sus consideraciones me resultan en general sensatas. Por supuesto, estoy de acuerdo con la tesis general de que la tecnología importa, y que a la sociedad humana le interesaría dilucidar mejor cómo habérselas con ella. De especial interés son las observaciones acerca de la necesidad de introducir mediaciones reflexivas y deliberativas (mecanismos de participación, representación, evaluación, etc.) en el desarrollo social de la tecnología, asunto en el que entronca con otra mucha bibliografía (Entre ingenieros y ciudadanos). 

No obstante, frente a la abundancia de ejemplificación, faltan modelos explicativos y conceptualización. Así, la tecnología aparece demasiado poco definida desde el punto de vista evolutivo y de la ecología humana como para sacar conclusiones y encontrar certezas. Y yo enfriaría un poco el cálido optimismo antropológico que rezuma en consecuencia toda la obra.

Nye insiste, por ejemplo, una y otra vez en que toda tecnología es una construcción social, por lo que en definitiva es la sociedad, de una u otra forma, la que selecciona y modela las tecnologías y por tanto define y decide, mejor o peor, su desenvolvimiento material. Por tanto, no sería la tecnología la que conforma inexorablemente nuestras vidas, para bien o para mal, sino más bien al revés. 

Dejando aparte la peculiar guerra de los historiadores con la causalidad (o dilema del huevo y la gallina), el mismo Nye viene a reconocer que cuando una tecnología adquiere «momento», inercia suficiente al aplicarse en la realidad, sí es ya determinante. Así que, por el mismo precio, diríamos que toda sociedad es una construcción tecnológica. Y de hecho lo decimos: las sociedades neolíticas surgen de la tecnología agropecuaria, etc. Y desde luego toda sociedad es resultado y efecto de los procesos de interacción comunicativa basados en las tecnologías del lenguaje (escritura y demás TIC).

En mi opinión, el problema es que, en su lucha contra el determinismo tecnológico, Nye, como muchos pensadores, confunde CONTINGENCIA (los sucesos no están predeterminados) o EMERGENCIA (lo complejo surge de lo simple) de los grandes sistemas (sociales en este caso) con AGENCIA (acción intencional de un sujeto), e incluso con PROVIDENCIA (diseño y tutela de los procesos por un agente exterior).

Por muy políticamente movilizadoras (o ¡tranquilizadoras!) que sean tales confusiones (una apelación optimista a que «el futuro está en nuestras manos»), son escasamente útiles para establecer cómo funcionan en realidad las cosas, lo que me parece muy necesario (saber la verdad) incluso para formular un programa de acción


Scopus Affiliation Search

2 May 2008

La reciente introducción por Scopus de la búsqueda por afiliación, basada en el «Affiliation Identifier», supone un nuevo avance en sus prestaciones de información científica, útil para evaluación institucional. Demuestra así una vez más Scopus el desparpajo con que pone a prueba frecuentemente el rigor y la calidad de ISI Web of Knowledge, en la dura competencia que ambos mantienen.

Affiliation Identifier es un sistema que identifica a las instituciones científicas, unificando y normalizando las muy distintas formas con que sus nombres pueden aparecer en las menciones de afiliación de los autores de las publicaciones, y diferenciándolas de las similares pero correspondientes a otros organismos. Es, pues, un método de control terminológico de las entidades productoras de la investigación.

Se puede consultar por afiliación, aprovechando la funcionalidad de Affiliation Identifier, en todas las formas de búsqueda de Scopus. Pero ahora, desde el 26 de abril, hay además una pestaña específica de Affiliation Search. Los registros detallados de las instituciones, además de enlazar a las referencias de los documentos, incluyen su código, nombre aceptado, variantes de nombre, dirección, autores, gráfico de la producción científica por materias, etc.

Scopus avisa que puede haber cierta proliferación de identidades adicionales a la principal, que deberían ser corregidas con el tiempo y contando con feedback de los interesados. (Ya se sabe que el control terminológico no se acaba nunca). Así, para muchas universidades españolas ha generado dos identidades, la general y una referida a la Facultad de Medicina correspondiente.

Con la nueva búsqueda e identificador se simplifica la selección y recuperación de los documentos publicados por un organismo. Contando con que la indización de las instituciones sea fiable, ya no se depende del rastreo de la presencia de ciertos términos en campos determinados, seguido de alambicadas operaciones de filtrado o combinación. Por tanto, es más fácil realizar estudios métricos de la investigación en un organismo, así como análisis y evaluación comparativa estandarizada, lo que resultará muy práctico y eficaz. No obstante, convendrá, claro, atender a los estudios que se aborden sobre la propia calidad y fiabilidad de la nueva herramienta.

ISI Web of Knowledge no tiene índices semejantes en las bases de datos bibliográficas. Tan sólo, se pueden buscar términos, sin más, en los campos Address, Organization, Suborganization o Group Author. En cambio, cuenta con Essential Science Indicators (ESI), que ofrece rankings y tablas de datos analíticos, entre otras cosas, sobre instituciones científicas (papers, citas y citas por paper): todo de manera rigurosa pero limitada y algo rígida.

Ahora Scopus entra también en la evaluación institucional, cuando ya de sus rankings de revistas y países se encarga SCImago Journal & Country Rank, terreno a su vez de los JCR y ESI de ISI Web of Knowledge. Y poco tiempo después de introducir Scopus TopCited, en la estela de ISI HighlyCited.

Más sobre Scopus en este blog: Índice h, Elsevier, ScopusUniv. de Cantabria en Scopus; SCImago Journal Country Rank.


Las TIC como instrumentos

23 diciembre 2007

Con frecuencia se escribe y se habla acerca de las TIC (tecnologías de la información y la comunicación) como instrumentos para hacer tal y cual cosa, como herramientas para conseguir este o aquel resultado. Por ejemplo, en educación, entre los profesionales de la información, en la gestión de las empresas, en el sector sanitario… E incluso en el campo de la política o de las reformas y transformaciones sociales.

Las TIC son ciertamente dispositivos que sirven para hacer cosas, procesando y transmitiendo información. En ese sentido, es verdad que pertenecen al amplio catálogo de los utensilios de la especie de los homosapiens y forman parte de su cultura material.

Pero, más allá incluso, es creencia extendida que los individuos y las organizaciones pueden planear y decidir acerca de los fines que desean, y que disponen de las TIC como un instrumento, entre otros, pero cada vez más fundamental, para conseguir tales fines. En esa tarea, los grupos y sociedades dilucidarían y definirían de manera consciente y organizada cómo desarrollar o aplicar las TIC con vistas a los objetivos que persiguen.

Es significativo el ejemplo de la educación. Se discute acerca de introducir las TIC para renovar los procedimientos de enseñanza. Se delibera sobre cómo aplicar a la docencia los diferentes mecanismos tecnológicos que se van sucediendo de manera cada vez más veloz. Se intentan asimilar las nuevas posibilidades técnicas disponibles y organizar su incorporación a la didáctica con algún sentido. En el fondo, ¿no se adapta más bien la educación a las TIC que las TIC a la educación? Y lo mismo en otros terrenos.

A la vista de la historia, todo hace pensar que la verdad es que los homosapiens tienen bastante menos poder de condicionar y modelar deliberadamente las TIC, o de administrar su futuro mediante las TIC, que el que tienen estas de condicionar el presente. ¿Realmente las TIC se han planeado en algún momento y en algún sentido fuerte que merezca la pena reconocerse como tal? Las TIC resultan de procesos de invención e innovación, también desencadenados y acelerados informacionalmente, pero ¿planificados, controlados, dirigidos, gobernados intencionalmente?

Me parece que, en un sentido radical, las TIC no son un instrumento que se maneje para ordenar el futuro, sino el medio por el que la información y sus dinámicas conforman la realidad sociocultural actual. O sea, más o menos al revés. Y que, así como es forzosa la vocación prometeica de los homosapiens, resulta en cambio ilusoria su pretensión providencial, su anhelo de autodeterminación.


Las bases de datos del CSIC

9 diciembre 2007

Las bases de datos del CSIC pretenden ser un índice de la producción intelectual publicada en España desde los años 70. Recogen artículos aparecidos en revistas científicas y de forma selectiva en otras fuentes (congresos, series, compilaciones, etc.) Las produce y distribuye el CSIC, un organismo público de investigación, a través del CINDOC y otros de sus institutos y departamentos. Pueden consultarse en línea mediante suscripción, aunque existe una versión abreviada gratuita, las bases de datos de sumarios, que permiten recuperar sólo autores, título de los documentos y datos de las revistas fuente.

Se supone que las bases de datos del CSIC son un inventario de la parte de la ciencia española que se edita en España: un inventario que debe servir para el conocimiento, difusión y análisis de lo publicado en el interior. Nada más, pero tampoco nada menos. No hay, de hecho, otras fuentes de información sobre el mismo particular que sean comparables en alcance, cobertura y detalle.

En ese contexto, para los tiempos que corren, parece que las bases de datos del CSIC están demasiado cerradas y ocultas, que lo lógico sería más bien que operasen en un entorno web de acceso abierto. Sin caer en la demagógica cultura del «gratuismo», no puedo siquiera imaginar que esta obviedad no se le haya ocurrido a los responsables. ¿Habrá dificultades o razones poderosas que impiden abordarlo?

  • Ahora, a diferencia de hace diez años, lo que no aflora con vigor en las pantallas es casi como si no existiese: a lo profundo de la Red, por valioso que pueda ser o parecer, también se le llama invisible. Las bases de datos del CSIC no hacen visible en la Red la producción científica española (emergen más cosas a través de Dialnet, por ejemplo).
  • Sin embargo, es difícil imaginar hoy día la indización de las publicaciones especializadas españolas situada en el terreno competitivo de la industria de la información, como algo con estratégico valor comercial. Parece más bien un objetivo de servicio público, facilitado por razones de interés general, lo que es coherente con la misma historia de estas bases de datos.
  • Cuando tantas cosas se fomentan, incentivan, promocionan y subvencionan, cuesta trabajo creer que la Administración necesite recuperar mediante suscripciones parte de los costes de financiación de dichas bases de datos, a menos que el asunto no se considere en realidad un fin público relevante.
  • Es probable que la mayoría de los ingresos por suscripciones proceda de las universidades y centros públicos de investigación de España, lo que redunda en crear un mercado interior cuyo mayor efecto es restringir el libre acceso y difusión exteriores. Podrían distribuir el coste sin limitar el acceso.
  • Si tantos esfuerzos quiere hacer la FECYT para fomentar la difusión internacional de las revistas españolas, por qué no algo tan sencillo como sufragar la apertura y promoción del principal índice de la literatura científica española, ya que existe.
  • Si se está dispuesto a contratar contenidos internacionales, como se ha hecho con el WoK, en el marco del proyecto BECYT, y si van proliferando en España los archivos y las revistas electrónicas abiertas, por qué no algo tan simple como abrir del todo las bases de datos del CSIC. ¿Se promueve la apertura del texto completo y se cierran las referencias y resúmenes?
  • La apertura en internet de estas bases de datos permitiría integrarlas en pasarelas y metabuscadores internacionales y sectoriales, del tipo TechXtra o WorldWideScience, reduciendo la invisibilidad de sus contenidos y mejorando la proyección de la ciencia española que tanto se quiere proteger.

Knovel, tecnología e industria

30 noviembre 2007

Dentro del mundo incierto de los libros electrónicos (que parecen venderse más que comprarse) hace tiempo que soy partidario de Knovel. Tal vez me dejo influir involuntariamente por el hecho de que no se empeña en ofrecer pruebas gratuitas de sus libros de mil en mil, pero el caso es que Knovel me convence, aunque no siempre resulta barato de precio, desde luego, y opera mediante suscripción.

top_logo.gif

Knovel es una plataforma de distribución de libros electrónicos especializados en temas tecnológicos e industriales. Incluye ahora unos 1.400 títulos, que corresponden a muy diversos sectores: química, bioquímica, biotecnología, alimentación, farmacia, ingeniería aeroespacial, civil, industrial, mecánica, eléctrica, electrónica, ambiental, energía, materiales, metalurgia, textiles y plásticos, etc. En muchos casos se trata de obras de referencia, handbooks y fuentes de datos fundamentales, algunas clásicas, en cada rama de la técnica.

Además de por su propia especialización, o sea, por la orientación concreta de sus colecciones, Knovel me parece convincente porque:

  • Es un distribuidor multieditorial, que reúne contenidos de calidad plurales y seleccionados, procedentes de unos 50 editores internacionales de gran prestigio.
  • Los títulos se pueden suscribir individualmente según las propias necesidades, y no sólo en forma de paquete o colección temática preestablecida, aunque esto sea lo recomendado. 
  • Constituye un conjunto diverso y equilibrado de datos de referencia, propiedades de materiales y sustancias, descripciones de procesos, procedimientos estándar, cálculos y fórmulas, manuales técnicos, enciclopedias, guías, informes, etc.
  • Permite la recuperación integrada de toda la información incluida en los libros, tablas y documentos, desde datos precisos a cuestiones generales, con una presentación e interfaz más que aceptables y una impresionante búsqueda avanzada, a la altura de la especialización de los contenidos.
  • Facilita herramientas de análisis y cálculo para manejar, aprovechar y exportar los datos científico-técnicos obtenidos en las búsquedas: tablas interactivas, tablas con trazado de gráficos, visualizadores de diagramas de fase, hojas Excel, conversores de unidades, etc.
  • Los contenidos puramente textuales están en el siempre tranquilizador y cómodo formato PDF, capítulo por capítulo.
  • Es un servicio bien adaptado a clientes bibliotecarios y corporativos, en entornos institucionales y académicos, no dirigido sólo directamente al usuario final, por tanto.
  • Suministra estadísticas de utilización serias y frecuentes, sin que haya que encargarlas, buscarlas o desentrañarlas.

En resumen, Knovel selecciona y reúne información de calidad, la enriquece mediante un tratamiento y organización que la hace más productiva, y la canaliza de forma flexible y atenta a las conveniencias del usuario: hace algo más que digitalizar y comercializar el libro tradicional. Es una buena biblioteca.