Esto se acabó

31 octubre 2010

Bueno, es evidente, aunque debería haberlo dicho hace mucho tiempo, debería haberme despedido, debería haber rematado el trabajo. Este blog llegó a su final. Todo tiene principio y fin, qué se le va a hacer. Duró tres años y me gustó y me fue útil mientras tanto. Ahora me orientaré por las estrellas.


Scholarly information practices

17 diciembre 2009

Los procedimientos de trabajo intelectual de los investigadores son un tema de estudio tanto para las diversas ramas de los estudios sociales de la ciencia como para la documentación, en cuanto técnica aplicada. En mi perspectiva, se trataría de mirar cómo la información científica se depura y replica progresivamente a través de mecanismos sociocognitivos y computacionales. Pero entre la literatura del campo de la documentación, con interés práctico en las bibliotecas, etc., está el siguiente informe de OCLC:

Se trata de un review que repasa y presenta el estado del arte en cuanto a «information behaviors» o «practices» en el mundo de la investigación, con el fin de identificar direcciones y prioridades para los servicios de información digital o bibliotecas académicas. Además de recorrer un amplio elenco de los estudios publicados en los últimos años sobre estos temas, aporta una visión comparativa de las diversas disciplinas académicas, fijándose en el diferente comportamiento de los investigadores en cada comunidad científica, aunque profundizando poco en cada una de ellas.

Pero lo más característico del informe es que, frente a la enorme complejidad y abigarramiento de las conductas informacionales, presenta una estructura o esquema muy organizado y sistemático de las mismas: define y desarrolla veinte actividades básicas de información agrupadas en seis tipos que sintetizan el conjunto de procesos intelectuales de manejo de información científica:

  • Búsqueda: localización/identificación; seguimiento de citas y recomendaciones bibliográficas; hojeo y navegación; rastreos en campos ajenos o nuevos; acceso/obtención. 
  • Recolección: acopio; organización.
  • Lectura: exploración preliminar; evaluación y selección; relectura en profundidad.
  • Escritura: construcción de textos; coautoría; difusión o publicación.
  • Colaboración: coordinación; interconexión en redes; consultas y asesoría.
  • Transversales: Seguimiento y alerta informativa; anotaciones informales; traducción interdisciplinar; gestión de datos primarios.

Por su carácter de review, repasa mucha literatura y concreta poco de manera sustancial; aunque muy organizado, resulta poco concluyente. Los apartados finales sobre estrategia en bibliotecas y documentación ofrecen orientaciones sugerentes en forma de tabla, pero por ello mismo son esquemáticas, simples y aisladas entre sí. El informe vale como cartografía de las cuestiones en juego, proporciona estructura, pero su contundencia es escasa.

En cualquier caso, toda esta problemática remite a la e-ciencia, a la ciberinfraestructura científica, lo que Borgman trata en Scholarship in the digital age. Pero tengo para mí que su desarrollo no se produce realmente, digamos, mediante una planificación sistémica, sino como una morfogénesis o acreción orgánica. Esto es lo que hay que tener en cuenta, la naturaleza biológica de la expansión informacional.


James Clerk Maxwell

27 noviembre 2009

El logro principal del británico James Clerk Maxwell (1831-1879) fue su teoría unificada de la electricidad y el magnetismo. Con ella consiguió una gran síntesis explicativa de múltiples fenómenos, experiencias y conocimientos. Su profundidad, alcance y rigor matemático lo ponen, suele decirse, casi a la altura de Newton o Einstein, en la dirección de lo que en el siglo XX sería la búsqueda de teorías unificadas de campos.

Sin embargo, Maxwell fue también uno de los fundadores de la física o mecánica estadística, junto con Ludwig Boltzmann. Dicha rama de la física intenta dar explicaciones de los fenómenos macroscópicos como el intercambio de calor y energía a partir de los comportamientos de las mútiples partículas que constituyen los sistemas. Las propiedades macroscópicas se ven como el resultado de la dinámica de lo microscópico, la termodinámica se explica en perspectiva estadística desde la mecánica.

Concretamente Maxwell propuso la fórmula estadística para hallar la distribución de velocidades que se dan entre las moléculas de un gas. Su planteamiento fue generalizado por Ludwig Boltzmann, dando lugar a la Ley de Maxwell-Boltzmann. Tal función de distribución aboca a una interpretación probabilística de la termodinámica. Y la contribución de Maxwell resultó decisiva para asentar la concepción del calor como movimiento de las partículas, energía cinética.


Tendencias en las patentes

23 noviembre 2009

El último número de la revista Science and Public Policy está dedicado íntegramente al sistema europeo de patentes, aunque también se refiere a la problemática en Estados Unidos y a las circunstancias comunes del sistema de patentes en el mundo. La situación actual parece aconsejar u obligar a emprender reformas, cuando no a cuestionar la concepción del sistema. Y en todo caso resulta urgente estudiarlo desde enfoques no sólo jurídicos, sino también políticos y socioconómicos, cosa que hasta recientemente no se ha hecho.

A la luz de los artículos reunidos, especialmente los de Susana Borrás y Brian Kahin, o los de Matthhew J. Elsmore, podríamos resumir, de manera muy simple, las tendencias y situación del sistema de patentes, en lo siguiente:

  • Existe un conflicto entre la territorialidad de las patentes y la globalización de la economía y la innovación; este contrasentido conduce entre otras cosas a la proliferación de las solicitudes de patente en las diferentes oficinas nacionales.
  • El intenso crecimiento y diversificación de la investigación, las nuevas áreas de conocimiento abiertas, provocan el aumento de las solicitudes de patente y crean incertidumbres (económicas, técnicas, morales) sobre el alcance de lo patentable.
  • Por sí mismo, el aumento espectacular de las solicitudes de patente en todas las oficinas lleva a retrasos y dificultades en su gestión, encarece los procedimientos, perjudica la calidad y, como vía de solución, llama a la cooperación entre las distintas oficinas.
  • Europa se enfrenta además a su propia complejidad estructural al poseer un «sistema de sistemas» de patentes (EPO), las oficinas nacionales y un proyecto siempre abierto de patente comunitaria (UE), todo ello en constante perspectiva de reforma. 
  • Los Estados Unidos afrontan, en cambio, problemas específicos de calidad y permisividad en sus patentes y de conflictos entre los diferentes actores públicos y privados implicados en el sistema.
  • La creciente especialización de la innovación introduce cada vez más diferencias en la utilidad o aplicación de las patentes en cada sector, y cuestiona la viabilidad de un régimen unitario de patentes para la industria sanitaria, la biotecnología, las TIC, etc.
  • El sistema de patentes padece una cierta insularidad, ha llegado a ser un instrumento demasiado legalista, una cuestión de títulos de propiedad, orientada a los procesos y aislada de las políticas socioeconómicas y los problemas de la innovación.
  • El desarrollo del derecho de propiedad industrial propende, por mecanismos internos, a que las patentes sean más bien intrumentos de influencia y dominio de los intermediarios y de las grandes empresas tenedoras de carteras de patentes.
  • No pocas veces es cuestionado que las patentes sirvan para promover la innovación y el bienestar socioeconómico, frente al dominio público o los sistemas abiertos; entre otras razones por su frecuente utilización táctica o abusiva.
  • Las disfunciones acumuladas y las dificultades para promover reformas sustanciales en procesos tan burocráticos hacen que se hable incluso de un agotamiento o al menos de un «calentamiento global de las patentes» (EPO).

Las patentes, derechos exclusivos sobre la aplicación práctica de piezas de información, están sometidas casi a los mismos avatares y tensiones que los derechos de autoría o que la transmisión de información mediante la educación: los que se derivan de la creciente fluidez de las dinámicas informacionales en el medio TIC. La veloz y masiva replicación y comunicación de la información dificulta mantener regulaciones o métodos más sólidos y estructurados, propios de otra época. ¿El Derecho también es, como la Educación, cosa de otra época? ¿A qué velocidad puede cambiar el Derecho (o la Educación)?


Difusión de información en red

12 noviembre 2009

Informa SINC, el Servicio de Información y Noticias Científicas de la FECYT, que dos investigadores de la Universidad Carlos III de Madrid e IBM acaban de publicar en Physical Review Letters, una revista de primera línea, un estudio sobre la difusión de la información en las redes sociales. Creo que el trabajo está despertando bastante atención; desde luego a mí me interesa (con toda la modestia de mero aficionado) y, en un caso más de replicación de información en la red, me quiero hacer eco de ello.

Los autores explican al comienzo de su artículo que modelizar las dinámicas sociales como el resultado emergente de la interacción informativa entre individuos es habitual hoy en día, con la ayuda de la física estadística. Así se hace con fenómenos como la extensión de las epidemias, la difusión de las innovaciones, la formación de la opinión pública, las dinámicas culturales, los virus informáticos, la propagación de rumores o modas, el marketing viral, etc.

El artículo aborda en concreto los procesos de difusión de la información y la influencia en ellos de comportamientos humanos diferenciados. Y la principal conclusión parece ser que la información se propaga de una forma relativamente lenta casi siempre, lo que se debe a los muy diversos tiempos de respuesta de los individuos, cuya conducta altera cualitativamente la dinámica de la propagación informativa a nivel colectivo. Esta heterogeneidad parece deberse a la diferente relación entre la información y el individuo, que crea usuarios de respuesta rápida y de respuesta lenta.

El estudio supone un avance destacable en el análisis, medición y predicción matemáticas de los procesos de difusión de la información y, en definitiva, en la modelización científica de fenómenos humanos colectivos. Lo que más interesante me parece es la idea general de que los complejos sistemas psicosociales pueden estudiarse desde los procesos informacionales subyacentes, desde un punto de vista físico y naturalista.


La ciencia en castellano

6 noviembre 2009

Hace pocos días, el Instituto Cervantes y la Fundación Santillana han publicado y presentado un libro titulado El español: lengua para la ciencia y la tecnología. Con él parece que pretenden eso mismo, promover la extensión del español como idioma para la ciencia y la tecnología, noble intento alrededor del cual articulan otras propuestas convergentes (nuevos y distintos índices de evaluación de las revistas científicas, etc.) Al respecto se me ocurren unos pocos comentarios.

Una lengua sirve para la comunicación entre un grupo de individuos. Aunque no todos estimarían esto evidente, es más fácil que un grupo de individuos se entiendan en una lengua común que usando varias.

Las comunidades científicas de alcance internacional o mundial, no regional o nacional, con miembros de muchos países, es lógico que acepten una misma lengua como medio para relacionarse con más facilidad. Una comunidad científica global y multilingüe no es nada probable, y menos en los apresurados tiempos que vivimos.

La lengua común de un grupo tenderá a ser la que conocen un mayor número de miembros, sobre todo si la utilizan intensa y activamente. En el caso de las comunidades científicas será la de aquellos subgrupos lingüísticos que más han publicado históricamente y en la actualidad, y que resultan más influyentes por cantidad y/o calidad.

La ciencia siempre ha usado una lingua franca diferente de las lenguas particulares: durante una larga época fue el latín; luego el francés; el alemán incluso durante un breve periodo tuvo cierta prevalencia; y por fin, después de la segunda guerra mundial, el inglés. La lingua franca, inevitablemente ha expresado el predominio o la supremacía intelectual de los científicos hablantes de esa lengua. Hoy el inglés predomina porque del mundo angloparlante proviene mayoritariamente la innovación y la creación científica y cultural.

Es legítimo desear que el español sea lengua de la ciencia, pero para ello creo que sólo valdría el camino largo y difícil de hacer la mayor y mejor ciencia internacional en castellano: conquistar la hegemonía de la ciencia, de modo que los demás aprendan español para comunicarse con los científicos hispanohablantes: la importancia del idioma va de la mano de la supremacía intelectual. Otras soluciones baratas me parecen con poco fundamento: esto no es una tarta que se reparta por trozos y la difusión cultural en la historia de los homosapiens, como el calor en termodinámica, fluye de los lugares con «más» a los lugares con «menos».

P.S.: Álvaro Cabezas también comenta este tema en su blog, desde un enfoque paralelo.


La fuerza del anhelo, o Google

31 octubre 2009

Viene a decir Zygmunt Bauman en su Modernidad líquida (*) que la actual es una sociedad de individuos formalmente emancipados, en la que todas las regulaciones y constricciones se han disuelto y el destino de cada cual está en sus manos. Como las identidades no vienen dadas y completas, los individuos deben alcanzarlas por sí mismos a lo largo de su vida. Por eso, se vuelven consumidores perpetuamente insatisfechos, anhelantes perseguidores de su propia identidad entre las múltiples ofertas del (super/hiper)mercado.

Cada cosa que se consigue da ocasión a buscar otra, como en una carrera, de forma que «ningún premio es absolutamente satisfactorio». «El deseo se convierte en su propio objetivo, un objetivo único e incuestionable», dice Bauman. Se trata sobre todo de seguir en carrera, en pos de nuevos logros que puedan culminar, perfeccionar nuestra anhelada identidad, pero que no consiguen hacerlo nunca. «El arquetipo de la carrera que corre cada miembro de la sociedad de consumidores […] es la actividad de comprar» (*).

Y el arquetipo del deseo globalizado y masivo, me parece a mí, es Google. En un mundo desregulado, donde el poder es evasivo y extraterritorial, quien pone las cosas en orden, permite perseguir los deseos y articula las preferencias de vida es Google. La máquina de buscar sirve para intentar rellenar la brecha que Bauman sitúa entre nuestra condición de individuos de iure y nuestras posibilidades de ser individuos determinados de facto, con una identidad propia y libremente adquirida. Es un instrumento clave del capitalismo suave.

La límpida interfaz de Google, rápidamente exitosa e imitada, significa mucho: traduce en internet la ausencia de atributos del individuo dado, en pos de su concreción. Y no en vano la esencia de internet, hasta las redes sociales, ha sido unos años la búsqueda: donde nos buscamos. Google gestiona el menú del «gran buffet del mundo» (Bauman) en que los consumidores van decantándose y eligiendo su vida como viajeros, madres, geeks, esquiadores, singles, coleccionistas, profesionales, gays, gourmets, amigos, apostantes, espectadores, u otras muchas identidades.

El buscador nos ordena el menú en función de lo que compran otros consumidores, según la popularidad de los productos, para que tomemos posición relativa. Restablece así un principio de autoridad en una cultura donde las prefencias, principios y prioridades no vienen ya dados por la tradición. (La autoridad queda luego expuesta a confrontación, más allá del buscador, en las redes sociales). Y Google, sobre todo, satisface nuestros deseos, o lo procura; al instante si es posible, o lo antes que se pueda, para que el deseo satisfecho genere otro nuevo enseguida. Estimula, en realidad, el anhelo, la fantasía que va incluso más allá del deseo (Bauman).

A pesar de su visión idealista de lo humano, tiene razón Bauman en lo de la sociedad líquida. Pero no dice que la causa de la licuefacción es la fluidez, intensidad y aceleración de las dinámicas informativas que sostienen a las poblaciones y culturas de los homosapiens. La cual no crea individuos soberanos, sino dependientes del magma colectivo de procesos informativos, de la inteligencia reticular y ciborg de la especie, en la que Google es un primer y destacado agente (como después lo están siendo las redes sociales).

(*) BAUMAN, Zygmunt. Modernidad líquida. Buenos Aires: Fondo de Cultura Económica, 2008, p. 78-81.


Modelos de edición científica

28 octubre 2009

A través de Research Information me entero de que SPARC (Scholarly Publishing and Academic Research Coalition) ha publicado una guía sobre modelos de negocio para sostener publicaciones científicas en acceso abierto, Income Models for Open Access, de la que es autor Raym Crow.

Aunque no he entrado en una lectura detallada del documento en cuestión, desde luego muy valioso y pormenorizado, a partir de  los menús de la página web indicada, el prefacio del texto y otros preliminares y apartados, me llama la atención lo siguiente:

  • SPARC propone muchos y está a la búsqueda de más sistemas de financiación de las publicaciones abiertas, lo que denota que el open access requiere diversificación y puede no ser trivial.
  • SPARC reconoce con rigor las dificultades«It remains to be seen whether the social and economic limitations of the current market –and models– for distributing research literature will lead to a comprehensive, systemic change in funding for scholarly and research, or to a multiplicity of new, alternative business models» (Heather Joseph, Exec. Director SPARC). 
  • Expresamente, el informe establece dos grandes tipos de modelos de financiación: basados en la oferta (los autores, en definitiva) y en la demanda (los lectores, en definitiva), lo que resulta llamativo, porque, si bien algunos de los primeros sistemas consisten en subvenciones y mecenazgo, los segundos (user-triggered fees y demás) no son tan distintos de los característicos de publicaciones lector-paga.
  • Todo el documento deja traslucir una sensación de pluralismo y de complejidad, de que las posibilidades realistas no son simples, generales y dicotómicas, sino especializadas, particulares y en una amplia escala de grises. Que puede haber modos de evolución gradual hacia sistemas más abiertos y no una solución universal.

Durante mucho tiempo he pensado que lo natural era que la información científica tendiese a ser cada vez más abierta, en virtud del principio de acceso y de la propensión intrínseca de la información a propagarse. Pero hoy creo que es posible que subsistan modelos económicos (como tecnológicos) diferentes y que sobrevivan zonas de contenidos de acceso mediante pago. Quizá sea sensato esperar para bastante tiempo un esquema de bipolaridad gradual: publicaciones «para autores» vs. «publicaciones para lectores», con una extensa gama de posiciones y posibilidades intermedias, en un acusado polimorfismo.


«Enseñanza» y «aprendizaje»

21 octubre 2009

Dice la Real Academia en su Diccionario (y María Moliner lo corrobora, casi punto por punto, en el suyo):

ENSEÑANZA: 1. Acción y efecto de enseñar. — 2. Sistema y método de dar instrucción. — 3. Ejemplo, acción o suceso que sirve de experiencia, enseñando o advirtiendo cómo se debe obrar en casos análogos. — 4. Conjunto de conocimientos, principios, ideas, etc. que se enseñan a alguien.

APRENDIZAJE: 1. Acción y efecto de aprender algún arte, oficio u otra cosa. — 2. Tiempo que en ello se emplea. — 3. Adquisición por la práctica de una conducta duradera (Psicol.)

Está claro que enseñanza y aprendizaje nunca han sido la misma cosa, y que lo que se impone socialmente ahora es pasar de una educación basada en la enseñanza a otra basada en el aprendizaje; en la universidad y en todos los niveles educativos. ¿Qué implicaciones tienen tal diferencia y dicha transición?

  • La enseñanza es una transferencia de información explícita, lineal y directa, de emisor a receptor, un canal para el conocimiento ya construido; el aprendizaje es un trasvase de información desde mútiples emisores y señales, a través de distintos canales, para la posterior construcción de conocimiento.
  • La enseñanza supone organización, infraestructura, sistema, método o, como diríamos ahora, entorno y soporte, en mayor medida que en el caso del aprendizaje.
  • En la enseñanza se enseña al alumno, mientras que en el aprendizaje es el alumno quien aprende: cambia el sujeto preponderante de la acción; el profesor está más presente en la enseñanza que en el aprendizaje.
  • La enseñanza se refiere más a conjuntos globales de actitudes y conocimientos, busca una formación más integral, completa y cerrada; el aprendizaje propende a la adquisición de habilidades particulares y competencias abiertas, cambiantes.
  • La enseñanza busca crear individuos formados, cualificados; el aprendizaje pretende crear individuos formándose, permanentes aprendices.
  • La enseñanza es más previsora y lenta, actuando sobre los individuos modela las circunstancias; el aprendizaje, más adaptable y veloz, modela los individuos de acuerdo con las circunstancias.
  • La enseñanza es menos vehiculable a traves de las TIC que el aprendizaje. La enseñanza supone una fuerte interacción entre profesor y alumno, el aprendizaje puede desarrollarse en un entorno virtual.
  • La enseñanza tiende a una formación más teórica y general, el aprendizaje al entrenamiento en destrezas más prácticas y concretas.
  • En la enseñanza se confía en que el individuo aprenda, con menos tutela, de lo que transmite el profesor o de las fuentes de información; en el aprendizaje se dirige tuteladamente al alumno hacia una mayor actividad.

Por todo ello, podríamos decir que la enseñanza está menos adaptada que el aprendizaje a una sociedad donde se necesita una actuación más rápida e inmediata que pausada y reflexiva, en la que se requiere más mano de obra fácilmente reciclable que rígidos intelectuales eruditos; una sociedad donde las transferencias fundamentales de información no se realizan ya a través de la educación.


«Searching 2.0», de M. Sauers

14 octubre 2009
  • SAUERS, Michael P. Searching 2.0. London: Facet Publishing, 2009. 337 p. ISBN 978-1-85604-629-9.

Searching

ÍNDICE: 1) What is Web 2.0. — 2) Getting organized using Delicious. — 3) Popular search engines [Google, Live Search, Yahoo]. — 4) Wikipedia. — 5) Searching for media [Flickr, Youtube, Podscope]. — 6) Local search [Google Maps, Live Search Maps]. — 7) Print search [Google Books, Amazon Search Inside]. — 8 ) Google cache, the Wayback Machine and Wikipedia: searching the Past. — 9) Searching there whithout being there: OpenSearch. — 10) Desktop Search [Google Desktop, Windows Search]. — 11) Data visualization: the future of search? [Kartoo, etc.]
 
Searching 2.0 es un libro destinado a bibliotecarios referencistas (o educadores, también), como la anterior obra de Sauers: Using the internet as a reference tool: a how-to-do-it for librarians. Trata de la aplicación de las nuevas tecnologías y plataformas de internet en las bibliotecas, pero no tanto para la creación o renovación de servicios como, sobre todo, para el trabajo informativo del bibliotecario junto al usuario.

Dejándose llevar por el título, alguien podría pensar también que este libro está dedicado a la Web 2.0, pero más bien lo que aborda son las técnicas de búsqueda de información en un ambiente de tecnologías y recursos nuevos. Quiero decir que, aunque algunos de los temas tratados son típicamente 2.0 (Delicious, Flickr, Wikipedia,…), otros no tanto, por muy recientes que sean (Yahoo Search, Google Maps, Amazon Search Inside, Internet Archive, desktop search,…).

Searching 2.0 resulta una obra sencilla, útil y práctica para iniciarse en las herramientas que explica, y ofrece pistas sobre las situaciones de aplicación de cada herramienta, las posibles demandas del usuario. Quizá parece un poco farragoso el enorme despliegue de pantallas de ejemplo sobre los diversos recursos y servicios. El capítulo inicial, dedicado a delimitar la «Web 2.0», y los que tratan de Delicious o Wikipedia son quizá los más interesantes.

Así, por ejemplo, en el capítulo 1, Sauers caracteriza la Web 2.0 por sus propiedades de convergencia (de contenidos y de contenedores), remezclabilidad (de información de varias fuentes por parte del usuario) y participación (todos los usuarios intervienen en la red leyendo/escribiendo), así como por el fenómeno de las folksonomías o etiquetado social (el análisis documental de las colectividades usuarias de la información).

Information Research ha publicado una reseña del libro y el propio autor escribe un blog: The travelin’ librarian.


Las nuevas rutas de la seda

10 octubre 2009

Kyong Park (Corea del Sur, 1955) expone en el Museo de Arte Contemporáneo de Castilla y León (MUSAC), en la ciudad de León (España), Las nuevas rutas de la seda, su «proyecto de estudio e investigación» y de documentación sobre el urbanismo global, o la globalización urbana, en las ciudades de Asia. La iniciativa rememora la antigua ruta comercial de la seda como «uno de los primeros ejemplos de globalización» y muestra «los efectos espaciales y físicos» de la globalización actual. La exposición se acompaña de la celebración de un simposio, Nuevas rutas, nuevas condiciones urbanas, precisamente hoy, 10 de octubre de 2009.

Es una exposición en conjunto magnífica, que aborda plástica y documentalmente una reflexión intelectual sobre el desarrollo de una urbe que es ya en realidad un orbe: urbe global, aldea global… una única ciudad descrita a través de 19 ejemplos de ciudades de toda Asia, visitadas por el artista en varios viajes.

Lo que más me llama la atención es la equivalencia que propone y exhibe visualmente entre el desarrollo urbano (la forma de crecer y extenderse las ciudades) y la proliferación biológica: «una sola ciudad que está diseminada como un virus por el mundo», «las ciudades se comportan más como formas orgánicas que como las máquinas…».

En efecto, morfogénesis orgánica y morfogénesis urbana siguen similares patrones de generación de complejidad: los patrones de la morfogénesis informacional, las dinámicas comunes de proliferación de la información. Y es espectacular verlo materializado en algunas de las instalaciones de la exposición, donde se puede contemplar cómo la ciudad-ciudades se propaga sobre el mapa.


TIC y creación de conocimiento

7 octubre 2009

Siento curiosidad sobre la influencia de la tecnología digital, del crecimiento del medio tecnodigital, en las dinámicas informacionales y cognitivas que tienen lugar en individuos, organizaciones y poblaciones humanas. Por eso me ha sorprendido gratamente un artículo que constituye un estudio empírico sobre la relación entre la aplicación de las TIC y la generación de conocimiento en las empresas, basado en concreto en el análisis del trabajo de dos equipos de investigación dedicados a desarrollar nuevos productos en el sector de la automoción:

VACCARO, A.; VELOSO, F.; BRUSONI, S. 2009. The impact of virtual technologies on knowledge-based processes: an empirical study. Research Policy, 38(8):1278-1287. DOI 10.1016/j.respol.2009.06.012.

El trabajo se basa en el esquema de los cuatro modos de creación de conocimiento en las organizaciones de Nonaka (*): SOCIALIZACIÓN (de tácito a tácito), EXTERNALIZACIÓN (de tácito a explícito), COMBINACIÓN (de explícito a explícito) e INTERNALIZACIÓN (de explícito a tácito). Las conclusiones más interesantes para mí del estudio son que la aplicación intensiva de las TIC a los procesos de innovación en las empresas:

  • Crea una dimensión, un entorno virtual que influye de forma decisiva en los procesos cognitivos individuales y corporativos.
  • Genera un super conocimiento tácito más rico y difícil de volcar explícitamente que el generado con métodos tradicionales.
  • Impulsa la socialización suprageográfica del conocimiento, elimina la necesidad de proximidad física para aprender/innovar.
  • Cataliza los procesos de internalización cognitiva en la organización, por diversos procedimientos.
  • Tiene un impacto muy limitado, en cambio, paradójicamente, en la externalización, codificación o formalización del conocimiento.

Aparte de las consecuencias prácticas para las empresas que los autores deducen de todo esto, yo extraigo ideas que no dejan de sorprenderme:

Las TIC hacen crecer sobre todo el CONOCIMIENTO TÁCITO, menos formal y verbalizable, más vinculado a los propios sistemas cognitivos, en este caso artificiales, que a documentos. Potencian la inteligencia dependiente del propio medio tecnodigital, radicada en sistemas de enseñanza y entrenamiento virtuales, simuladores y entornos de aprendizaje, redes de conocimiento compartido, etc. Con ello adquiere más importancia la propagación viral de conocimiento, el aprendizaje por contagio, la imitación informal… Más inteligencia, inexpresable, reside en el medio externo a los homosapiens; más que en la codificación formalizadora y racionalizadora, consciente.

(*) NONAKA, I. A dynamic theory of organizational knowledge creation. Organization Science, 1994, 5(1):14-37