TIC y creación de conocimiento

7 octubre 2009

Siento curiosidad sobre la influencia de la tecnología digital, del crecimiento del medio tecnodigital, en las dinámicas informacionales y cognitivas que tienen lugar en individuos, organizaciones y poblaciones humanas. Por eso me ha sorprendido gratamente un artículo que constituye un estudio empírico sobre la relación entre la aplicación de las TIC y la generación de conocimiento en las empresas, basado en concreto en el análisis del trabajo de dos equipos de investigación dedicados a desarrollar nuevos productos en el sector de la automoción:

VACCARO, A.; VELOSO, F.; BRUSONI, S. 2009. The impact of virtual technologies on knowledge-based processes: an empirical study. Research Policy, 38(8):1278-1287. DOI 10.1016/j.respol.2009.06.012.

El trabajo se basa en el esquema de los cuatro modos de creación de conocimiento en las organizaciones de Nonaka (*): SOCIALIZACIÓN (de tácito a tácito), EXTERNALIZACIÓN (de tácito a explícito), COMBINACIÓN (de explícito a explícito) e INTERNALIZACIÓN (de explícito a tácito). Las conclusiones más interesantes para mí del estudio son que la aplicación intensiva de las TIC a los procesos de innovación en las empresas:

  • Crea una dimensión, un entorno virtual que influye de forma decisiva en los procesos cognitivos individuales y corporativos.
  • Genera un super conocimiento tácito más rico y difícil de volcar explícitamente que el generado con métodos tradicionales.
  • Impulsa la socialización suprageográfica del conocimiento, elimina la necesidad de proximidad física para aprender/innovar.
  • Cataliza los procesos de internalización cognitiva en la organización, por diversos procedimientos.
  • Tiene un impacto muy limitado, en cambio, paradójicamente, en la externalización, codificación o formalización del conocimiento.

Aparte de las consecuencias prácticas para las empresas que los autores deducen de todo esto, yo extraigo ideas que no dejan de sorprenderme:

Las TIC hacen crecer sobre todo el CONOCIMIENTO TÁCITO, menos formal y verbalizable, más vinculado a los propios sistemas cognitivos, en este caso artificiales, que a documentos. Potencian la inteligencia dependiente del propio medio tecnodigital, radicada en sistemas de enseñanza y entrenamiento virtuales, simuladores y entornos de aprendizaje, redes de conocimiento compartido, etc. Con ello adquiere más importancia la propagación viral de conocimiento, el aprendizaje por contagio, la imitación informal… Más inteligencia, inexpresable, reside en el medio externo a los homosapiens; más que en la codificación formalizadora y racionalizadora, consciente.

(*) NONAKA, I. A dynamic theory of organizational knowledge creation. Organization Science, 1994, 5(1):14-37


Mercado de la computación grid

21 septiembre 2009

Gracias al boletín de noticias de la FECYT me he enterado del anuncio por parte de CORDIS sobre el proyecto europeo de investigación GridEcon, que me parece muy interesante. GridEcon es descrita como «una plataforma de intercambio de recursos computacionales en la que se pueden adquirir y vender recursos estandarizados de computación» (Noticias CORDIS).

Es decir, con GridEcon se puede establecer un mercado de servicios computacionales en el que los clientes facilitan en ciertas circunstancias parte de sus recursos de computación sobrantes y en otros momentos consumen los recursos que necesiten. A diferencia de otras iniciativas, pues, los mismos usuarios compran y venden. Se crea así un comercio de medios computacionales similar al que ya existe con la electricidad. Además, según parece, la plataforma GridEcon se ofrece mediante licencias de código abierto.

Grid

Al margen de la viabilidad, éxito y resultados efectivos del proyecto, la solución me parece significativa:

  • Optimizaría el comportamiento infotecnológico de las empresas y organizaciones con una forma muy flexible de lo que llaman «cloud computing», computación en la nube, que favorece el desarrollo de la sociedad infoindustrial.
  • En cuanto a los aspectos cognitivos, educativos o científicos, semejante fluidez computacional (la llamaríamos) impulsaría el crecimiento reticular y la colectivización de la inteligencia social de la especie, acelerando tendencias.

Redes y complejidad

2 julio 2009
 
«Lo complejo nos rodea y forma parte de nosotros. ¿Qué define esta complejidad? […] De una parte, la ya mencionada presencia de propiedades emergentes, que no pueden explicarse acudiendo a las propiedades de sus componentes. De otra, la existencia de una cierta invariancia del todo pese a los cambios y fluctuaciones en sus partes. […] Sus propiedades e identidad como sistema se mantienen. […] un orden de nivel superior que no podemos comprimir. Este orden irreductible es la esencia de lo complejo […] El origen de esta irreductibilidad reside en la presencia de interacciones entre elementos. Todo sistema complejo posee elementos qe en una forma u otra, intercambian información entre sí a través de algún medio. Este flujo de información es generado por los elementos constituyentes, y a su vez cambia el estado de estos últimos, en un círculo lógico que no podemos romper».
 
Solé, R. Redes complejas: del genoma a internet. Tusquets, 2009. P. 20.

Los sistemas complejos, así pues, exhiben comportamientos y  propiedades emergentes, que son resultado de la interacción reticular de sus elementos, pero no se reducen simplemente a ellos. Redes de comunicación, células, ecosistemas, epidemias víricas, sistemas neuronales, genomas, mercados, sociedades, lenguajes, etc., en versión natural o artificial, son ejemplos de sistemas complejos.

El cerebro es de por sí una red compleja de neuronas interactuando, o sea, el resultado de flujos y conexiones informativas entre sus componentes, en equilibrio dinámico. Nada de raro tiene pensar, pues, en una inteligencia colectiva y reticular, externa y neurodigital, masivamente industrializada. O ver la cultura como un sistema adaptativo complejo.


Sobre la búsqueda y más allá

13 junio 2009

La plasmación teórica de la información como mercancía universal (Claude Shannon) a mediados del siglo XX abrió el camino hacia la sociedad de la información industrializada. Dicho camino se recorrió a medida que se dispuso de tecnologías suficientemente desarrolladas (electrónica, software y comunicaciones). Con el tiempo, el consumo de información generó un gran mercado para potentes industrias de contenidos y contenedores.

Los ordenadores, internet y la web, en concreto, sentaron las bases de un mercado potencial para la búsqueda de información como negocio. Pero en realidad, en la práctica, dicho mercado sólo fue creado por Google. De hecho, «búsqueda de información» es un concepto reciente, que hasta hace unos pocos años no se manejaba apenas y hoy resulta algo cotidiano, omnipresente.

La industria de la búsqueda se ha desarrollado con rapidez inusitada, creando entre los consumidores nuevas necesidades y grandes expectativas. De hecho, ha transformado la psicología y la sociología del aprendizaje. La propia tecnología de la búsqueda alimenta la creciente exigencia de los usuarios en cuanto a sistemas de recuperación de información, generando insatisfacciones que son el caldo de cultivo para nuevas demandas de productos y servicios. Los consumidores de información se han vuelto insaciables, por así decirlo, y ello estimula la investigación y la innovación, para extender el negocio y captar la demanda.

Ya he escrito de estos temas antes, resumiendo un review de Science de 2007. Pero el número de marzo pasado del magazine Computer (IEEE Computer Society) contiene un apartado monográfico titulado Beyond search muy interesante y recomendable. Coordinado por Gary Marchionini y Ryen W. White, examina tendencias y avances en la tecnología de la búsqueda dirigidos a satisfacer las demandas de la clientela. Se repasan progresos recientes para desarrollar «sistemas de soporte de la búsqueda de información» que ayuden a los usuarios a encontrar, comprender, analizar y utilizar la información, dentro de un proceso holístico que va más allá de la mera recuperación:

  • Progresos sociales: servicios de búsqueda cooperativa o socialmente filtrada o cualificada, herramientas informáticas de colaboración explícita y búsqueda colectiva.
  • Progresos técnicos: herramientas que, más allá de las palabras clave, permitan la exploración flexible de contenidos mediante facetas, sistemas que faciliten la construcción de conocimiento a través de representación visual.

En todo caso, la industria de la búsqueda es una industria con futuro, Google lo supo ver bien. Porque, como he dicho, se alimenta o se retroalimenta a sí misma cultivando su propio mercado, modelando el comportamiento cognitivo de los individuos y las poblaciones. Y porque es una industria «abstracta»: es el meta-negocio de cómo satisfacer toda necesidad o avidez de los homosapiens, de todos nosotros, sempiternos anhelantes buscadores de «algo».


Claude Shannon e Información

5 abril 2009

Otra figura a la que se debe reconocer que ha ampliado de manera significativa nuestra comprensión del mundo es Claude E. Shannon. También ha contribuido a transformarlo notablemente, desde luego, al menos los sistemas socioculturales, la vida de nuestra especie.

Claude Elwood Shannon (1916-2001) fue un ingeniero y matemático norteamericano que vivió plenamente el siglo XX. Estuvo vinculado a lo largo de su vida a instituciones y personas de la mayor relevancia científica: el M.I.T., Princeton, los Bell Laboratories, Vannevar Bush, Hermann Weyl, von Neuman, Alan Turing, etc. Su trayectoria intelectual arranca del temprano estudio del Álgebra de Boole, que empezó por aplicar a la Genética y, por supuesto, a la Electrónica.

Aunque fue un entusiasta constructor de artefactos, la transcendencia de Shannon está en sus aportaciones teóricas. Gracias a la lógica booleana impulsó la digitalización, el desarrollo de los códigos, circuitos y máquinas digitales. Y con su Teoría Matemática de la Comunicación (1948) fundó la Teoría de la información, rama de la Matemática aplicada que estudia cómo se comporta, las reglas según las cuales se maneja, representa, comunica y procesa la información.

Su trabajo hizo posible definir la información en términos matemática y operacionalmente precisos, medir su cantidad (bits) en diversos sectores y disciplinas, así como mejorar de forma drástica las técnicas para su transmisión y tratamiento. Convirtió la información en una entidad concreta y general, en una mercancía universal tratable de manera industrial. En una palabra, permitió construir las actuales tecnologías de la información y las comunicaciones (TICs).

Shannon introdujo, además, en su Teoría de la información, por analogía con la Termodinámica, un concepto de entropía que ha establecido una fecunda conexión intelectual, a través de nociones matemáticas y probabilísticas, entre las ideas de organización de los sistemas físicos y de cantidad de información.

Podría decirse por eso que, por un lado, Shannon, con su Teoría de la información, puso las bases conceptuales y matemáticas para el desarrollo de la sociedad de la información industrializada en la segunda mitad del siglo XX. O sea, que transformó el mundo, más que muchos otros científicos e intelectuales (y sea para bien, o para mal…)

Y, por otro lado, pero inseparablemente, su Teoría de la información nos permite comprender el mundo mejor, pues se aplica en muy diversos campos y sectores: la economía, el lenguaje, psicología, biología, física, etc. Las ideas de Shannon, sin pretenderlo, están de alguna manera en la estela de Leibniz, en la tradición que entiende la realidad desde la Lógica de la información.

  • Claude Shannon, Father of the Information Age [videograb.] University of California, San Diego, Television, 2002.
  • GOLOMB, S. W.; et. al. Claude Elwood Shannon (1916-2001) [texto pdf]. Notices of the AMS, 2002, 49(1):8-16

  • Inteligencia colectiva, Foldit

    11 enero 2009

    He reparado en esta noticia publicada hace poco en el diario El País:

    La inteligencia colectiva se pone al servicio de la ciencia a través de Internet. –  La Universidad de Washington invita a los internautas a resolver rompecabezas para contribuir a comprender las proteínas y ayudar a salvar vidas – Sigue los pasos de Seti@home y Rosetta@home. – R. BOSCO / S. CALDANA 08/01/2009.  

    Se trata de Foldit, un proyecto de investigación sobre proteínas que estudia el plegamiento de las mismas a través de computación distribuida. El sistema se basa en la colaboración de miles de voluntarios, profanos en biología, que no sólo ponen sus ordenadores al servicio de la ciencia, sino que además resuelven puzles con representaciones de las moléculas, cuyas soluciones, masivamente acumuladas, contribuyen al progreso de la investigación. La resolución de los puzles se articula como un juego competitivo que aúna el esfuerzo de los participantes y estimula la mejora en los resultados. Para más información puede consultarse también Folding Home.

    El asunto es en efecto muy interesante: un brillante ejemplo de uso de la computación distribuida en la investigación científica y, como explica la noticia, de aplicación de la inteligencia colectiva o compartida al desarrollo del conocimiento. En Foldit se produce además una ergonómica integración entre sistemas cognitivos naturales y artificiales, de manera que a través de algoritmos de juego y de manipulación geométrica dispuestos por el autor del sistema, máquinas y cerebros procesan y depuran información, suministrando datos fiables base del nuevo conocimiento.

    Mediante Foldit miles de personas participan en la investigación científica, motivados además por el mensaje que se les recalca de que es en favor de la curación de enfermedades como el sida, el cáncer y el mal de Alzheimer. Quienes juegan a resolver los rompecabezas son enterados someramente en la web sobre la naturaleza y propósitos de la investigación y es de suponer que muchos de ellos sean personas aficionadas o interesadas por estos temas. Así pues, Foldit es también una forma de participación social en la ciencia, una forma innovadora y sugestiva, si bien un tanto paradójica: mucha gente interviene de manera activa en el progreso científico, pero aunque no sea totalmente lega, participa jugando, sin conocer realmente lo que se trae entre manos…

    Foldit proporciona una cierta visión de cómo el conocimiento puede progresar a nivel colectivo, con la contribución organizada de muchas máquinas y cerebros, pero sin que la mayoría de las inteligencias individuales humanas aporten o conozcan nada realmente significativo. Foldit es, pues, un estupendo ejemplo de industrialización del conocimiento, en donde aparece incluso una masa de obreros sin cualificar que ajustan su pieza en la cadena de montaje (en este caso de forma digital, pero casi literal, realizando una tarea en principio destinada a las máquinas), obreros que carecen de dominio sobre el proceso completo y que aportan su materia gris por una mínima gratificación lúdica o satisfacción altruista.

    Claro que podría decirse también que estas personas, profanas ab initio, se han acercado más a la ciencia de lo que estaban antes y que de alguna manera se han integrado más en los nuevos modos de producción de nuestra sociedad. Pero el caso del sistema Foldit, como otras tecnologías y herramientas, muestra que es factible la producción colectiva de mucho conocimiento manteniendo un nivel relativamente bajo, en comparación, de conocimiento individual. Extrapolando las cosas, vuelve a verse que la llamada sociedad del conocimiento tal vez no sea una sociedad de sabios.


    CiteSeerX, y ChemXSeer

    25 septiembre 2008

    Después de diez años de funcionamiento, hace varios meses que CiteSeer, la conocida fuente de información y documentos del sector de las ciencias de la computación, se ha renovado y ha renacido como CiteSeerX, con un nuevo sistema e interfaz. Alojada en el College of Information Sciences and Technology de la Pennsylvania State University, está ahora sólo bajo la dirección de C. Lee Giles.

    Continuidad:

    CiteSeerX vuelve a definirse como un buscador y una biblioteca digital de literatura científica. Mantiene la misma orientación de promover la comunicación libre y gratuita del conocimiento. Continúa capturando los artículos que los autores inscriben con su localización en la Red. Proporciona referencias, documentos digitales en PDF y PostScript y todo un sistema de índices de citas. Incluye informes técnicos, prepublicaciones, artículos de revista y, sobre todo, papers de congresos y conferencias, un tipo de literatura que es tan relevante en informática y computación.

    CiteSeerX sigue explotando su sistema automático de indización de citas (Autonomous Citation Indexing) y mostrando el contexto que rodea a las citas en el texto del documento citante. Ofrece como antes listas de documentos relacionados (co-citados, co-citantes) y datos de citas a documentos no incluidos en el sistema. Y permite también buscar por texto completo.

    Y cambio:

    Entre las novedades, destaca el crecimiento que supone CiteSeerX: se ha pasado de 760.000 a 1.160.000 documentos. El sistema de búsqueda avanzada, con ser bastante esquemático, significa también una considerable mejora respecto a la «caja única» del antiguo CiteSeer. En general, la presentación se ha enriquecido, dentro de un estilo marcadamente espartano. A tono con ello, han aparecido prestaciones personalizadas, previo registro: MyCiteSeerX.

    Lo más interesante de todo es que los datos y contenidos están actualizados. Por ejemplo, los más básicos y utilizados rankings de impacto de las fuentes («venues») son muy recomendables, porque calculan el impacto de series de congresos y conferencias que no figuran en Web of Science, Journal Citation Reports, Scopus, SJR, etc. Y en España, seguro, se usan mucho. Aparecen rankings anuales desde 1993 hasta 2007: 576 títulos en este último año. También hay rankings de autores, documentos y citas (referencias citadas no incluidas en CiteSeerX) más citados.

    No veo, sin embargo, ni rastro en CiteSeerX de la búsqueda por agradecimientos («acknowledgements»), que existía en CiteSeer y representaba un desarrollo experimental muy sugerente para la indagación sobre la estructura social de la ciencia.

    Y también ChemXSeer:

    En la estela de CiteSeerX, pero en el campo de la química, sobre todo de la química ambiental, está comenzando su camino ChemXSeer, también bajo el impulso peculiar del profesor C. Lee Giles. Se trata de un motor de búsqueda, fuente de documentos y de datos que por ahora opera de modo experimental, indizando sobre todo contenidos de la Royal Society of Chemistry.

    ChemXSeer aspira a rastrear en internet y a alojar documentos científicos, así como a explotar inteligentemente la información química, al menos en tres direcciones: (i) la búsqueda de entidades químicas, moléculas, etc., (ii) la extracción automática y aprovechamiento de datos de tablas contenidas en los documentos y (iii) el tratamiento, conservación y recuperación de data sets (bancos de datos) experimentales obtenidos de varias procedencias y en distintos formatos.


    Cultura y redes neuronales

    15 May 2008

    Este artículo pertenece a un género de estudios que relacionan el aprendizaje por evolución, basado en la transferencia de información genética y en la selección adaptativa, y el aprendizaje cultural, que se realiza mediante transmisión de información por medios no genéticos (que empiezan en la imitación). Tales estudios se abordan con simulaciones computacionales, redes neuronales en este caso, y forman parte de la investigación de la inteligencia y la vida artificial.

    La finalidad de este trabajo es examinar el efecto del aprendizaje cultural, mediante enseñanza intergeneracional, en la evolución y adaptación de poblaciones de agentes neuronales. Los resultados de los experimentos muestran que se da una gradual transferencia de conocimiento desde los genes al proceso cultural, de manera que incorporar aprendizaje cultural mejora el éxito adaptativo global de la población, a costa del deterioro de la capacidad adaptativa innata. La mayor parte de los recursos para sobrevivir en el entorno se van almacenando en la cultura, no en los genomas.

    Reflexiones que me sugiere este artículo:

    • Desde un punto de vista metodológico, la modelización artificial sirve para entender los sistemas naturales, y entre ellos la evolución sociocultural, permitiendo una comprensión más rigurosa de las dinámicas sociales.
    • Desde un punto de vista ontológico, paralelamente, la continuidad informacional se muestra como el sustrato común de los procesos y sistemas biológicos, socioculturales y computacionales.
    • Así, la evolución biológica aparece como una forma de «aprendizaje», de incorporación de información en las variedades exitosas frente al medio, si bien es un aprendizaje más rígido que el basado en la transmisión cultural.
    • Y, así, la sociedad del conocimiento y otros fenómenos históricos y humanos se pueden entender desde su base natural, como el resultado o manifestación de las complejas dinámicas de la información.
    • Sin embargo, las conclusiones del estudio, absolutamente concordantes con la experiencia común, evocan una paradójica, desasosegante, y también familiar, constatación: un proceso desencadenado en origen y que se desenvuelve de manera natural, el del aprendizaje cultural, parece desembocar en la inadaptación, ruptura o radical desconexión respecto a la naturaleza originaria… ¿hasta la incompatibilidad, hasta extremos destructivos…?

    E-ciencia, casos y ejemplos

    26 marzo 2008

    C. Borgman propone en su libro (Scholarship in the digital age) promover la «content layer» de la e-ciencia, que incluiría los resultados de la investigación, documentos y datos, objeto de organización y conservación estables en un marco semidocumental, según ella.

    La e-ciencia es tecnociencia en su máxima expresión, investigación tan industrializada como es posible. Consiste en infraestructuras tecnológicas para la producción colectiva y organizada de conocimiento científico. Y me temo que distinguir o separar continentes y contenidos, resultados y medios, no va a ser fácil en un futuro fertilizado por la capacidad prolífica de la computación científica a gran escala, por el vigor de la información depurándose, especializándose y propagándose en red. 

    La e-ciencia se desarrolla, con grandes apoyos públicos, en los terrenos clásicos de la big science (altas energías, astronomía y espacio, biología molecular, etc.) y también en aquellos que usan muchos datos y potencia de cálculo: ciencias de la tierra, clima y atmósfera, fluidos, materiales, problemas complejos de biomedicina e ingeniería, etc. Una gran parte de la e-ciencia usa tecnologías grid, de computación distribuida (hay un artículo breve en las CSA Discovery Guides sobre Grid computation).

    La e-ciencia puede incluir: captación de información observacional, mediante sensores remotos e instrumentación; simulación o modelización computacional de fenómenos; cálculo y tratamiento numérico de datos masivos y complejos; herramientas colaborativas de interacción; y almacenamiento y uso compartido de resultados factuales, textuales y documentales, en diversos estadios de elaboración o maduración, por parte de las comunidades científicas.

    Algunos sitios de interés, experiencias e iniciativas sobre e-ciencia son por ejemplo los siguientes: 

    • EGEE, Enabling Grids for E-sciencE: proyecto de la Unión Europea que proporciona una plataforma de computación grid multidisciplinar e internacional (32 países).
    • NeSC, National e-Science Centre: centro nacional británico para la e-ciencia, sitio general informativo sobre e-ciencia en el Reino Unido, con enlaces a todo el sistema.
    • OSG, Open Science Grid: infraestructura grid estadounidense para computación científica distribuida, financiada por la NSF y la Office for Science del Department of Energy.
    • GEON, Geosciences Network: plataforma de investigación geocientífica cooperativa de diversas instituciones norteamericanas, ya muy consolidada.
    • TeraGrid: infraestructura de computación científica norteamericana, multisectorial y cooperativa, de gran capacidad.
    • NEON, National Ecological Observatory Network: sistema de observación y seguimiento de los ecosistemas, en EUA, para estudiar su evolución, mediante sensores remotos.
    • Interactive European Grid: proyecto de plataforma grid europea, coordinado por el Instituto de Física de Cantabria, del CSIC.
    • OGF, Open Grid Forum: comunidad internacional para el desarrollo y estandarización de tecnologías grid.
    • IRISGrid: iniciativa nacional para la implantación y desarrollo de entornos grid en España, gestionada por RedIRIS
    • Iniciativa e-Ciencia del IFCA, Instituto de Física de Cantabria (CSIC): proyectos, información y documentación sobre e-ciencia.

    P.S. 02-07-09: En relación con este tema he escrito en ThikEPI también esto: Academia y ciencia colectiva.


    Los sistemas cognitivos

    27 enero 2008

    A pesar del fracaso que han cosechado las exageradas promesas y pronósticos de la Inteligencia artificial, ha llegado a estar claro que el procesamiento de la información que realizan o (diría yo más bien) los procesos informacionales que tienen lugar en máquinas informáticas y organismos biológicos son de la misma naturaleza, lo que permite hablar de sistemas cognitivos en general.

    cognitive.gif

    Como su título indica, esta obra trata precisamente de los sistemas cognitivos, concepto o categoría emergente y central en un área donde diversas disciplinas científicas se cruzan y enriquecen entre sí: en especial, la computación y la neurociencia. 

    Los sistemas cognitivos abarcan sistemas naturales o artificiales de procesamiento de la información capaces de percepción, aprendizaje, razonamiento, comunicación, actuación y comportamiento adaptativo. El libro reúne un conjunto de revisiones que repasan el estado y las perspectivas de la investigación sobre diversos aspectos de estos sistemas, desde el ángulo de la tecnología de la información, desde el de las ciencias de la vida y sobre todo desde la convergencia entre ambas, que así retoman una larga pero intermitente relación.

    En efecto, la alianza entre computación y neurociencia con el fin de esclarecer los procesos informacionales y cognitivos que tienen lugar tanto en sistemas naturales como en artificiales constituye una vía esencial para la comprensión unificada y coherente del funcionamiento de la realidad, de su evolución y de sus niveles de agregación.

    En este marco, se estudia el comportamiento emergente de una colectividad a partir del de los individuos componentes, la auto-organización y conducta adaptativa de los sistemas, los agentes autónomos, el aprendizaje social, etc. Tal vez pueda llegarse también (digo yo) a explicar el conocimiento como algoritmos de depuración y organización de la información. (Ver Algoritmos genéticos).

    Es evidente, por otra parte, que la convergencia entre computación y neurociencia, no sólo va a permitir alcanzar una visión más fiable del mundo. También traerá consigo nuevas tecnologías, industrias y negocios, que crearán y satisfarán demandas de los mercados. Con ello aparecerán nuevas realidades y criaturas que sacudirán los códigos de valoración y conducta vigentes y transformarán el ambiente físico del planeta, no sin riesgos de diverso alcance para los homosapiens.

    Por cierto, en neurociencia cognitiva y computacional está especializada la Scholarpedia.


    TechXtra, un metabuscador

    15 May 2007

    TechXtra es un producto más de la excelente factoría Herriott-Watt University Library, que impulsó la Edimburgh Engineering Virtual Library (EEVL) hasta su integración en Intute hace tiempo. TechXtra es un metabuscador de uso gratuito que permite en la actualidad buscar información, simultáneamente y de forma muy sencilla, en unas 30 diferentes bases de datos y recursos disponibles en la red, del ámbito anglosajón (Reino Unido, Australia, EUA, etc.) Asegura incluir unos cuatro millones de documentos y funciona desde hace un año, más o menos.

    xtralogo.gif

    TechXtra está orientado básicamente a la Ingeniería, las Matemáticas y la Computación. Entre las fuentes de información más importantes que rastrea están: ArXiv, CiteSeer, NDLTD, el catálogo COPAC, el Intute Repository Search (50 repositorios del Reino Unido), las revistas de IoP, DOAJ, Project Euclid, etc. En algunas de las fuentes, no obstante, lo que se consulta es el segmento de las mismas que tiene que ver con los temas de TechXtra. En muchos casos los textos completos están disponibles gratuitamente y en otros, según la fuente de información de que se trate, son de pago.

    El tipo de documentos e información que abarcan los recursos en que TechXtra busca es también sumamente variado: libros, revistas, artículos, informes, tesis, materiales docentes, e-prints, páginas web, videos, etc. TechXtra también proporciona contenidos extra, como una serie de revistas y boletines comerciales, servicios de anuncios y noticias de la industria, ofertas de empleo, patentes y estándares a través de GlobalSpec, etc.

    La recuperación en TechXtra es simple, al estilo Google. Se puede restringir por tipo de documentos. Las búsquedas se ejecutan con rapidez, y los resultados se presentan de manera clara y cómoda, distribuidos según los diversos recursos en que se obtienen. Al final, remiten al contenido original en cada base de datos fuente. 

    TechXtra es una herramienta muy interesante para los campos que cubre, aunque en mi opinión agrega fuentes demasiado distintas por tipología, calidad y alcance como para competir con las bases de datos por separado, donde la recuperación es más precisa. Pero es una puerta común que conecta con los recursos, está en crecimiento y evolución, y resulta un servicio muy prometedor que conviene tener en cuenta para la internet profunda.

    Un comentario más amplio sobre TechXtra, titulado The long tail of information technology puede leerse en el Sci-Tech Library Newsletter de Stanford University.


    Algoritmos genéticos y cultura

    27 marzo 2007

    Para el estudio riguroso de los fenómenos del conocimiento y la cultura en la especie humana son sin duda muy útiles las aproximaciones desde la neurociencia, las ciencias cognitivas y la ecología humana. Pero también es fundamental la computación, por ejemplo los algoritmos genéticos.

    Los procesos por los que la materia incorpora información son los que permiten generar complejidad, venciendo, con consumo de energía captada del exterior, la tendencia a la entropía (degradación, descomposición y desorden) de todo sistema aislado. Seguramente la evolución de los sistemas socioculturales, tan complejos, se podrá explicar un día desde dinámicas informacionales, se basen o no en el concepto concreto de memes.

    Los procesos informacionales que tienen lugar sobre estructuras neuronales o sobre soportes artificiales (escritura, electrónica…), prolongando la dinámica informacional basada en moléculas de DNA, serían los mecanismos genotípicos cuya expresión fenotípica es la cultura, la ciencia, la técnica, las instituciones, las costumbres, etc. La computación y la inteligencia artificial facilitan la comprensión de dichos procesos. La computación evolutiva, emparentada con la biología evolutiva, es la que posiblemente más tenga que ver con el asunto, proporcionando, por ejemplo, el interesante concepto de algoritmo genético, tema sobre el que hay abundante bibliografía.

    Un algoritmo genético (Wikipedia, en castellano) es una técnica informática que imita el funcionamiento de la evolución biológica para resolver problemas, buscando, combinando y optimizando soluciones, y produciendo innovación. Opera mediante simulación por ordenador, combinando aleatoriamente soluciones posibles a un problema, para producir diversidad, y seleccionando las soluciones más aptas, que se vuelven a recombinar y evaluar en sucesivas generaciones. La aptitud media de cada generación va creciendo, y al final, se obtiene una solución si no óptima, convergente con lo óptimo.

    Con algoritmos genéticos se abordan problemas industriales y se hace diseño evolutivo artificial de invenciones técnicas reales, alguna de las cuales parece que se ha patentado. Otra técnica relacionada con los algoritmos genéticos es la de los algoritmos meméticos. Todo ello, junto con la idea de replicación viral de la información, modeliza lo que puede ocurrir fuera de los ordenadores, en los cerebros.