James Clerk Maxwell

27 noviembre 2009

El logro principal del británico James Clerk Maxwell (1831-1879) fue su teoría unificada de la electricidad y el magnetismo. Con ella consiguió una gran síntesis explicativa de múltiples fenómenos, experiencias y conocimientos. Su profundidad, alcance y rigor matemático lo ponen, suele decirse, casi a la altura de Newton o Einstein, en la dirección de lo que en el siglo XX sería la búsqueda de teorías unificadas de campos.

Sin embargo, Maxwell fue también uno de los fundadores de la física o mecánica estadística, junto con Ludwig Boltzmann. Dicha rama de la física intenta dar explicaciones de los fenómenos macroscópicos como el intercambio de calor y energía a partir de los comportamientos de las mútiples partículas que constituyen los sistemas. Las propiedades macroscópicas se ven como el resultado de la dinámica de lo microscópico, la termodinámica se explica en perspectiva estadística desde la mecánica.

Concretamente Maxwell propuso la fórmula estadística para hallar la distribución de velocidades que se dan entre las moléculas de un gas. Su planteamiento fue generalizado por Ludwig Boltzmann, dando lugar a la Ley de Maxwell-Boltzmann. Tal función de distribución aboca a una interpretación probabilística de la termodinámica. Y la contribución de Maxwell resultó decisiva para asentar la concepción del calor como movimiento de las partículas, energía cinética.


Difusión de información en red

12 noviembre 2009

Informa SINC, el Servicio de Información y Noticias Científicas de la FECYT, que dos investigadores de la Universidad Carlos III de Madrid e IBM acaban de publicar en Physical Review Letters, una revista de primera línea, un estudio sobre la difusión de la información en las redes sociales. Creo que el trabajo está despertando bastante atención; desde luego a mí me interesa (con toda la modestia de mero aficionado) y, en un caso más de replicación de información en la red, me quiero hacer eco de ello.

Los autores explican al comienzo de su artículo que modelizar las dinámicas sociales como el resultado emergente de la interacción informativa entre individuos es habitual hoy en día, con la ayuda de la física estadística. Así se hace con fenómenos como la extensión de las epidemias, la difusión de las innovaciones, la formación de la opinión pública, las dinámicas culturales, los virus informáticos, la propagación de rumores o modas, el marketing viral, etc.

El artículo aborda en concreto los procesos de difusión de la información y la influencia en ellos de comportamientos humanos diferenciados. Y la principal conclusión parece ser que la información se propaga de una forma relativamente lenta casi siempre, lo que se debe a los muy diversos tiempos de respuesta de los individuos, cuya conducta altera cualitativamente la dinámica de la propagación informativa a nivel colectivo. Esta heterogeneidad parece deberse a la diferente relación entre la información y el individuo, que crea usuarios de respuesta rápida y de respuesta lenta.

El estudio supone un avance destacable en el análisis, medición y predicción matemáticas de los procesos de difusión de la información y, en definitiva, en la modelización científica de fenómenos humanos colectivos. Lo que más interesante me parece es la idea general de que los complejos sistemas psicosociales pueden estudiarse desde los procesos informacionales subyacentes, desde un punto de vista físico y naturalista.


Redes y complejidad

2 julio 2009
 
«Lo complejo nos rodea y forma parte de nosotros. ¿Qué define esta complejidad? […] De una parte, la ya mencionada presencia de propiedades emergentes, que no pueden explicarse acudiendo a las propiedades de sus componentes. De otra, la existencia de una cierta invariancia del todo pese a los cambios y fluctuaciones en sus partes. […] Sus propiedades e identidad como sistema se mantienen. […] un orden de nivel superior que no podemos comprimir. Este orden irreductible es la esencia de lo complejo […] El origen de esta irreductibilidad reside en la presencia de interacciones entre elementos. Todo sistema complejo posee elementos qe en una forma u otra, intercambian información entre sí a través de algún medio. Este flujo de información es generado por los elementos constituyentes, y a su vez cambia el estado de estos últimos, en un círculo lógico que no podemos romper».
 
Solé, R. Redes complejas: del genoma a internet. Tusquets, 2009. P. 20.

Los sistemas complejos, así pues, exhiben comportamientos y  propiedades emergentes, que son resultado de la interacción reticular de sus elementos, pero no se reducen simplemente a ellos. Redes de comunicación, células, ecosistemas, epidemias víricas, sistemas neuronales, genomas, mercados, sociedades, lenguajes, etc., en versión natural o artificial, son ejemplos de sistemas complejos.

El cerebro es de por sí una red compleja de neuronas interactuando, o sea, el resultado de flujos y conexiones informativas entre sus componentes, en equilibrio dinámico. Nada de raro tiene pensar, pues, en una inteligencia colectiva y reticular, externa y neurodigital, masivamente industrializada. O ver la cultura como un sistema adaptativo complejo.


Ludwig Boltzmann (1844-1906)

30 octubre 2008

Este año se conmemora el 164º aniversario del nacimiento y el 102º de la muerte de Ludwig Boltzmann, un eximio representante de la cultura decimonónica centroeuropea, austriaco por más señas, dedicado básicamente a la Física, donde realizó aportaciones muy destacadas, que a mí me resultan interesantes y significativas (en fin).

Boltzmann es considerado el fundador de la Mecánica estadística, en virtud de la cual las propiedades y comportamientos globales de los conjuntos o agregados macroscópicos se explican como el resultado estadístico de los comportamientos y propiedades de las innumerables micropartículas componentes (moléculas, átomos, etc.)

Siguiendo esta concepción, derivó las propiedades termodinámicas globales a partir de la mecánica de las partículas, lo que le condujo a formular la interpretación estadística de la Termodinámica, de su segundo principio, que afirma que la entropía, o desorden, siempre crece en los sistemas cerrados. Boltzman concluyó que este principio es una ley estadística, puesto que los estados con mayor entropía son simplemente los más probables y numerosos, siendo el orden lo más improbable: las partículas cambian de situaciones menos a más probables (ver Entropía e información).

En consonancia con todo ello, Boltzmann defendió con pasión la idea de los átomos, en una época y contexto geográfico en que ni mucho menos estaba aceptado entre los físicos el atomismo. Además, hizo contribuciones muy relevantes a la teoría cinética de gases, al estudio de la radiación del cuerpo negro, etc. Fue un teórico poderoso, tuvo como discípula a Lise Meitner e influyó notablemente en el desarrollo de la ciencia posterior: Planck, Einstein, la mecánica cuántica…


SCOAP3, «big deal» al revés

5 junio 2008

SCOAP3 (Sponsoring Consortium for Open Access Publishing in Particle Physics) es un consorcio de agencias de financiación, instituciones de investigación y bibliotecas u organizaciones bibliotecarias que actúan en el campo de la física de altas energías (HEP), y su fin es promover la publicación en régimen de acceso abierto en este sector de la ciencia. En la actualidad, los miembros de SCOAP3 pertenecen a una docena de países europeos, E.U.A. y Australia. El CERN es también parte muy activa. Ningún organismo español participa, por el momento, en SCOAP3, aunque España es el 9º país del mundo en producción científica en este terreno, con un 3,1 % de cuota de publicación.

Como se sabe, en física de partículas la literatura internacional está accesible de manera muy fácil, en forma de preprints, a través del ya histórico y famoso repositorio digital arXiv, principalmente, así como mediante otros archivos institucionales, etc. De lo que se trata ahora es de que las propias revistas científicas estén también a disposición pública de manera abierta y estable en Internet, con las versiones definitivas de los artículos, como resultado del peer review.

El método que SCOAP3 propone para ello es redirigir colectivamente la financiación que el sector canaliza a los editores bajo el modelo «lector paga» (en forma de suscripciones) hacia un sistema global «autor paga» (dejando abiertos los contenidos), de manera que dicha financiación siga cumpliendo su misión básica, que es sufragar la evaluación o arbitraje de los artículos. SCOAP3 se constituye como una cooperativa de clientes de servicios de publicación, lo contrario a un consorcio de suscripción de revistas. Es otra forma de big deal En sus propios términos:

In this model, HEP funding agencies and libraries, which today purchase journal subscriptions to implicitly support the peer-review service, federate to explicitly cover its cost, while publishers make the electronic versions of their journals free to read. Authors are not directly charged to publish their articles OA. (…) the publishers’ subscription income from multiple institutions is replaced by income from a single financial partner, the “Sponsoring Consortium for Open Access Publishing in Particle Physics” (SCOAP3). (…) Each SCOAP3 partner will recover its contribution from the cancellation of its current journal subscriptions. (…)

Interesantes detalles aparte, como el de que la gran mayoría de los artículos de HEP se publican en seis revistas de cuatro editores (APS, IoP, Elsevier y Springer), con lo que el problema está bien localizado, se me ocurre subrayar algunos aspectos de SCOAP3:

  1. Es una iniciativa corporativa y global para toda la HEP, una comunidad científica reducida, muy integrada y cohesionada a escala internacional, que constituye el mejor ejemplo de big science (macrociencia), con un nivel de coautoría por artículo que llega con frecuencia a cientos de investigadores.
  2. La idea nace con la fuerza de quienes como autores tienen en conjunto en su mano poder imponer un acuerdo con los editores. No se trata de una confrontación o rebelión, sino de que una cooperativa global de autores negocia con los editores una revolución en las condiciones de la publicación científica, contratando sus servicios en concurrencia competitiva.
  3. Es la comunidad científica organizada como consorcio la que asume la representación de todos los investigadores y el patrocinio económico de la actividad editorial. Situada la fuente de financiación a este nivel, se libera del pago individual a los investigadores, y la agregación económica, junto con la negociación a gran escala con los editores, permite prever una cierta reducción en los costes frente a la situación actual.
  4. Es temprano para hacer pronósticos, las pautas de trabajo no son exportables de unas comunidades científicas a otras, y en la comunicación científica reina el pluralismo, la heterogeneidad. Pero la HEP ha demostrado su liderazgo informacional con arXiv o el desarrollo de la propia WWW… SCOAP3 es un movimiento muy organizado que tal vez también ejerza poderosa influencia si se consolida.

Linus Pauling, desde la base

10 abril 2008

Entre los científicos que más han aportado para comprender el funcionamiento de la naturaleza, generando nuevo conocimiento más fiable a partir de teorías recién recibidas y gracias a su creatividad y capacidad inquisitiva, destaca Linus Pauling (1901-1994).

Nacido en E.U.A., pero discípulo de grandes maestros europeos (Sommerfeld, Bohr, Schrödinger), Pauling quizá fue fundamentalmente químico, pero trabajó en la encrucijada de la física cuántica y de la biología molecular, de la que es considerado uno de los fundadores. Intervino también no obstante en otras disciplinas, desde la medicina a la psicología o la metalurgia, con un talante enciclopédico digno de los grandes sabios de otras épocas. Recibió el premio Nobel de Química en 1954 y el de la Paz en 1962, por su activismo contra las guerras y el armamento nuclear, que lo movió también a salir de laboratorios falsamente «neutrales» ante los dilemas sociopolíticos.

Las aportaciones más relevantes de Linus Pauling fueron su teoría del enlace químico y su programa de análisis estructural de las macromoléculas biológicas.

  • En su célebre obra The nature of the chemical bond (1939) explicó en profundidad los enlaces químicos entre átomos y, por tanto, la estructura de las moléculas y sistemas cristalinos, y las propiedades resultantes de las sustancias, sobre la base firme y cuantitativa de la mecánica cuántica recién formulada, impulsando de forma decisiva la química cuántica.
  • En cuanto a sus hallazgos en el nacimiento de la biología molecular, aplicando las técnicas de la difracción de rayos X, determinó la estructura molecular de diferentes proteínas y estableció el modelo básico de grandes cadenas polipéptidas enrrolladas una en otra a modo de hélice, noción que abrió paso claramente a la hélice de DNA, de la que estuvo muy próximo.

Parece que suele decirse que Pauling redujo la química a la física, lo cual seguramente no es más que una manera de hablar y de hacer frases. Tal vez sí pueda afirmarse que explicó lo complejo a partir de sus componentes más simples, de manera matemáticamente precisa, todo lo cual es característico de la tradición científica y sirve para entender, calcular y predecir. Las propiedades, el comportamiento y los cambios de los cuerpos sólidos y demás sustancias dependen de la configuración de sus moléculas o redes de átomos, y por tanto de cómo éstos están enlazados. Pauling dio grandes pasos en la ciencia de las moléculas y por consiguiente en la comprensión de cómo se construye la realidad desde abajo.


Citebase Search, citas en O.A.

3 febrero 2008

La situación actual de la comunicación científica se caracteriza, como escribía hace poco, por la coexistencia, duradera, de múltiples modelos y sistemas, aunque puede detectarse una corriente de fondo hacia el denominado acceso abierto (O.A.), que responde a causas profundas. Citebase Search es una singular expresión de esa corriente, aunque se trata de una iniciativa experimental y bastante fragmentaria, asociada estrechamente a arXiv.

Citebase es el principal resultado práctico de la iniciativa OpCit Project, desarrollada bajo la inspiración de Stevan Harnad, entre otros. Pertenece al género de los proveedores de servicios, en el mundo del acceso abierto, esto es, las fuentes de información que no proporcionan contenidos primarios (repositorios), sino prestaciones de valor añadido en relación con ellos (búsquedas, estadísticas, citas, enlaces, etc.) José Manuel Barrueco lo explica en su presentación Hacia una nueva generación de proveedores de servicios (VI Semana de la Ciencia, Madrid, 2006, CINDOC)

Citebase Search se define a sí mismo, y a través de su principal responsable, Tim Brody, como un índice de citas semiautomático y experimental para la literatura científica en acceso abierto. Recopila metadatos de eprints de archivos que cumplen el protocolo OAI-PMH (arXiv y otros), detecta y analiza las referencias en sus textos y genera los índices de citas correspondientes, proporcionando diversas estadísticas y gráficos. Incluso facilita cocitas, las referencias también citadas por las que citan a una dada. Asimismo, cuantifica las descargas de los eprints realizadas en los archivos, ofreciendo así datos de utilización de los documentos.

Citebase se configura, pues, como una herramienta de evaluación de la investigación (sin aplicación efectiva aún en decisiones académicas, se advierte en su sitio web). Pretende aportar al modelo abierto de comunicación científica, sobre todo al basado en archivos de eprints, un sistema analítico de métrica informativa y de navegación a través de citas que lo haga más atractivo, eficaz y convincente. El reto es, claro, que la literatura científica autogestionadamente abierta cuente con servicios añadidos de calidad comparable a los que existen para las publicaciones tradicionales.

Además de las consideraciones que hace al respecto José Manuel Barrueco en Hacia una nueva generación… («Fácil crear un servicio, difícil crear una audiencia», etc.), se me ocurre que la propia proliferación de modelos, sistemas y herramientas dificulta el éxito o implantación general de cualquier dispositivo (Barrueco dice: «Competencia dura»). Las TIC aceleran la investigación científica porque catalizan el intercambio informativo; sin embargo, es difícil que creen una nueva pero ordenada y uniforme República de las Letras.

A título casi de juego, he buscado las citas que se hallan en Citebase, en Web of Science y en Scopus de seis documentos bastante citados, elegidos al azar, con resultados diversos (las condiciones de fecha del eprint y de la publicación varían, etc., sólo es un juego):

  • Search for the Standard Model Higgs Boson at LEP, 2001:  Cb, 120. — WoS, 190. — Scopus, 121
  • Chiral symmetry breaking and pions in nonsupersymmetric gauge / gravity duals, 2004:  Cb, 167. — WoS, 112. — Scopus, 124  
  • Powerful jets from black hole X-ray binaries in low / hard X-ray states, 2001:  Cb, 138. — WoS, 143. — Scopus, 144
  • Phonon-induced decay of the electron spin in quantum dots, 2003:  Cb, 101. — WoS, 75. — Scopus, 117
  • Non-maximally entangled states: production, characterization and utilization, 1999:  Cb, 111. — WoS, 162. — Scopus, 196
  • Precise Measurement of the Positive Muon Anomalous Magnetic Moment, 2001:  Cb, 486. — WoS, 381. — Scopus, 384

Dos referencias de Tim Brody:


Entropía e información

17 enero 2008

entropy.jpg

Según Ben-Naim, la entropía puede ser fácilmente comprendida en términos de sentido común, como un concepto sencillo y familiar, y no tiene por qué ser una magnitud misteriosa e inaprehensible. Con talante divulgativo pero riguroso, con abundantes razonamientos y ejemplos, el libro prepara al lector para que descubra por él mismo qué es la entropía, cómo cambia y, lo más importante, por qué siempre cambia en un sólo sentido en cualquier proceso que sea espontáneo: aumentando. Para ello, Ben-Naim parte de la formulación atomística de la Segunda Ley de la Termodinámica, que tiene en cuenta la constitución corpuscular de la materia, sujeta a la mecánica estadística. También se basa el autor en las teorías matemáticas de la probabilidad y de la información.

Ben-Naim conduce al lector a la conclusión de que la entropía es «Missing information», la información que falta, la carencia o la pérdida de información, término que prefiere al de incertidumbre (uncertainty). Lo que cambia, aumentando, en los sistemas que evolucionan espontáneamente es, pues, la desinformación. En definitiva, la entropía no es más que información.

La información le parece a Ben-Naim una magnitud científica bien definida, que expresa de manera más clara y exacta que la idea de «desorden» qué es la entropía. La entropía es una medida de la ignorancia, sin que esto pueda interpretarse en términos subjetivistas o relativos al conocimiento humano de los sucesos, sino a la indeterminación probabilística.

Cualquier sistema, aislado y espontáneamente, pasa más tiempo en estados de elevada probabilidad que en estados de probabilidad baja. Por consiguiente, si está en un estado de baja probabilidad (por tanto, de elevada información) pasará a uno de probabilidad alta (menor información). La desinformación, la entropía, aumenta. Esto no es más que sentido común, según Ben-Naim: mera consecuencia del juego de las probabilidades en el universo de sucesos que ocurren en un sistema de partículas, una ley de la probabilidad más que una ley de la física.

Naturalmente, añado yo, hay segmentos anti-entrópicos de la realidad, crecientemente informacionales, que no evolucionan como sistemas aislados y espontáneos, sino consumiendo energía del exterior. Son muy improbables, pero haberlos, haylos.


El CERN Document Server

10 enero 2008

Uno de los «repositorios institucionales» más importantes y grandes es el CERN Document Server (CDS), que contiene ahora casi un millón de referencias y unos 350.000 documentos sobre física de altas energías y áreas relacionadas. arXiv, el archivo temático por antonomasia, alberga 450.000 eprints, y la base de datos HEP de SPIRES algo más de 500.000 referencias, teniendo ambas fuentes una cobertura disciplinar parecida a la del CDS. La cuarta gran fuente del sector, el Astrophysics Data System de SAO/NASA es mucho mayor (6.000.000 de referencias), pero su rango temático es más amplio, además de ser sólo bibliográfica.

cds.gif

En realidad, el CERN Document Server es una mezcla de repositorio y base de datos, pues incluye referencias y un subconjunto de documentos íntegros. Estos, además, pertenecen sólo en parte a la producción científica del CERN, correspondiendo el resto a otra literatura recopilada por la institución. Las fechas de publicación de los documentos y referencias se remontan a los orígenes del organismo, a mediados del siglo XX, pero el crecimiento reciente de CDS está siendo muy rápido. La incorporación se produce tanto por los envíos de los autores como por sistemas de recolección, selección e indización por parte del CERN.

La variedad en la tipología de los contenidos es también una nota característica del CERN Document Server. Aunque en cierta manera, tiene aspiraciones de plataforma de publicación, constituye la gran biblioteca electrónica de la institución, con toda la clase de materiales conservados en ella: preprints, artículos, tesis, informes, libros, congresos, revistas, estándares, presentaciones, videos, archivos sonoros, folletos, carteles, recortes de prensa, anuncios de conferencias, archivos históricos y administrativos, etc.

El CERN Document Server opera con un software propio, CDS Invenio, que se define compatible con OAI-PMH y es de uso libre bajo GNL. Dentro de la complejidad de las colecciones documentales que reúne, el sistema ofrece una razonable capacidad de recuperación, sin lenguajes controlados ni búsqueda por campos temáticos. Facilita alertas, feeds y un amplio rango de formatos de salida de referencias, e incluso software de conversión de formatos de documentos. También se pueden añadir reseñas y comentarios a las referencias, a modo de open review, y usar cestas de selección y archivo de referencias, personales y de grupo. Cualquier usuario puede crearse asimismo una cuenta de uso personal con facilidades ampliadas.

CDS es un recurso de enorme interés y riqueza en el campo de la HEP, pero nada uniforme y simple. Atiende tanto a la conservación y difusión de la producción científica del CERN como a la de bibliografía y documentación digital muy heterogénea, con diversa procedencia y carácter. Carece en su web de una explícita declaración de misión y objetivos. Por ello puede resultar útil un artículo como el siguiente, que figura entre la documentación de CDS Invenio:

Charles W. Bailey, por cierto, ha publicado hace poco un compendio o prontuario sobre repositorios institucionales: Institutional repositories: tout de suite [pdf].


Chemistry y PhysMat Central

5 noviembre 2007

Diríase que el sistema editorial de BioMed Central (BMC) se consolida, es sostenible, dado que se extiende a otros espacios de la ciencia. Hace un año nació Chemistry Central, la sucursal de BMC para el campo de la química, y hace pocas semanas acaba de aparecer PhysMat Central, para la física y las matemáticas. Con ello, también, la revista electrónica abierta y comercial desborda el ámbito biomédico.

Chemistry Central publica una revista electrónica de acceso abierto, Chemistry Central Journal (con un saldo modesto de 25 artículos en sus siete primeros meses de vida) y también facilita la consulta de los artículos de química publicados en varias revistas propias de BMC o editadas por BMC en colaboración con otros editores. No hay mucha tradición de acceso abierto en química, por lo que es un intento significativo, desde una buena plataforma de lanzamiento.

PhysMat Central (PMC) ha empezado a publicar este mes de octubre dos revistas, PMC Physics A (altas energías, física nuclear, gravedad y cosmología) y PMC Physics B (materia condensada, física atómica, molecular y óptica), y anuncia el lanzamiento de PMC Physics C. La dinámica de trabajo de la física es muy diferente a la de la química y en este caso la iniciativa debe abrirse paso entre la muy consolidada combinación de eprints abiertos (arXiv, etc.) y revistas comerciales, con la idea también de atender a nuevas necesidades y planteamientos de publicación abierta surgidos en el CERN y en otros sectores. Desde PMC se promueve el depósito de los artículos en arXiv.

Las explicaciones que los editores ofrecen de su modelo de negocio son sencillas y comprensibles: se financian con los APCs (Article Processing Charges) de los autores, básicamente mileuristas (más o menos a 1.000 € cada artículo). De esta manera, la comunicación científica se sufraga por el lado de la divulgación de los resultados, como la última fase y el coste final del proceso investigador, la acreditación o evaluación del conocimiento. O sea, se organiza como un mercado de autores, en lugar de como un mercado de lectores, lo que permite el acceso abierto para estos últimos, que no se cobre por la lectura. Claro que, en este caso, la sostenibilidad de la empresa editorial depende, reconocen los editores [pdf], de que el mercado de autores sea suficientemente amplio y no exageradamente selectivo, por así decirlo.

Luego, como BMC ofrece acuerdos corporativos a los organismos y bibliotecas para que sufraguen colectivamente (al por mayor, con descuentos) la actividad publicadora de sus investigadores, las instituciones financian al editor convertidas en suscriptoras de autoría en vez de ser suscriptoras de lectura, como sucedía antes, en el modelo «lector paga».

Creo que todo ello representa un pequeño paso más en la consolidación comercial de formas más rápidas e intensivas de propagación de aquel conocimiento que no es objeto inmediato de explotación industrial, o sea, de patente, licencia, etc.


Scitopia, de varios editores

11 junio 2007

Scitopia.org es una nueva plataforma de información bibliográfica puesta en marcha por quince editoriales científico-técnicas. Todas ellas son sociedades científicas y la mayoría norteamericanas, aunque algunas tienen carácter internacional. Scitopia.org permite realizar búsquedas integradas sobre toda la documentación primaria publicada por estos quince organismos, actualmente:

Scitopia.org no es una base de datos, funciona mediante búsqueda federada, como un metabuscador o una pasarela conjunta a los contenidos electrónicos publicados por todas las organizaciones: revistas, congresos, estándares, etc. Al parecer, se trata de unos tres millones de documentos que se remontan a 1874 (la mitad de ellos son de IEEE). Además, Scitopia.org rastrea también entre las patentes de Espacenet, USPTO y la Japan Patent Office, así como entre las publicaciones oficiales e informes técnicos del DoE (Department of Energy), canalizadas a través de la pasarela Information Bridge.

Scitopia.org está aún en versión beta. Sus prestaciones son muy básicas. Ofrece una pantalla de búsqueda simple, con un sólo recuadro, y otra de búsqueda avanzada con un formulario de cinco campos y limitación por fecha o por editores. Se puede buscar por texto completo. Los resultados de cada consulta salen en orden de relevancia según un algoritmo propio y se pueden imprimir, seleccionar (clipping) y enviar por correo electrónico. También es posible ordenar los resultados por fecha de publicación. Las referencias breves remiten a los registros completos en el sitio web de cada organismo asociado. Lógicamente, el acceso al texto completo de cada editor requiere pay-per-use, contratación corporativa, suscripción personal, etc.

Scitopia.org está, por supuesto, edificado sobre la base de que la unión de varios medianos hace uno grande. En este caso, algo capaz de competir en influencia y visibilidad con otros grandes editores comerciales, con las bases de datos secundarias y con los buscadores de internet, generales o especializados en información científica. Tal vez subyace alguna reticencia especial de los editores de Scitopia.org con Google Scholar, por su insuficiente actualización y mezcolanza de resultados. Faltaría obviamente la incorporación de algunos otros significativos editores medianos, para culminar la maniobra. Pero, desde luego, quienes tienen su propia propiedad intelectual siempre disfrutan de una ventaja competitiva.


INSPEC, otro monumento

14 enero 2007

Otro monumento histórico de la documentación científica es INSPEC, de la británica Institution of Electrical Engineers (IEE), ahora Institution of Engineering & Technology (IET). INSPEC (que significa Information Service in Physics, Electrotechnology and Control) es hoy una base de datos con ocho o diez millones de referencias. Pero lo más interesante es que su primera versión impresa, como Science Abstracts, empezó a publicarse en 1898. Por tanto, recoge gran parte de la ciencia e ingeniería contemporáneas: todo lo centrado en la Física y en la tecnología basada en la Física o relacionada con ella (electricidad, electrónica, comunicaciones, informática, etc.)

Impresiona pensar que cuando INSPEC nació reinaba la Física clásica de Newton, a la que se había agregado sólo veinticinco años antes el electromagnetismo de Maxwell. Se estaba investigando la radiactividad (Röntgen había descubierto los rayos X, etc.) y se acababa de descubrir el electrón (Thomson, 1897). Todavía tenía que llegar 1900 para que Planck inaugurara la mecánica cuántica, y sobre todo esperaba el 1905 de Einstein… Es decir, INSPEC nació con la nueva Física.

Con motivo del centenario de INSPEC en 1998 se elaboró un folleto, The History of Science Abstracts, que puede consultarse (en pdf o html) en la sección Centenary website de su página web. Es un interesante resumen de su historia, con fotografías y otros detalles, un breve testimonio de la historia de la documentación y de la historia de la ciencia. Resulta curioso, por ejemplo, que en 1898 se publicaran 1.500 abstracts y ahora cada año se agregan unos 300.000.

Me pregunto si una recopilación tan valiosa, detallada e impresionante de la bibliografía científica del siglo XX conseguirá sobrevivir muchos años a la googlelización de la información…