Thomas Global, industrias

27 febrero 2008

Para buscar información sobre empresas industriales en muchos países del mundo, incluida España, se puede utilizar Thomas Global, el hermano internacional de ThomasNet, el famoso directorio estadounidense. ThomasNet es la versión actual en Internet del tradicional Thomas Register of American Manufacturers, nacido en 1898 y conocido durante muchas décadas como la «Biblia de la industria norteamericana» (hay una página con su historia).

tgr_web-logo_mx.jpg

Thomas Global es un directorio industrial, sobre empresas, productos y servicios de los países con las economías más desarrolladas. Se define a sí mismo como «el más completo y actualizado directorio de proveedores industriales mundiales y de información sobre productos», con la misión «de reunir en Internet a los compradores y vendedores industriales para facilitarles el proceso de compra». Es, también, el resultado de reunir directorios regionales preexistentes, entre ellos uno europeo, ante la conveniencia de una información más integrada para una economía más global.

En realidad, Thomas Global facilita información sólo sobre empresas, aunque permite buscar por productos. Está organizado típicamente como un directorio jerárquico por sectores de actividad, aunque dispone de un sistema básico de búsqueda por producto o servicio, nombre de la empresa y país de ubicación. Es útil para identificar fabricantes o proveedores de un determinado tipo de producto, material, mercancía o servicio, aunque no proporciona catálogos, ni descripciones o especificaciones de los mismos u otros contenidos, como hace GlobalSpec.

La información que proporciona Thomas Global de cada empresa es muy sucinta, pero incluye la dirección web, así como otros datos de contacto, el número de empleados, la gama de productos y algún detalle más. El volumen de industrias incluidas es enorme, unas 700.000 empresas clasificadas por sectores en 11.000 categorías temáticas de productos y servicios. Se trata de empresas radicadas en casi 30 países: muchos de los de la Unión Europea, EUA, Canadá, México, Brasil, Turquía, India, Taiwán, China y Japón.

Thomas Global se puede usar en nueve idiomas. La versión en español tiene dominio Internet de México. Es un servicio gratuito para el usuario, que, dándose de alta, ofrece prestaciones personalizadas: historial de consultas, lista personal de empresas, suscripción de alertas y boletines, etc. Entre las facilidades complementarias que proporciona está un servicio de búsqueda sobre nuevos productos recientemente puestos en el mercado.

Un muestreo al azar en Thomas Global en 20 categorías da una cierta idea de la cobertura o presencia de empresas españolas, mediante la comparación con el número de empresas estadounidenses incluidas:

  • CATEGORÍA:  nº empresas españolas  /  nº empresas EUA 
  • Esmaltes cerámicos:  6  /  45
  • Circuitos integrados:  17  /  418
  • Monitores para PC:  22  /  307
  • Electroválvulas:  30  /  262
  • Materiales plásticos de PVC:  28  /  103
  • Rodamientos:  31  /  427
  • Motores eléctricos:  58  /  501
  • Embalaje y envasado (servicios):  34  /  390
  • Calderas industriales:  23  /  154
  • Hubs para telecomunicaciones:  11  /  57
  • Componentes para automoción:  13  /  819
  • Fotosensores:  7  /  71
  • Fundiciones termorresistentes:  7  /  161
  • Compresores de alta presión:  17  /  354 
  • Acero de alta resistencia:  12  /  94
  • Papel:  54  /  782
  • Consultores en ingeniería marítima:  27  /  176
  • Colorantes:  34  /  73
  • Acetonas:  11  /  66
  • Pernos y tornillos:  89  /  1056


«Cómo escribir y publicar…»

23 febrero 2008
  • Day, R.A.; Gastel, B. Cómo escribir y publicar trabajos científicos. 4ª ed. en español. Washington: Organización Panamericana de la Salud, 2008.

Acaba de publicarse en Estados Unidos la cuarta edición en español de How to write and publish a scientific paper. Es la traducción de la sexta edición en inglés (2006) de una obra clásica y célebre, que salió a la luz por primera vez en 1979 y se ha venido actualizando cada pocos años.

Cómo escribir y publicar trabajos científicos es un libro sobre técnicas de redacción de escritos científicos. Está repleto de recomendaciones prácticas, no excesivamente técnicas, sobre el proceso de preparación de publicaciones, en sus diversas fases. Se centra especialmente en los artículos de revista, aunque también aborda otras formas de comunicación. Está estructurado en 41 breves capítulos y escrito en tono ameno, simpático y sencillo.

Aunque la obra es, pues, según los propios autores, un «manual de instrucciones» o un «recetario de cocina», permite observar toda la actividad científica desde la perspectiva de la escritura y la publicación. Dado el papel esencial que la comunicación tiene en el proceso investigador, las técnicas de trabajo intelectual y los procedimientos editoriales iluminan el trabajo científico y el carácter de la ciencia en su conjunto.

Aunque Cómo escribir y publicar trabajos científicos se ha puesto notablemente al día, no sólo es una obra clásica en sí misma. Resulta exagerado decirlo así de un libro sobre pautas de redacción, pero en cierto modo codifica el modelo clásico de la comunicación científica de la segunda mitad del siglo XX. Al menos, es expresión de prácticas de investigación muy consolidadas y recoge algunos principios básicos del método tradicional de trabajo científico, como por ejemplo: 

  • IMRYD (Introducción, Métodos, Resultados y Discusión) como esquema fundamental de organización intelectual.
  • El principio de «reproducibilidad» como clave de la publicidad y de la justificación del conocimiento.
  • Las definiciones y funciones del scientific paper, conference report, review paper, etc.
  • El peer review o arbitraje de los textos científicos.
  • Las costumbres sobre autoría y responsabilidad de los trabajos científicos.
  • Las normas de originalidad, exactitud, autenticidad, claridad, concisión, etc. de los papers.

Los escenarios que se abren ahora con una tecnociencia intensamente colaborativa, abierta y computacional (e-ciencia, ciencia Grid, ciencia abierta, etc.) harán que Day y Gastel tengan que modificar su manual de manera cada vez más intensa y frecuente.


Abierto y cerrado en España

18 febrero 2008

Últimamente las iniciativas de publicación científica en acceso abierto se multiplican en España. Tanto la variedad de archivos institucionales de eprints como la de agregadores de revistas O.A. florecen aquí y allá en un pujante mosaico de proyectos y plataformas de almacenamiento y de recolección de contenidos. Como suele suceder, se trata de una especie importada de otras tierras, pero el acceso abierto se aclimata y prospera con vigor en España, parece. Si no son plantas efímeras y decorativas, o frágiles por la dispersión, rendirán una fértil cosecha.

Hay archivos de eprints en bastantes universidades (e-spacio UNED, UDCDspace U da Coruña, UPCommons, RUA U Alicante y muchos otros). Algunos acogen la producción de varias instituciones, como Recercat o TDR-TDX, de tesis doctorales. Existen también repositorios pequeños y especializados y está, además, el Repositorio Español de Ciencia y Tecnología, RECYT, de la FECYT. Es un caso aparte Dialnet, por su dimensión y porque tiene sumarios, texto completo de unas 200 revistas y tesis doctorales. Entre las plataformas de revistas están ReviCien, e-revist@s, RACO, DML-E, SciELO España, y Temaria. Algunas son de una única institución como Revistas científicas del CSIC o Portal de Revistas Científicas Complutenses.

Para encontrar y recoger los frutos de tanto acceso abierto, empieza a haber herramientas de búsqueda, como el Directorio y recolector de recursos digitales del Ministerio de Cultura, y E-ciencia en Madrid.

Entre las novedades más recientes están el gran archivo institucional del Consejo Superior de Investigaciones Científicas, Digital CSIC, y el portal Recolecta, desarrollado por la FECYT y REBIUN como herramienta recolectora o punto de acceso común para la literatura científica española en abierto, con objeto de promover esta forma de publicación, facilitar su uso y hacerla más visible en la Red.

Frente a tan exuberante eclosión de lo abierto, se mantiene cerrado el antiguo jardín casi prohibido de las Bases de datos del CSIC, sobre las que ya he escrito en otra ocasión. Un jardín tal vez abandonado para que languidezca o se agoste, en efecto, como rincón pasado de moda sin la prestancia de los nuevos brotes. Pues mientras las instituciones políticas y académicas, la FECYT, el propio CSIC y también las universidades sufragan y promueven la publicación abierta de documentos con los resultados de la investigación española, estas bases de datos, tan sólo de referencias, continúan siendo un tesoro guardado bajo siete llaves.

O tal vez alguien piensa que las referencias de las publicaciones especializadas editadas en España tienen un valor comercial al que merece la pena hoy en día poner un precio, que hay que pagar para consultarlas íntegramente. Es verdad que se hacen «a mano» y cuestan, pero existen otras soluciones. Además, estas bases de datos hay que usarlas a través de un puerto no estándar que dificulta el acceso desde redes privadas virtuales o servicios inalámbricos de las instituciones académicas, lo que no sucede con ninguna otra base de datos científica. Demasiadas llaves.

Puestos a no dar facilidades y a restringir el acceso a tales bases de datos, podrían cerrarlas del todo y reinvertir los recursos en la Universidad de la Rioja, que demuestra más capacidad para difundir la producción intelectual española en Internet. Así se podría aparejar Dialnet a toda vela.


Peter Norvig, de Google

12 febrero 2008

En la breve entrevista (muy comentada) que han hecho en Technology Review ( Jan/Feb, 2008 ) a Peter Norvig, director de investigación de Google, sobre la evolución de la búsqueda en la Web, Norvig responde que desde que se incorporó a la compañía en 2001 hay mil veces más información y mucho más variada en cuanto a formatos (video, fotos, blogs, etc., no sólo páginas web); y que se busca información más actual, renovada de forma muy rápida; pero admite que Google sigue siendo muy preciso en los resultados, lo que evalúan a través de diversos procedimientos. También explica que de cara al futuro están intentado mejorar la capacidad de Google para interpretar la construcción de frases, sinónimos, homónimos, etc. en las búsquedas; que desean además integrar la recuperación de contenidos diferentes (imágenes, páginas web, etc.), ahora separada; y que otra línea de progreso es la personalización de la búsqueda, la adaptación al usuario individual y sus necesidades o perfiles de interés.

Cosas que se me ocurren:

  1. La aparición de una industria de la búsqueda, como servicio tecnológico en abstracto, sin contenidos propios, una industria a gran escala, que cotiza en bolsa, ha sido algo espectacular, un indicio del profundo cambio que vivimos. Lo han señalado diversos autores, pero no deja de causar admiración: con Google la actividad de orientar el macrotráfico informacional se industrializa en forma de negocio global, lo que a su vez estimula más el intercambio y los negocios… (Google, Microsoft, Yahoo, etc.)
  2. La cantidad se nota y por buenos que sean los sistemas de ranking, cuando la máquina de buscar es única y general y los contenidos en que se busca no están limitados, es imposible que la calidad de la recuperación no se resienta. Norvig juega con la ambigüedad entre localizar items concretos (al estilo «páginas blancas»), cosa que Google hace bien porque sube arriba los más probables, y reunir items que comparten un rasgo o tema (al estilo «páginas amarillas»), cosa harto más complicada y cada vez más difícil (por no hablar de la calidad propia de los resultados).
  3. La hegemonía sociocultural de Google (o posibles equivalentes) podría hacer de su «calidad y precisión» un pronóstico autocumplido, al fomentar la sensación de que lo que no se encuentra en Google no existe. Si, en el extremo, nos acostumbrásemos a vivir en un mundo limitado, digamos, a los 30 primeros resultados del buscador, su precisión sería perfecta. (Ver Un alegato contra Google).
  4. Aunque Norvig promete integración para el futuro, el camino de Google en estos diez años hacia la gestión de la información mundial, para hacerla localizable y accesible, ha sido un camino de diversificación de productos, de modularización y fragmentación de servicios, justo lo contrario.
  5. De hecho, siempre me ha parecido que tan rápido como se desarrollan las tecnologías de control, búsqueda y recuperación de la información, crecen las de reproducción, intercambio, difusión y propagación, porque son las mismas: siempre hay un equilibrio inestable.

El nuevo Web of Knowledge

7 febrero 2008

La nueva versión del Web of Knowledge puesta en marcha en España hace días introduce modificaciones en la búsqueda y visualización de los resultados, pero no grandes cambios en cuanto al funcionamiento o prestaciones del sistema. Avanza hacia una mayor simplicidad de manejo, favorece la integración de las diferentes bases de datos y aporta más información en menos pantallas. Fomenta, tal vez, la capacidad global de recuperar información, sin menoscabo de la de evaluar la investigación. Todo ello bastante en la línea de Scopus, el principal competidor: hasta ha creado su propio «Scirus«, o algo así, llamado Thomson Scientific WebPlus.

Yo destacaría entre las novedades del Web of Knowledge:

  • Aparece una pantalla inicial de búsqueda conjunta, All databases, como herramienta básica de unificación, que incluye prestación propia de lista de referencias seleccionadas.
  • Abundan las pestañas o solapas, que permiten tener más a la vista los menús, especialmente los grupos y bases de datos que están disponibles o en uso.
  • Se difuminan las diferentes bases de datos integrantes del Web of Science como parámetros de búsqueda casi escondidos.
  • Se ofrecen casilleros de búsqueda combinables con operadores booleanos y menús de campos, casilleros que incluso se pueden añadir a demanda, todo lo cual flexibiliza la recuperación.
  • El sistema de refinado de los resultados de las búsquedas es más visible que antes.
  • Los datos de las citas recibidas se presentan en avance en las mismas referencias directamente, en vez de tener que pedirlos.
  • Las prestaciones personalizadas mediante registro individual son similares, pero ahora se ofrecen continuamente en la parte superior de la pantalla.
  • Se renueva en general el diseño, que siempre fue bastante cuidado, pero que cada cierto tiempo (en estos tiempos) es obligado actualizar.
  • La nueva versión afecta a las bases bibliográficas, incluyendo Derwent, Web Citation Index, etc. Los instrumentos analíticos (Journal Cit. Reports, Essential Science Indicators) siguen igual.
  • El buscador Thomson Scientific WebPlus resulta verdaderamente una sorpresa, añadida, aunque, a diferencia de Scirus, por ahora no es un servicio abierto y gratuito, sino parte del WoK.

Creo que el WoK se esfuerza por articular la gran calidad de sus contenidos y prestaciones con la superación de los inconvenientes que representa su composición fragmentaria como plataforma de bases de datos diferentes, con menor tamaño y manejo un tanto sofisticado, frente a herramientas de búsqueda más globales, homogéneas y sencillas.

P.S. 25-05-08: En un artículo publicado en El Profesional de la Información trato con más detenimiento lo comentado en este post.


Internet Detective, de Intute

6 febrero 2008

Hace ya bastante tiempo que siento simpatía por la iniciativa británica Intute. Creo que se trata de un gran empeño, colectivo y bien organizado, en favor de la educación informacional. Es una guía de referencia de recursos de calidad en la Red, por lo que aporta orden, selección y valoración en el uso de la información, lo que es tan conveniente, entre otros sitios, en ámbitos académicos. Incluso, más allá de sus contenidos concretos, Intute establece pautas, modelos y criterios, contribuye a crear una positiva tensión acerca de los estándares de calidad de la información en la enseñanza superior.

intute.jpg

Entre los elementos interesantes que ha incorporado Intute, aunque procede en parte de experiencias y proyectos anteriores, está la Virtual Training Suite, un conjunto de pequeños tutoriales temáticos de educación informacional. Su finalidad es enseñar a aprovechar la Web para el aprendizaje y el estudio en las más variadas disciplinas.

En la Virtual Training Suite está Internet Detective, un tutorial no temático, sobre el uso de Internet en general, que se publicó por primera vez en 1998 y ya va por su tercera edición. Internet Detective resulta muy recomendable por su enfoque, por su claridad, por el interés de los temas que trata y por su hábil manera de presentarlos a los estudiantes (cómo reconocer al bueno, el feo y el malo, cómo mantenerse en el lado bueno de la ley).

Internet Detective se define como un «tutorial en línea, libre y gratuito, que te ayudará a desarrollar tu habilidad para la búsqueda en Internet de cara a tus trabajos universitarios y académicos. Busca fomentar la capacidad crítica necesaria al usar Internet para el estudio y ofrece consejos prácticos sobre la evaluación de la calidad de los sitios web».

Internet Detective incluye estos apartados o temas:

  • Cómo utilizar correctamente Internet para el estudio, cómo afrontar el uso de la Red en la enseñanza superior.
  • El problema de la calidad de la información en la Web, cómo evitar perder el tiempo y eludir los timos y los fraudes.
  • Pautas y claves para evaluar críticamente los contenidos informativos en Internet, los sitios web.
  • Cómo evitar el plagio, respetar la propiedad intelectual y reconocer las fuentes mediante citas.

Y un consejo reiterado a los estudiantes: If in doubt, leave it out.


Citebase Search, citas en O.A.

3 febrero 2008

La situación actual de la comunicación científica se caracteriza, como escribía hace poco, por la coexistencia, duradera, de múltiples modelos y sistemas, aunque puede detectarse una corriente de fondo hacia el denominado acceso abierto (O.A.), que responde a causas profundas. Citebase Search es una singular expresión de esa corriente, aunque se trata de una iniciativa experimental y bastante fragmentaria, asociada estrechamente a arXiv.

Citebase es el principal resultado práctico de la iniciativa OpCit Project, desarrollada bajo la inspiración de Stevan Harnad, entre otros. Pertenece al género de los proveedores de servicios, en el mundo del acceso abierto, esto es, las fuentes de información que no proporcionan contenidos primarios (repositorios), sino prestaciones de valor añadido en relación con ellos (búsquedas, estadísticas, citas, enlaces, etc.) José Manuel Barrueco lo explica en su presentación Hacia una nueva generación de proveedores de servicios (VI Semana de la Ciencia, Madrid, 2006, CINDOC)

Citebase Search se define a sí mismo, y a través de su principal responsable, Tim Brody, como un índice de citas semiautomático y experimental para la literatura científica en acceso abierto. Recopila metadatos de eprints de archivos que cumplen el protocolo OAI-PMH (arXiv y otros), detecta y analiza las referencias en sus textos y genera los índices de citas correspondientes, proporcionando diversas estadísticas y gráficos. Incluso facilita cocitas, las referencias también citadas por las que citan a una dada. Asimismo, cuantifica las descargas de los eprints realizadas en los archivos, ofreciendo así datos de utilización de los documentos.

Citebase se configura, pues, como una herramienta de evaluación de la investigación (sin aplicación efectiva aún en decisiones académicas, se advierte en su sitio web). Pretende aportar al modelo abierto de comunicación científica, sobre todo al basado en archivos de eprints, un sistema analítico de métrica informativa y de navegación a través de citas que lo haga más atractivo, eficaz y convincente. El reto es, claro, que la literatura científica autogestionadamente abierta cuente con servicios añadidos de calidad comparable a los que existen para las publicaciones tradicionales.

Además de las consideraciones que hace al respecto José Manuel Barrueco en Hacia una nueva generación… («Fácil crear un servicio, difícil crear una audiencia», etc.), se me ocurre que la propia proliferación de modelos, sistemas y herramientas dificulta el éxito o implantación general de cualquier dispositivo (Barrueco dice: «Competencia dura»). Las TIC aceleran la investigación científica porque catalizan el intercambio informativo; sin embargo, es difícil que creen una nueva pero ordenada y uniforme República de las Letras.

A título casi de juego, he buscado las citas que se hallan en Citebase, en Web of Science y en Scopus de seis documentos bastante citados, elegidos al azar, con resultados diversos (las condiciones de fecha del eprint y de la publicación varían, etc., sólo es un juego):

  • Search for the Standard Model Higgs Boson at LEP, 2001:  Cb, 120. — WoS, 190. — Scopus, 121
  • Chiral symmetry breaking and pions in nonsupersymmetric gauge / gravity duals, 2004:  Cb, 167. — WoS, 112. — Scopus, 124  
  • Powerful jets from black hole X-ray binaries in low / hard X-ray states, 2001:  Cb, 138. — WoS, 143. — Scopus, 144
  • Phonon-induced decay of the electron spin in quantum dots, 2003:  Cb, 101. — WoS, 75. — Scopus, 117
  • Non-maximally entangled states: production, characterization and utilization, 1999:  Cb, 111. — WoS, 162. — Scopus, 196
  • Precise Measurement of the Positive Muon Anomalous Magnetic Moment, 2001:  Cb, 486. — WoS, 381. — Scopus, 384

Dos referencias de Tim Brody: