8 posts con categoría "ciencia-las-noticias"

El gran colisionador de hadrones: la máquina de dios

Quizá el bosón de Higgs no sea la ‘partícula de dios’ (los físicos de verdad odian ese sobrenombre), pero a juzgar por su diseño y capacidades existe algo que podríamos llamar la máquina de dios. Diseñada y construida para analizar el Universo en sus aspectos más diminutos y fundamentales se trata de un triunfo de la ingeniería y del ingenio humano. Si alguna vez encontramos inteligencias alienígenas podremos presentarla como demostración de que hemos alcanzado un mínimo nivel de civilización. Es tan poderosa que es capaz literalmente de demoler las partículas más elementales que existen, y de estudiar sus ruinas. Está enterrada debajo de centenares de metros de roca en la frontera entre Francia y Suiza, y mide 27 kilómetros de circunferencia; su construcción tuvo un presupuesto de 7.500 millones de euros (siete mil quinientos millones de euros; no es una errata), convirtiéndola en el aparato científico no sólo más grande, sino más caro que jamás ha existido. Y para construirla hizo falta desarrollar tecnologías completamente nuevas, ya que funciona con imanes superconductores enfriados con Helio líquido a 1.9 K (−271,25 °C); el aparato más grande del mundo que opera a esta temperatura inimaginable. Su potencia es tal (14 TeV; el récord anterior era de poco más de 1 TeV) que acelera protones hasta 3 metros por segundo por debajo de la velocidad de la luz; hubo quien temió que fuese capaz de romper la estructura misma del espacio-tiempo y crear un miniagujero negro (u otras amenazas impensables). Es el Large Hadron Collider (gran colisionador de hadrones). Y si las noticias que llegan desde allí se confirman, ha conseguido en poco más de un par de años de operación a pleno rendimiento uno de sus objetivos fundamentales: detectar el Bosón de Higgs. Algo realmente importante para nuestro conocimiento del cosmos.

Es difícil imaginar los problemas de ingeniería que conlleva diseñar, construir y hacer funcionar algo como el LHC. El túnel, 27 kilómetros de circunferencia, 3,8 metros de diámetro, situado entre 50 y 175 metros por debajo del suelo, es lo de menos; de hecho la máquina reutiliza el túnel construido previamente para albergar el Large Electron-Positron Collider (gran colisionador electrón/positrón). El verdadero problema es crear y mantener operativos dos haces en su interior que no sólo están lo más vacíos de materia que el ingenio humano es capaz de conseguir, sino que además deben mantenerse a una temperatura muy cercana al cero absoluto. La cuestión es que para acelerar y mantener encaminado un haz de protones dentro de cada uno de los dos tubos que componen el LHC hay que utilizar campos magnéticos. Y no campos cualesquiera: hay que usar magnetismo a potencias difíciles de entender. Los imanes del LHC son de dos tipos (cuadripolos y bipolos); hay 1.600 de ellos (aunque el total de imanes supera los 9.300), y muchos pesan 27 toneladas. Están construidos con cables hechos de una aleación de titanio y niobio recubierta de cobre, y algunos de ellos crearán campos magnéticos de 8,3 teslas a pleno rendimiento. Eso es 276.000 veces el campo magnético terrestre; o casi el triple de la potencia de las mayores máquinas de Resonancia Magnética Nuclear que se emplean en medicina.

Para conseguir este resultado los imanes del LHC son superconductores. Y no de alta temperatura, precisamente: funcionan a menos de 2 grados Kelvin. Por eso toda la máquina tiene que estar enfriada a esta temperatura, lo cual se consigue utilizando Helio líquido como refrigerante. Un líquido que está a 1,7 grados por encima del cero absoluto: a más de 271 grados bajo cero. A esta temperatura muchos materiales corrientes se fracturan como el cristal; el aire se licúa y el agua se convierte en roca. El helio líquido es un material cuántico que se comporta de formas extremadamente extrañas por debajo de 2,17 K de temperatura, transformándose en un superfluído capaz, entre otras cosas, de trepar cuesta arriba por las paredes de un recipiente al carecer de viscosidad, y mostrando una conductividad térmica enorme. El LHC es la nevera más grande y potente del planeta. Y tiene que serlo, porque en 2008 hubo una demostración de lo que una pequeña subida de temperatura podía causar.

El 19 de septiembre de 2008 se estaba procediendo al activado y progresivo aumento de la potencia del recién terminado LHC, cuando una conexión eléctrica mal hecha se calentó. El aumento de temperatura provocó un ciclo de realimentación positiva en los imanes superconductores, lo que se conoce como magnet quench (ahogo de imán). El aumento de la temperatura provoca que suba la resistencia, lo que a su vez provoca un aumento de temperatura; y vuelta a empezar. En las condiciones de operación del LHC el proceso duró milisegundos y acabó en una explosión que rompió el tubo donde se albergan los haces con sus sistemas de aislamiento, desplazó y deformó 53 imanes y liberó 6 toneladas de helio líquido. El accidente retrasó casi un año la puesta en marcha a pleno rendimiento de la máquina, entre otras cosas porque hicieron falta semanas para hacer subir la temperatura del área afectada para repararla, y semanas de nuevo para volver a alcanzar la temperatura operativa sin causar nuevos daños. El 30 de noviembre de 2009 el LHC superó la potencia de su más potente antecesor y se convirtió en el acelerador más grande del mundo. 

La misión de toda esta tecnología es acelerar dos haces de protones hasta un 99,9999999% (9 más o menos) de la velocidad de la luz, para lo cual el interior de los haces está más vacío que el vacío interestelar. Luego estos dos haces se hacen chocar en cuatro puntos concretos, que es donde están instalados los gigantescos y complejísimos detectores que contemplan y analizan lo que ocurre en las colisiones. De hecho el LHC dispone de seis detectores, cuatro grandes y dos más pequeños, cada uno de los cuales está diseñado con un propósito concreto. Y cuando hablamos de ‘grandes’, quiere decir GRANDES. El detector ALICE mide 26 metros de largo por 16 de ancho y 16 de alto; pesa 10.000 toneladas, y es el resultado del trabajo de más de 1.000 científicos de más de 30 países. En su diseño, construcción y operación han colaborado 105 institutos científicos de física. El experimento ATLAS es aún mayor: con 46 metros de largo., 25 metros de ancho y 25 de alto y un peso de 7.000 toneladas es el detector de partículas de mayor tamaño jamás construido. En ATLAS trabajaron más de 2.900 científicos de 172 institutos de física situados en 37 países diferentes. El detector CMS, protagonista de la conferencia de hoy, pesa 12.500 toneladas, mide 21 metros de largo por 15 metros de ancho y de alto y es el producto de la colaboración de más de 2.000 científicos pertenecientes a 155 institutos repartidos por 37 países. El experimento LHCb mide 21 metros por 10 metros de alto y ancho, tiene un peso de 5.600 toneladas y 650 científicos han trabajado en su diseño. Los experimentos ‘pequeños’ son TOTEM y LHCf; extremadamente especializados, solo implican un puñado de científicos, y están situados cerca de los experimentos mayores (TOTEM junto a CMS, LHCf al, lado de ATLAS). La misión de todos estos detectores es capturar la información que necesitan los científicos para trabajar.

Y es una gran, enorme cantidad de información. Se calcula que los detectores del LHC generarán al menos 15 petabytes de información al año, incluyendo las simulaciones necesarias para calibrar los haces y preparar las colisiones. Como comparación, se estima que un cerebro humano es capaz de manejar 2,5 petabytes a lo largo de su vida; almacenar esta cantidad de datos necesitaría 100.000 DVDs de doble capa. Para recoger, gestionar y repartir estos enormes volúmenes de información el CERN ha tenido que diseñar y construir una red propia de gran capacidad, el LHC Computing Grid, que interconecta 140 centros de investigación en 35 países. El Grid es la infraestructura de supercomputación más grande y potente del mundo; tiene más de 200.000 procesadores y gestiona 150 petabytes de espacio en disco, y está basado en Scientific Linux. Conviene recordar que la World Wide Web nació en el CERN, cuando el informático Tim Berners-Lee intentó resolver los problemas de distribución de la información generada por experimentos anteriores. Quizá algún día veamos protocolos desarrollados para el LHC Grid en la Internet pública.

Toda esta gigantesca máquina, las tecnologías desarrolladas y perfeccionadas para hacerla funcionar, las ingentes cantidades de dinero empleadas en su construcción, el esfuerzo de literalmente miles y miles de científicos e ingenieros durante literalmente décadas, sirve únicamente para una cosa: para satisfacer nuestra curiosidad. El LHC nos ayuda a entender cómo es el Universo en sus más ínfimos detalles, en sus constituyentes más elementales. Por tanto nos ayuda a saber de qué estamos hechos nosotros, y de qué están hechas las más lejanas estrellas; cómo funcionamos nosotros, pero también cómo funcionan las galaxias más remotas, los agujeros negros más alejados. Con el LHC vemos la estructura más básica del Cosmos. Y por eso merece sin duda el apelativo de 'la máquina de dios'. 

Categorías: Ciencia , ciencia-las-noticias

Pepe Cervera    4.jul.2012 10:26    

Contador, la biología y la ley

La orina de un ciclista presenta una sustancia prohibida que el cuerpo humano es incapaz de sintetizar, según un nuevo y ultrapreciso método de análisis capaz de detectar cantidades mínimas. El asunto debería estar claro, y la carrera de esta ciclista acabada para siempre. Y sin embargo Alberto Contador ha sido absuelto por las autoridades deportivas españolas, que han considerado que la presencia de una cantidad insignificante (y biológicamente insuficiente para causar efectos) de clembuterol en la orina del ciclista no indica 'culpa o negligencia'. La absolución puede todavía ser recurrida por los organismos internacionales antidopaje, pero en cualquier caso el asunto, junto a la detección de otros compuestos en muestras del deportista (plastificantes que podrían indicar la práctica de autotransfusiones) dejará una sombra de sospecha sobre las prácticas en este deporte. Y es que el caso Contador ilustra a la perfección un problema serio con el que se está encontrando no la lucha antidopaje, sino la medicina en general: el perfeccionamiento de las técnicas de análisis y medición está superando a nuestra capacidad de decidir qué es normal y qué no. Los nuevos aparatos y sistemas están resultando demasiado precisos.

El famoso laboratorio de dopaje de la Universidad del Deporte de Colonia es uno de los más famosos del mundo en su especialidad. Dotado de los más modernos sistemas de análisis químico, de una extensa biblioteca comparativa de sustancias dopantes y con fama de ser extremadamente cuidadoso en sus prácticas de trabajo, el laboratorio es el favorito de los organismos deportivos cuando se trata de encontrar nuevas sustancias y trampas enmascaradoras. Es por eso que la muestra de Alberto Contador acabó en aquellas instalaciones, donde fue sometida a un análisis mediante cromatografía de gases seguida de espectrometría de masas. La cromatografía de gases vaporiza la muestra, la mezcla con un gas inerte (helio o nitrógeno) y hace atravesar la mezcla por una columna cuyas paredes están cubiertas por un líquido que actúa reteniendo las moléculas de la muestra. Distintas moléculas interactúan de modo diferente con el líquido, por lo cual las diferentes sustancias presentes en la muestra se separan. El tiempo de paso de cada fracción ayuda a una primera identificación de cada sustancia. En una segunda fase la muestra es sometida a espectrometría de masas, en la que las sustancias son vaporizadas y las moléculas son ionizadas (cargadas eléctricamente) para medir la relación entre su masa y su carga. Combinadas, la cromatografía de gases y la espectrometría de masas son capaces de detectar e identificar cantidades extremadamente reducidas de múltiples sustancias; en el laboratorio de Colonia la biblioteca de comparación permite una enorme certeza en la investigación. La reputación de sus prácticas de laboratorio y de su metodología es excepcional.

El problema, pues, no está en el método analítico, sino en su potencia. Los métodos de análisis como la cromatografías de gases combinada con la espectrografía de masas son capaces de encontrar cantidades diminutas de las más diversas sustancias, entre ellas el famoso Clembuterol. El problema es que las cantidades detectadas son tan reducidas que es posible que aparezcan por causas diferentes a su uso como sustancias dopantes, pero no lo sabemos, pòrque no hay estudios estadísticos de lo que ocurre en una población 'normal' actual. La cantidad detectada en la sangre de Contador es demasiado baja para haber supuesto una ventaja competitiva; la hipótesis de los defensores de su culpabilidad es que el Clembuterol estaba en la sangre utilizada en una autotransfusión realizada el día antes de su detección. La explicación es al menos tan extraña como la de los defensores del ciclista, que achacan la presencia de la molécula a una contaminación alimentaria (algo que el propio laboratorio de Colonia ha demostrado que es posible).

En este caso el problema está no en el método analítico, sino en la norma. Según mejora nuestra capacidad de detectar la presencia de determinadas sustancias se hace más probable que se detecten cantidades ínfimas que puedan aparecer en el cuerpo de un deportista por causas accidentales. La vida moderna y los hábitos de alimentación actuales ponen a nuestro alcance numerosas sustancias químicas cuya interacción con nuestro cuerpo es poco conocida a tan bajas concentraciones. Esto hace posible la contaminación accidental, y desaconseja las prohibiciones basadas tan sólo en la presencia de una determinada sustancia, incluso en cantidades infinitesimales. De hecho se conoce poco la definición de lo que es o deja de ser 'normal' cuando se analizan los cuerpos humanos con semejantes capacidades de discriminación. Como ocurre con otros métodos de análisis clínico, como los escáneres TAC de cuerpo entero, la falta de estudios poblacionales y transversales hace que no tengamos demasiado claro cuándo una determinada característica indica algo fuera de lo normal. La mejora de una tecnica de detección puede tener el efecto paradójico de empeorar la salud general. No tenemos suficiente conocimiento de la variabilidad en grandes números de personas como para saber con certeza que una determinada molécula tiene que haber llegado a la sangre por malas artes, o que una sombra en una imagen de rayos X se desarrollará en un tumor. La biología está repleta de excepciones, lo que implica que hacen falta estudios estadísticos amplios para saber con certeza qué es normal y qué no lo es. Respecto al doping, como demuestra el caso Contador, establecer con certeza la culpabilidad precisará de mayores conocimientos sobre lo que hoy en día es la composición 'normal' de un cuerpo humano. Porque a veces la exactitud en el análisis en lugar de aclarar, confunde.

Categorías: ciencia-las-noticias

RTVE.es   16.feb.2011 15:54    

Ciencia y tecnología del vertido en el Golfo de México

Una mancha de petróleo se extiende con rapidez por el Golfo de México proveniente de un pozo perforado a más de un kilómetro de profundidad después de que una explosión destruyese la plataforma de perforación Deepwater Horizon el pasado 20 de abril, provocando 11 muertos. Esta reconstrucción muestra los movimientos de los vertidos, que se mueven a merced de vientos y mareas como puede verse en estas fotos de satélite publicadas por The Atlantic. Si el vertido alcanza las marismas de Luisiana los daños al ecosistema serán incalculables, ya que el terreno pantanoso lo absorberá y almacenará. El petróleo en el agua tiende a extenderse hasta formar, si le dejan, una capa monomolecular sobre la superficie; una gota (un mililitro) se extenderá hasta ocupar más de 7 metros de diámetro, lo que provoca las manchas se hagan inmensas y dificilísimas de recoger. El origen profundo del vertido y el hecho de que sea un pozo (no hay previsión de que el petróleo se agote) hacen este accidente especialmente letal. El petróleo no sólo contiene compuestos tóxicos, sino que las películas superficiales que forma sellan el mar e impiden el paso del oxígeno.

La causa del vertido ha sido el fallo del sistema de bloqueo que debería haber sellado el pozo tras el accidente de la plataforma. El autobloqueo (blowout preventer) no ha cerrado por completo el pozo por causas que se desconocen; el mecanismo en los EE UU carece de un sistema secundario de cierre sónico (pdf), que es obligatorio en países como Brasil o Noruega. Existen antecedentes de accidentes similares: el año pasado estalló una plataforma de perforación en el Mar de Timor, al NO de Australia, provocando un vertido profundo por fallo en el bloqueador que tardó 10 semanas en ser atajado, aunque la fuga allí fue mucho más pequeña. De hecho hay una coincidencia interesante entre ambos casos, ya que las dos plataformas afectadas acababan de terminar un delicado proceso conocido como cementación del pozo cuando se produjeron las explosiones. En la cementación se cubren las paredes de la perforación con un cemento muy especial para preparar el pozo para la producción. El proceso es tan complejo y arriesgado que las petroleras lo subcontratan, en ambos casos a la mayor especialista auxiliar del mundo: la tejana y famosa Halliburton, que puede por tanto ser responsable del accidente.

Hay dos soluciones posibles: la más definitiva consiste en perforar un pozo lateral dotado de una válvula nueva que intercepte la perforación que vierte, desviando el flujo y taponándola. Esta fue la adoptada en el Mar de Timor y la que acabará por llevarse a cabo en el Golfo, pero tiene el inconveniente de ser demasiado lenta; en el accidente anterior se tardaron 10 semanas, lo que con las tasas de vertido en este caso provocaría una catástrofe ecológica. Para tratar de contener el problema mientras se está construyendo una serie de campanas, embudos de acero conectados con un barco en superficie que se harán descender para colocarlos sobre las fugas. El problema es que hay tres fugas, una de ellas (la principal) está a más de 200 metros de la cabeza del pozo, y será la primera que se intentará cubrir con una campana de recogida (ver imagen). La solución es parcial y no será sencilla de instalar, dado que hay que colocar el mecanismo a un kilómetro de profundidad desde la superficie y el suelo donde debe asentarse es poco consistente. Se espera bajar la campana mañana jueves 6 de mayo, y con ello reducir las pérdidas de petróleo en casi un 80%. Los daños, sin embargo, tardarán mucho más en controlarse.

Categorías: ciencia-las-noticias

RTVE.es    4.may.2010 21:26    

La tierra se seguirá moviendo en Haití

Según testimonios de los supervivientes, y algunos vídeos, el terremoto de magnitud 7 que asoló Haití hace poco más de una semana fue lo bastante potente como para tirar al suelo a la gente que andaba por la calle. La escasa profundidad a la que se produjo el seísmo y el tipo de movimiento hicieron que las destructivas ondas S, o de cizalla, llegaran casi a la vez que las ondas primarias P, con lo que no hubo apenas aviso; en otros terremotos los primeros movimientos provocan la huida que la gente antes de que los edificios empiecen a caer. Esto hizo al seismo especialmente destructivo y letal. Pero para colmo, desde entonces el suelo no ha dejado de temblar.

En las primeras 11 horas tras el terremoto principal hubo más de 32 réplicas de magnitud superior a 4; sólo en las dos primeras horas hubo 5 con magnitudes entre 4,1 y 5,9. De hecho al principio había temblores cada 15 o 20 minutos, que duraban entre 3 y 5 segundos cada vez. El desplazamiento de la falla principal causado por el terremoto inicial ha repartido tensiones por todo el complejo de fallas que la rodean; las réplicas derivan de el reajuste de todos esos bloques. Y hay un buen montón de ellos que reajustar.

Imagen tomada de la Unidad de Terremotos de la Universidad de las Indias Occidentales, en Jamaica.

El terremoto se produjo en un complejo de fallas transformantes, o de desplazamiento horizontal, que forman la frontera norte de la Placa Caribeña, donde se encuentra con la Placa Norteamericana. En esta zona el movimiento no es vertical (las placas no cabalgan una sobre la otra), sino horizontal: la Placa Caribeña se desplaza hacia el Este a una velocidad aproximada de 2 centímetros al año. Al hacerlo roza lateralmente con la Placa Norteamericana, generando tensión. Estas tensiones se disipan a lo largo de dos sistemas de fallas paralelos llamados Sistema Septentrional (al norte de la isla de la Hispaniola) y Sistema Enriquillo-Jardín de Plátanos, entre los cuales quedan varios bloques, como la Microplaca de Gonaves. El desplazamiento se reparte entre ambos sistemas de fallas; el complejo Enriquillo-Jardín de Plátanos, donde se originó la catástrofe, se mueve aproximadamente a 7 milímetros por año. El complejo Septentrional, más activo, provocó en 1946 un terremoto de magnitud 8,1, y desde entonces ha estado relativamente calmado.

De hecho ni los movimientos son muy grandes (como ejemplo la Falla de San Andrés registra más de 5 cm/año) ni el área del sur de Haití es especialmente activa; regiones como la isla de Jamaica y el sur de Cuba (las fronteras norte y sur de la microplaca de Gonaves) registran mucha más actividad. Los datos históricos, sin embargo, sugieren que el complejo de fallas Enriquillo-Jardín de Plátanos llevaba al menos 250 años trabado, acumulando así 1,75 metros de tensión por el desplazamiento no efectuado en un tramo de unos 50 0 60 kilómetros. Una cantidad de energía titánica que habrá repartido nuevas tensiones por todas las fallas de alrededor.

Los terremotos de magnitud alrededor de 6 no son raros; en la última semana ha habido más de una veintena con magnitudes superiores a 5 en todo el mundo, en regiones como Indonesia, Chile, Argentina, Tonga, Isla de Pascua, Japón... Incluso se ha registrado un 5,9 en las Islas Caimán, un 5,8 en Guatemala y un 5,5 en Venezuela; los tres relacionados con los movimientos de la placa del Caribe. La titánica liberación de energía que supuso el terremoto de Haití dejará probablemente libre de tensiones graves esta región particular durante decenas de años, quizá un siglo. Pero los temblores más pequeños continuarán durante mucho tiempo, hasta que todo el área se estabilice de nuevo. Y el 90% del sistema de fallas transformantes entre la placa del Caribe y la norteamericana seguirán en actividad. Habrá más movimientos en Haití.

Categorías: ciencia-las-noticias

RTVE.es   21.ene.2010 12:59    

Cabinas con un piloto y un perro

Se dice que las cabinas de los futuros aviones de pasajeros estarán diseñadas para un piloto y un perro. La misión del piloto será dar de comer al perro, y la del perro morder al piloto si intenta tocar algún control. La automatización y los sistemas de gestión del trabajo más eficientes han permitido reducir el tamaño de las tripulaciones de los aviones, hasta tal punto que hoy solo son necesarios dos pilotos donde antaño hubiesen hecho falta hasta cuatro o cinco. Lo malo es que ahora los aviones se vuelan solos hasta tal punto que los pilotos se distraen, y acaban hasta por pasarse varios pueblos, como acaba de ocurrir en los EE UU. Sin entrar en si se durmieron o se acaloraron discutiendo, el incidente demuestra los límites de los automatismos, y de la comunicación entre máquinas y seres humanos.

Al principio los aviones de pasajeros tenían tan sólo un piloto. Pronto, algunos accidentes demostraron que el error humano y la fatiga causaban problemas, por lo que las autoridades impusieron que en los aviones comerciales hubiese dos pilotos: un piloto al mando, y un copiloto (Primer Oficial). Ambos tienen la misma formación, aunque no necesariamente la misma experiencia, y ambos están cualificados para hacerse cargo del vuelo. Así las tareas se reparten y la respuesta a una posible emergencia se hace más eficaz.

Pero hacia la Segunda Guerra Mundial un par de pilotos empezó a no ser suficiente, porque los potentes motores radiales que estaban equipando a los aviones entonces tenían que ser cuidadosamente monitorizados, sobre todo en el despegue y el aterrizaje. La solución fue añadir un nuevo miembro a la tripulación; el Ingeniero de Vuelo, con formación de piloto pero encargado de la gestión de los motores. La mejora de las comunicaciones radiales exigió sumar un Oficial de Radio. Después de la guerra, cuando se iniciaron los vuelos transoceánicos, algunas aerolíneas añadieron un Segundo Oficial, como piloto de relevo para trayectos largos, y los magníficos hidroaviones Boeing 314 'Clipper' (como el de la imagen) llegaron a llevar además un Navegante y un Jefe de Tripulación.

La técnica permitió ir eliminando puestos; primero desaparecieron los Oficiales de Radio, ya en aviones de motores radiales como el DC-4. Los primeros reactores de pasajeros, como el De Havilland Comet o el Boeing 707, nacieron con dos pilotos, ingeniero de vuelo y navegante. Pero ya el Douglas DC-8 prescindió del Navegante; los posteriores reactores estaban diseñados para Piloto, Copiloto e Ingeniero de Vuelo. A partir de los años 80 los avances en los sistemas de control de los motores y la presión de la economía acabaron por eliminar al ingeniero en casi todos los aviones de pasajeros comerciales. Hoy los avances de la automatización han permitido que los aviones de pasajeros lleven tan sólo dos pilotos. Y el futuro es, como dice el chascarrillo, un piloto y un perro.

La situación actual hace posible que una tripulación, distraída por la rutina y confiada en los automatismos, sencillamente se olvide de dónde está o qué debe hacer; lo que con toda probabilidad les ocurrió a los pilotos estadounidenses. Desde la cabina de un reactor de pasajeros raras veces hace falta mirar al exterior: la mayor parte del trabajo está dentro, en los diales, los indicadores y las pantallas. Por eso el diseño de esas pantallas, su modo de intercambiar información con los seres humanos, se hace vital; un dato no recibido o comprendido puede causar una catástrofe.

Al mismo tiempo se agrava el problema del aburrimiento de los pilotos en la rutina, que sumada al cansancio puede acabar con la atención del más despierto humano. La aviación, antaño una profesión heroica por lo arriesgada, se ha convertido en un trabajo rutinario dominado por la maximización de beneficios, donde el diseño de la interacción entre humanos y máquinas es más importante que la emoción, o el valor. Y donde mantenerse atento es un mayor reto que atreverse a cruzar los límites. Afortunadamente, y en parte gracias a esa rutina y esos automatismos, hoy los errores acaban en bochornos, y no en tragedias.

Categorías: ciencia-las-noticias

RTVE.es   25.oct.2009 21:46    

La sabiduría primate de Sarkozy

El presidente de la República Francesa, Nicolás Sarkozy, necesita un pequeño escabel sobre el que subirse para estar a la misma altura física que el presidente de los Estados Unidos de América, Barack Obama. El problema era compensar la diferencia entre los 171 centímetros que mide Sarkozy y los 187 de Obama: 16 centímetros que pueden parecer muy poco, pero que son un salto enorme en términos de imagen. El presidente francés ha demostrado con su empeño en igualar estaturas una sutil comprensión de la naturaleza humana. Porque, como primates sociales que somos, la estatura importa. Y mucho.

Es una observación común que las mujeres encuentran más atractivos a los hombres altos. Pero más curiosa es la relación existente entre estatura y posición percibida en la escala social; uno de los elementos claves del atractivo sexual y, por definición, del político. Según una serie de estudios muy ingeniosos, la altura y el estátus de un hombre están estrechamente relacionados; tanto, que basta con modificar su estatura aparente para que cambie de modo inconsciente el modo que tiene de verlo el resto de la gente.

La estatura no es la única señal de posición en la escala social que emitimos; otras, como la postura, son también muy importantes a la hora de que otros 'sientan' que una persona es más importante (o socialmente dominante) que otra. Lo que ocurre es que esas otras pistas pueden aprenderse, y por tanto se pueden falsificar, para hacer parecer que uno tiene más importancia social que la real. Timadores y seductores de toda índole lo hacen rutinariamente, proyectando mediante la postura y el comportamiento un estátus social falso. Se toman la molestia porque funciona.

La estatura, en cambio, es más difícil de falsificar, al menos en persona. Lo cual no significa que no se intente, como suele hacer Sarkozy. Pero quizá no se trate tanto de un problema de inseguridad, sino de un entendimiento profundo de la importancia que tiene este factor. Porque así como los hombres más importantes son percibidos como más altos, al revés también ocurre: la mayor estatura proporciona la impresión de mayor estátus. Y cuando se representa personalmente la dignidad de la France no se puede permitir que 16 centímetros de déficit se interpongan en la igualdad simbólica con los Estados Unidos. Aunque para ello haya que recurrir a la pequeña indignidad de un taburete.

Categorías: ciencia-las-noticias

RTVE.es   10.jun.2009 22:30    

Fragilidad y fuerza de la aviación

Hoy en día estamos tan acostumbrados a volar que subirse a un avión es poco más que montar en autobús. Pero lo cierto es que hace falta mucha más tecnología y una organización mucho más compleja de lo que nos imaginamos para que el viaje aéreo funcione con la regularidad y seguridad a las que nos hemos acostumbrado, lejos del horroroso tributo humano que una vez fue habitual. Aun así, de vez en cuando todavía se producen cascadas de fallos y un avión desaparece para siempre.

Queda mucho para que sepamos qué le ocurrió al Vuelo 447 de Air France. Los accidentes aéreos modernos nunca tienen una causa única, sino que son consecuencia de complejas cadenas de errores enlazados. Sólo hay que recordar los años de especulaciones y conspiranoias que siguieron a la caída del Vuelo 800 de TWA, cerca de Nueva York, hasta que finalmente se pudo determinar la causa. Habrá que recuperar los restos del aparato y analizar tanto los registradores de datos de vuelo como otros factores, desde deformaciones y agujeros en el fuselaje dejados por bombas o misiles hasta motores e instrumentos para detectar averías. Pero no será fácil.

El área donde se produjo la desaparición está en mitad del Atlántico, y tiene una profundidad de más de cuatro kilómetros. Si el avión se desintegró en vuelo (quizá a causa de súbitas turbulencias), como le ocurriese al Vuelo 587 de American Airlines (un Airbus A300-600) al despegar de Nueva York el 12 de noviembre de 2001, los restos estarán esparcidos por un área enorme, ya que la altitud de vuelo superaría los 10.000 metros. Encontrar pruebas de lo ocurrido llevará tiempo.

Un avión de pasajeros en altura es como un globo hinchado por su presión interna, que alarga en varios centímetros el fuselaje; su integridad estructural depende más del equilibrio de fuerzas que de la mera solidez. Una vez se ha roto el equilibrio por intervención de alguna causa externa, la estructura completa colapsa con rapidez. Si algo le ocurrió en altura al Vuelo 447 volando a velocidad de crucero, es probable que los fragmentos se separaran millas.

Los aviones comerciales modernos son mucho más frágiles de construcción de lo que podríamos imaginar. La perentoria necesidad económica de reducir el peso del aparato ha llevado a la extensa utilización de avanzados materiales compuestos, mucho más fuertes que los metales, pero que tienden a romperse sin aviso previo. Los radares meteorológicos ayudan a los pilotos a esquivar las áreas peligrosas, pero la atmósfera es capaz de provocar cambios súbitos de gran violencia. El aire, como el mar, es un medio que puede ser hostil.

A pesar de todas estas fragilidades, la estadística demuestra que el viaje aéreo es hoy día una de las formas más seguras de transporte. Los aparatos son diseñados con múltiples redundancias de seguridad, y los protocolos aseguran continua vigilancia de los puntos débiles. Cualquier fallo detectado en un aparato es rápidamente corregido, y transmitido al resto de propietarios de ese modelo, para que lo resuelvan.

Las piezas se van reponiendo según un esquema estricto que asegura que son reemplazadas antes de alcanzar el desgaste que podría hacerlas fallar. pilotos, mecánicos y controladores son sometidos a continuos cursos, comprobaciones y chequeos, y la enorme importancia económica del transporte aéreo asegura que los equipos de control de tierra sean constantemente mejorados. Puede que lo aparatos parezcan frágiles, y es imposible evitar por completo que se produzcan accidentes, pero la aviación comercial como sistema es hoy más segura que nunca. Por parco consuelo que pueda suponer para los parientes y amigos de los pasajeros del vuelo 447.

Categorías: ciencia-las-noticias

RTVE.es    2.jun.2009 14:41    

Cómo se detecta una prueba nuclear

Es imposible probar un arma nuclear en secreto. Todas las pruebas nucleares efectuadas en nuestro planeta han sido detectadas, y de tan sólo una (el llamado 'Incidente Vela ') se desconoce el responsable. La falta de discreción de las armas nucleares se debe a su potencia, que hace que la ocultación sea realmente complicada. Claro que en muchas ocasiones el objetivo de una prueba nuclear es precisamente que se sepa que se ha producido.

La clave de la detección es el impacto que produce la explosión en el medio en el que se produce. Si la prueba es atmosférica o submarina, el fluido (aire o agua) transporta ondas de choque que pueden ser detectadas a enormes distancias. Las pruebas estratosféricas producen un característico 'pulso electromagnético' sobre grandes áreas. Si la explosión se produce sobre la superficie, la luz es visible a miles de kilómetros, y si la detonación se produce a baja altura la absorción de polvo y restos superficiales radiactivos los transporta lejos. Por eso las actuales pruebas suelen ser subterráneas.

Con el fin de rebajar tensiones en la Guerra Fría y para reducir el riesgo de contaminación después de algunos desastres durante los años 50 (por ejemplo la prueba estadounidense Castle Bravo contaminó atolones habitados de las Islas Marshall) se firmaron varios tratados para limitar, y mas tarde prohibir por completo, las pruebas nucleares. Sin embargo algunos países no firmantes de estos tratados las han llevado a cabo durante los últimos años, sobre todo Pakistán y ahora Corea del Norte.

Las pruebas nucleares subterráneas son particularmente sencillas de detectar, por sus efectos sísmicos. Incluso las menos potentes son equivalentes a un pequeño terremoto, y por tanto aparecen en los registros de los sismógrafos, donde dejan una huella característica diferente de la de cualquier otra actividad sísmica. A partir de estos datos y de información geofísica es posible estimar la potencia de la explosión.

Incluso en las pruebas subterráneas siempre hay un vertido de materiales radiactivos a la atmósfera tras una explosión nuclear. Es por eso que tras una prueba las potencias interesadas suelen efectuar vuelos de reconocimiento a sotavento, ya que el análisis de los elementos radiactivos presentes en cantidades mínimas en el aire proporciona valiosa información sobre el artefacto detonado.

Categorías: ciencia-las-noticias

RTVE.es   25.may.2009 20:49    

Pepe Cervera

Bio Retiario

Pepe Cervera es periodista, biólogo y, entre muchas otras cosas, profesor de la Universidad Rey Juan Carlos. Colabora con diversos medios y es un apasionado de Internet.
Ver perfil »

Síguenos en...

Últimos comentarios