Archivo de diciembre, 2010

La red de transporte interplanetario

Desarrollada teóricamente a finales del siglo XIX y resuelta en los últimos años del XX,
la Red de Transporte Interplanetario resuelve el problema de viajar entre mundos
con un coste energético ridículamente bajo. Sólo es un poco más lenta.


Lanzamiento de la nave espacial interplanetaria New Horizons
con destino a Plutón-Caronte y el cinturón de Kuiper,
a bordo de un cohete Atlas V-Star 48B, el 19 de enero de 2006.
Llegará en junio de 2015, tras un viaje de cinco mil millones de kilómetros.
Los cohetes sólo actúan durante los primeros minutos;
el resto del viaje carece de propulsión autónoma. (NASA)

La nave New Horizons durante su ensamblaje final.

La nave New Horizons durante su ensamblaje final. Cuenta con dieciséis motores de 4,4 newtons para correcciones de trayectoria y doce de 0,9 newtons para el control de actitud, pero ningún impulsor principal, al igual que el resto de naves espaciales humanas del presente y del futuro próximo. Foto: NASA. (Nueva ventana o pestaña para ampliar)

A pesar de lo que se pudiera concluir tras ver muchas pelis de ciencia-ficción, las naves espaciales carecen generalmente de propulsión propia. Sólo llevan una pequeña cantidad de combustible y unos motorcitos minúsculos para realizar ocasionalmente maniobras de corrección de trayectoria, casi siempre con el propósito de mantener la posición. Así es tanto en los satélites como en las sondas de espacio profundo, así ha sido durante toda la Era Espacial, sigue siéndolo en la actualidad y seguirá siéndolo durante una buena temporada. No hacemos vuelo libre por el espacio, sino que describimos órbitas y realizamos triquiñuelas aprovechando los efectos de la gravedad y la velocidad, en una especie de billar cósmico.

En cierto sentido, una nave espacial se parece mucho más a un velero gravitacional que a un navío a motor. Esos enormes cohetes que vemos encenderse con poderosos rugidos y llamaradas sólo están para sacar la nave del pozo gravitatorio terrestre. Tragan combustible a mares y se agotan enseguida. Al poco del lanzamiento se van apagando y desprendiendo, normalmente por fases, y unos pocos minutos después se acaban todas y liberan la nave. En un lanzamiento sencillo a la órbita baja terrestre, esto está visto para sentencia en menos de diez minutos. Por ejemplo, la impulsión para una Soyuz con destino a la Estación Espacial Internacional termina a los nueve minutos; el resto del viaje se completa por la órbita, conservando la velocidad adquirida durante el lanzamiento sin propulsión significativa adicional.

Para ir más lejos, lo que requiere ir algo más rápido, se suele utilizar una última fase que se enciende de nuevo al llegar a un cierto punto de la órbita para darle un último empujón. Esto es lo que hace, por ejemplo, la etapa Fregat de las Soyuz o la S-IVB de los Saturno V que los estadounidenses usaron para llevar a la humanidad a la Luna. Pero incluso estas últimas aportaban una impulsión adicional de apenas seis minutos. Quien desea ir a Venus o Marte, pongamos por caso, lo hace de manera muy parecida; en este último enlace puede verse cómo un viaje a Marte sólo está propulsado seriamente al principio, durante unos catorce minutos y pico en total, de los siete meses que dura. A partir de ahí sólo actuarán los motores de maniobra, muy de tarde en tarde, para realizar pequeñas correcciones o forzar la inyección final en la órbita marciana.

Esto es posible porque en el espacio no se produce arrastre aerodinámico, dado que no hay aire. Una nave colocada en una órbita estable a una velocidad determinada tiende a mantener esta velocidad en virtud de la primera ley de Newton. Como decía al principio, después se pueden utilizar trucos para aumentar (o reducir) esta velocidad, del tipo de la asistencia gravitatoria. El vuelo espacial es un juego de trayectorias y velocidades. Sí, como en el billar.

Venera-7, la primera nave espacial humana que completó un viaje interplanetario.

Venera-7, la primera nave espacial humana que aterrizó con bien en otro mundo. Se posó cerca de Safo de Venus, al sur de la Planicie de Ginebra, siendo las 05:34:10 GMT del 15 de diciembre de 1970; acaba de hacer cuarenta años. (Clic para ampliar)

Vuelo interplanetario.

Para viajar entre astros hay que tener claros dos conceptos fundamentales: la velocidad de escape y la órbita de transferencia de Hohmann.  Dicho en plan sencillo, la velocidad de escape es lo rápido que hay que ir para escapar de la atracción gravitatoria de la Tierra o cualquier otro astro. Más técnicamente, se define como la velocidad a la que la energía cinética de la nave contrarresta a la energía potencial gravitatoria resultante de la interacción entre la nave y el astro. La velocidad de escape es independiente de la masa del objeto que escapa: da igual si tu nave pesa un kilo o un millón de toneladas (en este último caso necesitarás más energía para acelerarla hasta ese punto, pero la velocidad de escape no varía). Por el contrario, es dependiente de la distancia entre la nave y el astro. Por ejemplo, si la nave estuviera situada sobre la superficie terrestre, la velocidad de escape sería de 11,2 km/s (40.320 km/h); sin embargo, en la órbita baja desciende a 10,9 km/s (39.240 km/h) y a nueve mil kilómetros de distancia, cae a algo menos de 7,1 km/s (25.560 km/h). De hecho la velocidad de escape depende sólo de la distancia entre ambos objetos y la intensidad del campo gravitatorio en ese punto, y se describe con la ecuación ve = (2gr)½, donde g es el campo gravitatorio y r la distancia que separa sus centros de masas. La velocidad de escape es un fenómeno que se deriva del principio de la conservación de la energía.

Hablar de velocidad de escape a pelo no tiene demasiado sentido. Hablamos siempre de velocidad de escape desde algún sitio con respecto a algo: la Tierra, el Sol, la Luna, Saturno, el centro de la galaxia, lo que sea. Por ejemplo: ya hemos dicho que la velocidad de escape desde la órbita baja terrestre con respecto a la Tierra son 10,9 km/s. Pero la velocidad de escape desde este mismo lugar con respecto al Sol asciende a 42,1 km/s (151.560 km/h). Esto quiere decir que una nave situada más o menos por donde la Estación Espacial Internacional necesita ir a algo menos de cuarenta mil kilómetros por hora para escapar de la gravedad terrestre, pero tendría que viajar a más de ciento cincuenta mil para zafarse de la del Sol desde el mismo punto, por ejemplo con el propósito de efectuar un viaje interestelar. Evidentemente, los científicos e ingenieros espaciales tratan de jugar con las distancias y velocidades para conseguir el máximo ahorro de energía, de tal modo que estos viajes sean posibles con los motores y las cantidades de combustible que somos capaces de manejar.

Cuando una nave espacial alcanza la velocidad de escape entra en órbita de escape, que es una trayectoria parabólica de mínima energía (o sea, una órbita de Kepler con excentricidad 1) que la lleva hacia el infinito mientras la velocidad con respecto al objeto del que ha escapado tiende a cero. Y yendo un poco más deprisa, se puede pasar también a una trayectoria hiperbólica (es decir, una órbita de Kepler con excentricidad mayor que 1). Así se puede viajar hacia cualquier lugar del cosmos sin necesidad de llevar propulsión todo el tiempo.

Sin embargo, se intuye fácilmente que hace falta mucha energía para alcanzar estas velocidades. En torno a 1925 un ingeniero alemán llamado Walter Hohmann, inspirado por la lectura de obras de ciencia ficción, intentó encontrar una manera de reducirlas. También por las mismas fechas, un matemático soviético de nombre Vladimir P. Vetchinkin estuvo estudiando la cuestión. Resulta difícil determinar cuál dio con la solución primero, pero ambos alcanzaron las mismas conclusiones, que en Occidente se denominan las órbitas de Hohmann y en el espacio ex-soviético, de Hohmann-Vetchinkin.

Una órbita de Hohmann (o Hohmann-Vetchinkin) no es una órbita típica de escape, parabólica o hiperbólica, sino un tipo particular de órbita elíptica. Una órbita elíptica es una órbita de Kepler con excentricidad menor que 1, hasta la órbita circular, con excentricidad cero (aunque normalmente esta última se denomina órbita circular a secas). Simplificando, es cualquier órbita que no escapa de un astro determinado (aunque puede alejarse bastante de él). En consecuencia, la velocidad (y por tanto la energía) necesaria para establecerse en ella resulta significativamente menor. Hay varios tipos posibles de órbitas elípticas, algunos de ellos muy prácticos, desde la conocida Molniya hasta la más rara órbita tundra.

Órbita de transferencia Hohmann-Vetchinkin entre una órbita baja y otra geoestacionaria.

Órbita de transferencia Hohmann-Vetchinkin (2) entre una órbita baja (1) y otra geoestacionaria (3).

Una órbita de transferencia Hohmann (o Hohmann-Vetchinkin :-D ) es una órbita elíptica parcial que sirve para saltar entre dos órbitas circulares situadas a distinta distancia. Por ejemplo, en la imagen de la izquierda la vemos utilizada para conmutar entre una órbita baja (1) y una órbita geoestacionaria (3) en ambos casos con la Tierra en el centro; es el tramo amarillo (2). Para realizar esta maniobra, sólo necesitamos dos impulsos, uno a la entrada y otro a la salida. La gracia radica en que estos dos impulsos consumen bastante menos energía que la necesaria para alcanzar la velocidad de escape (y no digamos si encima hay que abandonarla en destino). La desgracia, que resulta en un recorrido más largo que la trayectoria parabólica y mucho más largo que la hiperbólica.

Pero en la mayoría de casos, resulta la manera energéticamente más económica de viajar entre dos órbitas circulares que no tienen por qué pertenecer al mismo astro (si bien la mecánica específica se complica un poco más en este último caso). Es decir: podemos salir de una órbita circular alrededor de la Tierra y acabar en una órbita circular alrededor de Venus o Marte o el Sol o cualquier otro lugar con menos coste energético que tratando de alcanzar la velocidad de escape. Dicho de otra manera, es la forma más eficiente de trasladar una nave espacial entre dos órbitas distintas. Bajo determinadas circunstancias, la transferencia bi-elíptica puede optimizar aún más el coste energético.

Y es que en las naves espaciales del presente (y del futuro próximo) el problema fundamental es el coste energético. Cuanta más energía necesite una nave espacial para completar su viaje, requerirá más combustible y más motores, es decir más masa y volumen. O sea que tendrá que ser una nave más grande, más difícil de construir y con un coste económico mucho mayor. A partir de cierto punto, el proyecto se tornará irrealizable. Por eso el balance energético de una misión espacial es tan importante. Cualquier cosa que lo mejore no sólo reduce el dinero a gastar, sino que abre puertas al futuro que de otra manera no serían posibles en la práctica.

Plan de vuelo para la nave interplanetaria soviética Venera-5, enero-mayo 1969.

Plan de vuelo Tierra-Venus para la nave interplanetaria soviética Venera-5, utilizando una órbita de transferencia Hohmann-Vetchinkin de tipo I durante la ventana de enero de 1969.

Los puntos de Lagrange.

Estatua a Joseph-Louis de Lagrange (Giuseppe Luigi Lagrangia) en Turín.

Estatua a Joseph-Louis de Lagrange (Giuseppe Luigi Lagrangia) en Turín.

Y ahora vamos a hacer un inciso, que resulta imprescindible para poder continuar. Érase una vez que se era un matemático ítalofrancés llamado Joseph-Louis de Lagrange, que trabajaba en el problema newtoniano de los tres cuerpos; como puede suponerse fácilmente, una extensión del problema de los dos cuerpos. :-D Dicho a lo fácil, esto del problema de los tres (o más) cuerpos estudia cómo se influyen mutuamente tres (o más) cuerpos que interaccionan gravitacionalmente entre sí. Por ejemplo, el sistema Sol-Tierra-Luna. O el Tierra-Venus-nave espacial, por decir otro.

Ciento ochenta y siete años antes del primer viaje a la Luna, este señor Lagrange dedujo matemáticamente una cosita interesante. Como la Wikipedia lo explica bastante bien, vamos a citarla:

En 1772, el matemático ítalo-francés Joseph-Louis Lagrange estaba trabajando en el célebre Problema de los tres cuerpos cuando descubrió una interesante peculiaridad. Originalmente, trataba de descubrir una manera de calcular fácilmente la interacción gravitatoria de un número arbitrario de cuerpos en un sistema. La mecánica newtoniana determina que un sistema así gira caóticamente hasta que; o bien se produce una colisión, o alguno de los cuerpos es expulsado del sistema y se logra el equilibrio mecánico. Es muy fácil de resolver el caso de dos cuerpos que orbitan alrededor del centro común de gravedad. Sin embargo, si se introduce un tercer cuerpo, o más, los cálculos matemáticos son muy complicados. Una situación en la que se tendría que calcular la suma de todas las interacciones gravitatorias sobre cada objeto en cada punto a lo largo de su trayectoria.

Sin embargo, Lagrange quería hacer esto más sencillo, y lo logró mediante una simple hipótesis: La trayectoria de un objeto se determina encontrando un camino que minimice la acción con el tiempo. Esto se calcula substrayendo la energía potencial de la energía cinética. Siguiendo esta manera de pensar, Lagrange reformuló la mecánica clásica de Newton para dar lugar a la mecánica lagrangiana. Con su nueva forma de calcular, el trabajo de Lagrange le llevó a plantear la hipótesis de un tercer cuerpo de masa despreciable en órbita alrededor de dos cuerpos más grandes que ya estuvieran girando a su vez en órbita cuasi circular. En un sistema de referencia que gira con los cuerpos mayores, encontró cinco puntos fijos específicos en los que el tercer cuerpo, al seguir la órbita de los de mayor masa, se halla sometido a fuerza cero. Estos puntos fueron llamados puntos de Lagrange en su honor.

es.wikipedia, “Puntos de Lagrange“, redacción del 22/12/2010.

Dos cuerpos orbitando alrededor del centro de masas común.

Dos cuerpos orbitando alrededor de su centro de masas común. El "problema de los dos cuerpos" que se pregunta por su comportamiento tiene solución relativamente sencilla mediante las integrales de movimiento; pero el "problema de los tres (o más) cuerpos", que surge al añadir otros, carece de una solución general y sólo se puede resolver para casos particulares. Estudiando esta cuestión, Lagrange dedujo sus puntos de Lagrange.

Los puntos de Lagrange en el sistema Sol-Tierra

Los puntos de Lagrange para el sistema Sol-Tierra. Una nave espacial establecida en esas posiciones puede mantenerse en las mismas únicamente con energía de maniobra.

El primer punto de Lagrange, L1, es intuitivo y se da incluso aunque todos los cuerpos estén estáticos: en la línea imaginaria entre dos objetos con masa y por tanto gravedad, existe un lugar donde la atracción gravitatoria de uno cancela a la del otro. Un objeto de masa comparativamente despreciable situado justo en esa posición flotará entre ambos de forma indeterminada sin necesidad de ningún aporte de energía. En un sistema rotativo real como el Tierra-Luna, L1 está un poco desplazado y es levemente inestable, lo que se puede compensar con pequeñas maniobras.

L2 se encuentra en la misma línea que une a los dos objetos mayores, pero más allá de la menor. En este punto, la atracción gravitatoria de las dos masas principales entra en equilibrio con el efecto centrífugo de la masa menor que gira alrededor. L3 hace lo propio “al otro lado”, más allá de la masa mayor. Por su parte, L4 y L5 se encuentran en los vértices de los triángulos equiláteros con base común en la línea que une ambas masas mayores; es decir, que giran 60º delante y detrás del cuerpo con masa menor, según se ve desde la masa mayor. Podemos verlos en la imagen de la izquierda.

La gracia de los puntos de Lagrange es que una nave espacial establecida en los mismos puede mantenerse ahí indefinidamente con energía teórica cero, y en la práctica tan solo con un poco de energía de maniobra para L1, L2 y L3 y ninguna para L4 y L5. Estos puntos de estacionamiento, excelentes candidatos a convertirse en terreno para construir las casas de postas cósmicas, constituyen una especie de órbitas Lagrange-estacionarias –por analogía a las geoestacionarias– que están disponibles entre dos pares de astros cualesquiera.

Mapa de potencial en los puntos de Lagrange y órbitas posibles en torno a L1 y L2.

Mapa de potencial en los puntos de Lagrange y órbitas posibles en torno a L1 y L2. Imagen: R. A. Tacchi en Interplanetary Transport Network, Universidad de California en Davis. (Clic para ampliar)

De hecho, por su estabilidad gravitacional, en los puntos de Lagrange cuarto y quinto tienden a acumularse ciertas cantidades de materia. Los asteroides troyanos se concentran alrededor de los puntos L4 y L5, y muy notablemente en los del sistema Sol-Júpiter (¿alguien ha dicho “estación minera”?). El sistema TetisSaturno presenta a su vez dos pequeñas lunas, Telesto y Calipso, en L4 y L5.; lo mismo ocurre con Helena y Pollux en los de Dione – Saturno. Marte presenta cuatro asteroides en L4 y L5 de Sol – Marte. En torno a los de Sol – Tierra podrían encontrarse las nubes de polvo de Kordylewsky. El planetoide compañero de la Tierra, 3753 Cruithne, intercambia energía con la misma a través de los lagrangianos Sol – Tierra; lo mismo sucede entre Epimeteo y Jano (Saturno), de manera mucho más notable.

Se sugiere que los puntos L1 y L2 de cualquier astro serían el lugar idóneo para instalar un ascensor espacial (específicamente los llamados ascensores espaciales lunares). La Sociedad L5, ahora parte de la National Space Society, viene proponiendo directamente la colonización de los puntos de Lagrange desde 1975. La Administración Obama acaricia la idea para el proyecto de enviar una misión tripulada a Marte. Tímidamente, la especie humana ya ha empezado a ocupar los lagrangianos L1 y L2 de Sol-Tierra con algunas naves científicas. Una característica peculiar de los puntos de Lagrange es que un objeto (incluída una nave espacial) puede orbitar a su alrededor exactamente igual que en torno a un astro, a pesar de que en ellos no haya ningún cuerpo con masa.

¿Y todo esto a qué viene? Pues viene a que aprovechando la interacción gravitatoria entre los distintos astros, y circulando a través de los puntos de Lagrange, se configura una especie de red de metro interplanetaria de mínima energía que nos permite viajar entre los distintos planetas y lunas con un coste energético mucho menor que en las órbitas de transferencia de Hohmann-Vetchinkin. De hecho, con un coste energético próximo a cero. Este metro, con sus estaciones en los puntos de Lagrange de los diversos pares de astros, se conoce como la red de transporte interplanetario.

El metro interplanetario.

Esquema conceptual de la red de transporte interplanetario.

Esquema conceptual de la red de transporte interplanetario. NASA. (Clic para ampliar)

La red de transporte interplanetario (ITN, por sus siglas en inglés) es un conjunto de rutas cósmicas que requieren muy poca y a menudo ninguna propulsión para que una nave espacial las recorra. Teóricamente, la energía de impulsión necesaria una vez iniciado el viaje podría ser cero; en la práctica, estaría muy próxima a cero. Esto fue demostrado por el ICE internacional en 1978 y la sonda lunar japonesa Hiten en 1991; después, ha sido utilizado por otras naves espaciales como la Génesis norteamericana (2001) o la SMART-1 de la Agencia Espacial Europea (2003).

Trayectoria descrita por la nave espacial Génesis.

Trayectoria descrita en la realidad por la nave espacial Génesis, utilizando el concepto de red de transporte interplanetario (2001-2004). Imagen: NASA.

Trayectoria ITN de entrada al sistema solar interior.

Una trayectoria ITN de entrada al sistema solar interior con coste energético mínimo, vía los lagrangianos L1 y L2 del sistema Sol-Júpiter. Imagen: R. A. Tacchi en Interplanetary Transport Network, Universidad de California en Davis. (Clic para ampliar)

Toda la propulsión necesaria para la realización de un viaje así se aplica durante el lanzamiento, con el propósito de alejar la nave del planeta Tierra y colocarla en un rumbo determinado a una velocidad precisa. A partir de ese punto, todo sucede solo, sin necesidad de aportar ninguna otra energía de impulsión más que para las posibles correcciones. Eso sí, el rumbo y la velocidad han de ser exactas de narices, pero esto es algo que ya cae actualmente dentro de las posibilidades tecnológicas humanas. De esta manera, toda la energía necesaria para el viaje se obtiene mediante la interacción gravitatoria con los distintos astros a través de sus puntos de Lagrange. Aplicando esta técnica no se requieren grandes motores ni grandes cargas de combustible (una vez ya estás en el espacio), sino sólo lo imprescindible para maniobrar en caso necesario.

La posibilidad de este metro interplanetario de consumo casi-cero ya fue teorizada por el matemático Henri Poincaré a finales del siglo XIX, pero no se pudo demostrar en la práctica hasta los vuelos de la ICE en 1978 y la Hiten en 1991. A partir de ahí se realizó un importantísimo trabajo de matemática aplicada, conocido en todo el mundo menos aquí (como siempre), por Gerard Gómez de la Universitat de Barcelona y Josep Masdemont de la Universitat Politècnica de Catalunya; sobre esta base, Martin Lo de la Universidad Purdue desarrolló una herramienta computacional llamada LTool, que permite calcular estas trayectorias y viene siendo utilizada desde entonces por el Jet Propulsion Laboratory y otras instituciones astronáuticas para crear el trazado de la red.

El principal problema con estas trayectorias es que son típicamente más largas que las órbitas de escape y las órbitas de transferencia de Hohmann-Vetchinkin, y además el paso por los puntos de Lagrange puede llegar a ser exasperantemente lento si queremos mantenernos en el coste energético mínimo. Por otra parte, las ventanas de lanzamiento óptimas pueden llegar a hallarse muy separadas entre sí. Esto tiene soluciones mixtas posibles, que con poco aporte de energía adicional pueden mejorar bastante algunos de los peores cuellos de botella, pero aún así la red de transporte interplanetario sólo resulta verdaderamente interesante cuando el tiempo de viaje es secundario. Por ello, en la actualidad sólo se plantea para sondas automáticas, no para vuelos tripulados. Pero esto podría cambiar en cualquier momento, y de hecho ya hay varias propuestas que utilizarían la ITN para misiones tripuladas.

La galaxia Renacuajo.

La "cola" de la galaxia Renacuajo son los restos de uno de estos túneles de baja energía que quedó establecido en el pasado, cuando otra galaxia pasó cerca, por donde se deslizaron las estrellas de una a otra.

La comprensión cada vez mejor del problema de los tres cuerpos y de las dinámicas asociadas a los puntos de Lagrange no sólo son de interés en la exploración espacial. Esta idea de los pasadizos de baja energía tiene otras aplicaciones. Por ejemplo: en el año 2000 Charles Jaffé, un químico de la Universidad de Virginia Occidental, observó que bajo determinadas condiciones experimentales las rutas que toman los electrones de valencia en átomos de Rydberg son muy parecidas a la trayectoria de la sonda Génesis. Y cuando estos átomos se someten a campos eléctricos y magnéticos perpendiculares, también realizan estos recorridos tubulares. Esto ha sentado las bases para el desarrollo futuro de nuevas teorías y aplicaciones en química y tecnologías de materiales, pues las matemáticas subyacentes son válidas a todas las escalas, desde los átomos a las distancias intergalácticas.

Hablando de galaxias, científicos de las universidades de Tokio y Edimburgo han mostrado que unos tubos relacionados con los puntos de Lagrange conducen a la “evaporación” de pequeños cúmulos estelares en órbita alrededor de algunas galaxias. Este efecto es mucho más notable cuando interaccionan dos de ellas: la galaxia Renacuajo manifiesta evidencias de un episodio muy violento en su pasado, un raspón como si dijéramos. La enorme cola que se extiende tras el renacuajo señala el lugar donde miles de estrellas entraron en tubos conectados con otra galaxia que pasó cerca. La cola del renacuajo es, pues, un puente hacia la nada de 280.000 años-luz. Otras galaxias presentan túneles de interconexión similares.

Aúnque aún no se han elaborado los mapas, cabe esperar que existan trayectorias parecidas conectando las estrellas entre sí; por ejemplo, al Sol con las estrellas cercanas. Esto constituiría una red de transporte interestelar donde una nave del tipo de las Voyager podría viajar directamente a Alfa Centauri, por decir algo, sin coste de propulsión adicional alguno. Le costaría miles de años hacerlo, pero aquí asoma un asunto interesante: en el pasado, hubo estrellas que estaban mucho más cerca del Sol (y en el futuro volverá a haberlas). Es posible que nos intercambiáramos material con ellas a través de estos canales. Qué material exactamente queda por el momento a la imaginación de cada cual.

Hace apenas cuarenta años y una semana, Venera 7 se posaba con bien en Venus tras utilizar una primitiva órbita de transferencia Hohmann-Vetchinkin con un coste energético de 3,8 megajulios por kilo. Fue una hazaña extraordinaria, ejecutada con tecnologías primitivas y a lo bruto porque en ese momento no se podía hacer de ninguna otra manera. Ahora sabemos que es posible llegar a la mayor parte de sitios interesantes en el sistema solar, y quizás en torno a otras estrellas y galaxias, con una milésima parte de esa energía. Si no lo estamos haciendo ya más y mejor, no es porque no sepamos, sino por simple ceguera y mezquindad. Ah, sí, por cierto. En salvar a los bancos, europeos y norteamericanos hemos comprometido dinero suficiente (unos trece billones de dólares sólo en los EEUU) para hacer unas mil misiones tripuladas a Marte y mantener el CERN durante más de diez mil años: las dos cosas a la vez y pagadas a tocateja con un solo cheque. Menos mal que no había pasta, ¿eh?

Para más información:

  • Ross, Shane D (2006), The interplanetary transport network, en American Scientist, vol. 94, págs. 230-237.
  • Conley, C. C. (1968), Low energy transit orbits in the restricted three-body problem. En SIAM Journal on Applied Mathematics 16:732–746.
  • Fukushige, T., y D. C. Heggie (2000), The time-scale of escape from star clusters. En Monthly Notices of the Royal Astronomical Society 318:753–761.
  • Jaffé, C., S. Ross, M. Lo, J. Marsden, D. Farrelly y T. Uzer (2002), Statistical theory of asteroid escape rates. En Physical Review Letters 89:011101.
  • Marsden, J. E., y S. D. Ross. (2006), New methods in celestial mechanics and mission design, en Bulletin of the American Mathematical Society 43:43–73.
  • Smith, D. L. (2002), Next exit 0.5 million kilometers, en Engineering & Science LXV(4):6–15.

54 Comentarios Trackbacks / Pingbacks (8)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (90 votos, media: 4,90 de 5)
Loading ... Loading ...
Be Sociable, Share!

Antibióticos para la vida

En un mundo sin antibióticos, ¿seguirías con vida?

La peste negra representada en la Biblia de Toggenburg.

La peste negra, aquí representada en la Biblia de Toggenburg (1411), mató a entre el 30% y el 60% de la población europea entre 1348 y 1350 y no desapareció hasta el siglo XVIII, cuando se vio sustituida por el cólera (mi bisabuela aún recordaba la espantosa epidemia de cólera de Valencia de 1885). Ninguna de estas enfermedades habría representado un gran problema teniendo antibióticos. Pero no teníamos.

Amoxicilina

La amoxicilina, uno de los antibióticos más utilizados en la actualidad, sigue siendo una penicilina betalactámica semisintética.

Hace poco escribí un post sobre el abuso de los antibióticos y los problemas de salud pública que está ocasionando en todo el mundo por el surgimiento de cepas resistentes y demás. Sin embargo, no disponer de ellos sería… bueno, espantoso, otra de esas cosas que nos mantendrían atados a un pasado de mierda. Los antibióticos, además de imprescindibles para la medicina moderna, son fascinantes: sustancias asombrosas capaces de matar a los agentes causantes de las enfermedades… sin matarnos a nosotros, cosa más extraordinaria de lo que nos hemos ya acostumbrado a pensar.

Hoy por hoy, en general, al menos los antibióticos sencillos se pueden encontrar hasta en los peores pudrideros del Tercer Mundo; y en los países desarrollados, los médicos disponen de un impresionante arsenal farmacológico para atacar a las enfermedades infecciosas ocasionadas por bacterias. Que son buena parte de las que nos liquidaban como a chinches hasta tiempos bien recientes, y cuando no, nos arruinaban la vida de mala manera. Entre ellas, bromitas como la peste bubónica, la difteria, el cólera, la lepra, la sífilis o la tuberculosis; por no mencionar todas esas infecciones que hoy en día consideramos leves pero que en el pasado tenían la costumbre de llevarse a la chiquillería y también a sus mamás al otro barrio por oleadas.

Los antibióticos carecen de utilidad contra los virus, a pesar de la afición del personal a atizárselos para tratar el resfriado común, la gripe y cosas así. Y el tratamiento de las enfermedades ocasionadas por hongos es cosa de los antifúngicos. Los antibióticos sólo sirven para curarnos de los males que causan las bacterias patógenas, ¡pero de qué manera! A menos que nos enfrentemos a una de esas cepas multirresistentes que han evolucionado a consecuencia de su abuso y mal uso, suelen ser mano de santo, curando en pocos días enfermedades que a menudo nos enviaban a la tumba o a la invalidez por muchas manos de santo auténticas que nos impusieran.

Los tres dominios de la vida: archaeas, bacterias y eucariontes.

Los tres dominios de la vida: archaeas, bacterias y eucariontes. Nosotros pertenecemos a un tipo de eucariontes, los animales (arriba a la derecha).

Del casi infinito dominio de las bacterias.

En este planeta, las bacterias contienen casi tanta biomasa como las plantas y las procariotas en general (el inmenso reino al que pertenecen) forman más de la mitad de la materia viva terrestre. De hecho, en la actualidad, esto de los reinos ya no se lleva mucho. Los biólogos se han hecho, digamos, pelín republicanos desde que descubrieron que la clara mayoría democrática de todas las cosas vivas que medramos sobre la faz de este mundo viejo son las bacterias y las archaeas; y también fueron las primeras en llegar, por algún millar de millones de años, con lo que el derecho de sangre les corresponde sin duda ninguna. Así pues, ahora dividimos a las cosas que viven en tres dominios: archaeas, bacterias y eucariontes; dentro de esos dominios, ya puede haber reinos y pequeñeces así. Los eucariontes somos el batiburrillo de lo que no son bacterias o archaeas, las cosas que poseen núcleo celular verdadero y que va desde los hongos hasta animales mamíferos como el homo sapiens. (Véase: Esta es tu herencia en este mismo blog)

Las procariotas son absolutamente esenciales para la vida terrestre. Si mañana la humanidad se extinguiese, incluso si todos los primates nos extinguiéramos, nadie notaría gran cosa y sería un incidente absolutamente menor en la historia de la vida; algo surgió, luego desapareció, ninguna novedad. Pero si las procariotas se extinguiesen, toda la vida terrestre se pondría del revés y probablemente desaparecería. Eso sí, la clase de cosa necesaria para matarlas pertenece a la liga de los grandes impactos planetarios y las estrellas agónicas zampándose mundos entre fases de fusión; un súper-meteorito de tres al cuarto o una escalera siberiana del montón no les hacen ni reir.

Se estima que hay aproximadamente 5 · 1030 bacterias en la Tierra. O sea, un cinco seguido de treinta ceros, lo que vienen siendo cinco quintillones. Es decir, más de un trillón de bacterias por cada galaxia del universo observable. Quinientos mil millones por cada insecto, más de quinientos mil millones por cada puñetero grano de arena en las playas de este mundo. Es difícil encontrar cifras a escala humana tan inmensas como para comparar. Una jartá, oiga.

E. coli

Tenemos más bacilos E. coli como los de la imagen en el colon intestinal que células en el conjunto del cuerpo. E. coli es un comensal generalmente inocuo, aunque algunas cepas son muy peligrosas.

A diferencia de lo que ocurre con las archaeas, que pasan señorialmente del resto de las cosas vivas desde su enigmático dominio primordial (si bien llevamos algunas en el intestino, las metanógenas), una parte significativa de las bacterias interaccionan con animales como nosotros y hasta pueden ocasionarnos enfermedades: decimos entonces que son patógenas. Esto es un temita peliagudo, dado que en un cuerpo humano hay diez veces más bacterias que células nativas propias y necesitamos la mayor parte de ellas para seguir bien de salud. Con estas cifras en la mano, no sería totalmente abusivo afirmar que somos básicamente una colonia de bacterias fecales rodeadas por unas capas celulares para asegurar su alimentación. Desde el corazón de nuestro culo, cien billones de bacterias preguntan a diez billones de células eucariotas quién es aquí el simbionte de quién. ;-) El Proyecto Microbioma Humano estudia esta materia con gran afán, entre otras cosas de peculiar interés.

Bacterias enrolladas y bacterias chungas.

Aunque llevamos bacterias por todas partes y especialmente en los ojos, la piel, la nariz, la boca, la vagina y el intestino delgado, la mayor parte se encuentran en el intestino grueso y sobre todo en el colon; donde reside, por ejemplo, la conocida vecina E. coli. Escherichia coli vive ahí de nuestro culo para arriba tranquilamente, respetuosa de la ley y sin dar pie a muchas habladurías, alimentándose de… pues de qué va a ser, de la mierda, facilitándonos la absorción de nutrientes en el proceso. Es una buena chica, muy trabajadora y fiel, que nos coloniza unas 48 horas después del nacimiento y ya no nos abandona hasta que nos hemos convertido en contaminación ambiental. Incluso sirve para elaborar medicamentos contra las enfermedades inflamatorias intestinales.

Pero no todas las E. coli son igual de dóciles y laboriosas. Algunas cepas resultan francamente peligrosas, entre ellas O157:H7, O121 u O104:H21, que producen potentes toxinas y son causa habitual de intoxicaciones alimentarias. Cuando nos pegamos un banquete de estas cepas, normalmente acompañado con algo de comer, nos ponemos muy malitos e incluso nos podemos morir –una parte de las toxinas que fabrican se parecen bastante a las del cólera–. Tampoco nos sienta bien que la E. coli buena se salga de su sitio y vaya a parar a otros lugares, como por ejemplo mediante una herida abdominal: provoca rápidamente peritonitis, que también nos puede enviar fácilmente al lugar silencioso. En la actualidad, hay verdadero miedo a que E. coli haya adquirido multirresistencia por el abuso de antibióticos y no se pueda controlar en estos casos.

Otras bacterias son directamente unas hideputas que vienen a buscarnos las vueltas, diciendo que necesitan sobrevivir a nuestra costa y que más vale que llore tu madre que no la mía. Entre estas se encuentran algunas tipas tan chungas como Vibrio cholerae (cólera), Yersinia pestis (peste bubónica, que una vez se cargó a media Europa), Mycobacterium leprae (o bacilo de Hansen, encargado de llenar las leproserías), Mycobacterium tuberculosis (o bacilo de Koch, tisis) o Treponema pallidum, esa guarrindonga que acecha el día en que te dejaste los condones en casa y suele ingeniárselas para encontrar un camino de tu entrepierna a tu cerebro (cosa que probablemente no sea muy difícil :-P ).

Treponema pallidum, el agente causante de la sífilis.

Treponema pallidum, el agente causante de la sífilis, una enfermedad de transmisión sexual que por sí sola justifica el uso de todos los condones del mundo.

He citado cinco de las más conocidas, pero en realidad hay miles de especies bacterianas patógenas, que se contagian por tierra, agua, aire y polvo (sí, en el sentido que estás pensando). No existe prácticamente ningún orden de la realidad en la superficie terrestre donde no haya bacterias, y eso incluye a las patógenas.

Por ello, la higiene y la asepsia (y en su caso la antisepsia) son importantísimas, la primera barrera y la más esencial contra las enfermedades infecciosas (aunque existen indicios para pensar que la excesiva higiene puede ser contraproducente, al impedir que el sistema inmunológico de los niños se desarrolle correctamente y fomentar la resistencia microbiana –pero sin exagerar–). Uno de los más grandes éxitos a la hora de evitar que las mamás se murieran como ratas de sepsis puerperal fue lograr que los médicos y obstetras se lavaran las puñeteras manos antes de atender el parto. Con la asepsia quirúrgica se logra erradicar casi todas las bacterias que puedan llegar al paciente en un quirófano, siempre que se siga escrupulosamente el procedimiento.

La guerra entre las bacterias, los hongos y los humanos.

Una vez la infección se ha producido, sólo existen dos maneras de enfrentarla. La primera es dejar que el sistema inmunológico haga su trabajo para eliminarla, como de hecho hace constantemente. Sin embargo, es evidente que numerosas infecciones son capaces de vencer al sistema inmunológico y comérsenos; algunas resultan tan peligrosas que ni siquiera merece la pena correr el riesgo de esperar a que el sistema inmunitario haga lo suyo. En realidad hay una tercera posibilidad: amputar el miembro u ógano infectado… con la esperanza de que eso no empeore las cosas aún más. Por eso antiguamente las amputaciones iban que volaban, mientras hoy en día se reservan para casos extremos.

En el pasado, al llegar a este punto en el que quedamos infectados por algo que el sistema inmunitario no puede afrontar… pues la liamos parda. Durante la mayor parte de la historia de la humanidad, no existió ningún mecanismo claro o eficaz para combatir la infección desde fuera. Esencialmente, o tu sistema inmunológico lograba vencerla, o te amputaban a tiempo sin causarte una infección aún mayor o te ibas para el hoyo –y esto ocurría con gran frecuencia–. Hasta finales del siglo XIX no hubo realmente medicamentos dignos de tal nombre, y ese es uno de los motivos fundamentales de que hasta principios del XX la esperanza de vida incluso en los países ricos se mantuviera sólidamente por debajo de los 50 años, y la media mundial fuera de 31 años, peor que en el Paleolítico (cuando se estima que fue de 33 años). Hoy en día los países que peor están rondan los 40 años (Swazilandia), aunque cifras en torno a los 50 son más comunes en el África pobre; la media mundial en 2005 fue de 67,2 años, algo nunca visto, y los países desarrollados nos mantenemos sólidamente en torno a los 75 – 80. La diferencia entre países ricos y pobres se ha reducido de 25 años en 1950 a 11,5 en la actualidad. En apenas un siglo, hemos logrado entre un 29% (caso peor) y un 162% (caso mejor) de vida extra para el conjunto de la humanidad.

Mortalidad infantil y esperanza de vida 1950-2010

Mortalidad infantil y esperanza de vida 1950-2010, con desglose del total mundial y los países más y menos desarrollados. Fuente: División de población de las Naciones Unidas (http://esa.un.org/unpp/index.asp?panel=2). (Clic para ampliar)

Funeral del primogénito, por Nikolai Yaroshenko, 1893

Funeral del primogénito, por Nikolai Yaroshenko, 1893. La experiencia de enterrar a un hijo pequeño, hoy en día poco común y generalmente consecuencia de la fatalidad, era cosa corriente en todo el mundo hasta la segunda mitad del siglo XX.

Las cifras de mortalidad infantil han mejorado aún mucho más. Durante la mayor parte de la historia se encontraba en el 30% y a veces ascendía hasta el 50%. Es decir, entre uno de cada tres y uno de cada dos nacidos desaparecía antes de alcanzar la edad adulta. Hoy, el peor país para venir al mundo es Angola (18,2%, una barbaridad) y el mejor, Singapur (0,2%); la media mundial está en el 4 a 5%. Tan solo en 1950, la media mundial rondaba aún el 15% (tan mala como si todo el mundo fuera el Afganistán de hoy). Eso es una reducción global del 70% en apenas sesenta años. De nuevo, la diferencia entre ricos y pobres ha caído de 115 puntos a principios de los ’50 a 46 hoy en día. Y en su gran mayoría, es la obra de la ciencia moderna (y también de la mentalidad moderna).

Entre los conocimientos, métodos y técnicas que han logrado este resultado maravilloso se encuentran las vacunas, la higiene y los antibióticos. En el mundo clásico protocientífico existieron algunos a modo de antibióticos, que parece que mejoraban algo las cosas. Diversas culturas de la Antigüedad descubrieron que aplicando ciertos mohos y plantas a las heridas la infección se reducía. En mundo rural ruso, es tradicional tratar las heridas infectadas con trozos de tierra caliente (que contiene mohos), y en Serbia y Grecia, usando trozos de pan florecido. Pero eso fue todo y, a todas luces, no fue lo suficiente. Tuvimos que esperar hasta 1875 para que un médico irlandés, por nombre John Tyndall, verificara una cosita curiosa descubierta poco tiempo atrás: algunas bacterias parecían tener problemas para cultivarse allá donde medraba un cierto hongo de los alimentos estropeados llamado Penicillium. En 1876, dejaría escrito: “donde el [Penicillium] es sólido y coherente, las bacterias murieron o se adormecieron y cayeron al fondo [del tubo de ensayo] como un sedimento”. Lamentablemente, así quedó la cosa por el momento.

En 1877, Louis Pasteur y Robert Kochnadie, vamos– observaron también que un hongo presente en el aire inhibía el crecimiento del carbunco (“ántrax“) durante sus estudios refutando la generación espontánea para demostrar la Teoría Microbiana de la Enfermedad. El francés comentó: “si pudiéramos intervenir en el antagonismo observado entre algunas bacterias, se podría quizás ofrecer las mayores esperanzas en materia terapéutica”. Pero si hay que mencionar un nombre como inventor de la farmacología quimioterapéutica moderna y de los antibióticos eficaces, tal nombre es el del alemán Paul Ehrlich.

Paul Ehrlich, padre del primer antibiótico eficaz.

Paul Ehrlich, premio Nobel y padre del primer antibiótico eficaz: el Salvarsán de 1909, contra la sífilis. Fue virulentamente atacado como "peón del diablo" (Wick, 1988), por interponerse en el "castigo divino a la promiscuidad".

La bala mágica del doctor Ehrlich.

Entre otras cosas, Ehrlich era un destacado histólogo especializado en el uso de tintes para teñir selectivamente diversos tejidos y microorganismos, que inventó varias de las técnicas precursoras a la tinción de Gram. También postulaba que las toxinas y antitoxinas eran agentes químicos, no muy distintos de algunos de estos tintes. Esto le condujo a elaborar una idea singular: al igual que ciertos tintes teñían únicamente un tipo de células o microorganismos, al igual que las antitoxinas van a buscarles las vueltas a las toxinas, debían existir sustancias tóxicas sólo para un tipo de células o microorganismos, que no causasen daños a las demás. Así, sería posible inyectar esta sustancia tóxica a un paciente de tal modo que matara a la enfermedad sin matar al enfermo. Y lo expresó así: “debemos aprender a disparar a los microbios con balas mágicas”. Una bala mágica que se cargara al microorganismo patógeno sin tocar a su portador.

Cuando en 1899 Ehrlich fue nombrado director del Instituto Real de Terapias Experimentales en Fráncfort, se dedicó a investigar estas hipotéticas balas mágicas con gran afán. A lo largo de cientos de experimentos, él y su equipo terminaron concentrándose en una familia de compuestos arsénicos trivalentes que habían demostrado su efectividad contra los tripanosomas. No mucho después Schaudinn y Hoffman descubrieron que la Treponema pallidum, una bacteria espiroqueta, era la causante de la temida enfermedad de transmisión sexual conocida como sífilis. Ehrlich consideró que la Treponema constituía un blanco idóneo para sus balas mágicas, y el mismo año en que recibía el Premio Nobel por sus trabajos sobre la inmunidad, pidió a su discípulo japonés Sahachirō Hata –autor de una técnica para infectar la sífilis en los conejos– que probara a destruirla con una sustancia previamente descartada: el compuesto 606 (porque era el sexto compuesto del sexto grupo de compuestos arsénicos que habían probado).

Así, siendo 1909, el doctor Sahachirō Hata probó el compuesto 606 para destruir la sífilis en conejos, siguiendo las instrucciones del doctor Paul Ehrlich de Fráncfort. Y el compuesto 606 funcionó.

Por primera vez, la humanidad disponía de un veneno capaz de matar a la enfermedad sin matar al enfermo. Fue bautizado como arsfenamina y comercializado bajo la marca Salvarsán. Al poco, en 1912, comenzaron a distribuir un nuevo compuesto ligeramente menos eficaz pero con mejor comportamiento clínico denominado Neosalvarsán. Ambos son profármacos, es decir, sustancias poco activas que el propio organismo metaboliza para convertirlas en activas. Y la sífilis, que había arruinado millones de vidas, se comenzó a curar.

Los de siempre montaron en cólera. La iglesia, los políticos conservadores e incluso una parte de sus colegas llamaron de todo a aquel judío que había osado interponer la mano protectora de la ciencia entre la humanidad y el justo castigo por el pecado de promiscuidad. Fue tachado de peón del diablo (Wick MD, M.R.. Retrospective-Paul Ehrlich: The Prototypic Clinical Pathologist. Am J Clin Pathol. 90:329-332 , 1988), vituperado, vilipendiado, acosado e incluso demandado en los tribunales por asesinato (como cualquier otro medicamento primitivo, el Salvarsán tenía fuertes efectos secundarios y unos cuarenta pacientes murieron, pero miles y miles se salvaban). Ehrlich acusó muy mal estos ataques y se dice que eso tuvo bastante que ver en los dos accidentes cerebrovasculares que le costaron la muerte durante el verano de 1915, a los 61 años de edad. Hay una peli de 1940 sobre todo esto, La bala mágica del doctor Ehrlich.

A pesar de los canallas, la razón se impuso y el Salvarsán se convirtió en el medicamento más vendido del mundo durante los siguientes treinta años. En 1935, Bayer desarrolló un tinte antibiótico llamado Prontosil, siguiendo técnicas basadas en las de Ehrlich; se trataba de la primera sulfamida y el primer antibiótico de amplio espectro. Es decir, un perdigonazo mágico: los antibióticos de amplio espectro son capaces de atacar a una diversidad de microorganismos sin causar daños significativos al paciente.  Las sulfamidas fueron el antibiótico más utilizado durante la Segunda Guerra Mundial, salvando a miles de soldados y otras víctimas de la enfermedad y la guerra. Pero lo mejor aún estaba por llegar.

Sir Alexander Fleming recogiendo el premio Nobel.

Sir Alexander Fleming (izda.) recogiendo el premio Nobel de manos del rey de Suecia Gustav V (1945).

Penicilina.

Según sus propias palabras, cuando el doctor Alexander Fleming se levantó de la cama el 28 de septiembre de 1928, no había decidido revolucionar toda la medicina de la humanidad para la hora de la cena. Y sin embargo, eso fue lo que ocurrió.

Alexander Fleming era un biólogo y farmacéutico escocés muy tímido y observador, al que cuando algo le picaba, no paraba hasta rascárselo. Así había descubierto ya la lisozima unos años atrás, importante en los procesos gangrenosos. Estuvo de vacaciones con la familia durante el mes de agosto de 1928 y volvió a su laboratorio el 3 de septiembre. Al revisar unos cultivos de estafilococos que estaba estudiando y dejó almacenados antes de irse, constató que una de las cepas estaba contaminada por un hongo. Alrededor del hongo, todos los estafilococos estaban muertos. Al comentárselo a su ayudante, éste contestó: “Así es como descubriste la lisozima, ¿no?”

Fleming estudió el hongo con atención, que resultó ser aquel Penicillum cuya capacidad bactericida ya había quedado establecida por Tyndall en 1875. Y se picó, y quiso rascarse. Así que se puso a hacer más experimentos. El 7 de marzo de 1929, puso nombre al jugo de moho con el que había estado trabajando todos esos meses: lo llamó penicilina. Y esta penicilina resultó ser la bala mágica soñada por el doctor Ehrlich, capaz de matar a decenas de bacterias patógenas peligrosísimas con una mínima toxicidad para el paciente.

El éxito no vino de inmediato. Su hallazgo recibió poca atención, pues no parecía aportar gran cosa sobre el trabajo de Tyndell cincuenta años atrás, y la producción en masa de esta penicilina resultó ser más difícil de lo que parecía en un principio. Trató de encontrar a un químico que la produjera, pero el sector privado no se interesó y a las universidades les parecía poco prometedor. Con el paso del tiempo, surgieron más problemas: el propio Fleming llegó a la conclusión de que la penicilina duraba demasiado poco tiempo en el organismo para actuar eficazmente, y además actuaba demasiado despacio. Hacia finales de los años ’30, se había desanimado y ya sólo le prestaba alguna atención ocasional.

El hongo Penicillium, que produce la penicilina, creciendo en agar.

El hongo Penicillium, que produce la penicilina, creciendo en agar.

En 1940, poco después de que comenzara la Segunda Guerra Mundial, Ernst Chain y Edward Abraham de la Universidad de Oxford descubrieron la estructura química exacta de la penicilina y hallaron un modo de aislarla y purificarla. No era más que un oscuro paper bioquímico sin ninguna aplicación clara en ese momento, pero en cuanto Fleming lo leyó se le hizo la luz de nuevo y llamó por teléfono a Howard Florey, que era el jefe del departamento donde trabajaban Chain y Abraham. Dicen que al colgar el teléfono, se oyó susurrar a Florey, refiriéndose a Fleming: “Dios… creía que el tipo estaba muerto”. Sobre otra idea de Norman Heatley, Florey y Chain encontraron la manera de producir esta penicilina en masa.

Así, lo que solamente era una curiosidad científica se transformó rápidamente en una gran industria. El nuevo fármaco, que inició su andadura como penicilina G o bencilpenicilina, resultó ser de excepcional eficacia y bajísima toxicidad para el tratamiento y prevención de la gonorrea, la sífilis (desplazando finalmente al Salvarsán), la meningitis, la neumonía, la sepsis infantil, el tétanos, la gangrena y casi toda clase de infecciones producidas por heridas. Con la Segunda Guerra Mundial en marcha, no faltaban heridas de todas clases, y en 1944 ya se estaba produciendo penicilina suficiente para atender a todos los ejércitos aliados occidentales. Fleming, Florey y Chain recibieron el premio Nobel de medicina en 1945.

La penicilina tiene una bajísima toxicidad, pero en un 10% de los pacientes puede producir alergias y en ocasiones la muerte por shock anafiláctico. Descontando este problema, durante décadas no tuvo parangón y surgieron un montón de variantes mejores para esto o aquello, conocidas genéricamente como penicilinas. A partir de los años ’70 surgieron las penicilinas sintéticas, producidas de manera completamente artificial (o sea, sin tener que andar trasteando con los hongos), que permiten una diversidad de fórmulas mayor. En la actualidad, los antibióticos primarios siguen siendo penicilinas, como la amoxicilina o la cloxacilina. Una alternativa a las penicilinas, que sigue el mismo principio pero se origina en un hongo de las alcantarillas sardas, son las cefalosporinas.

En décadas recientes han surgido nuevos antibióticos totalmente sintéticos como las quinolonas (bastante más tóxicas), las tetraciclinas y algunas otras. En general, ninguno de estos antibióticos resulta tan eficaz como las penicilinas/cefalosporinas y buena parte presentan muchos más efectos secundarios. Como comentábamos al principio, en la actualidad el problema ya no es tanto matar bichejos chungos como pasarnos de vueltas y provocar la evolución sistemática de cepas resistentes a los antibióticos. Porque eso significaría volver al pasado, a aquella época que algunos creen más feliz pero donde las tasas de mortalidad infantil eran de dos dígitos, la esperanza de vida  menor que cincuenta años y cualquier microcabrito nos podía mandar al otro barrio con facilidad; un fenómeno que ya ha empezado a ocurrir y debemos evitar.

Ver también: Viruela: cuando la mano del Hombre fue más poderosa que el puño de Dios

69 Comentarios Trackbacks / Pingbacks (7)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (82 votos, media: 4,83 de 5)
Loading ... Loading ...
Be Sociable, Share!

Así vuela un avión

…y un helicóptero, y un velero (“planeador”), y los pájaros también.
En general, cualquier cosa más pesada que el aire, excepto los cohetes y proyectiles.


El avión más grande del mundo, un Antonov-225 de 640.000 kg MTOW con matrícula UR-82060,
despega del aeropuerto de East Midlands en un día frío y
ventoso de diciembre de 2005.
¿Qué clase de fuerza hace que una maldita cosa de 640 toneladas vuele?
;-D

Circulan por ahí muchas explicaciones de los motivos por los que vuela un avión. Sin embargo, una buena parte son erróneas y otras, incompletas. Las razones por las que un ala (fija o rotativa) genera sustentación parecen bastante oscuras, empezando por el hecho asombroso de que un maquinón de cientos de toneladas vuele como un pájaro… o incluso mejor. Como siempre, trataremos de aportar un poquito de luz al respecto. ;-)

Las fuerzas básicas del vuelo: peso, sustentación, empuje y arrastre.

Las fuerzas básicas del vuelo: peso, sustentación, empuje y arrastre.

De la necesidad de las alas.

Vimos ya en el post sobre los aviones supersónicos que hay cuatro fuerzas básicas del vuelo: peso, empuje, resistencia al avance y sustentación.  El peso está bastante claro y se deriva de la fuerza de la gravedad, que es la atracción natural entre los objetos con masa; la aeronave y la Tierra se atraen entre sí, con una enorme desproporción a favor de la Tierra. Fue Newton quien describió por primera vez esta ley de la gravitación universal, y a Newton le debemos también la segunda y tercera leyes del movimiento que explican el empuje: el empuje es una fuerza reactiva producida cuando un objeto acelera o expulsa masa en una dirección, lo que ocasiona una fuerza proporcional en sentido contrario. La resistencia al avance o arrastre obedece a varios fenómenos a la vez, entre los que se encuentra el rozamiento, y que podríamos resumir como la suma de las fuerzas que actúan en sentido opuesto al empuje.

Nosotros vamos a concentrarnos hoy en la sustentación. La sustentación es una fuerza aerodinámica perpendicular al flujo del aire, que se produce cuando un objeto avanza a través del mismo. Cualquier objeto puede producir sustentación, pero sólo los objetos con un determinado perfil producen más sustentación que arrastre para vencer al peso eficientemente. Este perfil es el denominado perfil alar (airfoil). La eficiencia de un ala se mide mediante la relación sustentación-arrastre (lift-to-drag ratio).

El ala, pues, resulta de gran utilidad para el vuelo porque es capaz de producir mucha sustentación con muy poco arrastre, en un gorrioncillo o en un Airbus A380. Los cohetes no tienen alas porque toda su fuerza ascensional procede del empuje, lo que resulta muy costoso energéticamente (pero muy útil cuando vas a mandar algo a un lugar donde no hay aire, y por tanto no se pueden producir fuerzas aerodinámicas). Para que algo más pesado que el aire vuele con un consumo razonable de energía, necesita un ala o algo que desempeñe la función del ala para generar sustentación. Y ahora, al grano: ¿cómo se produce esta sustentación? ¿Por qué las alas quieren volar?

Partes del ala.

Partes del perfil alar (sección del ala). Utilizaremos los siguientes términos en el texto a continuación: extradós, intradós, cuerda, borde de ataque y borde de salida; si no los conoces, sería conveniente que los localizaras en el gráfico para tener claro de qué hablamos. ;-)

Explicación (incorrecta) de la sustentación por efecto Venturi.

Explicación (incorrecta) de la sustentación por efecto Venturi. El aire acelerara al tener que realizar un recorrido mayor por el extradós que por el intradós; supuestamente, eso actuaría como una “boquilla de Venturi”, reduciendo la presión del aire encima del ala. Sin embargo, no hay nada encima del ala que permita contener el aire para que esta “boquilla de Venturi virtual” pueda llegar a producirse: la superficie está “al aire”. Si este fuera el principio de funcionamiento de la sustentación, el vuelo invertido no sería posible con un ala simple y los aviones de papel caerían al suelo sin más.

Las explicaciones incorrectas (o incompletas).

Como apunté al principio, hay varias explicaciones muy populares para la sustentación que o son incorrectas, o son incompletas. Una de las más comunes es la que podríamos denominar la “explicación Venturi“, no porque la propusiera Venturi (que obviamente no lo hizo), sino porque se atribuye la sustentación al efecto Venturi. Según esta explicación (recordemos: incorrecta) la parte superior del ala o extradós estaría construida con una curvatura mayor y por tanto mayor longitud que la parte inferior o intradós. Cuando la aeronave pasa a través del aire, cortándolo, eso aceleraría el aire que pasa por la parte superior, reduciendo así su presión como en una boquilla de Venturi. Esta zona de baja presión generada encima del ala actuaría como una “ventosa”, produciendo la sustentación.

Esta explicación presenta varios problemas insuperables. El más fundamental, obviamente, es que el extradós de un ala no es una boquilla de Venturi: se trata de una superficie plana, no de ninguna clase de cilindro. Tendríamos sólo una pared de la boquilla y faltaría el resto; por tanto, no puede actuar de ese modo.

Como consecuencia de este error, se derivarían efectos curiosos que no se dan en la realidad. Uno de ellos es que un avión no podría volar boca abajo, puesto que en ese caso el extradós apuntaría hacia el suelo y la sustentación generada apuntaría hacia el suelo también, con lo que esta fuerza se sumaría al peso y el aparato se desplomaría más que como una piedra. Sin embargo, esto evidentemente no es así: los aviones pueden realizar vuelo invertido. Otro efecto curioso sería que la forma del intradós (la parte inferior) sería irrelevante, puesto que toda la sustentación se generaría en el extradós. Esto tampoco es así: la forma del intradós es tan importante como la del extradós y un perfil alar con un intradós de cualquier manera no funciona si intentamos construirlo en la práctica.


Un Sukhoi Su-31 acrobático, pilotado por Jurgis Kairys, pasa por debajo de un
puente en vuelo invertido. Esta maniobra no sería posible si la sustentación del
ala se generase únicamente en el extradós (por efecto Venturi o de cualquier otro modo),
puesto que al invertir el vuelo lanzaría a la aeronave hacia abajo junto con el peso.

Otra explicación parecida, que también supone que la sustentación se genera en el extradós (y por tanto haría igualmente imposible el vuelo invertido) podría denominarse como la conjetura del tiempo de tránsito igual. Esta conjetura se sustenta en la misma idea que la anterior y de hecho constituye una variante de la misma: la parte superior del perfil alar estaría diseñada para ser más larga que la inferior y cuando el ala corta el aire, éste tendría que viajar más deprisa por el extradós que por el intradós para encontrarse de nuevo en el borde de salida. Debido a esta velocidad mayor se produciría una zona de baja presión sobre el extradós, en este caso debida al principio de Bernoulli, lo que originaría la sustentación. Podemos ver que se parece mucho a la anterior, sustituyendo a Venturi por Bernoulli.

Conjetura (débil) de sustentación por efecto Bernoulli.

En la “variante Bernoulli”, la zona de baja presión se produciría laminarmente en la superficie del extradós debido a la mayor velocidad del aire que circula por él. Este efecto provoca algo de sustentación, pero mucho menos que la medida en la realidad, y tampoco explicaría ni el vuelo invertido ni el del avioncito de papel.

Tampoco funciona. ;-) Para ser más exactos, no funciona lo suficiente. En realidad, una vez las dos láminas de aire se han separado en el borde de ataque, no hay ningún motivo por el que tengan que encontrarse al mismo tiempo en el de salida y de hecho no lo hacen. En la práctica, ocurre algo curioso: las moléculas de aire que circulan sobre el extradós se aceleran muchísimo más de lo esperado en esta conjetura del tiempo de tránsito igual y escapan por el borde de salida mucho antes de que lo hagan las que circulan bajo el intradós. Se podría pensar: “bueno, pues estupendo, ¿no? ¡Así se magnifica el efecto Bernoulli y aumentará aún más la presión diferencial!”.

Lamentablemente, no. :-P De hecho, si se aplica la ecuación de Bernoulli para calcular las presiones así generadas, resulta que la sustentación final sería muchas veces menor que la observada en la realidad a pesar de la diferencia de velocidades. Y si esta fuera la causa fundamental de la sustentación, nos volveríamos a encontrar con que no puede explicar el vuelo invertido (cuando la aeronave se pusiera boca abajo, la fuerza “saliendo del extradós” la empujaría hacia abajo y se desplomaría a gran velocidad).

Ambas suposiciones se basan en principios físicos reales y sobradamente comprobados, lo que contribuye a la confusión porque no están “evidentemente mal”, violando las leyes de la física.  Bernoulli y Venturi estaban en lo cierto. Lo que pasa es que estos no son los principios fundamentales que producen la sustentación (y de hecho ninguno de los dos científicos propuso jamás cosa semejante, entre otras cosas porque ambos son muy anteriores al vuelo de máquinas más pesadas que el aire). Por Venturi no se produce ninguna sustentación (no hay boquilla de Venturi) y por Bernoulli se produce muy poquita, prácticamente despreciable en el conjunto del fenómeno.

Las dos explicaciones presentan además el problema del avioncito de papel (o del ala delta, por ejemplo). En un avioncito de papiroflexia, el ala es prácticamente un plano sin diferencia significativa alguna entre su parte inferior y su parte superior (una hoja de papel, vaya…). Si las aeronaves funcionasen por algún mecanismo de acción diferencial entre el intradós y el extradós, un avioncito de papel no volaría porque no hay distinción práctica entre los dos lados del ala. Ni un ala delta, ni ninguna otra cosa por el estilo. No. Nasti. Necesitamos una hipótesis mejor.

Avión de papel

Sí, parece una coña, pero no lo es. Cualquier hipótesis de la sustentación aerodinámica que no explique algo tan aparentemente sencillo como el vuelo de un avioncito de papel es probablemente errónea y con toda seguridad incompleta. En un avión de papel, el perfil alar es plano a efectos prácticos y el intradós y extradós, idénticos; con lo que todas las conjeturas sustentadas estrictamente en mecanismos de presión diferencial entre ambas superficies lo tienen muy mal. Cosas de la ciencia. :-P Pero si no explica el vuelo de un avioncito de papel, ¿cómo pretenderemos que explique el vuelo de un Airbus A380 de 569.000 kilos MTOW? :-D

Modelo (débil) de sustentación por acción-reacción.

La conjetura de sustentación por acción-reacción, producida cuando las moléculas del aire impactan en el intradós, sólo funciona a velocidades y altitudes muy grandes. Para la mayor parte de casos, tampoco basta.

Una tercera conjetura, un poco más correcta pero aún insuficiente, se diferencia de las dos anteriores en que supone que la sustentación se genera en el intradós (la parte inferior) mediante un mecanismo newtoniano de acción-reacción (tercera ley del movimiento). Según esta idea, las moléculas del aire golpean la parte inferior del ala (que está algo angulada sobre su eje transversal) y rebotan como una piedra rebotando sobre el agua; al hacerlo, la “empujan” hacia arriba y con ella al resto del aparato. Parece una proposición maja, ¿eh?

Aquí el problema radica en que también hay aire en la parte superior. Y por tanto, sus moléculas rebotan igualmente sobre el extradós, anulando cualquier sustentación significativa producida por este mecanismo en el intradós (una empuja hacia arriba y la otra hacia abajo). Dar por buena esta explicación supondría también imaginar que dos alas con el mismo perfil inferior y distinto perfil superior generarían exactamente la misma sustentación; en el mundo real, se observa enseguida que esto no va así. Tampoco tendrían sentido dispositivos de conocida utilidad práctica como los spoilers, que actúan completamente sobre la sustentación generada en el extradós (si en la parte superior no se produjera sustentación, entonces, ¿por qué intentar intervenir sobre la misma?). Por otra parte, si sacamos los cálculos de la sustentación producida por este método, tampoco cuadran con los registrados en el mundo real.

Esto tiene una excepción. En vuelo de muy-muy gran altitud y muy-muy alta velocidad, algo así como más de 270.000 pies y más de diez mil kilómetros por hora –vamos, un transbordador espacial reentrando hipersónico en la atmósfera terrestre o cosa parecida–, este efecto parece predecir correctamente la sustentación observada en la realidad. Se debería a que, en condiciones de avance muy rápido y muy baja presión y densidad del aire, la cantidad de moléculas de aire que “aprietan y golpean” sobre el extradós sería significativamente inferior a las que “aprietan y golpean” sobre el intradós (particularmente durante un vuelo descendente, como suele ocurrir en las reentradas…).

Sin embargo, en los vuelos más corrientes –por ejemplo el de un jetliner, típicamente a 30 o 35.000 pies de altitud y 800 a 900 km/h– este efecto se cancela a sí mismo porque las moléculas de aire golpean por igual en el extradós y el intradós y como resultado no genera ninguna sustentación significativa.

Adicionalmente, los dos primeros modelos no explican y el tercero no describe correctamente otro efecto significativo observado en el vuelo real: cuanto más baja es la velocidad y mayor es la carga, más alto debe ser el ángulo de ataque (hasta un cierto límite). El ángulo de ataque es el ángulo entre la cuerda y la dirección del aire incidente. De la “explicación Venturi” y la “explicación Bernoulli”, que dependen únicamente de la diferencia de longitud entre extradós e intradós, no se deduce ningún motivo por el que el ángulo de ataque deba variar en el vuelo a baja velocidad y/o con más carga. En la “explicación reactiva” podría encontrarse alguna justificación, pero si sacamos los cálculos, de nuevo resulta que no. Vamos a tener que pensar en algo mejor aún.

La máquina ala.

El elemento esencial para entender la sustentación no es la forma del ala, sino el ángulo de ataque. Acabamos de decir que esto es el ángulo entre la cuerda alar y la dirección del aire. Para que nos quede claro por completo, veámoslo en un dibujín:

Ángulo de ataque

El ángulo de ataque es el formado entre la cuerda alar y la dirección del aire.

¿Y por qué el ángulo de ataque es la clave? Pues porque los tres gráficos de arriba (los de las caritas :-D ) están mal. La parte de la derecha (la correspondiente al flujo de aire detrás del ala) está dibujada incorrectamente. En la realidad, cualquier ala que presente un ángulo de ataque distinto de 0º produce un flujo de aire más parecido al siguiente:

Flujo real de aire en torno a un ala en avance

Flujo real de aire en torno a un ala en avance.

Avión pasando cerca de una capa de nubes, lo que evidencia el downwash y los vórtices.

En esta foto se aprecia muy bien el “downwash” generado por un avión. Al pasar cerca de la capa de nubes, este aire desviado hacia abajo abre una especie de canal tras la aeronave. También se distinguen los vórtices producidos en las puntas de las alas, lo que ocasiona esa especie de “rizos” en la nube.

Puede observarse que al paso del ala hay una gran cantidad de aire que resulta desviada hacia abajo (en adelante, downwash). Si el ala está invertida, siempre que se mantenga el ángulo de ataque, el flujo de aire sigue circulando hacia abajo. De hecho, esto es exactamente lo que hace un piloto para volar en invertido: ajustar el ángulo de ataque. Y, por supuesto, el fenómeno también se produce con un ala totalmente plana como la de un avioncito de papel.

De hecho, el perfil alar es esencialmente irrelevante para la sustentación. La importancia del perfil alar está relacionada con el arrastre, y por tanto con la relación sustentación-arrastre (lift-to-drag ratio) que definirá finalmente la eficiencia del ala. Pero la sustentación a secas tiene muy poco que ver con el perfil alar y mucho con este ángulo de ataque y la formación del downwash.

¿Cuánto aire desvía hacia abajo el ala en forma de downwash? ¡Bastante! Una avioneta Cessna 172 de 1.045 kg volando a 220 km/h con un ángulo de ataque alar de 5º desvía unas trescientas toneladas por minuto; un avión grande a velocidades próximas a Mach 1, miles de toneladas por segundo. La manera exacta como se produce semejante fenómeno está muy bien explicada de forma bastante sencilla en este escrito (en inglés, me temo) redactado por David F. Anderson (que, además de físico retirado en el Laboratorio Nacional Fermi y el CERN, es piloto y entusiasta de la aviación) y Scott Eberhard, doctor en tecnología aeroespacial y diseñador para Boeing.

Flujo de aire en torno a un ala Kármán-Trefftz a 8º de ángulo de ataque.

Flujo potencial de aire en torno a un ala con perfil Kármán-Trefftz a 8º de ángulo de ataque.

¿Y por qué la formación del downwash produce sustentación? Cosas de Newton, y específicamente de su tercera ley del movimiento. Recordémosla:

“Con toda acción ocurre siempre una reacción igual y contraria: o sea, las acciones mutuas de dos cuerpos siempre son iguales y dirigidas en sentido opuesto.”

El ala provoca un cambio en el momento del aire que está desviando a razón de cientos o miles de toneladas por segundo (acción) y a cambio se produce en la misma una fuerza igual y opuesta (reacción). Si el aire está siendo desviado hacia el suelo, esta fuerza igual y opuesta empuja hacia el cielo. Eso es, exactamente, la sustentación. Así de simple.

La manera precisa como se desarrollan estos flujos de aire y la sustentación consiguiente es extremadamente compleja y se describe mediante las ecuaciones de Navier-Stokes. A pesar de esta complejidad en el detalle, algunos elementos principales de la sustentación se pueden describir de forma bastante sencilla, pues se derivan directamente de las leyes newtonianas que son centrales al fenómeno. Por ejemplo, los siguientes:

Alphajet y Mirage 2000.

Durante una exhibición en Cambrai, un caza Mirage 2000C acompaña a un avión táctico Alphajet, mucho más lento. Puede observarse cómo el piloto del Mirage ha tenido que aumentar notablemente el ángulo de ataque para mantener la sustentación a una velocidad tan baja (para su diseño). Este fenómeno no tendría sentido si la sustentación no fuera fundamentalmente dependiente del ángulo de ataque. Foto: Ian Older en airliners.net.

  • Hemos quedado en que la sustentación es una fuerza reactiva igual y opuesta a la transferencia de momento al aire ocasionada por el ala. Dado que el momento es igual a la masa por la velocidad, la sustentación es directamente proporcional a la cantidad de aire desviado y la velocidad vertical del mismo: cuanto más aire se desvíe a mayor velocidad vertical, más aumenta la sustentación, y viceversa. Por eso un ala de gran longitud a gran ángulo de ataque genera mucha más sustentación que un ala de poca superficie a poco ángulo de ataque: el ángulo de ataque determina cuál va a ser el componente vertical de la masa de aire desviada, mientras que la superficie alar define cuánto aire se desviará.
  • La masa de aire desviada es directamente proporcional a la velocidad del ala, a su longitud y la densidad del propio aire. Si la densidad del aire es baja (como sucede, por ejemplo, a gran altitud) hace falta un ala más grande o más veloz para desviar la misma masa de aire. Por este motivo, los aviones que deben volar a gran altitud tienen alas muy largas y/o motores muy potentes.
  • La velocidad vertical de la masa de aire desviada es directamente proporcional al ángulo de ataque (como ya hemos dicho) pero también a la velocidad del ala. A mayor velocidad de avance, se puede obtener la misma sustentación con un ángulo de ataque menor. Por eso, a poca velocidad (por ejemplo, durante un aterrizaje) el ángulo de ataque se incrementa mucho.
  • Conforme la carga de la aeronave aumenta, se requiere más sustentación. Eso significa que se requiere más velocidad del ala, más longitud del ala (en la práctica, más área, pues de lo contrario la carga alar será muy elevada y se romperá) y/o más ángulo de ataque.

En la sustentación aerodinámica actúa también otro efecto significativo: los vórtices. En la parte superior del ala la presión suele ser más baja que en la parte inferior. En la punta del ala, el aire tiene libertad para moverse de la zona de alta presión (debajo) a la zona de baja presión (arriba), lo que genera una fuerte turbulencia en espiral que son estos vórtices. Esto produce un componente de downwash adicional, muy intenso en el extremo del ala y más débil hacia el centro de la aeronave, que contribuye significativamente a la sustentación final (a favor o en contra dependiendo del tipo de vuelo; en los aviones, generalmente actúan en contra). Algunas aves ligeras como los colibrís y numerosos insectos son capaces de mantener vuelo estacionario exclusivamente mediante la generación de esta clase de turbulencias, batiendo sus alas (si bien a un coste energético elevado). El vuelo del frisbee es una combinación de efecto Bernoulli y sobre todo vórtices de borde de salida. Los vórtices de extremo alar son también el componente básico de la estela turbulenta que las aeronaves dejan detrás. Los winglets (esas aletitas en las puntas de las alas que llevan los aviones modernos) sirven para optimizar la generación de estos vórtices (minimizándolos, ya que en este caso actúan en contra).

Gráfica de ángulo de ataque frente a sustentación

La sustentación es una función directa del ángulo de ataque. El perfil alar, por su parte, es importante para determinar algunas de las características esenciales del vuelo, como la relación sustentación-arrastre o el ángulo crítico de entrada en pérdida.

Quisiera incidir en una cosa. Estoy diciendo todo el rato que la sustentación es fundamentalmente dependiente del ángulo de ataque, no del perfil alar, y así es. Pero eso no quiere decir que el perfil alar no tenga importancia en la fuerza ascensional final. Como ya apunté, el perfil alar es definitivo para el arrastre, que es la fuerza que se opone al empuje (recuerda el primer gráfico de este post). Si el arrastre aumenta mucho (si la relación sustentación-arrastre se reduce), el avión volará cada vez peor y finalmente no volará en absoluto. También es clave en la formación y desarrollo de la capa límite.

Vinculado con esto último, otro fenómeno de interés en este asunto es la entrada en pérdida (stall), relacionado al mismo tiempo con el ángulo de ataque y con el perfil alar. De lo dicho anteriormente podría pensarse que el ángulo de ataque se puede aumentar de manera ilimitada (hasta los 90º o cerca) para incrementar la sustentación. Sin embargo, esto no es así. La capacidad del ala para desviar el aire y producir el downwash depende de la incompresibilidad y de la viscosidad del aire; incomprensibilidad y viscosidad que tienen un límite. Dicho en términos sencillos, el ala sólo puede desviar el aire si éste se mantiene “adherido” a su superficie; a partir de cierto ángulo de ataque, el aire comienza a “desprenderse” del ala y la sustentación colapsa rápidamente. Este ángulo de ataque máximo a partir del cual el aire se separa significativamente de un determinado perfil alar se llama ángulo de ataque crítico.

La entrada en pérdida se produce habitualmente cuando una velocidad baja obliga a aumentar tanto el ángulo de ataque que éste supera al ángulo de ataque crítico (lo que a veces sucede porque las características de sustentación del ala han variado, por ejemplo mediante la acción –o inacción– de los flaps u otros dispositivos hipersustentadores). Esta velocidad mínima a la que un avión puede volar sin que el obligado ángulo de ataque supere al ángulo de ataque crítico es la velocidad de entrada en pérdida.

Una vez perdida, la única manera de recuperar la sustentación es que el ángulo de ataque caiga otra vez por debajo del ángulo de ataque crítico. Esto puede ser más complicado de hacer que de decir si a consecuencia de la pérdida el avión ha entrado también en barrena.

Un cohete Soyuz se aleja hacia el espacio por el interior de la atmósfera terrestre.

Un cohete Soyuz se aleja hacia el espacio, aún dentro de la atmósfera terrestre. La sustentación de un cohete es en su mayor parte no-aerodinámica, generada a pura fuerza de motores con un alto coste energético. Las naves espaciales sólo deben respetar las leyes de la aerodinámica mientras se encuentran en la atmósfera.

¿Y por qué vuela un helicóptero?

Se desprende de todo lo dicho que la sustentación aerodinámica depende de varias cosas. Una, de que haya un aire, esto es, un fluido gaseoso que desviar con un ala; por ejemplo, este que forma la atmósfera terrestre y que tenemos la costumbre de respirar. (Aún queda por ahí quien cree que el aire es “la nada” o “el vacío”, pero esto evidentemente no es así: aunque sea generalmente invisible al ojo, se trata de un gas compuesto por nitrógeno y oxígeno en su 99%) Aquellas naves cuyo propósito es viajar por lugares donde no hay aire, como las naves espaciales, sólo usan los principios aerodinámicos durante el lanzamiento o la reentrada en la atmósfera terrestre; durante el vuelo espacial propiamente dicho, se rigen por otra aplicación muy distinta de las leyes de Newton. Los proyectiles en general se rigen por las leyes de la balística.

Las aeronaves más ligeras que el aire, es decir los globos y dirigibles, no vuelan por sustentación aerodinámica sino por flotabilidad, siguiendo el principio de Arquímedes exactamente igual que un barco o un submarino hacen en el agua. De hecho, en inglés a los dirigibles se les llama airships: los barcos del aire. Del mismo modo, se podría decir que barcos y submarinos son los dirigibles del agua: generalmente flotan y no se van al fondo del mar matarilerilerile por flotabilidad, no por sustentación hidrodinámica. Algunos navíos en los que la sustentación hidrodinámica resulta importante para su funcionamiento son los hidroalas o, simplemente, una tabla de surf. Pero todos los buques, de superficie o submarinos, son esencialmente hidronaves más ligeras que el agua.

Entre unos y otros se encuentran los aerodeslizadores (hovercrafts) y los ekranoplanos. Ambos se comportan técnicamente como aeronaves, si bien su sustentación obedece a un efecto aerodinámico distinto: el efecto suelo. En el caso de los aerodeslizadores, se trata de un colchón de aire producido al disparar este gas directamente contra el suelo, en un efecto acción-reacción. Los ekranoplanos utilizan el efecto suelo de manera mucho más eficaz cuando se desplazan sobre el agua.

La sustentación aerodinámica (e hidrodinámica, que vienen a ser dos caras de la misma moneda) requiere además velocidad. Ya hemos visto por qué: la sustentación aerodinámica es dependiente de la velocidad del ala con respecto al aire. Si no hay velocidad, el aire no se puede desviar, no hay ángulo de ataque, no hay downwash, no hay vórtices y no hay sustentación que valga. Tanto los pájaros como los aviones, ambos más pesados que el aire, vuelan porque avanzan (si bien ya mencionamos que algunos animales muy ligeros, como los colibríes y varios insectos, pueden generar sustentación estática durante largo rato mediante la generación de vórtices de borde de ataque; eso sí, a gran coste energético).

Helicóptero a baja altitud

En este tipo de imágenes se aprecia bien el efecto causado por el “downwash” del ala rotativa (“hélice superior”) en el agua que hay debajo.

Los helicópteros no son una excepción y también obtienen su sustentación aerodinámica mediante el movimiento de su ala con respecto al aire. ¿Qué ala? Pues la pala o “hélice”, claro. Las palas de un helicóptero son sus alas, que se mueven en círculo con respecto al aire mediante un motor rotativo, generando así la sustentación exactamente igual que cualquier otra ala.

De hecho, todas las hélices son alas rotativas; incluyendo, por ejemplo, un ventilador. El airecito que nos da un ventilador no es sino el downwash aerodinámico inducido por el ala rotativa (y es bien sabido lo muy bien y muy peligrosamente que vuelan cuando se sueltan del eje, hasta que pierden velocidad). La primera máquina más pesada que el aire de la humanidad fue también un ala rotativa: el búmeran (boomerang) y diversos tipos de palos lanzables en general, mucho más antiguos que el arco y la flecha, cuyos orígenes se pierden en las sombras de la prehistoria.

De viejo fue sueño humano esto de volar, cosa de locos y visionarios. Y aunque ahora ya nos resulte natural por completo, hace apenas 227 años que los hermanos Montgolfier se elevaron al cielo con su globo, los fundamentos teóricos de la aerodinámica no fueron establecidos hasta 1799 y hubo que esperar hasta 1903 para que los hermanos Wright desarrollaran el vuelo controlado, autopropulsado y sostenido exclusivamente por fuerzas aerodinámicas de una máquina más pesada que el aire. Apenas 107 años después, volar de un lugar a otro parece haberse convertido en cosa corriente e incluso hablamos de las crisis de la aviación, olvidando a menudo que aún vive gente que conoció un mundo donde todavía no habíamos aprendido a volar.

Para más información y detalles:

Anderson, D. y Eberhardt, S. (2009), A physical description of flight, revisited (ex-Fermi National Laboratory / Boeing, resumen de  Understanding flight de McGraw-Hill, por los mismos autores). Disponible en inglés aquí.

204 Comentarios Trackbacks / Pingbacks (24)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (85 votos, media: 4,71 de 5)
Loading ... Loading ...
Be Sociable, Share!

Magia naturalis

Las ciencias naturales se dividen convencionalmente en cinco disciplinas:
física, química, astronomía, geología y biología.
Vamos a ver de dónde viene esto, por qué es así,
qué es exactamente cada una de ellas y cuál es el papel de las matemáticas en todo esto.

Microscopio

El microscopio se ha convertido en uno de los símbolos más representativos de la ciencia moderna y su filosofía subyacente.

La antigua magia naturalis –o sea, lo que hoy en día llamamos las ciencias naturales o ciencias de la naturaleza– se ha constituido en la herramienta más poderosa de adquisición de conocimiento para la humanidad, capaz de aportar lo más parecido a la verdad que nuestra especie puede alcanzar en cada momento de su historia. Además, por el poder que confiere sobre el universo natural, constituye la clave esencial del progreso aplicado y tecnológico: superada la Edad Media, sin ciencia pura no hay ciencia aplicada, sin ciencia aplicada no hay tecnología. Y sin ciencias aplicadas y tecnologías –y las nuevas formas de pensamiento que las acompañaron– seguiríamos atascados en un pasado de mierda.

Ya apuntaba maneras desde el principio, pero al final de la carrera las ciencias naturales han venido a constituirse en la máxima expresión del materialismo positivo, bajo la forma del naturalismo metodológico empírico. Estos palabros filosóficos vienen a decir algo bastante sencillo, al menos a grandes rasgos y resumiéndolo mucho: el único universo real, o al menos el único que se puede estudiar y sobre el que se puede conocer a ciencia cierta, es el universo natural (por oposición al sobrenatural); y la única manera fiable de conseguirlo es a través del método científico.

No siempre fue así. Hubo un tiempo en que ciencia, filosofía, religión (y política) fueron indistinguibles. Tardamos bastante tiempo en aprender a separar unas de otras, con mayores y menores aciertos, pero al final fuimos capaces de separar el trigo de la paja y quedarnos con lo que funcionaba. Entre esas cosas que funcionan, la ciencia alcanzó pronto un lugar central. Hay quien discute la sabiduría de esta separación, pero lo cierto es que… bien, eso, funciona. Y funciona estupendamente bien.

Desde bien temprano, esta magia naturalis –la poderosa magia de la ciencia, esa que hace volar naves espaciales y salva a los niños de la viruela– se dividió a su vez en varias especialidades o disciplinas que trataban de estudiar algún aspecto específico de la realidad. Aunque al principio, esta diferenciación era muy pequeña e incluso indistinguible. Las expresiones más antiguas de la ciencia que se recuerdan son las tecnologías agropecuarias y, de manera inseparable, el estudio de los astros. Sin el estudio de los astros –el sol, la luna, las estrellas– no se puede elaborar un calendario; y sin un calendario, tus cosechas van a ser más bien chuchurrías. Los calendarios astronómicos nos acompañan desde los principios de la historia, y resulta bastante probable que algunas estructuras prehistóricas como el círculo de Goseck (4.900 aC), Mnajdra inferior (ca. 3.000 aC), el crómlech de Nabta Playa o el más conocido  Stonehenge (ca. 2.600 aC) desempeñaran al menos una función parcial en este sentido.

Durante un buen periodo de tiempo, la astronomía con sus predicciones y las técnicas de adivinación hoy genéricamente conocidas como astrología fueron la misma ciencia, estrechamente relacionada con las matemáticas. Porque las matemáticas son también muy antiguas. Bueno, de hecho son antiguas de narices: nos dimos cuenta muy pronto de que algunas cosas de la naturaleza parecían seguir unas reglas que se podían medir y contar. El indicio más antiguo de un objeto para uso matemático es el hueso de Lebombo, en la actual Suazilandia, que tiene algo así como 35.000 años y podría constituir un calendario lunar. Hay quien dice que este y otros objetos similares parecen singularmente aptos para calcular el ciclo menstrual femenino, con el propósito de adquirir alguna clase de control sobre su ciclo reproductivo y por tanto sobre la demografía de la población; si esto se demostrara cierto, sería un origen de lo más interesante para el primer calendario, las primeras matemáticas y la primera ciencia.

Hueso de Lebombo

El hueso de Lebombo, con unos 35.000 años de antigüedad, encontrado en la actual Suazilandia (cueva Border, cordillera Lebombo). Sus 29 marcas, similares a las encontradas en otros lugares más tardíos, podrían corresponderse con un calendario lunar. En ese caso, se trataría del artilugio científico más antiguo de la Humanidad. Uno de los pocos usos prácticos que una cultura prehistórica de interior podría encontrar para seguir un calendario lunar es el cálculo del ciclo menstrual femenino.

Contando cosas aquí y allá, en algún momento nos dimos cuenta de que parecían existir correlaciones entre esas cuentas: leyes o al menos reglas generales que se podían aplicar a distintos ámbitos de la realidad. La más fundamental de esas reglas es que todos los objetos materiales que nos rodean se pueden contar de la misma manera, sin importar su naturaleza. Podemos contar personas, cabezas de ganado, árboles, el número de rayos en una noche de tormenta, hasta los granos de arena de una playa con el suficiente tiempo y método. Por tanto, comenzamos a utilizar unas abstracciones universales aplicables al conjunto de la realidad natural, a las que cierto día decidimos llamar números.

Y también nos dimos cuenta de que las leyes que regían las relaciones entre esos números valían para todos los casos, para todo el cosmos. Dos más dos son cuatro, siempre son cuatro, y da igual que sean piedras, monedas, días o estrellas. El orden de los factores no altera el producto, sea lo que sea que estemos multiplicando: siempre es así. Cualquier número dividido por sí mismo da siempre uno, sin importar qué dividimos entre qué cosas: nunca falla. La geometría y el álgebra ayudaron no poco. Este descubrimiento es probablemente el avance más fundamental de toda la historia de la humanidad, y la clave esencial de la ciencia moderna: unas reglas universales que el ser humano puede conocer, aplicables a todos los ámbitos de la realidad natural sin excepción alguna. O sea, las matemáticas.

Sin matemáticas, estamos ciegos por completo. Sin matemáticas, el cosmos entero es un batiburrillo que no se puede entender, regido por fuerzas ignotas y temibles. Con las matemáticas, comenzamos a comprender, comenzamos a aprender. Eso viene a querer decir mathematiké en griego antiguo: aquellas cosas que no se pueden saber sin ser aprendidas. (Por oposición a musiké, o sea aquello que se puede entender de manera innata) Así, prácticamente toda la ciencia que vino después, casi todo lo que sabemos con seguridad sobre este mundo y este universo, es mathematiké.

Gráfico relacional de las distintas ciencias

Gráfico relacional de las distintas ciencias naturales y algunas aplicadas. Sobre un "fondo" matemático, existe un universo natural (estudiado globalmente por la física), con determinados ámbitos especializados que constituyen el campo de estudio de la astronomía, la química, la geología y la biología. Sobre este "sustrato de ciencias básicas", estrechamente interrelacionado, se desarrollan ciencias aplicadas como las ingenierías y tecnologías o la medicina; que a su vez aportan también nuevas herramientas y conocimientos adicionales al sustrato. Así, el conjunto se comporta como una "red neuronal" fuertemente inteconectada; por ello, a menudo, un avance significativo en un campo se traduce en avances en muchos de los demás (y cuanto más cerca del sustrato, más. Por ejemplo, no es raro que un avance importante en física influya todas las demás ciencias tanto naturales como aplicadas, mientras que es más raro que un avance importante en medicina alcance directamente a la geología o la astronomía).

Stonehenge

La astronomía fue la primera de todas las ciencias. Monumentos megalíticos como Stonehenge desempeñaban, con gran probabilidad, una función astronómica al menos parcial.

Ciencias básicas.

Sobre este sustrato mathematikós, a lo largo de nuestra historia han ido surgiendo distintas ciencias; normalmente las dividimos en ciencias básicas o fundamentales y ciencias aplicadas. Como su nombre indica, las ciencias básicas o fundamentales pretenden aprender de qué manera funciona el universo, en general y en cada campo específico; mientras que las ciencias aplicadas están orientadas a utilizar este conocimiento para seguir avanzando, comúnmente a través de la técnica y las tecnologías. La técnica y las tecnologías, por su parte, aportan nuevas herramientas y conociminentos al sustrato de ciencia básica; con lo que todo el conjunto es como un círculo que se retroalimenta a sí mismo una y otra vez. De este hecho se desprende algo que mucha gente (políticos y votantes) no entienden: la ciencia es un conjunto cuyos elementos están estrechamente inteconectados y cada uno depende de los demás para seguir progresando. Si una rama básica de la ciencia se estanca, todo el conjunto se estanca, con las conocidas consecuencias de atraso, ignorancia, miseria y sufrimiento para todo el mundo.

Cuanto más básica es una ciencia, más esencial resulta en este proceso. Pongamos un ejemplo. Si la ingeniería o la medicina sufren un periodo de estancamiento, es malo y tiende a retrasar todo el conjunto, pero la química o la física tardarán en verse afectadas (y normalmente aportarán soluciones cuando avancen lo suficiente). En cambio, si la física o la química sufren un periodo de estancamiento, entonces todo lo demás se retrasa sin remisión (incluyendo a la ingeniería o la medicina). Por eso las consideramos básicas o fundamentales. Estas ciencias básicas, además de las matemáticas (que se suele calificar como una ciencia exacta pura), son estas:

LHC

Actualmente, en instrumentos extraordinariamente sofisticados como el LHC seguimos descubriendo las "cosas que deben ser aprendidas" (mathematiké).

  • Astronomía, cuyo campo de estudio son los astros, su naturaleza y sus movimientos (incluyendo los del astro que llamamos Tierra). Como ya he mencionado, la astronomía fue la ciencia original, de la que emanaron fundamentalmente todas las demás y muy especialmente una parte significativa de nuestro sustrato físico-matemático. A partir del siglo XVII –con la revolución heliocéntrica– se separó de su antecesora, la astrología; y para el siglo XIX ya había tomado definitivamente su propio camino. Aunque la “astronomía clásica” ha perdido algo de su influencia central sobre el conjunto de las ciencias básicas, sigue realizando una aportación imprescindible a través de la astrofísica.
  • Física, cuyo campo de estudio es… todo. :-D La física escudriña la naturaleza y propiedades del tiempo, del espacio, de la materia, de la energía, de la información y las interacciones entre todo ello; que es decir el conjunto de la realidad natural, del universo físico. Por ello, muchos la consideran la ciencia central, totalmente inseparable de la matemática; matemática y física viajan juntas, son dos caras de la misma moneda, y cada una resulta incomprensible sin la otra. Sin embargo, su campo de estudio resulta tan amplio que es preciso desglosar algunas de sus especialidades en disciplinas separadas, como las siguientes:
  • Química, que se concentra en el estudio de la materia y sus interacciones entre sí misma y con la energía. Se originó fundamentalmente en la alquimia, de la que se separararía también entre los siglos XVII y XIX, a partir de los trabajos de Boyle, Lavoisier y Dalton. En la actualidad, interacciona fuertemente con la física a través de la fisicoquímica, con la biología mediante la bioquímica y con la geología por la vía de la geoquímica. Como “portadora del conocimiento físico” al campo de la materia y energía más inmediatas, resulta esencial en la práctica totalidad de las ciencias aplicadas y las tecnologías, desde la electrónica hasta la farmacología clínica, pasando por la nanotecnología o los nuevos materiales.
  • Geología, que tiene como campo de estudio la materia y energía que constituyen el planeta Tierra (por el momento…). O sea, que estudia las piedras, pero no hay que olvidar que nuestro planeta y todos los demás planetas y lunas son… piedras. Al comenzar a comprender cómo es y cómo se formó este piedro en el que vivimos, comenzamos a comprender todos los demás piedros del cosmos y el origen y evolución de los mismos, lo que resultaría clave para el progreso de la física. La geología es muy antigua, primero como disciplina aplicada precientífica de uso en minería o arquitectura y luego como ciencia fundamental, sobre todo a partir de Hutton y Lyell (si bien existe una intrigante geología islámica medieval, hasta el extremo de que muchas veces se considera a Avicena el “padre de la geología”). La geología también está estrechamente relacionada con la biología, al aportar el conocimiento sobre el sustrato material sobre el que se desarrolla la vida.
  • Biología, orientada al estudio de un tipo de materia muy particular: la materia viva (y eso nos incluye a ti y a mí, claro). A diferencia de las demás, se trata de una ciencia muy moderna cuyos antecedentes son más oscuros y casi totalmente centrados en el ámbito de la anatomía o la botánica. Realmente no se puede empezar a hablar de una biología como la que conocemos hasta los siglos XVII y XVIII, y realmente no encontró su lugar en el orden cósmico hasta el XIX, con Darwin, Mendel y la teoría celular. Las leyes de la vida resultaron ser demasiado sutiles, demasiado sofisticadas para nuestros antepasados y aún nosotros peleamos por comprender algunos aspectos inmediatos (¡eso significa que quedan cosas chulas por aprender sin irse muy lejos!). Estrechamente emparentada con la geología y la química, la biología está proporcionando grandes resultados en ciencias aplicadas como la medicina, la agronomía, la veterinaria… y también la astrobiología, junto a la astrofísica, la astroquímica y la astrogeología lo que cierra el círculo cósmico de estas ciencias fundamentales.
HTC

La ciencia aplicada suele plasmarse a través de la tecnología, pero también mediante las técnicas aplicadas a todos los campos.

Ciencias aplicadas.

Por su naturaleza natural, todas las ciencias tienen aplicaciones prácticas inmediatas, incluso sin intermediación alguna. Obsta mencionar lo que hacen la química, la biología o la geología por nosotros a diario. La física es todo; en el orden más inmediato, a ver cómo resuelves un sistema de producción y distribución eléctrica o una red de telecomunicaciones sin aplicarla directamente. Sin astronomía, no hay calendarios, ni navegación, ni cosechas y además está detrás de todo, aportándonos constantemente una perpectiva de conjunto única. Y las matemáticas… pues qué vamos a decir: que están detrás de todo, desde la cuenta del bar, la contabilidad de tu empresa, tu cuenta corriente o la fecha de tu cumpleaños hasta los extremos más remotos de la física teórica.

La diferencia sustancial entre las ciencias fundamentales y las ciencias aplicadas es, pues, una cuestión de matiz. Eso sí, un matiz de cierta envergadura. En el mundo contemporáneo, la función primaria de la ciencia fundamental es crear conocimiento, tenga o no una aplicación inmediata (aunque cuando la tiene, que es casi siempre, resulta sin duda muy bienvenido). Mientras que la función primaria de las ciencias aplicadas es utilizar todo ese conocimiento más el que generan por sí mismas en usos prácticos directos, normalmente a través de técnicas y tecnologías.

Por su enorme utilidad inmediata, la mayor parte de las ciencias aplicadas tienen una historia precientífica propia, pues la necesidad existía desde mucho antes de que hubiera una ciencia básica fiable para servirles de sustrato. Y precisamente por su sentido eminentemente práctico, orientado a la obtención de resultados inmediatos, desarrollaron algunas herramientas y avances naturalistas que luego resultarían esenciales en el surgimiento de las modernas ciencias fundamentales. En el presente y ya para siempre, las ciencias fundamentales se lo devuelven aportándoles conocimientos básicos muy avanzados que han permitido su extraordinario desarrollo hasta extremos que difícilmente sus practicantes de antaño habrían podido soñar. Las ciencias aplicadas son muchas, pero entre las más duras se encuentran las siguientes:

Medicina en la antigua Grecia

La medicina es, con toda probabilidad, la ciencia aplicada que ha sido percibida como de mayor utilidad práctica inmediata a lo largo de la historia. Sin embargo, al igual que todas, depende de las ciencias fundamentales para poder avanzar.

  • Medicina, veterinaria y farmacología. Qué quieres que te cuente de estas ciencias que no sepas ya. ¿Que tu esperanza de vida se ha duplicado y pico en los últimos cien años? ¿Cuántos paralíticos de polio has visto últimamente por la calle? ¿Y ciegos de viruela? ¿Cuántas jovencitas se te han muerto de tisis? ¿A cuántos entierros de niños y bebés has ido en los últimos años (salvo pésima, pésima fortuna)? ¿Cuánto hace que no se te muere nadie por una intoxicación alimentaria? Pues hasta hace bien poco, eso era la cotidianeidad. Todo eso y mucho más es la obra gigantesca de las ciencias médicas… que sólo acaba de empezar.
  • Ingenierías. Las ingenierías son las que desarrollan las tecnologías y construyen los productos o servicios finales. Toda clase de tecnología, producto o servicio: industrial, civil y arquitectónica, electrónica e informática o de telecomunicaciones, aeroespacial, agropecuaria, químicalo que se te ocurra. El desarrollo de tecnologías suele constituir el último paso entre la ciencia y la sociedad, y por tanto acostumbra a resultar el más visible y apreciado. Todo el mundo entiende de inmediato para qué sirve un ingeniero y si no, lo capta tras una breve explicación; no todo el mundo comprende fácilmente la utilidad de un físico teórico, un geoquímico o un astrobiólogo. Entre las ingenierías también se cuenta a veces la gestión y administración.
  • Las llamadas “ciencias blandas” (como la economía, la psicología, las ciencias jurídicas, las ciencias políticas, ciertas aproximaciones a la historia y otras). La expresión ciencias blandas se entiende a veces de manera peyorativa (por oposición a las “ciencias duras”, pata negra), pero esto no es necesariamente así siempre o ni siquiera a menudo: resulta una manera bastante visual de representar su menor grado de adscripción al método científico más estricto y en consecuencia su menor capacidad predictiva (yo puedo afirmar con rotundidad que una masa se verá atraida por otra masa, y apostar mi vida a que sucederá siempre –lo hacemos a diario inconsciente pero constantemente–; esta clase de afirmaciones predictivas resulta mucho más problemática en estas otras ciencias). Sin embargo, su interés práctico evidente en una multitud de campos es bien conocida y permite incluirlas en el conjunto de las ciencias aplicadas.

Por estos motivos de utilidad práctica inmediata, las salidas laborales de numerosas ciencias aplicadas suelen ser bastante extensas, y según épocas y especialidades su labor se valora bastante bien en el mercado. Los científicos fundamentales, en cambio, suelen encontrarse más a menudo en el ojo del huracán: normalmente dependen de la siempre voluble financiación pública (pocas empresas privadas invierten en la adquisición de conocimientos a los que no se puede extraer un beneficio económico directo), sus conclusiones no son siempre aceptadas de buen grado por todo el mundo, la sociedad percibe los beneficios de su labor de manera más remota y a menudo ganan menos pasta por más trabajo; por ello, la ciencia básica tiene bastante de vocación. Sin embargo, ambos grupos son absolutamente imprescindibles para que la humanidad siga avanzando y de hecho, como ya comenté, un estancamiento en ciencia fundamental conlleva un efecto mucho más grave sobre el conjunto del progreso humano que en cualquier otro caso.

Una nota sobre la percepción social de la ciencia básica, las ciencias aplicadas y las tecnologías.

El problema de la percepción social de las ciencias puras, aplicadas y tecnologías.

El problema de la percepción social de las ciencias puras, aplicadas y tecnologías. Las tecnologías son ubicuas y la sociedad percibe directamente sus logros y beneficios, sin necesidad siquiera de intermediarios, con una utilidad práctica cotidiana evidente. Las ciencias aplicadas ya se ven un poquito más de refilón, y a veces con mayor desconfianza, pues normalmente sólo se las ve trabajar "en directo" en situaciones más excepcionales. El trabajo cotidiano de las ciencias básicas o fundamentales resulta invisible por completo para el conjunto de la sociedad, a menos que medie interés particular o se produzca un gran avance o descubrimiento que llegue a los medios de comunicación (y que normalmente se encuentra en el borde de lo que sabemos y suele parecer remoto y de poca utilidad práctica). Esto produce un efecto sociopolítico y económico en el que las tecnologías son generalmente conocidas, aceptadas y apreciadas, mientras que las ciencias que hay detrás se ignoran y a veces incluso inspiran desconfianza o minusvaloración, tanto más cuanto más fundamentales son.

Y esto representa un problema significativo en las sociedades contemporáneas, sobre todo cuando escasean los recursos económicos. En ciertos periodos, como la Guerra Fría, los estados realizan grandes inversiones en ciencia fundamental (y también en aplicada y en tecnología) con o sin la aprobación general del público. Esto seguramente no resulta muy democrático, pero es que cualquier persona con dos dedos de frente en una posición de poder entiende rápidamente que quedarse atrasados en ciencia fundamental representa “romper el triángulo” y quedarse atrasados en todo lo demás, con el evidente peligro de resultar derrotados en lo que quiera que se esté peleando.

Uruk en la actualidad

Uruk, una de las cunas de la civilización, en la actualidad. La historia no espera a nadie.

En tiempos como los actuales, donde la batalla parece ser económica por conseguir el máximo beneficio con el mínimo coste, resulta obvio que los principales actores no tienen muchos motivos para invertir en ciencia fundamental. En tiempos de crisis, además, los estados se ven presionados para reducir el gasto público y la ciencia básica suele contarse entre sus primeras víctimas, debido precisamente a que no se percibe como fundamental. Lo importante es el próximo consejo de administración, las próximas elecciones. Y a fin de cuentas, ¿qué pasa si avanzamos un poco más lento o incluso retrocedemos un poco, eh?

Pues pasan dos cosas. La primera es que un avance más lento o un retroceso de la ciencia se traduce inmediatamente en sufrimiento humano, y además de una forma singularmente interclasista. Si una técnica médica no se desarrolla, no se desarrolla ni para el hambriento de África Central ni para los hijos de los dueños de “los mercados”. Si no hay energía más barata y ecológica, no la hay ni para fabricar magdalenas de tres bolsas a un euro ni para producir coches de lujo. Si no surge una nueva tecnología de materiales que permita hacer aviones más seguros, no surge ni para Air Low Cost ni para Luxury Airlines. El estancamiento de la ciencia se traduce rápidamente en una vida peor para todos. A fin de cuentas, por mucho dinero que tengas, sólo puedes comprar lo que existe.

Pero es que, además, el estancamiento o retroceso científico es la manera más eficaz de irnos (casi) todos al pozo en términos económicos. Las sociedades que se estancan o retroceden también se arruinan en la parte de los dineros, un hecho sobradamente conocido a lo largo de toda la historia humana; esto es cierto para cualquier estancamiento o regresión, pero resulta especialmente cierto con los estancamientos o regresiones científico-técnicas. Por el contrario, los grandes avances científico-técnicos siempre se han traducido en una mayor creación de riqueza para todos. Querer salir de una crisis recortando la inversión científica es como querer salvar un barco que se hunde desmontando la quilla para tapar el agujero con las planchas. Es pobreza y dependencia garantizadas.

Magiæ naturalis, la magia natural. Así tituló Giambattista della Porta a uno de los primeros textos de divulgacion científica –o precientífica– de la época moderna; y bajo tal nombre se empezó a enseñar en la Universidad de Bolonia durante el siglo XVI, a instancias del filósofo Pietro Pomponazzi, esa nueva magia empírica que se diferenciaba de la filosofía y la religión. Magia naturalis, ciencia natural, ciencia. Dice el diccionario de la Real Academia Española que la magia natural es aquella que por medios naturales obra efectos que parecen sobrenaturales. Difícilmente se podría encontrar una descripción mejor.

300 Comentarios Trackbacks / Pingbacks (4)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (66 votos, media: 4,77 de 5)
Loading ... Loading ...
Be Sociable, Share!

Proliferación de armas de destrucción masiva

¿Qué son realmente las armas de destrucción masiva?
¿Cuántas hay? ¿Quién las tiene? ¿Qué pasa con su proliferación?

Gernika bombardeada.

El bombardeo de Gernika por la aviación nazifascista aliada de Franco, el 26 de abril de 1937, inspiró al arzobispo de Canterbury para acuñar la expresión "armas de destrucción masiva". Foto: Deutsches Bundesarchiv.

Ha sido uno de los clichés más determinantes en la política y la propaganda de esta primera década del siglo XXI: las llamadas armas de destrucción masiva y su posible proliferación a estados problemáticos o grupos terroristas se han convertido en una especie de mantra que vale para todo y lo justifica todo. Sin embargo, el asunto presenta muchos más matices y recovecos de lo que seguramente les gustaría a quienes utilizan esta expresión esperando que todo el mundo se obre encima de miedo y suplique salvapatrias. O salvamundos. Para empezar, ¿qué son realmente estas armas de destrucción masiva? ¿Cuántas hay? ¿Quién las tiene? ¿Y qué pasa exactamente con su proliferación?

Armas de destrucción masiva.

El primer uso documentado de la expresión armas de destrucción masiva corresponde al arzobispo anglicano de Canterbury y Primado de Inglaterra Cosmo Gordon, en 1937, refiriéndose al bombardeo nazifascista de la localidad vasca de Gernika y el inicio de la Segunda Guerra Sino-Japonesa:

¿Quién puede pensar en este momento, sin que el corazón se le enferme, sobre la masacre terrible, el sufrimiento, las múltiples miserias que la guerra ha llevado a España y a China? ¿Quién puede pensar sin horrorizarse sobre lo que significaría otra guerra generalizada, librada como sería con todas estas nuevas armas de destrucción masiva?

–”Llamamiento del arzobispo”, The Times (Londres) 28 de diciembre de 1937, pág. 9.

Durante los años siguientes, armas de destrucción masiva continuaría siendo prácticamente sinónimo de bombardeo en alfombra. Esta táctica bélica, consistente en el lanzamiento de un gran número de bombas convencionales de aviación contra un área general para alcanzar uno o varios objetivos particulares, presenta ya la característica principal del concepto: una notoria desproporción entre la fuerza empleada y la entidad del objetivo militar declarado, con enormes daños colaterales y el añadido de un factor sociológico de terror y desmoralización entre los civiles considerados enemigos. Estaríamos, pues, ante una forma de terrorismo de estado a gran escala.

La catedral de Coventry tras el bombardeo.

La catedral de Coventry tras el bombardeo alemán del 14 de noviembre de 1940. Los graves daños sufridos por esta localidad británica acuñaron el término "coventrizar una ciudad"; la decisión nazi de bombardear así las ciudades aliadas durante la primera fase de la Segunda Guerra Mundial desencadenaría una represalia colosal, que se saldó con las inmensas tragedias de Hamburgo, Dresde, Tokio, Hiroshima o Nagasaki. La frase "armas de destrucción masiva" adquiría así un significado nuevo y aún más terrible.

Hasta casi finales de la Segunda Guerra Mundial, se mantendría esta identificación de las armas de destrucción masiva con el bombardeo estratégico mediante aviones o cohetes convencionales de distintos tipos. De hecho, las máximas expresiones de destrucción masiva en un acto bélico siguen siendo ataques de este tipo realizados durante este conflicto, fundamentalmente por las fuerzas aéreas de los Estados Unidos y el Reino Unido. El bombardeo incendiario de Tokio a manos de la aviación norteamericana, en la noche del 9 al 10 de marzo de 1945, continúa siendo la mayor matanza concentrada de civiles en un solo acto destructivo de la historia de la humanidad: en torno a cien mil personas perecieron en menos de tres horas (cifra oficial: 83.000; según los bomberos de Tokio: 97.000), unas cuarenta o cincuenta mil resultaron heridas y un millón se quedaron sin casa.

Hamburgo bombardeada

Hamburgo tras los grandes bombardeos que sufrió. Foto: Imperial War Museum.

Nagasaki antes y después del ataque atómico.

Nagasaki antes (arriba) y después (abajo) del ataque atómico. Foto: United States Strategic Bombing Survey. (Clic para ampliar)

Como es sobradamente conocido, este conflicto terminó con otras dos grandes matanzas perpetradas por las fuerzas estadounidenses con un nuevo tipo de arma: los bombardeos atómicos de Hiroshima y Nagasaki, hasta el día de hoy el único uso de armamento nuclear en una guerra real. Aunque el número de víctimas inmediatas fue menor (entre otras cosas, porque se trataba de armas muy primitivas lanzadas sobre localidades más pequeñas), la cifra final por fallecimiento de heridos y enfermos resultó bastante mayor: entre 150.000 y 246.000 (de 90.000 a 166.000 en Hiroshima y de 60.000 a 80.000 en Nagasaki; aunque la bomba de Nagasaki era bastante más potente, se desvió hacia un área industrial, estalló más lejos del centro urbano y las colinas alrededor del río Urakami hicieron de escudo para zonas significativas de la ciudad). Las muertes instantáneas fueron de 70.000 a 80.000 personas en Hiroshima y de 40.000 a 70.000 en Nagasaki, civiles en su inmensa mayoría.

Sin embargo, la proporción de mortandad fue inmensamente mayor que en cualquier otro caso anterior. Durante la noche del gran bombardeo incendiario de Tokio, residían en la capital nipona unos seis millones de personas; aceptando la cifra de los bomberos (97.000 muertos), pereció el 1,61% de la población. En otros grandes bombardeos, las cifras fueron algo superiores: el 2% en Dresde (25.000 muertos de 1.250.000 habitantes: 645.000 de preguerra y unos 600.000 refugiados), el 3,3 % durante la Operación Gomorra contra Hamburgo (37.000 muertos de 1.130.000 habitantes) o el 4,2% en Kassel.

En el bombardeo atómico de Hiroshima fue aniquilado instantáneamente el 22% de la población y el 47% como resultado de los efectos secundarios (75.000 y 166.000, respectivamente, de 340.000-350.000 habitantes). Esto es, un orden de magnitud más que en los grandes bombardeos convencionales: entre once y veintitrés veces más que en Dresde, entre siete y catorce veces más que en Hamburgo. Aunque Nagasaki “salió peor” (desde el punto de vista de los atacantes), la mortandad instantánea fue del 15-28% y la total, del 30-32%. Todo ello, con bombas precarias llevadas a correprisas a la guerra.

Así se entiende fácilmente que el concepto arma de destrucción masiva pasó de ser sinónimo del bombardeo de alfombra a significar, en buena medida, “arma nuclear”. Parece que los primeros en definir así esta nueva clase de bombas fueron los soviéticos, con la expresión оружие массового поражения (literalmente, “armas de destrucción masiva”), aunque en los Estados Unidos había comenzado a utilizarse también armas adaptables para la destrucción masiva. En 1947, Oppenheimer establecería definitivamente la expresión en Occidente. Hoy en día, las armas nucleares y termonucleares siguen considerándose los máximos representantes de este tipo de armamento.

Pero no los únicos. Generalmente se acepta que las armas químicas y biológicas forman también parte de este concepto, por su carácter incluso más indiscriminado y su capacidad de matar o herir a numerosas personas y otros seres vivos más allá de la supresión del objetivo militar declarado. Las armas químicas son sustancias tóxicas que se dispersan para envenenar al enemigo, mientras que las biológicas consisten en microorganismos causantes de enfermedades que buscan su incapacitación. Ambas se han utilizado desde tiempos remotos. El envenenamiento de las flechas, que puede considerarse un tipo de arma química, data de la Prehistoria; lanzar cadáveres en descomposición a las ciudades sitiadas, o enviar a víctimas de enfermedades infecciosas a territorio del oponente para provocarle epidemias, son técnicas militares que se vienen usando al menos desde los orígenes de la civilización.

Víctimas del bombardeo químico de Halabja.

El último gran ataque químico contra civiles fue perpetrado por las fuerzas iraquíes contra la población kurda de Halabja, el 16 de marzo de 1988, en el contexto de la guerra Irán-Iraq. Aunque en un principio se intentó echar la culpa a Irán, finalmente quedó determinado que había sido realizado por el Iraq de Saddam Hussein, entonces aliado de Occidente. Para la masacre, que causó 15.000 víctimas, se usó tecnología química estadounidense, alemana y de otros países. En la foto, un periodista iraní documenta la matanza.

Las armas químicas y biológicas se consideran habitualmente menos eficaces y destructivas que las armas nucleares, y más fáciles de contrarrestar con técnicas modernas. La vacunación, la cuarentena y el simple reparto de máscaras antigás a la población reduce enormemente sus efectos. Excepto por algunas armas biológicas muy especiales, su diseminación efectiva resulta más complicada de lo que parece y exige algo parecido a un gran bombardeo convencional para hacerlo a escala significativa; en este blog ya hablamos, por ejemplo, del “ántrax” y sus peculiaridades.

Se incluye también normalmente a las armas radiológicas o bombas sucias entre las de destrucción masiva. Hay quien las considera un tipo de arma nuclear, pero en realidad se parecen muchísimo más a un arma química, sólo que sustituyendo la sustancia tóxica por una sustancia radioactiva; en todo lo demás, no se diferencian gran cosa de las químicas y presentan ventajas e inconvenientes muy similares. Aunque es posible diseñar un tipo de arma nuclear-radiológica extremadamente aniquiladora, la llamada bomba del juicio final, no consta que se haya construido nunca una y requiere disponer primero de un arma atómica para hacerlo. Por el extremo contrario, una bomba atómica pobremente diseñada o construida que diera lugar a un chisporroteo de baja o mediana energía podría considerarse técnicamente un tipo de arma radiológica.

Otras personas discrepan de que las armas nucleares, químicas-radiológicas y biológicas sean las únicas de destrucción masiva, o incluso las más representativas. Señalan que su uso resulta excepcional, prácticamente inexistente, y su espectacularidad contribuye a disimular los mecanismos más habituales de muerte violenta en el mundo. Organizaciones como Oxfam Internacional, Amnistía Internacional o IANSA aducen por ejemplo que la humilde bala sirve para matar a quinientas mil personas al año: una Hiroshima cada cuatro meses. Según el Comité Internacional de la Cruz Roja, las minas antipersonales matan y amputan a entre 8.000 y 24.000 personas al año, la mayoría niños, con el mismo carácter indiscriminado y mayor crueldad que las armas de destrucción masiva más glamurosas.

Por su parte, la munición de racimo olvidada tras los conflictos tiene efectos parecidos. Recientemente, la Convención contra las Municiones de Racimo ha sido firmada por 105 países y ratificada por 47; por desgracia, entre estos no se encuentra ninguno de los principales fabricantes de armamento. Lo mismo sucede con el Tratado de Ottawa contra las minas antipersonales.

Armas nucleares en el mundo, 2010.

Armas nucleares en el mundo, 2010. Rusia: 12.000 (4.650 activas, de las cuales 2.600 son estratégicas). Estados Unidos: 9.600 (2.468 activas, de las cuales 1.968 son estratégicas). Francia: ~300 (todas activas). China: 240 (~180 activas). Reino Unido: 225 (menos de 160 activas). Israel: 80 (estimadas). Pakistán: 70-90 (estimadas). India: 60-80 (estimadas). Corea del Norte: menos de 10 (estimadas). Fuente de los datos: Federation of American Scientists. (Clic para ampliar)

Proliferación y reducción.

Al igual que el concepto arma de destrucción masiva es discutido, el de proliferación también tiene sus detractores debido a una variedad de motivos. El más común es que parece restringir el “derecho de posesión” a los países que ya disponen de ellas, poniendo el foco –y el rechazo– de la opinión pública sobre países pequeños y relativamente indefensos mientras lo aleja de los grandes y poderosos que disponen de miles de ellas muchísimo más avanzadas. Esto crearía estados de primera con privilegios especiales, estados de segunda con los que se tiene tolerancia y estados de tercera a los que echar a los perros, una discriminación notablemente injusta.

Esta discrepancia no carece de mérito, si bien resulta oportuno hacer algunas precisiones. Por un lado es cierto que, por ejemplo, el Tratado de No-Proliferación Nuclear de 1968 reconoce el derecho de posesión de armas nucleares a cinco países: Estados Unidos, Rusia (como estado sucesor de la Unión Soviética), el Reino Unido, Francia y la República Popular China. Así expresado, parece claramente una injusticia y sorprende que lo haya firmado todo el mundo menos Israel, India y Pakistán (más Corea del Norte, que lo denunció en 2003): ¿qué tienen estos países que no tengan otros?

Bueno: es que el Tratado de No-Proliferación no se consideraba un fin en sí mismo, sino un medio para comenzar el proceso de desarme nuclear en conjunción con otros convenios internacionales. Es, por expresarlo de algún modo, un acuerdo de contención temporal; algo así como “impidamos que sigan surgiendo potencias nucleares, para facilitar que quienes ya lo son reduzcan o incluso eliminen en el futuro sus arsenales”. Sin duda resulta más imaginable el desarme nuclear en un mundo donde no hay amenazas atómicas por todas partes; además, poner de acuerdo a cinco es más fácil que poner de acuerdo a cincuenta.

No se puede olvidar que el Tratado de No-Proliferación se firmó durante los años más duros de la Guerra Fría. Habría sido poco realista esperar que los poseedores de armas nucleares renunciaran a ellas de la noche a la mañana. Sin embargo, funcionó, al menos en parte: inmediatamente a continuación vinieron los Acuerdos SALT (1969-1979) y el de Misiles Anti-Balísticos (1972), lo que después permitiría el de Misiles de Alcance Intermedio de 1987, los START I y II de 1991 y 1993, el SORT de 2003 o el nuevo START de 2010 (y la revisión de este mismo año al Tratado de No-Proliferación original). Así, hemos pasado de las 75.000 armas nucleares de la Guerra Fría a las 22.600 del presente (7.700 operacionales y el resto en almacenamiento). El nuevo START pretende reducir el número de cabezas estratégicas activas a la mitad. No es ninguna maravilla, pero probablemente resulta mejor que lo que había y difícilmente se habría logrado en un mundo con una proliferación generalizada.

Submunición estadounidense de dispersión biológica E120.

Submunición estadounidense de dispersión biológica E120, retirada del servicio a finales de los años '60. Los problemas de dispersión limitan significativamente la eficacia de las armas químicas y biológicas.

Más éxito parece estar teniendo la Convención de Armas Químicas de 1993, cuyo propósito es la erradicación completa de las mismas. Sólo quedan siete países que no hayan ratificado el tratado: Israel, Myanmar, Angola, Egipto, Corea del Norte, Somalia y Siria. El resto del mundo, incluyendo de forma muy significativa a los grandes poseedores (Estados Unidos y Rusia, con 31.500 y 40.000 toneladas respectivamente) participan en este proceso de desarme. Las sesenta y cinco fábricas de armas químicas letales declaradas han sido desactivadas; cuarenta y dos se han destruído y diecinueve se han reconvertido para uso civil; los arsenales existentes se están destruyendo a buen ritmo. Existen bastantes motivos para pensar que llegaremos a 2012 con una cantidad muy reducida de armamento químico en el mundo.

El estado del armamento biológico es más ambiguo. Si nos guiamos por las declaraciones públicas, nadie reconoce fabricarlo, nadie reconoce poseerlo y nadie lo ha usado en las últimas décadas. En ese sentido, la Convención de Armas Biológicas habría tenido un éxito notable. La pura verdad es que, salvo en algún periodo histórico, nunca fueron excesivamente populares; y con la llegada del arma nuclear, han ido quedando relegadas a un papel de arma de pobres. No obstante, existen motivos para sospechar que se mantienen activos al menos algunos programas de investigación defensiva que probablemente trasciendan los límites de la defensa (más detalles, sobre diversos países, en el artículo sobre el “ántrax”).

Una proliferación paralela a la de estas armas de destrucción masiva es la cada vez más ubicua presencia de misiles de largo alcance. A fin de cuentas, ningún arma sirve de gran cosa sin una manera eficaz de servírsela al enemigo; y en esta función, los misiles siguen sin tener rival. Son ya varios los países que disponen de un programa espacial y por tanto de misiles balísticos intercontinentales (ICBM/SLBM) con variado nivel tecnológico. Ya no sólo hablamos de Estados Unidos y Rusia (que los tienen de todos los sabores y capacidades), sino también del Reino Unido (con el Trident II del primo americano), China (DF-5 y DF-31, pronto los DF-41 y JL-2), Francia (M45, limitado a 6.000 km; se espera pronto el M51), Israel (Jericó III, aunque con algunas limitaciones), India (Agni V, también con limitaciones y restringido a 6.000 km) y probablemente Corea del Norte (Taepodong-2, si bien con severas limitaciones tecnológicas). El mundo de los MRBM (1.000 a 3.000 km de alcance) e IRBM (3.000 a 5.500) está mucho más poblado, e incluye también a Pakistán (Ghauri y Shaheen II) e Irán (Sajjil, Shahab 3 y Ashura). El Régimen de Control de Tecnologías Misilísticas y el Código de La Haya parecen estar teniendo algún efecto, pero no demasiado.

Camión lanzador del ICBM ruso Tópol-M.

Camión lanzador MZKT-79221 del ICBM ruso RT-2PM2 Tópol-M, durante el Desfile de la Victoria de 2010. (Nueva ventana o pestaña para ampliar)

Durante los últimos años ha llegado al público el debate sobre los misiles antimisil y muy ruidosamente sobre los distintos escudos propuestos sobre todo en los Estados Unidos (aunque la URSS y luego Rusia también tienen una larga experiencia al respecto). Ya he manifestado alguna vez en este blog mi hondo escepticismo ante tales sistemas de defensa de área extensa, los haga el yanqui, el ruso o el sursum corda: la espada es más poderosa y mucho más barata que el escudo; la espada elige el tiempo, el lugar y la sorpresa; la espada puede concentrar su fuerza en uno o varios puntos débiles mientras el escudo debe protegerlos a todos a la vez; el coste de una mejora tecnológica en la espada es muchas veces inferior al coste de mejorar el escudo para contrarrestarlo; siempre hay cosas que el escudo no puede parar, y una vez roto por un sitio, roto por todos. Es concebible que un escudo muy sofisticado pueda detener un número reducido de armas relativamente primitivas; pero no más.

Entre estas cosas que ningún escudo puede detener hoy por hoy, salvo que las pillaran por los pelos en la fase de despegue, se encuentra el pulso electromagnético de gran altitud o bomba del arco iris y los sistemas de bombardeo orbital fraccional de alcance global (FOBS); totalmente prohibidos, pero perfectamente disimulables en lanzadores espaciales y la solución obvia al problema planteado por un escudo antimisiles. Un satélite FOBS, que puede camuflarse como cualquier otra cosa, no tendría problemas significativos para soltar cabezas desde su órbita –incluso desde órbitas lejanas– por fuera del alcance de los radares del tipo BMEWS/PAVE PAWS/HEN HOUSE/Don/Daryal y lejos de la vista de los satélites DSP/Oko si el lanzamiento se produce con antelación al conflicto. No resulta evidente de qué manera podrían detectarse estas cabezas FOBS antes de que iniciaran la reentrada en la atmósfera terrestre o incluso antes de que hicieran impacto, ni cómo interceptarlas en caso de que opten por trayectorias remotas (y habría que ver cómo funcionan radares del tipo de AN-FPS-85 o GRAVES tras un ataque de pulso electromagnético o de oscurecimiento por ionización).

Proliferación a grupos particulares.

Cohete nuclear estadounidense M388 Davy Crockett.

Cohete nuclear estadounidense M388 Davy Crockett, con su lanzador. Contenía la cabeza nuclear W54, una de las más pequeñas que se han creado, usada también en la carga de demolición nuclear SADM (la "bomba en una maleta"). Con una potencia máxima de 20 tones, menos de la milésima parte que Nagasaki, se consideraba poco más que un arma radiológica. Algunas cabezas posteriores de tamaño similar elevaron la potencia a 0,6 kilotones. Existe el temor de que este tipo de armas miniaturizadas puedan caer en manos de grupos terroristas clandestinos.

El mantra propagandístico sobre los riesgos de la proliferación a que me refería al principio se ha orientado fundamentalmente contra la posibilidad de que esta clase de armas lleguen a estados problemáticos o grupos terroristas particulares. La probabilidad real de que una organización terrorista clandestina consiga u opere este tipo de armas, y especialmente armas nucleares, es muy baja por una diversidad de razones. La primera es que las armas nucleares, o las químico-biológicas avanzadas, evidentemente no están en venta. Las atómicas, además, incorporan sistemas criptográficos y otras medidas para impedir su uso indebido. Incluso aunque alguien consiguiera un arma nuclear aprovechando un colapso político como el que ocurrió en la URSS –y donde ninguna acabó fuera de su sitio; un día de estos te contaré cómo– o algún despiste como los que han tenido recientemente en los Estados Unidos, no podría usarla sin las correspondientes claves (si bien los misiles Minuteman norteamericanos tuvieron la clave 00000000 durante varios años y los británicos protegían sus bombas termonucleares WE.177 con cerrojos parecidos a los de las bicicletas).

Conseguir componentes de un arma nuclear para montársela uno mismo resulta muchísimo más difícil y exige disponer de especialistas experimentados más algunos instrumentos que no se pueden obtener con facilidad. Para un grupo clandestino, resolver la geometría del arma, asegurar la sincronía de inserción y mantener la seguridad físicanuclear para impedir que algunos materiales esenciales se echen a perder puede constituir un desafío imposible. Que no es como montar un mueble del IKEA, vaya. Si se quiere hacer pequeña y portable, menos aún. Por supuesto, es posible; pero muy improbable. En todo caso, nunca se ha encontrado un arma nuclear ni componentes sustanciales de las mismas en manos de un grupo terrorista particular.

En la práctica, la seguridad que rodea a las armas nucleares es excepcional. Hay incontables niveles de protección física, lógica y por la vía del espionaje para defenderlas. Si un tipo te propone comprarte una bomba atómica de las que cuidas en tu silo, lo más probable es que estés ante un agente provocador y la salida correcta es denunciarlo inmediatamente a tus superiores. Por otra parte, el tráfico de materiales nucleares militares es una actividad de alto riesgo y la probabilidad de que vivas el tiempo suficiente para disfrutar de tu dinero resulta próxima a cero. No esperes que nadie, en ningún lugar, haga muchas preguntas sobre lo que te pasó. Parafraseando a Vladimir Putin, “se hundió”.

Atentado con gas sarín contra el metro de Tokio.

Los equipos de emergencia acuden al atentado con gas sarín contra el metro de Tokio, perpetrado por la secta apocalíptica Aum Shinrikyō el 20 de marzo de 1995. Es el ataque terrorista con armas no convencionales más grave de la historia: causó 13 muertes y unas mil personas resultaron afectadas en distintos grados.

Algunos grupos han utilizado ocasionalmente armas químicas, si bien a muy bajo nivel. Fue muy destacado el ataque con gas sarín contra el metro de Tokio perpetrado por la secta apocalíptica japonesa Aum Shinrikyō; el saldo de víctimas ascendió a trece muertos, cincuenta heridos graves y mil afectados leves, mucho menos de lo previsto en un caso así. La insurgencia iraquí ha hecho estallar varios camiones cargados con gas cloro en diversos atentados; aparentemente, el gas no provocó mucho más que diversas molestias y todos los muertos fueron causados por la detonación de los explosivos. En general, el uso de agentes químicos de la naturaleza y en la cantidad que puede manejar una organización terrorista clandestina es extremadamente ineficaz. En una utilización militar normal, suelen hacer falta bastantes toneladas bien dispersadas para producir algún efecto útil.

Cosa parecida sucede con el terrorismo biológico. Descontando el caso del ataque con carbunco de 2001 en los Estados Unidos, que ya hemos visto que tuvo un origen muy extraño, los dos únicos bioatentados que se recuerdan en épocas recientes bordean el ridículo. El primero de ellos también fue cosa de los chalados de Aum Shinrikyō: en junio de 1993 liberaron un aerosol de carbunco en Tokio, sin provocar ni una sola infección; militarizar las esporas resulta más complicado de lo que parece. El segundo ocurrió en Oregón en 1984, donde otros tarados –esta vez seguidores de Osho– lo intentaron contaminando con salmonella los buffets de ensaladas de diez restaurantes. Sí, así de cutre, y el efecto estuvo a la altura: aunque 751 personas contrajeron salmonelosis y hubo que ingresar a 45, ni una sola perdió la vida. Vamos, que poniendo a un lado lo de 2001, todos los daños causados por el temido y temible bioterrorismo se reducen a… unas cagaleras.

No obstante, aquí sí resulta prudente hacer alguna consideración adicional. Un grupo decidido, con algunos especialistas cualificados y recursos paraestatales –o paraempresariales, de una compañía mediana e incluso relativamente pequeña– podría diseñar y militarizar un arma biológica de manera relativamente sencilla a poco que contase con una buena cepa base. Evitaremos entrar en detalles, pero los materiales necesarios resultan relativamente sencillos de obtener y operar con un grado razonable de seguridad. Más complicado sería ponerlo todo en marcha sin levantar sospechas.

Una bomba sucia es fácil de construir mediante el sencillo procedimiento de envolver una carga explosiva en materiales radioactivos, por ejemplo basura nuclear o una fuente radiológica estilo Goiânia. Sin embargo, un arma así tendría un efecto predominantemente local, con el área de mayor peligrosidad reducida a unas decenas de metros; si nadie resulta herido por la explosión, sería bastante raro que llegara a ocasionar alguna muerte directa. Como mucho, algún cáncer con el paso de los años y muchísimas gracias.Vale, el efecto económico resultaría notable si por ejemplo estallara en un centro financiero importante, pero en unas semanas serían noticias antiguas.

Emblema oficial de la Information Awareness Office estadounidense.

Emblema oficial de la Information Awareness Office estadounidense. ¿Una broma orwelliana? No. Era real. Su alcance resultaba tan excesivo que fue públicamente cancelada en 2003, pero varios de sus proyectos siguen adelante por otras vías.

En suma: que en la inmensa mayoría de usos posibles para las organizaciones terroristas clandestinas, las armas de destrucción masiva son más bien armas de destrucción chiquitina. Para idear alguna situación en que uno de estos dispositivos causara por sí mismo más mal que –por ejemplo– un camión bomba bien cebado, hay que imaginar una trama un tanto novelesca. Esto no quiere decir que resulte imposible, claro: es bien sabido que la realidad, en ocasiones, supera a la ficción. Pero la vida en la clandestinidad ya es lo bastante complicada como para liarse con operaciones muy complejas e impredecibles; y salvo que a alguien le surja alguna ocasión de oro, la gente prefiere dejar las gollerías de destrucción masiva a los estados y concentrar sus recursos –siempre limitados– en algo barato y que mate mucho de forma bien comprobada y conocida. Eso son, exactamente, los explosivos convencionales. El vulgarísimo ANFO (básicamente, fertilizante nitrogenado y gasoil) se ha demostrado mucho más efectivo para las organizaciones ilegales que todas las armas de destrucción masiva del mundo; y si le pueden echar mano a un poco de ciclonita o cosa así para ponerle la guinda al petardo, ya tienen el día hecho. Y a las pruebas me remito: eso es lo que ocurre día sí, día no en este planeta viejo.

Por todo ello, las armas de destrucción masiva son temibles en manos de estados u organizaciones de similar poder, pero la probabilidad de que le sirvan de algo a un grupo clandestino es francamente reducida. Como fenómeno sociopolítico global, resulta de lo más intrigante observar cómo un gran número de países se están cargando una montaña de libertades en nombre de defendernos contra una amenaza… que nunca se ha plasmado de ninguna manera significativa. Es casi como subir los impuestos para montar un ejército que nos defienda de una invasión extraterrestre; cosa que tampoco resulta técnicamente imposible pero sin duda es poco probable. La verdad, suena a excusa o a paranoia para hacernos tragar con cosas que seguramente no tragaríamos sin ese miedo. Las armas de destrucción masiva fueron siempre armas de terror, incluso aunque no se utilizaran, y parece que siguen siéndolo en la actualidad. Aunque no de la manera que dicen.

100 Comentarios Trackbacks / Pingbacks (8)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (120 votos, media: 4,84 de 5)
Loading ... Loading ...
Be Sociable, Share!

Preguntas y respuestas sobre… el agua.

No existen preguntas estúpidas. Sólo respuestas estúpidas.

El poder de las preguntas.

El poder de la curiosidad, el poder de las preguntas, es la fuerza más poderosa detrás del método científico y de cualquier forma eficaz de adquisición del conocimiento.

Bastante a menudo, recibo en el correo preguntas de índole científica. Casi siempre, hago lo posible por responderlas. Si me mandaste alguna y no te he contestado, lo más normal es que me pillases en un momento muy atareado y “se quedase debajo del montón”; te invito a hacérmela de nuevo. Algunas son sencillas; otras, muy complejas. En general, todas están realizadas por personas que quieren saber más de lo que saben y, sólo por eso, ya son valiosas. Únicamente quien pregunta puede aprender, sólo las preguntas conducen a las respuestas y a nuevas y mejores preguntas. La historia del progreso humano es la historia de nuestras preguntas y de las cosas que hicimos para darles contestación y actuar en consecuencia.

Algunas de estas preguntas me resultan de singular interés por una diversidad de motivos. Unas porque, pese a ser sencillas, inciden en conceptos que no todo el mundo tiene claros. Otras, porque abren la puerta a ideas mucho más grandes y complejas. Aún otras más porque son de suyo intrigantes o evocadoras. Y también hubo otras que no supe responder. Todas ellas me han hecho recordar cosas que sabía y aprender cosas que no sabía o no tenía claras para tratar de darles contestación. Muchas me han hecho pensar: “es una lástima que esto no lo lea más gente”.

Así pues, me ha parecido oportuno –tras obtener el permiso de quienes las realizaron, ¡gracias! ;-) – iniciar la publicación de algunas de ellas con sus correspondientes respuestas. En este primer post nos vamos a concentrar en cuestiones relacionadas con el agua. Es evidente que el agua, su naturaleza, su origen, su comportamiento, el papel fundamental que desempeña en las cosas vivas como tú y yo despierta gran interés. Vamos allá.

Si el agua, en condiciones normales, es aislante… ¿por qué aumenta tanto el riesgo de electrocución?

Remitida por Paco, de 42 años, residente en Dos Hermanas (Sevilla):

Hola Yuri,

Soy un fiel seguidor de tu blog, y me gustaría que me aclararas una duda que tengo, y que estoy seguro de que sabrás resolvérmela. Se trata de algo relacionado con el agua y con la electricidad.

Cuando estaba en el instituto, hicimos un experimento: echamos agua en una probeta en forma de U. En un extremo de la U, introducíamos un cable de cobre atado al polo positivo de una pila, y en el otro, otro cable atado al negativo. Un medidor, medía la corriente eléctrica que circulaba, y ésta era nula. Ello demostraba que el agua, en condiciones normales, es aislante eléctrico.

A continuación, se echaba sal común en la probeta, y llegaba un momento en el que el agua comenzaba a conducir la electricidad. Es decir, la sal convertía el agua en conductor.

Y aquí es donde me surge la duda: si el agua, en condiciones normales, es aislante eléctrico, ¿por qué resulta tan peligroso (y hasta mortal) juntar el agua con la electricidad? ¿Por qué si pisamos en un suelo cubierto de agua al que está llegando electricidad de alguna manera (por ejemplo, por un cable suelto que transporta electricidad) nos electrocutamos?

Es una duda que he tenido siempre, y que nunca he sabido cómo resolver.

Muchas gracias, y un saludo.


El agua pura es un buen aislante eléctrico; al disolver iones, se convierte en conductor.

Electrocutarse en la bañera.

Llevarse el ordenador portátil a la bañera, sobre todo cuando está conectado a la red, NO es una gran idea. Lo mismo cabe decir de cualquier otro aparato eléctrico o electrónico.

El agua pura es un buen aislante eléctrico. Sin embargo, en cuanto hay presencia de algún material iónico (como la sal), ésta se vuelve rápidamente conductora.

El agua pura contiene aproximadamente 10–7 moles por litro de iones H+ con carga positiva, y otros tantos de iones HO- con carga negativa, lo que se traduce en una conductividad de aproximadamente 0,055 µSiemens/cm a 25ºC (resistencia de 18,2 MΩ·cm²/cm). Esto es un aislante muy bueno, aunque no tanto como el aire (con una resistencia doscientas mil veces mayor; aunque se suele decir que la resistencia eléctrica del aire es infinita, esto no es cierto).

Sin embargo, debido a las sustancias en suspensión del aire, el agua de lluvia que las arrastra presenta una conductividad de 35-50 µSiemens/cm (resistencia: 28,6-20kΩ·cm²/cm). Cuando hay mucha polución, llega fácilmente a 100 µSiemens/cm (resistencia: 10 kΩ·cm²/cm). El agua de un río (como el Rhin, por ejemplo) asciende a 300-745 µSiemens/cm (resistencia de 3,3 a 1,3 kΩ·cm²/cm). Y el agua de mar, con cantidades significativas de sales, conduce a 42.000 µSiemens/cm (resistencia de 23,8 Ω·cm²/cm).

No es una conductividad muy buena (el cobre, por ejemplo, presenta una resistencia de 1,7 µΩ·cm²/cm: catorce millones de veces menos que el agua salada y doce mil millones de veces menos que el agua de lluvia). Pero resulta suficiente, sobre todo teniendo en cuenta que el agua cubre toda la piel y se mete por todos los poros y grietas, multiplicando enormemente la superficie de contacto.

El agua del grifo resulta, pues, significativamente más conductora que el agua destilada. El agua de una bañera, llena de iones procedentes del jabón, las sales (artificiales o cutáneas) y demás resulta casi tan conductora como el agua de mar, al igual que el sudor. Aunque sea millones de veces menor que la de un conductor idóneo como el cobre, es bastante y con el incremento de la superficie de contacto se multiplica. Así es como el agua ayuda a que nos electrocutemos.

Europa de Júpiter.

Se piensa que bajo el hielo superficial de Europa, una luna de Júpiter, existe un océano de agua salada en estado líquido.

¿Es el agua indispensable para la vida desde un punto de vista termodinámico?

Remitida por Chrisinthemorning, de 29 años, residente en Ourense:

Hola Yuri, enhorabuena por el blog, es magnífico.

Una pregunta ¿has posteado algo sobre la importancia del agua en la vida visto desde un punto de vista termodinámico? (que es de la única manera en la que yo puedo explicar “la vida” (soy doctor en biología molecular y genética)). ¿Sería posible otro compuesto como dador último de electrones? ¿O es el agua realmente indispensable para que haya vida?

Muchas gracias.

Atentamente,

Sí, aunque incorporado en varios post dispersos; te recomendaría un vistazo a la serie “Hijas de la Lluvia” en general. De hecho, te me has adelantado, porque voy a escribir una serie sobre los “cuatro elementos clásicos” desde la óptica moderna; el primero ha sido el fuego y la semana que viene no sé aún si me toca tierra o agua; pero si no es la próxima, va a la siguiente. ;-) [Ejem... será pronto, palabrita]

La verdad es que se me hace difícil imaginar un “solvente universal” mejor que el agua a las temperaturas planetarias típicas. En la literatura se mencionan frecuentemente varias sustancias o combinaciones alternativas posibles, a distintos rangos de temperatura. Una de las más populares es el amoníaco, líquido entre –78ºC y –33ºC aproximadamente, y con casi toda seguridad el candidato mejor posicionado para reemplazar al agua como “cuna de la vida”. Otras posibilidades comentadas a menudo son el metano, el etano, el ácido clorhídrico y el ácido sulfúrico, cada una con sus pros y sus contras. Personalmente, he fantaseado alguna vez con los hexanos. ;-)

Lo que pasa es que el agua lo reúne todo: amplia disponibilidad planetaria, buen rango térmico en el que permanece líquida, elevada polaridad (lo que facilita la “opción carbono”, que parece a su vez una de las más fáciles para la vida), pH neutro, su gran capacidad para establecer enlaces por puente de hidrógeno… parece como si la vida en la Tierra fuera la que es porque sus fundamentos de agua-carbono son los “más inmediatos” para una forma de vida planetaria (al menos en un planeta rocoso; sería más discutible en uno gaseoso, pero eso presenta sus propios problemas).

Pero sí, son imaginables “otras cosas” no basadas en el agua.

[Chris en realidad se refería a otra cosa, que yo ya no fui capaz de contestarle con propiedad. Esta es su respuesta; si alguien tiene algún dato al respecto, le ruego que lo aporte:]

Hola Yuri, muchas gracias por la respuesta.

Tienes razón en que el agua es el mejor “medio” para que se den las condiciones para “la vida”. Pero mi pregunta pretendía hacer hincapié en un aspecto más “básico” de la vida. La vida es un proceso de reciclaje de energía (magnífico y totalmente recomendable libro del hijo de Carl Sagan, Dorion Sagan,  “La termodinámica de la vida”; y algún otro de Ilya Prigogine y Erwin Schrödinger) en el que el agua juega un papel crucial.

La energía de la que estamos hechos y por la que estamos vivos viene del sol, y el mecanismo para captarla y “meterla” en el proceso de la vida es la fotosíntesis (o en “el origen” otro proceso similar). Los fotones energéticos del Sol excitan la molécula de clorofila que pierde un electrón, electrón que a medida que pasa de molécula en molécula hacia un nivel energético menor (a favor de gradiente), permite que su energía (¿física?) pase a energía química creando gradientes protónicos, lo que al final pasará dará como resultado la síntesis de ATP (la energía de las células). Esto se conoce como “Esquema Z“.

El problema es que la primera clorofila ha perdido ese electrón, permitiendo así que comience “la vida” (esto no es del todo exacto pero lo dejamos así); si este electrón no es reemplazado se para todo el proceso. Y ahí es donde entra el agua, que le cede un electrón a esa clorofila (y libera oxígeno), y de esta manera se puede volver a excitar por los fotones solares y seguir el eterno devenir vital…

Esta pequeña reacción inicial es la clave de que estemos vivos tú y yo y de que todo el mundo sea tal y como lo conocemos. En el “origen” tuvo que ser una reacción similar. Entonces yo me pregunto, será  el agua la única molécula capaz de ceder esos electrones? y si es así, proviene esa capacidad de sus características óxidoreductoras? (yo de esto no sé mucho). Y si es así, entonces el agua sí que es fundamental para que exista vida.

Un cordial saludo y perdón por las molestias. Enhorabuena de nuevo por la página.

Evaporación de los líquidos.

Los líquidos (y los sólidos) tienden a evaporarse a todas las temperaturas. Al hacerlo, producen presión de saturación. Cuando esta presión de saturación supera a la presión atmosférica, entonces entran en ebullición.

¿Por qué el agua se evapora muy por debajo del punto de ebullición?

Remitida por Eloi, de 27 años, residente en Barcelona:

Hola Yuri:

Soy un ferviente seguidor de tu blog. Te felicito, ¡es la mar de interesante!.

Tengo una duda que me corroe de hace mucho tiempo y aún no he encontrado la respuesta.

Es la siguiente: Si el agua de la lluvia proviene, principalmente, de la evaporación de ríos y mares. ¿Cómo se consiguen los 100ºC para llevarla a cabo?

Si no puedes responderme lo entenderé perfectamente. En todo caso, muchas gracias igualmente.

Un saludo,

Es fácil. ;-) Lo que necesita 100ºC es la ebullición (el momento en que toda la masa de agua comienza a vaporizarse a la vez). La evaporación, en cambio, se produce en todo el rango de temperaturas.

Esto puedes observarlo en tu taza de café (o de tu infusión favorita…). Puedes ver cómo se evapora ante tus ojos, cuando genera por condensación el vaho o “humo” blanco que se desprende de todas las bebidas calientes. Y por supuesto no está a 100ºC cuando te la estás tomando, o te abrasaría la boca. :-P

También se observa muy fácilmente al tender la ropa en un día caluroso (aunque no haga viento). En cuestión de minutos, la ropa está seca: el agua se ha evaporado. Pero, evidentemente, no ha hervido.

En suma: que evaporación y ebullición son cosas distintas. ;-)

[Paco, de Dos Hermanas, también se interesó por esta cuestión en otro mensaje; lo que me impulsó a escribir una respuesta un poco más elaborada:]

De todo el mundo es sabido que los estados de la materia son 3: sólido, líquido y gas (por cierto, duda paralela, ¿en qué categoría queda el estado plasmático?). El paso de un estado a otro, se produce con un cambio de las condiciones de presión y temperatura. En el caso del agua, a una presión de una atmósfera, se sabe que se mantiene sólida por debajo de cero grados, líquida por encima de cero grados, y hasta los 100, punto de ebullición en el cual el agua pasa a evaporarse y convertirse en gas (vapor de agua).

Sin embargo, si dejas un vaso de agua encima de una mesa, al cabo del tiempo, el agua desaparece (se evapora), o, cuando una superficie se moja, sin hacer nada, termina por secarse. La duda es: ¿por qué se evapora el agua, sin alcanzar su punto de ebullición, ni tan siquiera acercarse a él? Una mancha de agua en el suelo, a menos de 10 grados, y a más de cero, termina por evaporarse a pesar de estar a más de 90 grados por debajo de su punto de ebullición. ¿Ocurre esto con otras sustancias, solo con el agua, con algunas, con todas?

En realidad es que no hay tres estados de la materia, como sabe todo el mundo, sino cuatro. ;-) Y el plasma es el cuarto. Aunque, mejor dicho, el primero:  por muchísimo, se tratra del más común en todo el universo conocido. Hasta el 99% de la materia no-oscura de este universo estaría en estado plasmático.

Con respecto a tu segunda pregunta: Como ya vimos, la evaporación es distinta de la ebullición (evaporación y ebullición son las dos formas de vaporización de un líquido). Por tanto, el punto de ebullición sólo tiene una importancia relativa durante la evaporación: la evaporación se produce más cuanto más cerca está el líquido al punto de ebullición, pero se da en todo el rango de temperaturas. Un vaso de agua dejado a pleno sol en medio del verano se evapora antes que uno dejado en la cornisa un día de invierno.

Todos los líquidos están evaporándose continuamente, con independencia de su punto de ebullición. Los que parece que no lo hacen (el aceite, por ejemplo), sí lo hacen, sólo que muy despacito. Los hidrocarburos como la gasolina, por ejemplo, producen gases explosivos de manera bien conocida (a menudo, acelerados por la proximidad de un motor caliente). Esto se debe a que las moléculas de un líquido están en movimiento: el calor (a cualquier temperatura por encima del cero absoluto) se encarga de ello. No tanto como las de un gas, por supuesto, pero aún así se mueven.

Este movimiento las provee de energía cinética. Esta energía cinética puede ser suficiente para superar el límite de transición de fase (transición entre estados), siempre que se den tres condiciones: la molécula debe estar lo bastante cerca de la superficie, moverse en la dirección adecuada y hacelo con la suficiente rapidez. No son muchas las moléculas que cumplen estas tres condiciones al mismo tiempo, por lo que la evaporación se da poco a poco: es un proceso lento. Adicionalmente, esta “pérdida de energía al aire” enfría el líquido restante (enfriamiento evaporativo), lo que modera la rapidez del proceso aún más. Por eso el sudor sirve como mecanismo regulador de temperatura, al enfriar “lo que hay debajo” mientras se evapora. Un líquido esparcido en un área extensa se evapora antes porque hay una proporción de moléculas muy superior cerca de la superficie.

Ropa tendida en el frío.

La evaporación se produce incluso a temperaturas muy bajas. La ropa tendida en el frío, aunque no haga viento, sigue secándose.

Si el ambiente está muy saturado de humedad el proceso se ralentiza enormemente (el aire está ya “saturado” y “acepta peor” las moléculas en evaporación); habrás observado que en los días húmedos y lluviosos a la ropa le cuesta mucho secarse (aunque no esté expuesta a la lluvia). Por el contrario, el flujo de gases (el viento, la corriente de aire) lo acelera, porque tiende a hacer que esa saturación se disipe rápidamente. Por eso la ropa se seca antes en un día ventoso que en un día sin viento (y también porque el viento “arranca” las partículas de agua).

A temperaturas por debajo de cero, el agua se congela pero sigue existiendo algo de vaporización por sublimación. Debido a ese motivo, es posible tender la ropa en un día muy frío, y aún así se seca. Esta tendencia natural de los líquidos (y los sólidos) a vaporizarse produce la llamada presión de saturación.

Conforme la temperatura se acerca al punto de ebullición, las moléculas se mueven mucho más y la evaporación se acelera (el “vapor sobre el café”; o el “vaporcillo” que se ve salir de un guiso antes de que eche a hervir): su presión de saturación aumenta. En un determinado punto, la presión de saturación iguala y supera a la presión atmosférica. Este es el punto de ebullición. Entonces, al vencer a la presión atmosférica, el líquido comienza a “elevarse” y permite la formación de burbujas en su interior. En ese momento, todo el conjunto del líquido empieza a vaporizarse a la vez: decimos que ha entrado en ebullición. El proceso de vaporización sigue sin ser instantáneo: sólo mucho más rápido que durante la evaporación (a altas temperaturas / presiones ciertos cambios pueden provocar un fenómeno conocido como “flash boiling” o “ebullición instantánea”; este fenómeno fue la “puntilla” durante el accidente de Chernóbyl). Puede verse que si no fuera por la tendencia natural de los líquidos a evaporarse en presencia de energía, el punto de ebullición nunca se alcanzaría.

Se deduce fácilmente que, si queremos mantener líquida una sustancia por encima de su punto de ebullición, la manera más fácil de hacerlo es aumentar la presión ambiental. De esa forma, el punto en el que la presión de saturación supera a la presión atmosférica está mucho más arriba; por eso el agua de refrigeración permanece líquida. Así se hace, por ejemplo, dentro de los reactores nucleares (como los PWR), a temperaturas de varios cientos de grados. Por el contrario, si la presión atmosférica es muy baja, la ebullición se produce mucho antes; ese es el motivo de que la tenue atmósfera de Marte tenga problemas para conservar el agua en estado líquido: el punto en el que la presión de saturación supera a la atmosférica es mucho más bajo, y por tanto la temperatura de ebullición también (y la evaporación es más intensa).

Pájaro bebiendo.

¿De dónde sale el agua? Sí, vale del grifo. ¿Y la del grifo? Del río. ¿Y la del río? De las nubes, al llover. ¿Y la de las nubes? Del mar, por evaporación. ¿Y la del mar?

Y… ¿de dónde sale el agua?

Remitida por Raquel en representación de su hijo Tony Pastor Martín, de 11 años, residentes en Azuqueca de Henares (Guadalajara);
digo yo que cuando un muchacho de once años osa hacer esta pregunta, habrá que ir hasta el fondo del universo si es preciso para contestársela.
;-)

Buenas noches!!!

En primer lugar pedir disculpas, ya que no se ni escribir ni expresarme todo lo bien que me gustaría…

Tengo un hijo de once años, el cual tiene una curiosidad infinita, y me ha llegado esta tarde con una pregunta que me ha parecido interesante, ¿como llegó el agua a la Tierra???. Llevo un tiempo leyendo tu blog y ahora tu página web, me alucina todo lo que escribes, es impresionante como trasmites y nos haces comprender, incluso a gente como yo, sin más conocimientos que los que me proporciona la wikipedia, y algún que otro libro que cae en mis manos sobre física de divulgación, bueno, y al grano, no se si ya habrás escrito algo sobre este tema, yo no lo he encontrado, y nos encantaría leer o conocer tu opinión al respecto.

Perdona por molestarte, imagino que estarás saturado de correos de gente como yo, que busca respuestas claras.

Gracias de antemano por tu atención, y de nuevo te doy la enhorabuena por tu extraordinario trabajo!!! Que tio más inteligente (como dice mi hijo…) :)

El agua llegó a la Tierra con todo lo demás. ;-) Veámoslo:

El agua es óxido de di-hidrógeno. O sea, oxígeno e hidrógeno en relación 1:2, es decir H2O: dos átomos de hidrógeno unidos a uno de oxígeno. Vamos a ver de dónde salieron.

Superficie del Sol. Sonda TRACE, NASA.

Los elementos por encima del hidrógeno se forman durante las reacciones de fusión que se dan en las estrellas. En la imagen, la superficie del Sol. Sonda espacial TRACE, NASA.

El hidrógeno está por todo el universo. De hecho, la materia formada por el Big Bang fue hidrógeno en su muy inmensa mayoría. El Big Bang fue demasiado “simple” (¡ejem!, es una forma de hablar…) como para formar muchas cosas más complejas. Pero lo que formó, el hidrógeno, lo formó en grandes cantidades. Las estrellas (como nuestro Sol), que concentran buena parte de la materia del universo, están compuestas fundamentalmente de hidrógeno. Cuando se formaron las primeras estrellas, el universo sólo contenía hidrógeno y por tanto no podían aparecer cosas compuestas de otros elementos, como los planetas (y su agua). Estas primeras estrellas se llaman de generación III o sin metalicidad (porque aún no habían surgido los metales) y aparentemente ya no queda ninguna (que sepamos).

El oxígeno se forma dentro de las estrellas, como parte de sus procesos de fusión nuclear, en un proceso que se llama nucleosíntesis. ¿Cómo puede ser esto? Bueno, la idea es relativamente sencilla. Quizá hayáis oído que la fusión nuclear combina dos átomos de hidrógeno para formar uno de helio (lo he contado al menos en dos posts ;-) ). El hidrógeno tiene un protón, más otro protón de otro hidrógeno: dos protones, que es el helio. Pero con la suficiente energía, este proceso no tiene por qué acabarse aquí. Si se suma otro núcleo de hidrógeno (un protón) al de helio (dos protones), obtendremos litio (tres protones). ¡Ah, ya tenemos el primer metal! El litio es un metal.

Cuando la temperatura es lo bastante alta, y dentro de una estrella puede llegar a ser muy alta, el helio (dos protones) comienza a fusionar también entre sí. Al juntarse dos núcleos de helio (2+2 protones) obtenemos berilio (4 protones): otro metal. Así surgieron las estrellas de generación II o baja metalicidad y, conforme el proceso siguió adelante, las de generación I o alta metalicidad como la nuestra y la mayor parte de las que vemos en el cielo presente.

Y cuando se suma otro núcleo de helio más, ya tenemos carbono, ese que forma la base de la vida en la tierra: el núcleo de carbono tiene 6 protones. Este proceso en tres fases (helio -> berilio -> carbono) se llama proceso de nucleosíntesis triple-alfa. (Observad que estamos ignorando los neutrones, que se suman también, pero no es relevante para la explicación)

Proceso triple-alfa. NASA.

Proceso termonuclear triple-alfa, que a partir del helio forma el berilio y el carbono durante la fusión nuclear que se dan en el núcleo de las estrellas. Un "paso alfa adicional" forma el oxígeno; junto con el hidrógeno primordial y estelar, ya puede surgir el agua. Imagen original: NASA. (Clic para ampliar)

Ya hemos llegado al carbono, que no es un metal. Resulta que estos procesos alfa (fusión con núcleos adicionales de helio) pueden seguir produciéndose si la temperatura es lo bastante brutalmente alta. Cuando un núcleo de carbono (6 protones) fusiona con aún otro núcleo más de helio (2 protones)… pues ya tenemos un núcleo de 8 protones, que es exactamente el oxígeno. O sea, que en nuestra estrella ya tenemos átomos de hidrógeno (que estaba desde el principio) y átomos de oxígeno (y de helio, y de carbono, y de más cosas que van formándose por vías parecidas). Y si tenemos hidrógeno y oxígeno… pues ya tenemos todo lo necesario para hacer agua, ¿no?

Las estrellas hacen cosas energéticas, como explotar, cuando llegan a determinados momentos de su vida: esto son las novas y las supernovas. Y cuando una cosa como una estrella explota… vaya, explota de verdad, pero muy en serio, de una manera que resulta difícil de imaginar. Al suceder esto, grandes cantidades de esta materia que se encuentra dentro de las estrellas salen despedidas a mucha distancia y con una velocidad asombrosa. Con lo cual, van “llenando el universo” de estos nuevos elementos. Al pasar el tiempo, la atracción gravitatoria y otras fuerzas hacen que una parte de esta materia (que incluye al hidrógeno y al oxígeno) se distribuya en forma de discos de acreción. Los discos de acreción son la “cuna” de los sistemas solares: así nacen, con una nueva estrella en el centro (o más de una…) y planetas que se van formando por más atracción gravitatoria en órbita a su alrededor.

El hidrógeno y el oxígeno, cuando entran en contacto, reaccionan furiosamente a poco que el calor de estos planetas en formación sea un poco alto (y es bastante alto, porque la gravedad los comprime y al hacerlo aumenta la temperatura, aunque no tanto como dentro de las estrellas). Los motores del transbordador espacial, por ejemplo, consumen hidrógeno y oxígeno: así de energética es su reacción. Y el hidrógeno y el oxígeno, al combinarse (en el motor del transbordador espacial o en los planetas en formación), producen… H2O, agua. :-)


Lanzamiento del transbordador espacial Atlantis, visto desde cámaras en el exterior y a bordo.
Los dos grandes impulsores laterales son de combustible sólido, pero los tres de la nave
consumen hidrógeno y oxígeno para producir agua y energía.
Al final, podemos acompañar a uno de los impulsores laterales hasta su caída al mar.

Superficie y atmósfera de Marte.

La atmósfera de Marte es demasiado tenue para retener el agua líquida en su superficie. Por ello, sólo queda en forma de hielo; el resto ha escapado al espacio exterior.

Si la gravedad del planeta es demasiado baja para retener una atmósfera con suficiente presión, o su temperatura es demasiado alta, o ambas cosas a la vez, este agua se evapora y termina por perderse en dirección al espacio exterior. Eso, por ejemplo, le pasó a Marte y probablemente también a Venus: en el segundo apenas queda agua (en forma de vapor) y en el primero, la que queda, está en forma de hielo.

En la Tierra, que está dentro de lo que llamamos una zona de habitabilidad estelar, las condiciones son adecuadas para que el agua líquida se mantenga en su superficie. Por eso la vida en nuestro sistema solar surgió en la Tierra y no en cualquier otro lugar. :-)

En resumen: el agua estaba aquí desde el principio, como parte de los materiales que formaron la Tierra durantre el surgimiento del sistema solar. Es posible que hubiera una aportación adicional en forma de cometas de hielo, que se forman en las regiones exteriores de los sistemas solares, pero la mayor parte del agua terrestre se formó junto al resto de la Tierra por el proceso indicado.

Al principio no había mucha “agua libre” (como en los mares, océanos, ríos, lagos, vapor atmosférico, etc), sino que estaba “prisionera” con el resto de sustancias que formaron la Tierra. Con el paso de los millones de años, el agua fue “liberándose”, fundamentalmente por cinco vías distintas:

  • Por enfriamiento progresivo de la Tierra primigenia, hasta el punto de que los componentes gaseosos (como el vapor de agua) quedaron retenidos en una atmósfera de presión suficiente para retener y estabilizar el agua líquida. Cuando la temperatura cayó lo bastante, comenzó a llover y el agua empezó a acumularse en las partes más profundas (océanos, mares…). Este fue el proceso de “liberación” de agua más importante. Por eso a mí me gusta decir que somos todos hijos e hijas de la lluvia. :-)
  • Por fisiadsorción (¡vaya con la palabrita!), fijando moléculas de agua o combinando átomos de hidrógeno/oxígeno que estaban presentes en el disco de acreción del que se formó el planeta.
  • Por fuga gradual del agua almacenada en los minerales hidratados de las rocas que forman la Tierra.
  • Por fotólisis, donde la radiación solar es capaz de romper algunas moléculas presentes en la superficie terrestre y “dejar libre su agua”.
  • Una vez surgida la vida, por procesos bioquímicos que liberan agua capturada del suelo, como la transpiración.

Y esta es la historia del surgimiento del agua en la Tierra. Y, de paso, de todo lo demás que conocemos. Es lo bonito de la ciencia: sus respuestas siempre dan lugar a nuevas y mejores preguntas, que terminan por explicar muchas cosas. En ciencia nunca aceptamos un “porque sí” o “porque no” o “porque es así”; somos curiosos y puñeteros. Como los niños. O no tan niños. ;-)

Y en último término, añado, la más alta función de la ciencia es contestar mejor a las preguntas de los niños futuros.

78 Comentarios Trackbacks / Pingbacks (2)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (61 votos, media: 4,77 de 5)
Loading ... Loading ...
Be Sociable, Share!

Vida arsénica

Habrá quien sufra una decepción. Pero si se confirma, es un descubrimiento muy, muy notable.

Convocatoria de prensa de la NASA sobre un descubrimiento en astrobiología.

Convocatoria a la conferencia de prensa de la NASA para "comentar un hallazgo en astrobiología que tendrá impacto en la búsqueda de pruebas de vida extraterrestre". A pesar del ruido generado, eso no son "pruebas de vida extraterrestre". (NASA) (Clic para ampliar)

Como es bien sabido, hace unos días la NASA anunció una conferencia de prensa en su sitio web y en notas dirigidas a los medios de comunicación, donde se decía lo siguiente:

La NASA ofrecerá una conferencia de prensa a las 2 p.m. EST el jueves, 2 de diciembre, para comentar un hallazgo en astrobiología que tendrá impacto en la búsqueda de pruebas de vida extraterrestre. La astrobiología es el estudio del origen, evolución, distribución y futuro de la vida en el universo.

Sobre esta base, como suele resultar inevitable, pronto surgieron las primeras especulaciones sobre el hallazgo de vida extraterrestre; e inmediatamente a continuación, toda clase de suposiciones amplificadas por Internet, incluyendo los delirios habituales en estos casos.

A pesar de tanto ruido, la redacción de la nota de prensa –bastante común entre las que proporciona la NASA a menudo– parece cuidadosamente formulada para rechazar estas especulaciones: “un hallazgo en astrobiología que tendrá impacto en la búsqueda de pruebas de vida extraterrestre” no son “pruebas de vida extraterrestre”. El embargo sobre su contenido terminó por alimentar aún más el bombo del asunto; no obstante, este embargo venía impuesto por Science –que es quien publica el paper– y constituye una práctica habitual para proteger la exclusiva.

No voy a decir que la NASA ignore la clase de efecto que un texto así tiene en la sociedad, e incluso que lo utilice para atraer atención, pero, honestamente… ¿de qué otra forma lo podrían decir? ¿Utilizando lenguaje abstruso que sólo entiendan los iniciados? Yo creo que esa sería una solución peor. Uno dice lo que tiene que decir, y lo que digan los demás ya es asunto de ellos. Nadie puede actuar pensando constantemente en quién sacará una conclusión inoportuna o exagerada de lo que hace; por ese camino, nunca se haría nada.

Arsénico.

Arsénico.

Del fósforo, del arsénico, de la vida y de la muerte.

Dicho esto, vamos al asunto, que tiene miga. Aunque a muchos pueda resultarles decepcionante (al menos en comparación con las expectativas generadas por gente que NO es de la NASA ni del equipo investigador), el descubrimiento de vida arsénica tiene un alcance extraordinario en “la búsqueda de pruebas de vida extraterrestre” y también en nuestra comprensión de la vida terrestre. ¿Por qué?

En primer lugar, porque el arsénico es un conocido veneno. Dicho en términos sencillos, un antagonista de la vida, y además uno de los más poderosos (no mezclar con el concepto bioquímico de antagonista). Se supone –se suponía hasta hace un rato– que allá donde hay mucho arsénico y no hay nada de fósforo, no puede haber vida. ¿A qué se debe esto? Fundamentalmente, a que el arsénico tiene un comportamiento bioquímico muy parecido al fósforo; tanto como para confundir a los seres vivos. En palabras de la doctora Felisa Wolfe-Simon, una de las participantes en la conferencia de prensa de la NASA:

Toda la vida que se conoce requiere fósforo (P), en forma de fosfatos inorgánicos (PO43– o Pi) y moléculas orgánicas que confienen fosfatos. El Pi sirve como columna vertebral de los ácidos nucleicos que constituyen el material genético y como el mayor almacén de energía química para el metabolismo, en los enlaces de polifosfatos.

El arsénico (As) se encuentra inmediatamente por debajo del fósforo en la tabla periódica, y por ello ambos elementos comparten muchas propiedades químicas, aunque la diferencia es lo bastante grande como para que el arsénico no pueda reemplazar directamente al fósforo en la bioquímica moderna. El arsénico es tóxico porque resulta lo bastante parecido al fósforo como para que los organismos intenten esta sustitución.

–Wolfe-Simon, Felisa; Davies, Paul C.; Anbar, Ariel D. (2009), “Did nature also choose arsenic?”,
en International Journal of Astrobiology, Volumen 8, Número 2, págs. 69-74.

Efectos del arsénico en el agua potable.

Incluso en cantidades bajas, la presencia de arsénico en los alimentos o el agua constituye un grave problema de salud pública. En la foto, un paciente bangladesí muestra los efectos de la intoxicación por esta sustancia en el agua de boca durante la reciente "crisis del arsénico" ( http://bicn.com/acic/ ). El desarrollo de agentes biorremediadores es de gran interés para combatir estos desastres.

En otras palabras: el cuerpo de los seres vivos absorbe arsénico creyendo que es fósforo, lo incorpora y entonces se encuentra con que el arsénico no le sirve para seguir desempeñando sus funciones biológicas. Como resultado, la actividad biológica queda interrumpida o alterada, la homeostasis se desarticula rápidamente y el ser vivo muere.

Suele decirse que la vida terrestre está basada en el agua, o en el carbono. O en el ADN-ARN. Pero, de la misma manera, podríamos afirmar que la vida terrestre está basada en el fósforo. Este no-metal con quince protones en su núcleo (y normalmente dieciséis neutrones, lo que suele resultar en el isótopo estable 31P) se presenta en varios alótropos de propiedades muy diferentes: fósforo blanco, fósforo rojo, fósforo violeta, fósforo negro, difósforo y nanopolímeros. Por su gran reactividad y su capacidad de interactuar agradable o desagradablemente con las cosas vivas, el fósforo blanco es muy conocido en la industria armamentística.

El fósforo forma parte esencial de la estructura del ADN y el ARN. Los fosfolípidos constituyen la sustancia fundamental de las membranas celulares activas. Por tanto, estamos ante uno de los materiales estructurales de la vida. Pero no sólo eso. Prácticamente todos los procesos celulares que consumen energía lo hacen a través de una molécula llamada adenosín-trifosfato (ATP), el vehículo de la energía vital. La fosforilación es, con mucha probabilidad, el mecanismo de regulación enzimática y metabólica más importante de todos. Sin fósforo, nunca habríamos llegado a ser. Sin fósforo, tú y yo no existiríamos. Y cuando el fósforo se ve reemplazado por el arsénico o cualquier otra cosa parecida, morimos sin remisión.

O, al menos, eso pensábamos hasta ayer.

Vida extraña.

Postulamos la hipótesis de que sistemas bioquímicos antiguos, análogos pero distintos a los conocidos hoy en día, podrían haber utilizado arseniatos en un papel biológico equivalente al de los fosfatos. Los organismos que utilizaran estos caminos bioquímicos de “vida extraña” podrían haber sustentado una “biosfera en la sombra” durante los tiempos del origen y la evolución temprana de la vida en la Tierra o en otros planetas. Estos organismos podrían incluso mantenerse en la Tierra hoy en día, no detectados, en nichos inusuales.

–Wolfe-Simon, Felisa; Davies, Paul C.; Anbar, Ariel D. (2009), “Did nature also choose arsenic?”,
en International Journal of Astrobiology, Volumen 8, Número 2, págs. 69-74.

Pteris vittata, un hiperacumulador de arsénico.

Pteris vittata, un hiperacumulador de arsénico.

Se conocían ya algunos organismos capaces de absorber arsénico e incluso incorporarlo parcialmente a sus funciones biológicas. Por ejemplo, el helecho Pteris vittata es un hiperacumulador del arsénico presente en algunos suelos (incluyendo suelos contaminados), lo que permite su uso en fitorremediación. Algunas bacterias y archaeas, como la Sulfurospirillum arsenophilum o varias crenarqueotas, pueden obtener energía de compuestos arsénicos mediante unas enzimas conocidas como arseniato-reductasas (Arr), reduciendo los arseniatos a arsenitos en lo que viene a constituir un mecanismo respiratorio.

Hace un par de años se descubrieron otras bacterias capaces de realizar algo muy parecido a la fotosíntesis en ausencia de oxígeno, utlizando arsenitos como donantes electrónicos y generando arseniatos en el proceso (exactamente igual que, en la fotosíntesis “normal”, el agua actúa como donante de electrones para producir oxígeno); entre estas, parece encontrarse la cepa PHS-1 relacionada con la gamma-protebacteria Ectothiorhodospira shaposhnikovii. Por su parte, el moho Scopulariopsis brevicaulis puede metabolizar cantidades significativas de arsénico inorgánico mediante metilación y algunos peces, crustáceos del tipo del marisco, algas y hongos procesan el arsénico ambiental de forma parecida para dar lugar a la arsenobetaína (que constituye una parte significativa del arsénico presente en la sangre humana, sobre todo después de zamparse una cierta cantidad de estos seres).

Lo que nunca se había manifestado es lo que aparece en el escrito para Science que se ha dado a conocer con esta conferencia de prensa:

La vida está fundamentalmente compuesta por los elementos carbono, hidrógeno, nitrógeno, oxígeno, azufre y fósforo. Aunque estos seis elementos forman los ácidos nucleicos, las proteíanas y los lípidos, y por tanto constituyen el grueso de la materia viva, es teóricamente posible que otros elementos de la tabla periódica puedan desempeñar las mismas funciones. Describimos una bacteria, la cepa GFAJ-1 de las Halomonodaceae, que sustituye el fósforo por arsénico para mantener su crecimiento. Nuestros datos muestran pruebas de arseniatos en macromoléculas que habitualmente contienen fosfatos, y muy notablemente en los ácidos nucleicos y las proteínas. El intercambio de uno de los bio-elementos principales podría tener un significado evolutivo y geoquímico profundo. [...]

Notificamos el descubrimiento de un microbio inusual, la cepa GFAJ-1, que excepcionalmente puede variar la composición elemental de sus biomoléculas básicas sustituyendo fósforo por arsénico. La manera en que el arsénico se incorpora a la estructura de estas biomoléculas no está clara, y los mecanismos mediante los que operan las mismas son desconocidos.

–Wolfe-Simon et al. (2010), “A bacterium that can grow by using arsenic instead of phosporus”,
en Science Express, 2 de diciembre de 2010.

El Lago Mono es un lago alcalino (pH =10) de muy alta salinidad situado en el extremo oriental del estado norteamericano de California, en la Sierra Nevada estadounidense. Aunque el lago en sí no debe alcanzar el millón de años de antigüedad, y seguramente se formó durante la erupción volcánica de Long Valley, la estructura geológica bajo la capa de cenizas apunta a fechas muy anteriores; podría tratarse de uno de los lagos más antiguos de los Estados Unidos. Aunque el nombre Mono también se nos antoja español –y sería exquisitamente adecuado–, en realidad procede de los anteriores habitantes de esas tierras.

Lago Mono, California.

El lago Mono, en la Sierra Nevada de California (EEUU), presenta una elevada concentración de sales de arsénico. Este ha sido el lugar del descubrimiento.

Forma parte de una cuenca endorreica, es decir, sin salida al mar. Esto significa que todos los materiales arrastrados por la lluvia y demás quedan concentrados en el lago, mientras el agua se va evaporando lentamente. Esto forma lagos con gran densidad de sales, que en el caso del Mono tienen un importante componente de arsénico. A pesar de ello, se trata de un espacio de alto valor ecológico, clave para la migración de numerosas aves. No obstante, como vivir, en él sólo viven algunas especies muy especialitas como el crustáceo de aguas salobres Artemia monica, las “moscas alcalinas” Ephydra hians y una serie de algas y bacterias de rasgos extremófilos adaptadas a semejante ambiente.

Lo que han hecho la Dra. Wolfe-Simon y su equipo ha sido tomar una bacteria de características extremófilas que ya había demostrado su resistencia al arsénico en este Lago Mono y cultivarla artificialmente en distintas etapas, con una cantidad cada vez menor de fósforo y mayor de arsénico en los nutrientes. El propósito de estas acciones era provocar tanta sustitución de fósforo por arsénico como fuera posible en el microorganismo. Cuando finalmente lo introdujeron en un medio sin ningún fósforo añadido, sino sólo con un arseniato (AsO43–) y glucosa, ocurrió lo siguiente:

GFAJ-1 creció a un promedio μmax de 0,53 días–1 bajo +As/–P, multiplicando el número de células más de veinte veces después de seis días. Crecía más deprisa y más extensamente al añadirle [fosfato] [...] Pero de todos modos, cuando no se añadió [ni arsénico ni fósforo], no se observó ningún crecimiento. Incluímos tanto la densidad óptica como el recuento de células para demostrar sin ambiguedad alguna el crecimiento utilizando dos métodos independientes.

Dicho en cristiano: GFAJ-1 seguía reproduciéndose en el arsénico, sin fósforo alguno (aunque al añadir fósforo lo hacía más rápido y mejor). Según la doctora Wolfe-Simon y sus colaboradores, esto significaría que esta bacteria es capaz de utilizar el arsénico como sustitutivo del fósforo para una diversidad de sus estructuras y procesos biológicos:

Aproximadamente el 96% del fósforo está presumiblemente distribuido entre las fracciones “lípidas” y “proteínicas”. Si el AsO43– reemplaza el papel biológico del PO43–, entonces el [arsénico] debería estar actuando en muchos papeles bioquímicos análogos, incluyendo el ADN, la fosforilación de las proteínas [...] y los fosfolípidos.

La cepa bacteriana GFAJ-1 (NASA TV).

La cepa bacteriana GFAJ-1, cultivada en arsénico (NASA TV).

O sea: que por primera vez tendríamos un microorganismo funcionando con un elemento distinto de los seis constituyentes básicos de la vida conocidos hasta ahora; elemento que, en otras condiciones, resulta un poderoso enemigo de la vida. Es decir: no se trataría de un extremófilo corriente que tolera la presencia del arsénico o incluso lo incorpora en algún proceso biológico, sino de un organismo capaz de abandonar el fósforo para pasar a constituirse con arsénico. Llevamos décadas especulando con posibles formas de vida extraterrestre no sustentadas en los bioelementos de la vida terrestre; esta sería la primera prueba de que tal cosa resulta verdaderamente posible. Nos hallaríamos al principio de una nueva bioquímica, de un nuevo ámbito de la vida.

La cosa tiene sus críticos (aparentemente minoritarios), que afirman que el experimento no ha demostrado fehacientemente (aún) la sustitución integral o mayoritaria del fósforo por arsénico en la GFAJ-1. Sin embargo, los autores del experimento han dado varios pasos significativos para demostrar este reemplazo; y aunque ciertamente no son definitivos por completo, sí apuntan con claridad a un descenso muy notable del fósforo y un incremento igualmente importante del arsénico en las biomoléculas del microorganismo. A falta de los siguientes estudios –que, visto el revuelo y la relevancia, seguramente no tardarán mucho– no resulta imprudente afirmar que se ha hallado una vida distinta de como la conocíamos.

Las implicaciones.

Si estos resultados se confirman, la importancia y el alcance del experimento anunciado ayer es colosal. Como ya he mencionado, nos hallaríamos ante una nueva bioquímica, algo muy distinto de lo conocido hasta ahora. Mil preguntas se agolpan: ¿cómo es un ADN que incorpora arsénico en vez de fósforo? ¿Cómo funciona la transferencia de energía, considerada hasta ahora competencia exclusiva del ATP? ¿Qué sustituye a la fosforilación, y de qué manera? ¿Qué otras sustituciones resultan posibles, y en qué combinaciones? Hay curro para generaciones enteras de biólogos y bioquímicos. :-D Y, por cierto, habrá que empezar a plantearse las posibles tecnologías derivadas, en medicina, en farmacología y en una multitud de campos. ;-)

Fumarola hidrotermal

Una fumarola hidrotermal submarina. Desde hace tiempo se postula que la vida pudo surgir en torno a ellas; este descubrimiento podría reforzar esta hipótesis.

Por otra parte, tal y como prometió la NASA, el impacto sobre la astrobiología es muy profundo. Si esto es lo que parece ser, estaríamos ante la demostración palmaria de que son posibles otras formas de vida no sustentadas en los bioelementos tradicionales, ampliando enormemente las posibilidades en otros mundos; hasta ahora sólo teníamos especulaciones, pero ahora comenzamos a disponer de hechos probados (siempre dependiendo de las correspondientes verificaciones). Si es posible una vida que utiliza arsénico en vez de fósforo… pues compi, entonces casi todo es posible. Silicio en vez de carbono. Metano en vez de agua. Vete tú a saber. (Insisto: sí, ya sé que sobre todo esto se ha especulado mucho. Pero una cosa es la especulación y otra muy distinta las pruebas.)

También se abren otras posibilidades fascinantes en el ámbito de la abiogénesis, es decir, la manera como surgió la vida; otro campo estrechamente relacionado con la astrobiología. Si son posibles otras formas de vida no sustentadas en los bioelementos tradicionales, ¿se dieron? ¿Pudo haber un segundo génesis (o un tercero, o un cuarto…) de cosas hasta ayer inimaginables, aunque sólo sobreviviera la vida terrestre que conocemos ahora? ¿Realmente sólo sobrevivió la vida que conocemos, o queda algo de esos “otros génesis” en algún rincón de la realidad? Incluso podríamos estar ante una expresión moderna de la forma de vida original, quizás surgida en las fumarolas hidrotermales submarinas ricas en arsénico y otras sustancias antiguamente consideradas “no prebióticas“.

A falta aún de verificar y explorar todo esto, la enseñanza profunda de lo sucedido ayer es que la ciencia ha hecho una vez más lo que mejor sabe hacer: desafiarse, corregirse, ampliarse a sí misma bajo el poder del estudio y la razón. No tenemos ninguna otra vía de adquisición del conocimiento capaz de hacer semejante cosa, constantemente. Por eso la ciencia es tan poderosa y nos ha dado tantas cosas en tan poco tiempo. Mañana, aunque no genere tanto impacto mediático, volverá a ocurrir. Y pasado. Y el día después de pasado. Y así sucesivamente, en un camino siempre ascendente, siempre mejor que difícilmente se acabará. La ciencia no contiene la verdad absoluta, pero sí nos proporciona lo más próximo a la verdad que la especie humana puede alcanzar en cada instante de su historia, ayer, hoy y por siempre jamás.

94 Comentarios Trackbacks / Pingbacks (13)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (116 votos, media: 4,96 de 5)
Loading ... Loading ...
Be Sociable, Share!

« Entradas anteriores Página siguiente » Página siguiente »