Grafeno, el material de los sueños (con entrevista al Nobel de Física 2010)

Entrevista exclusiva a Kostya Novoselov, premio Nobel de Física 2010.

El premio Nobel de Física 2010, Kostya Novoselov, concede una entrevista exclusiva a La Pizarra de Yuri / Público.

El premio Nobel de Física 2010, Kostya Novoselov, concede una entrevista exclusiva a La Pizarra de Yuri / Público.

Aunque sea bastante lógico, no deja de resultarme curioso cómo abunda la gente altanera, áspera y suficiente entre los mediocres. En cambio, quienes realmente podrían permitirse el lujo de ir por la vida con la nariz un poco más levantada que los demás a menudo son amables, sencillos y cordiales. Este es el caso del doctor Konstantin Novoselov, que con 36 años ya puede incluir en su curriculum el Premio Nobel de Física 2010. Gracias a ese hecho, hoy puedo ofrecerte en la Pizarra de Yuri la primera entrevista exclusiva a un Nobel concedida a un blog en castellano (corrígeme si me equivoco y ha habido alguna antes; me interesaría mucho saberlo). La edición en papel de Público sacó un resumen el domingo pasado, pero esta es la versión completa.

Entrevistar a un premio Nobel es siempre un desafío y uno teme no acertar con las preguntas. Así pues, en esta ocasión consulté a más personas amables, que aportaron preguntas inteligentes. Entre estas personas se encuentran Pablo García Risueño (físico, Instituto Max Planck / Instituto de Química Física Rocasolano – CSIC / European Theoretical Spectroscopy Facility – Spanish node), Dani Torregrosa (químico, autor del blog Ese punto azul pálido) o David  (doctor en química, Universidad de Valencia); lo que hago constar con mi agradecimiento. Así, yo creo que ha quedado una entrevista mucho más chula. ;-) Si hay algún error en este post, es mío; si hay algún acierto, es de ellos.

Konstantin, que se hace llamar por el diminutivo Kostya, nació en Nizhny Tagil (URSS) siendo 1974. Actualmente investiga en el Laboratorio de Física de la Materia Condensada de la Universidad de Manchester, en el Reino Unido; tiene la doble nacionalidad ruso-británica. Ha trabajado en una diversidad de campos y muy notablemente en procesos magnéticos. Es coinventor de la cinta de salamanquesa (gecko tape), que sólo pega en un sentido, con diversos usos en nanocirugía, robótica y tecnologías aeroespaciales. Pero Kostya recibió el Nobel en 2010, junto al profesor Andrei Gueim, por sus “experimentos revolucionarios sobre el material bidimensional grafeno”. ¿Y qué es el grafeno?

Grafeno.

Estructura del "material bidimensional" grafeno.

Estructura del "material bidimensional" grafeno.

No es rigurosamente bidimensional, aunque así lo describa la Fundación Nobel y todo el mundo, incluso el propio Kostya. :-P A fin de cuentas, un átomo tiene espesor. Pero ese es todo su espesor: el grafeno es una estructura laminar compuesta por átomos de carbono en disposición hexagonal, unidos mediante enlaces covalentes producidos por hibridación sp2. Se trata de una alotropía del carbono, distinta del carbono amorfo, el vítreo o el diamante. Tampoco es exactamente un fullereno o un nanotubo (aunque el grafeno podría utilizarse para crear nanotubos, plegándolo en forma de cilindro).

Más parecido es al grafito, hasta el punto de que se podría considerar al grafito como una serie de capas superpuestas de grafeno; de hecho, al pintar líneas con un lápiz (cuya mina es de grafito) aparecen trazas de grafeno. No obstante, este no es un buen procedimiento para producirlo en cantidades significativas.

¿Y qué tiene de particular este grafeno? Muchas cosas. Por ejemplo, es el material más resistente medido jamás: 200 veces más que el acero. Pero, al mismo tiempo, es mucho más ligero y tan elástico como el caucho. En palabras de Andrei Gueim, “el grafeno es más fuerte y más tenaz que el diamante, y sin embargo puede estirarse en un cuarto de su longitud, como el caucho. El área que puede cubrir es la mayor que se conoce para el mismo peso.” Otros investigadores, como Ali Reza Ranjbartoreh (Universidad de Wollongong, Australia), dicen “No sólo es más ligero, más fuerte, más duro y más flexible que el acero; también es un producto reciclable, que se puede fabricar de manera sostenible, ecológico y económico.” En opinión de Ranjbartoreh, esto permitirá desarrollar coches y aviones que usen menos combustible, generen menos polución, sean más baratos de operar y resulten menos dañinos al medio ambiente.

Sus propiedades eléctricas y electrónicas resultan igualmente extraordinarias. Por ejemplo, los nanotubos de grafeno podrían reemplazar al silicio como semiconductor en los circuitos microelectrónicos avanzados; en 2008, el equipo de Gueim y Novoselov ya fueron capaces de construir con él un transistor de un nanometro, que tiene un solo átomo de espesor y diez de anchura. Ya por entonces Kostya declaró que esto podría muy bien hallarse en el límite físico absoluto de la Ley de Moore y añadió: “Está en torno a lo más pequeño que se puede hacer. Desde el punto de vista de la Física, el grafeno es una mina de oro. Podrías estudiarlo durante eras.” Conduce el calor tan bien como el diamante y es más transparente. También se le cree capaz de generar efecto Casimir. Muchos lo consideran el primer material del futuro. Pero será mejor que te lo cuente él. ;-)

Kostya Novoselov durante la conferencia de aceptación del Premio Nobel. Imagen: nobelprize.org

Kostya Novoselov durante la conferencia de aceptación del Premio Nobel. Imagen: nobelprize.org

El material de los sueños de Kostya Novoselov.

Konstantin Novoselov (centro) con Mikhail Trudin (izda) y Yuri Samarskiy (dcha). (Clic para ampliar)

Kostya Novoselov (centro) con Mikhail Trunin (decano del FOPF-MFTI, izda.) y Yuri Samarskiy (rector del MFTI, dcha.). Foto: Sergei Vladimirov. (Clic para ampliar)

Dr. Novoselov, quiero darle muchas gracias por responder a nuestras preguntas. Es muy raro tener la oportunidad de entrevistar a un premio Nobel. Y además a uno tan joven, con 36 años. Mientras, la mayoría de nosotros ni siquiera podemos  imaginar lo que se siente cuando alguien te dice: “Kostya, te han concedido el premio Nobel”. Por cierto, ¿qué se siente en un momento semejante?

Fue impresionante. Estaba muy impresionado y te das cuenta de que esto cambia tu papel para siempre. Y de que vas a tener que trabajar mucho para que no cambie también tu vida. Esto fue todo lo que se me ocurrió, que tenía que intentar que no cambiase mi vida.

¿Y lo consiguió?

Sí. De hecho, conseguí regresar a la normalidad y mi vida no es muy diferente ahora de como era antes.

Por cierto, ¿quién le dijo que le habían concedido el Nobel?

Me llamaron por teléfono. No estoy seguro de quién llamó exactamente, porque estaba verdaderamente impresionado. No lo recuerdo pero probablemente fue uno de los secretarios de la Fundación o el presidente de la Fundación.

Kostya, cuénteme el secreto: ¿cómo se gana un premio Nobel antes de los cuarenta?

No hay un secreto. La mejor receta, probablemente, me la dio un buen amigo y colega hace mucho tiempo: “si quieres ganar un premio Nobel, no pienses en ello”. Así que esa es una de las recetas: nunca pienses en ello y limítate a trabajar y divertirte con lo que haces.

A usted le han concedido el premio Nobel junto al Dr. Geim por realizar “experimentos revolucionarios sobre el material bidimensional grafeno”. ¿Qué es un grafeno?

Imagínate el material de tus sueños, el más fuerte, el más conductor, el más duradero… es increíble. El mejor camino a la teoría; eso es el grafeno. En la práctica es uno de los pocos tejidos bidimensionales que se pueden hacer con carbono y tiene todas estas propiedades fantásticas como conductividad, transparencia, fortaleza imperecedera…

¿Y qué hizo usted con este grafeno exactamente?

Estudiamos sus propiedades. Estudiamos principalmente sus propiedades electrónicas pero también algunas otras.

Sin embargo, originalmente usted estudiaba el electromagnetismo, ¿no?

He trabajado en varios campos distintos a lo largo de mi vida, así que cuando me lié con el grafeno no me supuso una gran diferencia. He trabajado en procesos magnéticos, superconductores, semiconductores… así que los grafenos sólo fueron otra cosa más.

Convénzame: ¿por qué debería invertir mi dinero en las investigaciones sobre el grafeno? ¿De qué manera va a cambiar nuestras vidas este nuevo nanomaterial?

Hay varias propiedades de este material que son únicas, mucho mejores que las de cualquier otro. Ya se puede pensar en sustituir todos los materiales existentes por grafenos, para conseguir mejores resultados en todas las aplicaciones avanzadas. Por ejemplo, a los materiales estructurales se les puede añadir unas fibras de carbono para hacerlos mucho más fuertes. O usarlo para las láminas conductoras de las pantallas táctiles: esa es otra área donde el grafeno puede resultar muy beneficioso. Pero las más importantes serán aquellas que no somos capaces de concebir todavía porque no teníamos los materiales adecuados. El grafeno es muy diferente de cualquier otro material, así que podemos ponernos a pensar en estas nuevas aplicaciones.

De todas estas posibles aplicaciones, ¿cuál cree usted que se desarrollará primero?

Ya hay varias aplicaciones en las que se está utilizando. Puedes comprar grafeno en varias empresas de Rusia, Europa, Asia… por ejemplo, para microscopios electrónicos de transmisión. Aunque esto es una aplicación menor. Probablemente, la primera aplicación a gran escala será en las pantallas táctiles.

¿Qué aproximación le parece más prometedora para producir grafenos industrialmente a buen precio?

Ya hay técnicas para producirlos en grandes cantidades. Por ejemplo, mediante crecimiento por CVT [deposición de vapor químico asistida por agua]… se está produciendo en grandes cantidades para muchas aplicaciones.

Con la crisis energética actual, y la energía nuclear comprometida a raíz de los sucesos de Fukushima, ha aumentado el interés en las energías renovables. ¿Serviría el grafeno para desarrollar nuevas células solares mucho más eficientes y baratas que las actuales? ¿Podría sentar las bases de una revolución energética?

El grafeno es sólo una parte de las células solares del futuro. Hay otras muchas partes que deben desarrollarse también. Queda un camino muy, muy largo para que se desarrollen células solares significativamente más eficientes.

Algunas personas han expresado su preocupación por los posibles riesgos para la salud, y especialmente los riesgos para la salud laboral, de esta clase de nanomateriales. ¿Qué opina?

Se puede observar mi vida y ver la evolución de mi salud. Probablemente, soy un conejillo de indias en estos experimentos. Me estoy exponiendo a estos materiales en el laboratorio todos los días, con bastante intensidad, así que podéis experimentarlo conmigo si queréis.

Por cierto, he oído que quiere usted cambiar de campo porque ya ha pasado mucho tiempo en este…

Sí. Te vas ralentizando. Estoy pensando en hacer alguna otra cosa.

¿Como por ejemplo…?

Eso prefiero guardármelo.

Tenía que intentarlo. ;-) Dr. Novoselov, a menudo se considera a los ganadores del premio Nobel como “heraldos de la ciencia” de cara al mundo, a la sociedad. ¿Se siente cómodo en este papel?

Todos tenemos la oportunidad de educar al público en materia científica. Esta es una de las muchas posibilidades que se incrementan cuando ganas el premio Nobel, y también una responsabilidad. Por ejemplo, es una pena ver cómo la gente sobrerreacciona con este asunto de Fukushima. Por desgracia, la gente que gana el premio Nobel , aunque tenga mejores posibilidades de educar al público, no tiene necesariamente la capacidad para hacerlo.

En algunos ámbitos existe una percepción de que la creatividad se está perdiendo en la ciencia moderna por un exceso de rigidez en la práctica cotidiana. ¿Cómo se puede aumentar la creatividad en el entorno de la ciencia moderna? ¿Se puede enseñar creatividad a las personas?

No se puede enseñar la creatividad a las personas. Cuando las personas vienen al laboratorio, intentamos liberar sus mentes para que hagan cualquier cosa que deseen hacer, con los únicos límites de su naturaleza y su imaginación. Y no creo que falte creatividad en estos momentos. Creo que recientemente se han logrado algunos de los mejores resultados científicos. No me parece que haya un problema con ese tema.

He oído hablar de sus “experimentos de los viernes”. ¿Puede decirnos en qué consisten?

Hacemos cosas raras que queremos hacer, intentamos cosas que no son convencionales. Cosas que probablemente parezcan bastante extrañas al principio, pero que pueden terminar convirtiéndose en algo grande. Simplemente, tratamos de liberar la mente.

¿Qué es más importante en estos “experimentos de los viernes”: la creatividad o el conocimiento guiado por la experiencia?

Nunca me planteo qué es lo más importante. Simplemente hago lo que me resulta interesante a mí.

Vamos a ir un poco más lejos. ¿Qué caminos le parece que está tomando la ciencia? ¿Qué grandes avances espera en el futuro próximo?

Yo sólo soy capaz de predecir el pasado, no el futuro. Pero el futuro está ahí y siempre es capaz de superar nuestras predicciones más descabelladas. Hay un montón de cosas ahí fuera donde podemos encontrar nuevas realidades.

Kostya, como usted sabrá, hay gente que piensa que la ciencia y la tecnología están avanzando demasiado, demasiado rápido. Temen los posibles efectos adversos sobre la gente, el medio ambiente y la vida en general. ¿Le gustaría decir algo a estas personas?

No se puede detener el progreso. No se puede detener la ciencia porque es parte de nuestra naturaleza, de nuestra curiosidad. Necesitamos a la ciencia, pero tenemos que asegurarnos de estudiar su impacto adecuadamente antes de usarla. Y esto se puede hacer siempre mejorando la ciencia, haciendo mejor ciencia. Hacer menos ciencia resulta mucho más peligroso que hacer más ciencia.

Yo suelo comentar que cuando una sociedad deja de avanzar, no sólo se estanca, sino que de inmediato comienza a retroceder; y que esto es especialmente cierto para el progreso científico. ¿Está de acuerdo conmigo? :-D

A las personas nos encantan las cosas nuevas. Siempre nos obligamos a usar cosas nuevas, a pensar en cosas nuevas. Es absolutamente inevitable. Si se deja de utilizar la ciencia, estas cosas nuevas no serán científicas, y esto es mucho más peligroso que utilizar las nuevas respuestas científicas.

No quiero robarle más tiempo, doctor. Por cierto, ¿llegó a conocer al hamster Tisha? ;-)

Sí. Era un hamster bastante metomentodo.

Tengo entendido que nació usted en Nizhny Tagil, ¿no?

Sí, así es.

Nació en Nizhny Tagil y desde allí salió al mundo para estudiar el material de sus sueños y con ello ganar el premio Nobel. Me parece algo fabuloso.

Muchas gracias.

Muchas gracias a usted de nuevo, Kostya. Большое спасибо.

Entrevista anterior: Sergei Krásnikov, astrofísico de Pulkovo, proponente de los tubos de Krásnikov para casiviajar en el tiempo.

73 Comentarios Trackbacks / Pingbacks (178)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (57 votos, media: 4,79 de 5)
Loading...
Be Sociable, Share!

La casi-máquina del tiempo del Dr. Krásnikov (con entrevista al Dr. Krásnikov)

Máquinas del espaciotiempo

Aspecto hipotético de un agujero de gusano conectado con otro universo o con otro punto de este universo, por el que una nave espacial podría transitar. Imagen: NASA. (Clic para ampliar)

Aspecto hipotético de un agujero de gusano conectado con otro universo o con otro punto de este universo, por el que una nave espacial podría transitar. Imagen: NASA. (Clic para ampliar)

¿Quién no ha soñado alguna vez con viajar en el tiempo o con atravesar un portal en dirección a mundos remotos? A los ojos de mucha gente, esto son sólo fantasías o argumentos para historias de ciencia-ficción. Y sin embargo existen algunas personas, en las fronteras más inhóspitas de la física teórica, que estudian estas cuestiones en serio. Así, se convierten en los pioneros de la humanidad futura. Cuando Pitágoras o algún primo suyo dedujo que la Tierra era redonda, o cuando Eratóstenes de Cirene calculó su circunferencia, tampoco parecía que estos conocimientos tuvieran muchas utilidades prácticas: imagina dónde estaríamos ahora sin tales descubrimientos. O si Euclides de Alejandría o Apolonio de Perga hubieran dejado de ser geómetras cuando les preguntaron para qué servían todos esos dibujitos. Y si Maxwell hubiera considerado que eso del electromagnetismo no servía para gran cosa, la electrónica y las telecomunicaciones no habrían surgido jamás. Así funcionan las cosas: primero surge la ciencia pura, después viene la aplicada y finalmente se desarrolla la tecnología. Superada la Edad Media, sin ciencia pura, no hay tecnología ni progreso digno de mención.

Todo lo que somos capaces de hacer ahora mismo se origina en las cosas que pensaron los teóricos de hace decenas, cientos e incluso miles de años. Todo lo que hagan las generaciones futuras se sustentará en las cosas que piensen los teóricos de hoy en día. Una sociedad, una especie que renunciase a la ciencia teórica y a la especulación científica quedaría estancada para siempre, incapaz de avanzar, de evolucionar. Esas personas que estudian las cosas que aparentemente no sirven para nada son, en cada momento de la historia, los pioneros de las gentes que vendrán. Caminamos sobre los hombros de gigantes, y todo eso.

Permíteme presentarte a uno de estos pioneros: Sergei Krásnikov. Sergei Krásnikov es doctor en Física y trabaja actualmente como investigador en el Observatorio Astronómico Central de Pulkovo. Es experto en relatividad general, teoría cuántica de campos en espaciotiempos curvos y astrofísica de partículas, ¡casi ná!

La cosa no acaba ahí. En 1995, causó un impacto notable sobre la comunidad científica al proponer el tubo o metro de Krásnikov, una especie de agujero de gusano cuyos extremos se encuentran desplazados en el espacio pero también en el tiempo. Este tubo es una distorsión espaciotemporal que podría crearse de manera intencionada para viajar en el tiempo y también por el espacio a velocidades (no-locales) superiores a la de la luz. Utilizando uno de estos tubos, tendrías que viajar a tu destino por medios convencionales, pero podrías regresar a casa poco después de tu partida. Por ejemplo: sales de la Tierra en el año 2100, llegas a otro sistema solar en el 2700, y sin embargo regresas a la Tierra siendo aún el 2120. Extraño, ¿eh? Además, el Dr. Krásnikov ha trabajado también en un modelo de agujeros de gusano que podrían sostenerse a sí mismos, obteniendo así algo muy parecido a las puertas estelares estables. Vamos, que don Sergei no pierde el tiempo, ese que estudia tan profundamente, con cosillas de tres al cuarto. ;-)

El doctor Sergei Krasnikov. Foto: Alexander Friedmann Laboratory for Theoretical Physics.

El doctor Sergei Krasnikov, investigador del Observatorio Central de Pulkovo, Rusia. Foto: Alexander Friedmann Laboratory for Theoretical Physics.

A pesar de todo ello, el doctor Krasnikov resulta ser una persona de lo más amable y accesible, que no ha puesto ningún inconveniente en contestar a algunas preguntas sobre su trabajo para la Pizarra de Yuri. Gracias a eso, puedo ofrecerte hoy la siguiente entrevista exclusiva con una de las personas que más saben del mundo en materia de viajes no convencionales por el espaciotiempo. Él nos lo va a contar mucho mejor de lo que jamás sabría hacerlo yo:

El metro espaciotemporal de Krásnikov.

Muchas gracias por su valioso tiempo. ¿Cómo es la vida cuando los extremos más exóticos del conocimiento y de la realidad constituyen su pan de cada día?

La respuesta corta: interesante. La respuesta larga daría para un libro: «De consolatione physicae».

Dr. Krásnikov… ¿qué es un tubo de Krásnikov? :-)

Toma el espaciotiempo de Minkowski y ponle un sistema de coordenadas (esto es necesario para dar sentido a las palabras «cerca» y «lejos»). A continuación, sustituye una región de este espaciotiempo plano por otra que sea curva. Esta región se llama tubo de Krásnikov si reúne las siguientes condiciones:

1. Se encuentra por completo en el futuro desde el origen de coordenadas O (o sea, se puede decir que aparece debido a algo que sucedió en O).

2. En el futuro de O hay un punto muy distante (desde O) al que llamaremos D, que se encuentra al mismo tiempo en el pasado de un punto P muy próximo a O (por tanto, lo que describo es una «casi-máquina del tiempo»).

Así pues, hay una curva de tipo tiempo (la línea de universo de una nave espacial) que comienza en O (por ejemplo, la Tierra en el año 2100), pasa por D (por ejemplo, Deneb en el 2700) y vuelve a casa en P (la Tierra en el 2120).

Representación en 2 dimensiones de un agujero de gusano (clic para ampliar).

Un agujero de gusano es una característica topológica hipotética del espaciotiempo permitida por la Relatividad General, que en esencia constituría un "atajo" a través del mismo (aunque también podría formar un "alargamiento" o un "callejón sin salida"). Se considera generalmente que los agujeros negros realmente atravesables requerirían materia exótica con densidad de energía negativa para estabilizarse. (Clic para ampliar).

¿Qué relación tiene con los agujeros de gusano?

Se podría hacer un truco similar –regresar de Deneb antes de llegar allí, según un reloj terrestre– utilizando un agujero de gusano. La diferencia crucial es que para construir un tubo de Krásnikov no necesitas cambiar la topología del espaciotiempo.

Entonces, usando un tubo de Krásnikov sería verdaderamente posible viajar en el tiempo además de por el espacio, ¿no?

Errrr… ¡depende de lo que entiendas por «viajar en el tiempo»!

¿Qué aspecto tendría un tubo de Krásnikov para un observador externo?

El tubo es un cilindro creciente. Uno de sus extremos estaría cerca de la Tierra y el otro seguiría a la nave espacial. El cilindro está vacío por dentro, pero sus paredes son MUY densas. Este cilindro es el pasadizo por donde el viajero regresa a casa.

Tengo entendido que hace falta viajar a velocidades próximas a las de la luz por dentro del tubo para que el efecto se produzca, ¿es así?

Simplemente, no tiene sentido utilizar este tubo para un viaje intergaláctico a menos que te muevas a velocidad relativista con respecto a la Tierra (en el ambiente del espacio de Minkowski). De lo contrario, el viaje requeriría una cantidad de tiempo prohibitivamente grande para el piloto.

¿Que se vería o se sentiría durante un viaje así? ¿Sería peligroso?

Tendrías que viajar a velocidad relativista a lo largo de un corredor MUY estrecho. Creo que es extremadamente peligroso.

Dr. Krásnikov, imagínese por un momento que fuera usted un escritor de ciencia-ficción. ¿Cómo describiría la ingeniería de un tubo de Krásnikov?

Me sentiría libre para escribir casi cualquier cosa. El tubo es sólo un ejemplo (tan simple como es posible) que ilustra el concepto de «viaje hiper-rápido» y su posibilidad. El método real para realizar viajes interestelares, si aparece algún día, seguramente será muy diferente.

Everett y Roman de la Universidad Tufts han dicho que dos tubos de Krásnikov dispuestos en sentidos opuestos crearían bucles temporales y violaciones de la causalidad. ¿Es esto correcto?

No mucho. Pasa lo mismo que con los agujeros de gusano. Si tienes dos tubos (o dos agujeros de gusano), puedes INTENTAR construir una máquina del tiempo con ellos. Tus posibilidades de tener éxito constituyen una pregunta abierta: habrá siempre un momento en que el universo «elija» entre dar lugar a una máquina del tiempo o a una «singularidad cuasi-regular». Hoy por hoy no podemos ni influir en esta «decisión», ni predecirla.

Leí en algún sitio que los tubos de Krásnikov podrían crear un Anillo Romano. ¿Qué es un Anillo Romano? ¿Qué implicaciones tiene para su metro espaciotemporal?

No, no veo ninguna relación obvia entre estos objetos. No sé a qué se referiría el autor. El Anillo Romano, según yo lo entiendo, es un sistema de agujeros negros que presumiblemente puede estabilizar el horizonte de Cauchy de una máquina del tiempo emergente.

El "portal" de la serie de ficción Stargate SG-1.

Los "portales" o "puertas estelares" habituales en la ficción (como este de la serie televisiva Stargate SG1) no están prohibidos por la Relatividad General y podrían ser realizables en la práctica. Pero, hoy en día, no sabemos cómo.

Las puertas estelares de Schwarzschild-Hawking.

Dr. Krásnikov, usted ha propuesto también algunas cosas muy interesantes sobre los agujeros de gusano en general. Se considera generalmente que para crear y estabilizar un agujero de gusano atravesable harían falta inmensas cantidades de materia-energía negativa. Sin embargo, según tengo entendido, usted ha sugerido que el propio fenómeno podría producir esta materia-energía negativa y por tanto se convertiría en un agujero de gusano atravesable autosostenido: algo muy parecido a una puerta estelar. ¿Es esto correcto? ¿Cómo sería posible?

La idea no es mía (según a mí me consta, es de Sergei Sushkov). Su esencia es muy simple: dado que el espaciotiempo en un agujero de gusano está curvado, el vacío siempre está «polarizado» ahí. En otras palabras: debido a los efectos cuánticos, un agujero de gusano nunca está vacío, sino lleno con alguna clase de «materia». Las propiedades de esta materia no están limitadas por las condiciones clásicas (como la exigencia de que la densidad de energía sea positiva), y están determinadas (entre otras cosas) por la forma del agujero de gusano.

Por tanto, todo lo que necesitarías (si supieses cómo crear un agujero de gusano, en primer lugar) es encontrar una forma tal que la materia producida por estos efectos cuánticos sea exactamente la misma que haría falta para mantener el agujero de gusano. Durante un tiempo pensé que había descubierto la forma necesaria para un agujero de gusano autosostenido estático. Después, sin embargo, encontré un error en mis cálculos. Así que abandoné la exigencia de que el agujero de gusano tuviera que ser estático y busqué una forma que se limitara a permitir que fuera atravesable.

Resultó que el agujero de gusano más simple (que es inicialmente la solución de Schwarzschild) posee ya esta propiedad. La famosa radiación de Hawking impide que colapse durante tiempo suficiente como para permitir que un viajero lo atraviese.

Pero seguiría haciendo falta una cantidad inicial de materia-energía negativa, ¿no?

No. Estoy hablando de agujeros de gusano «naturales» que presumiblemente aparecieron en el universo temprano. Su entorno no fue determinado por una «civilización avanzada» que hubiera podido alimentarlos con materia a su albedrío.

¿Qué aspecto tendría uno de esos «agujeros de gusano autosostenidos de Krásnikov»? ¿Cómo sería el viaje? ¿Correrían peligro los viajeros?

Son más bien «agujeros de gusano autosostenidos de Schwarzschild-Hawking». Tendrían el mismo aspecto que un agujero negro corriente salvo por el hecho de que un viajero, después de intersecar su «horizonte«, dispondría de algún tiempo para alcanzar el otro extremo y salir de él por su otra región asintóticamente plana. Por supuesto, este viaje sería peligroso: si el viajero no es lo bastante veloz, resultará aplastado por la singularidad.

Dr. Krásnikov… ¿qué es el tiempo?

¿Qué es la longitud? ¿Qué es la anchura?

¿Y el espacio?

De hecho, no hay nada tan misterioso en los conceptos de espacio y tiempo (al menos, mientras nos mantengamos dentro de la física clásica). Quizás sea difícil explicar rigurosamente estos conceptos a un niño de seis años, pero cualquier estudiante de segundo curso de carrera es capaz de comprenderlos. Describimos (con éxito) nuestro universo mediante ciertos objetos geométricos: es el espacio de Minkowski en la Relatividad Especial, o el espaciotiempo en la Relatividad General. En la física newtoniana es el producto de un espacio euclídeo tridimensional por una línea real. Y al aplicarlos a esos objetos, palabras como «espacio», «tiempo» y demás tienen un significado claro y riguroso.

¿Y el espaciotiempo? ;-)

Pienso que es una variedad Hausdorff paracompacta, suavemente conectada, de cuatro dimensiones, provista con una métrica de Lorentz suave orientada en el tiempo.

¿Cómo demonios se puede deformar el espaciotiempo? La gente no entiende esto…

¡Esa es una buena pregunta! Sorprendentemente, conocemos una parte de la respuesta. Y la respuesta, llamada Relatividad General, es que CUALQUIER espaciotiempo no vacío está curvado. En cada punto, su curvatura está relacionada con las propiedades de la materia en ese punto, y específicamente con su presión y densidad de energía, a través de las ecuaciones de Einstein.

 

Albert Einstein, que desarrolló la Teoría de la Relatividad.

S. V. Krásnikov: "Es muy sencillo: todas las cuestiones sobre el tiempo, el espacio, el origen del universo, etc. son pura Relatividad General" desarrollada por Albert Einstein (en la imagen).

Si una persona joven que esté leyéndonos quisiera dedicarse a esto en el futuro, ¿qué debería estudiar?

Es muy sencillo: todas las cuestiones sobre el tiempo, el espacio, el origen del universo, etc. son pura Relatividad General.

Una última pregunta, Dr. Krásnikov. Como seguramente sabrá, no pocas personas piensan que esto son cosas destarifadas, una especie de pérdida de tiempo muy sofisticada, sobre todo teniendo en cuenta que aquí en la Tierra hay tantos problemas graves por solucionar. ¿Qué le gustaría decirle a estas personas?

Esta era una de las preguntas favoritas de los escritores de ciencia-ficción en los años ’60. No puedo añadir nada a lo que ya dijeron Asimov o Lem, así que me limitaré a hacer dos comentarios:

1. Por supuesto que responder a la pregunta de si se puede vencer la barrera de la velocidad de la luz no es la más urgente. Pero lo mismo puede decirse de CUALQUIER otro problema. ¿Como se atreven esas personas a pintar su casa, o a curar el reumatismo, cuando los niños están LITERALMENTE muriendo de hambre en África? ¡A miles!

2. Estas personas, ¿conocen alguna manera de resolver los problemas realmente importantes sin usar ordenadores, o teléfonos, o la electricidad en general? Pues tuvo que venir Faraday a perder su tiempo en problemas aparentemente inútiles para que todos esos televisores y refrigeradores que usan a diario pudieran llegar a existir.

Por cierto, ¿hay algo importante que no le haya preguntado?

¡Puedes apostar a que sí! Pero habrá que dejar algo para futuras entrevistas, ¿no?

Pues muchísimas gracias de nuevo, Dr. Krásnikov. Si hay algo en lo que yo pueda ayudarle, simplemente dígamelo…

Si lo que vas a escribir incita a un par de estudiantes brillantes para que hagan algo en este campo, me daré por totalmente recompensado.

Y yo también.  ;-)

Bibliografía:

  • Introducción a la Relatividad General e Introducción matemática a la Relatividad General, en la Wikipedia (en castellano).
  • Introducción al espacio, el tiempo, la materia y el vacío, y a la gravitación y los agujeros negros, disponibles en la web de la Universidad de Chile (en castellano).
  • Einstein, Albert (ed. 2008), Sobre la teoría de la relatividad especial y general. Alianza Editorial, Madrid, ISBN 978-84-206-6841-3 (en castellano).
  • Misner, C. W.; Thorne, K. S.; Wheeler, J. A. (1973), Gravitation. W. H. Freeman, San Francisco, ISBN 978-0-7167-0344-0 (en inglés).
  • Wald, R. M. (1984), General relativity. The University of Chicago Press, Chicago, ISBN 0-226-87033-2 (en inglés).
  • Thorne, K. (1995), Agujeros negros y tiempo curvo: el escandaloso legado de Einstein. Ed. Crítica, Barcelona, 978-84-7423-697-2 (en castellano).
  • Krásnikov, S. V. (1995), Hyperfast interstellar travel in General Relativity, disponible en arXiv:gr-qc/9511068v6 (en inglés).
  • Krásnikov, S. V. (2006), Сверхсветовые движения в (полу)классической ото [Movimiento superlumínico en Relatividad (semi)clásica], disponible en arXiv:gr-qc/0603060v1 (en ruso).
89 Comentarios Trackbacks / Pingbacks (29)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (74 votos, media: 4,88 de 5)
Loading...
Be Sociable, Share!

La red de transporte interplanetario

Desarrollada teóricamente a finales del siglo XIX y resuelta en los últimos años del XX,
la Red de Transporte Interplanetario resuelve el problema de viajar entre mundos
con un coste energético ridículamente bajo. Sólo es un poco más lenta.


Lanzamiento de la nave espacial interplanetaria New Horizons
con destino a Plutón-Caronte y el cinturón de Kuiper,
a bordo de un cohete Atlas V-Star 48B, el 19 de enero de 2006.
Llegará en junio de 2015, tras un viaje de cinco mil millones de kilómetros.
Los cohetes sólo actúan durante los primeros minutos;
el resto del viaje carece de propulsión autónoma. (NASA)

La nave New Horizons durante su ensamblaje final.

La nave New Horizons durante su ensamblaje final. Cuenta con dieciséis motores de 4,4 newtons para correcciones de trayectoria y doce de 0,9 newtons para el control de actitud, pero ningún impulsor principal, al igual que el resto de naves espaciales humanas del presente y del futuro próximo. Foto: NASA. (Nueva ventana o pestaña para ampliar)

A pesar de lo que se pudiera concluir tras ver muchas pelis de ciencia-ficción, las naves espaciales carecen generalmente de propulsión propia. Sólo llevan una pequeña cantidad de combustible y unos motorcitos minúsculos para realizar ocasionalmente maniobras de corrección de trayectoria, casi siempre con el propósito de mantener la posición. Así es tanto en los satélites como en las sondas de espacio profundo, así ha sido durante toda la Era Espacial, sigue siéndolo en la actualidad y seguirá siéndolo durante una buena temporada. No hacemos vuelo libre por el espacio, sino que describimos órbitas y realizamos triquiñuelas aprovechando los efectos de la gravedad y la velocidad, en una especie de billar cósmico.

En cierto sentido, una nave espacial se parece mucho más a un velero gravitacional que a un navío a motor. Esos enormes cohetes que vemos encenderse con poderosos rugidos y llamaradas sólo están para sacar la nave del pozo gravitatorio terrestre. Tragan combustible a mares y se agotan enseguida. Al poco del lanzamiento se van apagando y desprendiendo, normalmente por fases, y unos pocos minutos después se acaban todas y liberan la nave. En un lanzamiento sencillo a la órbita baja terrestre, esto está visto para sentencia en menos de diez minutos. Por ejemplo, la impulsión para una Soyuz con destino a la Estación Espacial Internacional termina a los nueve minutos; el resto del viaje se completa por la órbita, conservando la velocidad adquirida durante el lanzamiento sin propulsión significativa adicional.

Para ir más lejos, lo que requiere ir algo más rápido, se suele utilizar una última fase que se enciende de nuevo al llegar a un cierto punto de la órbita para darle un último empujón. Esto es lo que hace, por ejemplo, la etapa Fregat de las Soyuz o la S-IVB de los Saturno V que los estadounidenses usaron para llevar a la humanidad a la Luna. Pero incluso estas últimas aportaban una impulsión adicional de apenas seis minutos. Quien desea ir a Venus o Marte, pongamos por caso, lo hace de manera muy parecida; en este último enlace puede verse cómo un viaje a Marte sólo está propulsado seriamente al principio, durante unos catorce minutos y pico en total, de los siete meses que dura. A partir de ahí sólo actuarán los motores de maniobra, muy de tarde en tarde, para realizar pequeñas correcciones o forzar la inyección final en la órbita marciana.

Esto es posible porque en el espacio no se produce arrastre aerodinámico, dado que no hay aire. Una nave colocada en una órbita estable a una velocidad determinada tiende a mantener esta velocidad en virtud de la primera ley de Newton. Como decía al principio, después se pueden utilizar trucos para aumentar (o reducir) esta velocidad, del tipo de la asistencia gravitatoria. El vuelo espacial es un juego de trayectorias y velocidades. Sí, como en el billar.

Venera-7, la primera nave espacial humana que completó un viaje interplanetario.

Venera-7, la primera nave espacial humana que aterrizó con bien en otro mundo. Se posó cerca de Safo de Venus, al sur de la Planicie de Ginebra, siendo las 05:34:10 GMT del 15 de diciembre de 1970; acaba de hacer cuarenta años. (Clic para ampliar)

Vuelo interplanetario.

Para viajar entre astros hay que tener claros dos conceptos fundamentales: la velocidad de escape y la órbita de transferencia de Hohmann.  Dicho en plan sencillo, la velocidad de escape es lo rápido que hay que ir para escapar de la atracción gravitatoria de la Tierra o cualquier otro astro. Más técnicamente, se define como la velocidad a la que la energía cinética de la nave contrarresta a la energía potencial gravitatoria resultante de la interacción entre la nave y el astro. La velocidad de escape es independiente de la masa del objeto que escapa: da igual si tu nave pesa un kilo o un millón de toneladas (en este último caso necesitarás más energía para acelerarla hasta ese punto, pero la velocidad de escape no varía). Por el contrario, es dependiente de la distancia entre la nave y el astro. Por ejemplo, si la nave estuviera situada sobre la superficie terrestre, la velocidad de escape sería de 11,2 km/s (40.320 km/h); sin embargo, en la órbita baja desciende a 10,9 km/s (39.240 km/h) y a nueve mil kilómetros de distancia, cae a algo menos de 7,1 km/s (25.560 km/h). De hecho la velocidad de escape depende sólo de la distancia entre ambos objetos y la intensidad del campo gravitatorio en ese punto, y se describe con la ecuación ve = (2gr)½, donde g es el campo gravitatorio y r la distancia que separa sus centros de masas. La velocidad de escape es un fenómeno que se deriva del principio de la conservación de la energía.

Hablar de velocidad de escape a pelo no tiene demasiado sentido. Hablamos siempre de velocidad de escape desde algún sitio con respecto a algo: la Tierra, el Sol, la Luna, Saturno, el centro de la galaxia, lo que sea. Por ejemplo: ya hemos dicho que la velocidad de escape desde la órbita baja terrestre con respecto a la Tierra son 10,9 km/s. Pero la velocidad de escape desde este mismo lugar con respecto al Sol asciende a 42,1 km/s (151.560 km/h). Esto quiere decir que una nave situada más o menos por donde la Estación Espacial Internacional necesita ir a algo menos de cuarenta mil kilómetros por hora para escapar de la gravedad terrestre, pero tendría que viajar a más de ciento cincuenta mil para zafarse de la del Sol desde el mismo punto, por ejemplo con el propósito de efectuar un viaje interestelar. Evidentemente, los científicos e ingenieros espaciales tratan de jugar con las distancias y velocidades para conseguir el máximo ahorro de energía, de tal modo que estos viajes sean posibles con los motores y las cantidades de combustible que somos capaces de manejar.

Cuando una nave espacial alcanza la velocidad de escape entra en órbita de escape, que es una trayectoria parabólica de mínima energía (o sea, una órbita de Kepler con excentricidad 1) que la lleva hacia el infinito mientras la velocidad con respecto al objeto del que ha escapado tiende a cero. Y yendo un poco más deprisa, se puede pasar también a una trayectoria hiperbólica (es decir, una órbita de Kepler con excentricidad mayor que 1). Así se puede viajar hacia cualquier lugar del cosmos sin necesidad de llevar propulsión todo el tiempo.

Sin embargo, se intuye fácilmente que hace falta mucha energía para alcanzar estas velocidades. En torno a 1925 un ingeniero alemán llamado Walter Hohmann, inspirado por la lectura de obras de ciencia ficción, intentó encontrar una manera de reducirlas. También por las mismas fechas, un matemático soviético de nombre Vladimir P. Vetchinkin estuvo estudiando la cuestión. Resulta difícil determinar cuál dio con la solución primero, pero ambos alcanzaron las mismas conclusiones, que en Occidente se denominan las órbitas de Hohmann y en el espacio ex-soviético, de Hohmann-Vetchinkin.

Una órbita de Hohmann (o Hohmann-Vetchinkin) no es una órbita típica de escape, parabólica o hiperbólica, sino un tipo particular de órbita elíptica. Una órbita elíptica es una órbita de Kepler con excentricidad menor que 1, hasta la órbita circular, con excentricidad cero (aunque normalmente esta última se denomina órbita circular a secas). Simplificando, es cualquier órbita que no escapa de un astro determinado (aunque puede alejarse bastante de él). En consecuencia, la velocidad (y por tanto la energía) necesaria para establecerse en ella resulta significativamente menor. Hay varios tipos posibles de órbitas elípticas, algunos de ellos muy prácticos, desde la conocida Molniya hasta la más rara órbita tundra.

Órbita de transferencia Hohmann-Vetchinkin entre una órbita baja y otra geoestacionaria.

Órbita de transferencia Hohmann-Vetchinkin (2) entre una órbita baja (1) y otra geoestacionaria (3).

Una órbita de transferencia Hohmann (o Hohmann-Vetchinkin :-D ) es una órbita elíptica parcial que sirve para saltar entre dos órbitas circulares situadas a distinta distancia. Por ejemplo, en la imagen de la izquierda la vemos utilizada para conmutar entre una órbita baja (1) y una órbita geoestacionaria (3) en ambos casos con la Tierra en el centro; es el tramo amarillo (2). Para realizar esta maniobra, sólo necesitamos dos impulsos, uno a la entrada y otro a la salida. La gracia radica en que estos dos impulsos consumen bastante menos energía que la necesaria para alcanzar la velocidad de escape (y no digamos si encima hay que abandonarla en destino). La desgracia, que resulta en un recorrido más largo que la trayectoria parabólica y mucho más largo que la hiperbólica.

Pero en la mayoría de casos, resulta la manera energéticamente más económica de viajar entre dos órbitas circulares que no tienen por qué pertenecer al mismo astro (si bien la mecánica específica se complica un poco más en este último caso). Es decir: podemos salir de una órbita circular alrededor de la Tierra y acabar en una órbita circular alrededor de Venus o Marte o el Sol o cualquier otro lugar con menos coste energético que tratando de alcanzar la velocidad de escape. Dicho de otra manera, es la forma más eficiente de trasladar una nave espacial entre dos órbitas distintas. Bajo determinadas circunstancias, la transferencia bi-elíptica puede optimizar aún más el coste energético.

Y es que en las naves espaciales del presente (y del futuro próximo) el problema fundamental es el coste energético. Cuanta más energía necesite una nave espacial para completar su viaje, requerirá más combustible y más motores, es decir más masa y volumen. O sea que tendrá que ser una nave más grande, más difícil de construir y con un coste económico mucho mayor. A partir de cierto punto, el proyecto se tornará irrealizable. Por eso el balance energético de una misión espacial es tan importante. Cualquier cosa que lo mejore no sólo reduce el dinero a gastar, sino que abre puertas al futuro que de otra manera no serían posibles en la práctica.

Plan de vuelo para la nave interplanetaria soviética Venera-5, enero-mayo 1969.

Plan de vuelo Tierra-Venus para la nave interplanetaria soviética Venera-5, utilizando una órbita de transferencia Hohmann-Vetchinkin de tipo I durante la ventana de enero de 1969.

Los puntos de Lagrange.

Estatua a Joseph-Louis de Lagrange (Giuseppe Luigi Lagrangia) en Turín.

Estatua a Joseph-Louis de Lagrange (Giuseppe Luigi Lagrangia) en Turín.

Y ahora vamos a hacer un inciso, que resulta imprescindible para poder continuar. Érase una vez que se era un matemático ítalofrancés llamado Joseph-Louis de Lagrange, que trabajaba en el problema newtoniano de los tres cuerpos; como puede suponerse fácilmente, una extensión del problema de los dos cuerpos. :-D Dicho a lo fácil, esto del problema de los tres (o más) cuerpos estudia cómo se influyen mutuamente tres (o más) cuerpos que interaccionan gravitacionalmente entre sí. Por ejemplo, el sistema Sol-Tierra-Luna. O el Tierra-Venus-nave espacial, por decir otro.

Ciento ochenta y siete años antes del primer viaje a la Luna, este señor Lagrange dedujo matemáticamente una cosita interesante. Como la Wikipedia lo explica bastante bien, vamos a citarla:

En 1772, el matemático ítalo-francés Joseph-Louis Lagrange estaba trabajando en el célebre Problema de los tres cuerpos cuando descubrió una interesante peculiaridad. Originalmente, trataba de descubrir una manera de calcular fácilmente la interacción gravitatoria de un número arbitrario de cuerpos en un sistema. La mecánica newtoniana determina que un sistema así gira caóticamente hasta que; o bien se produce una colisión, o alguno de los cuerpos es expulsado del sistema y se logra el equilibrio mecánico. Es muy fácil de resolver el caso de dos cuerpos que orbitan alrededor del centro común de gravedad. Sin embargo, si se introduce un tercer cuerpo, o más, los cálculos matemáticos son muy complicados. Una situación en la que se tendría que calcular la suma de todas las interacciones gravitatorias sobre cada objeto en cada punto a lo largo de su trayectoria.

Sin embargo, Lagrange quería hacer esto más sencillo, y lo logró mediante una simple hipótesis: La trayectoria de un objeto se determina encontrando un camino que minimice la acción con el tiempo. Esto se calcula substrayendo la energía potencial de la energía cinética. Siguiendo esta manera de pensar, Lagrange reformuló la mecánica clásica de Newton para dar lugar a la mecánica lagrangiana. Con su nueva forma de calcular, el trabajo de Lagrange le llevó a plantear la hipótesis de un tercer cuerpo de masa despreciable en órbita alrededor de dos cuerpos más grandes que ya estuvieran girando a su vez en órbita cuasi circular. En un sistema de referencia que gira con los cuerpos mayores, encontró cinco puntos fijos específicos en los que el tercer cuerpo, al seguir la órbita de los de mayor masa, se halla sometido a fuerza cero. Estos puntos fueron llamados puntos de Lagrange en su honor.

es.wikipedia, «Puntos de Lagrange«, redacción del 22/12/2010.

Dos cuerpos orbitando alrededor del centro de masas común.

Dos cuerpos orbitando alrededor de su centro de masas común. El "problema de los dos cuerpos" que se pregunta por su comportamiento tiene solución relativamente sencilla mediante las integrales de movimiento; pero el "problema de los tres (o más) cuerpos", que surge al añadir otros, carece de una solución general y sólo se puede resolver para casos particulares. Estudiando esta cuestión, Lagrange dedujo sus puntos de Lagrange.

Los puntos de Lagrange en el sistema Sol-Tierra

Los puntos de Lagrange para el sistema Sol-Tierra. Una nave espacial establecida en esas posiciones puede mantenerse en las mismas únicamente con energía de maniobra.

El primer punto de Lagrange, L1, es intuitivo y se da incluso aunque todos los cuerpos estén estáticos: en la línea imaginaria entre dos objetos con masa y por tanto gravedad, existe un lugar donde la atracción gravitatoria de uno cancela a la del otro. Un objeto de masa comparativamente despreciable situado justo en esa posición flotará entre ambos de forma indeterminada sin necesidad de ningún aporte de energía. En un sistema rotativo real como el Tierra-Luna, L1 está un poco desplazado y es levemente inestable, lo que se puede compensar con pequeñas maniobras.

L2 se encuentra en la misma línea que une a los dos objetos mayores, pero más allá de la menor. En este punto, la atracción gravitatoria de las dos masas principales entra en equilibrio con el efecto centrífugo de la masa menor que gira alrededor. L3 hace lo propio «al otro lado», más allá de la masa mayor. Por su parte, L4 y L5 se encuentran en los vértices de los triángulos equiláteros con base común en la línea que une ambas masas mayores; es decir, que giran 60º delante y detrás del cuerpo con masa menor, según se ve desde la masa mayor. Podemos verlos en la imagen de la izquierda.

La gracia de los puntos de Lagrange es que una nave espacial establecida en los mismos puede mantenerse ahí indefinidamente con energía teórica cero, y en la práctica tan solo con un poco de energía de maniobra para L1, L2 y L3 y ninguna para L4 y L5. Estos puntos de estacionamiento, excelentes candidatos a convertirse en terreno para construir las casas de postas cósmicas, constituyen una especie de órbitas Lagrange-estacionarias –por analogía a las geoestacionarias– que están disponibles entre dos pares de astros cualesquiera.

Mapa de potencial en los puntos de Lagrange y órbitas posibles en torno a L1 y L2.

Mapa de potencial en los puntos de Lagrange y órbitas posibles en torno a L1 y L2. Imagen: R. A. Tacchi en Interplanetary Transport Network, Universidad de California en Davis. (Clic para ampliar)

De hecho, por su estabilidad gravitacional, en los puntos de Lagrange cuarto y quinto tienden a acumularse ciertas cantidades de materia. Los asteroides troyanos se concentran alrededor de los puntos L4 y L5, y muy notablemente en los del sistema Sol-Júpiter (¿alguien ha dicho «estación minera»?). El sistema TetisSaturno presenta a su vez dos pequeñas lunas, Telesto y Calipso, en L4 y L5.; lo mismo ocurre con Helena y Pollux en los de Dione – Saturno. Marte presenta cuatro asteroides en L4 y L5 de Sol – Marte. En torno a los de Sol – Tierra podrían encontrarse las nubes de polvo de Kordylewsky. El planetoide compañero de la Tierra, 3753 Cruithne, intercambia energía con la misma a través de los lagrangianos Sol – Tierra; lo mismo sucede entre Epimeteo y Jano (Saturno), de manera mucho más notable.

Se sugiere que los puntos L1 y L2 de cualquier astro serían el lugar idóneo para instalar un ascensor espacial (específicamente los llamados ascensores espaciales lunares). La Sociedad L5, ahora parte de la National Space Society, viene proponiendo directamente la colonización de los puntos de Lagrange desde 1975. La Administración Obama acaricia la idea para el proyecto de enviar una misión tripulada a Marte. Tímidamente, la especie humana ya ha empezado a ocupar los lagrangianos L1 y L2 de Sol-Tierra con algunas naves científicas. Una característica peculiar de los puntos de Lagrange es que un objeto (incluída una nave espacial) puede orbitar a su alrededor exactamente igual que en torno a un astro, a pesar de que en ellos no haya ningún cuerpo con masa.

¿Y todo esto a qué viene? Pues viene a que aprovechando la interacción gravitatoria entre los distintos astros, y circulando a través de los puntos de Lagrange, se configura una especie de red de metro interplanetaria de mínima energía que nos permite viajar entre los distintos planetas y lunas con un coste energético mucho menor que en las órbitas de transferencia de Hohmann-Vetchinkin. De hecho, con un coste energético próximo a cero. Este metro, con sus estaciones en los puntos de Lagrange de los diversos pares de astros, se conoce como la red de transporte interplanetario.

El metro interplanetario.

Esquema conceptual de la red de transporte interplanetario.

Esquema conceptual de la red de transporte interplanetario. NASA. (Clic para ampliar)

La red de transporte interplanetario (ITN, por sus siglas en inglés) es un conjunto de rutas cósmicas que requieren muy poca y a menudo ninguna propulsión para que una nave espacial las recorra. Teóricamente, la energía de impulsión necesaria una vez iniciado el viaje podría ser cero; en la práctica, estaría muy próxima a cero. Esto fue demostrado por el ICE internacional en 1978 y la sonda lunar japonesa Hiten en 1991; después, ha sido utilizado por otras naves espaciales como la Génesis norteamericana (2001) o la SMART-1 de la Agencia Espacial Europea (2003).

Trayectoria descrita por la nave espacial Génesis.

Trayectoria descrita en la realidad por la nave espacial Génesis, utilizando el concepto de red de transporte interplanetario (2001-2004). Imagen: NASA.

Trayectoria ITN de entrada al sistema solar interior.

Una trayectoria ITN de entrada al sistema solar interior con coste energético mínimo, vía los lagrangianos L1 y L2 del sistema Sol-Júpiter. Imagen: R. A. Tacchi en Interplanetary Transport Network, Universidad de California en Davis. (Clic para ampliar)

Toda la propulsión necesaria para la realización de un viaje así se aplica durante el lanzamiento, con el propósito de alejar la nave del planeta Tierra y colocarla en un rumbo determinado a una velocidad precisa. A partir de ese punto, todo sucede solo, sin necesidad de aportar ninguna otra energía de impulsión más que para las posibles correcciones. Eso sí, el rumbo y la velocidad han de ser exactas de narices, pero esto es algo que ya cae actualmente dentro de las posibilidades tecnológicas humanas. De esta manera, toda la energía necesaria para el viaje se obtiene mediante la interacción gravitatoria con los distintos astros a través de sus puntos de Lagrange. Aplicando esta técnica no se requieren grandes motores ni grandes cargas de combustible (una vez ya estás en el espacio), sino sólo lo imprescindible para maniobrar en caso necesario.

La posibilidad de este metro interplanetario de consumo casi-cero ya fue teorizada por el matemático Henri Poincaré a finales del siglo XIX, pero no se pudo demostrar en la práctica hasta los vuelos de la ICE en 1978 y la Hiten en 1991. A partir de ahí se realizó un importantísimo trabajo de matemática aplicada, conocido en todo el mundo menos aquí (como siempre), por Gerard Gómez de la Universitat de Barcelona y Josep Masdemont de la Universitat Politècnica de Catalunya; sobre esta base, Martin Lo de la Universidad Purdue desarrolló una herramienta computacional llamada LTool, que permite calcular estas trayectorias y viene siendo utilizada desde entonces por el Jet Propulsion Laboratory y otras instituciones astronáuticas para crear el trazado de la red.

El principal problema con estas trayectorias es que son típicamente más largas que las órbitas de escape y las órbitas de transferencia de Hohmann-Vetchinkin, y además el paso por los puntos de Lagrange puede llegar a ser exasperantemente lento si queremos mantenernos en el coste energético mínimo. Por otra parte, las ventanas de lanzamiento óptimas pueden llegar a hallarse muy separadas entre sí. Esto tiene soluciones mixtas posibles, que con poco aporte de energía adicional pueden mejorar bastante algunos de los peores cuellos de botella, pero aún así la red de transporte interplanetario sólo resulta verdaderamente interesante cuando el tiempo de viaje es secundario. Por ello, en la actualidad sólo se plantea para sondas automáticas, no para vuelos tripulados. Pero esto podría cambiar en cualquier momento, y de hecho ya hay varias propuestas que utilizarían la ITN para misiones tripuladas.

La galaxia Renacuajo.

La "cola" de la galaxia Renacuajo son los restos de uno de estos túneles de baja energía que quedó establecido en el pasado, cuando otra galaxia pasó cerca, por donde se deslizaron las estrellas de una a otra.

La comprensión cada vez mejor del problema de los tres cuerpos y de las dinámicas asociadas a los puntos de Lagrange no sólo son de interés en la exploración espacial. Esta idea de los pasadizos de baja energía tiene otras aplicaciones. Por ejemplo: en el año 2000 Charles Jaffé, un químico de la Universidad de Virginia Occidental, observó que bajo determinadas condiciones experimentales las rutas que toman los electrones de valencia en átomos de Rydberg son muy parecidas a la trayectoria de la sonda Génesis. Y cuando estos átomos se someten a campos eléctricos y magnéticos perpendiculares, también realizan estos recorridos tubulares. Esto ha sentado las bases para el desarrollo futuro de nuevas teorías y aplicaciones en química y tecnologías de materiales, pues las matemáticas subyacentes son válidas a todas las escalas, desde los átomos a las distancias intergalácticas.

Hablando de galaxias, científicos de las universidades de Tokio y Edimburgo han mostrado que unos tubos relacionados con los puntos de Lagrange conducen a la «evaporación» de pequeños cúmulos estelares en órbita alrededor de algunas galaxias. Este efecto es mucho más notable cuando interaccionan dos de ellas: la galaxia Renacuajo manifiesta evidencias de un episodio muy violento en su pasado, un raspón como si dijéramos. La enorme cola que se extiende tras el renacuajo señala el lugar donde miles de estrellas entraron en tubos conectados con otra galaxia que pasó cerca. La cola del renacuajo es, pues, un puente hacia la nada de 280.000 años-luz. Otras galaxias presentan túneles de interconexión similares.

Aúnque aún no se han elaborado los mapas, cabe esperar que existan trayectorias parecidas conectando las estrellas entre sí; por ejemplo, al Sol con las estrellas cercanas. Esto constituiría una red de transporte interestelar donde una nave del tipo de las Voyager podría viajar directamente a Alfa Centauri, por decir algo, sin coste de propulsión adicional alguno. Le costaría miles de años hacerlo, pero aquí asoma un asunto interesante: en el pasado, hubo estrellas que estaban mucho más cerca del Sol (y en el futuro volverá a haberlas). Es posible que nos intercambiáramos material con ellas a través de estos canales. Qué material exactamente queda por el momento a la imaginación de cada cual.

Hace apenas cuarenta años y una semana, Venera 7 se posaba con bien en Venus tras utilizar una primitiva órbita de transferencia Hohmann-Vetchinkin con un coste energético de 3,8 megajulios por kilo. Fue una hazaña extraordinaria, ejecutada con tecnologías primitivas y a lo bruto porque en ese momento no se podía hacer de ninguna otra manera. Ahora sabemos que es posible llegar a la mayor parte de sitios interesantes en el sistema solar, y quizás en torno a otras estrellas y galaxias, con una milésima parte de esa energía. Si no lo estamos haciendo ya más y mejor, no es porque no sepamos, sino por simple ceguera y mezquindad. Ah, sí, por cierto. En salvar a los bancos, europeos y norteamericanos hemos comprometido dinero suficiente (unos trece billones de dólares sólo en los EEUU) para hacer unas mil misiones tripuladas a Marte y mantener el CERN durante más de diez mil años: las dos cosas a la vez y pagadas a tocateja con un solo cheque. Menos mal que no había pasta, ¿eh?

Para más información:

  • Ross, Shane D (2006), The interplanetary transport network, en American Scientist, vol. 94, págs. 230-237.
  • Conley, C. C. (1968), Low energy transit orbits in the restricted three-body problem. En SIAM Journal on Applied Mathematics 16:732–746.
  • Fukushige, T., y D. C. Heggie (2000), The time-scale of escape from star clusters. En Monthly Notices of the Royal Astronomical Society 318:753–761.
  • Jaffé, C., S. Ross, M. Lo, J. Marsden, D. Farrelly y T. Uzer (2002), Statistical theory of asteroid escape rates. En Physical Review Letters 89:011101.
  • Marsden, J. E., y S. D. Ross. (2006), New methods in celestial mechanics and mission design, en Bulletin of the American Mathematical Society 43:43–73.
  • Smith, D. L. (2002), Next exit 0.5 million kilometers, en Engineering & Science LXV(4):6–15.

54 Comentarios Trackbacks / Pingbacks (26)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (90 votos, media: 4,90 de 5)
Loading...
Be Sociable, Share!

Así vuela un avión

…y un helicóptero, y un velero («planeador»), y los pájaros también.
En general, cualquier cosa más pesada que el aire, excepto los cohetes y proyectiles.


El avión más grande del mundo, un Antonov-225 de 640.000 kg MTOW con matrícula UR-82060,
despega del aeropuerto de East Midlands en un día frío y
ventoso de diciembre de 2005.
¿Qué clase de fuerza hace que una maldita cosa de 640 toneladas vuele?
;-D

Circulan por ahí muchas explicaciones de los motivos por los que vuela un avión. Sin embargo, una buena parte son erróneas y otras, incompletas. Las razones por las que un ala (fija o rotativa) genera sustentación parecen bastante oscuras, empezando por el hecho asombroso de que un maquinón de cientos de toneladas vuele como un pájaro… o incluso mejor. Como siempre, trataremos de aportar un poquito de luz al respecto. ;-)

Las fuerzas básicas del vuelo: peso, sustentación, empuje y arrastre.

Las fuerzas básicas del vuelo: peso, sustentación, empuje y arrastre.

De la necesidad de las alas.

Vimos ya en el post sobre los aviones supersónicos que hay cuatro fuerzas básicas del vuelo: peso, empuje, resistencia al avance y sustentación.  El peso está bastante claro y se deriva de la fuerza de la gravedad, que es la atracción natural entre los objetos con masa; la aeronave y la Tierra se atraen entre sí, con una enorme desproporción a favor de la Tierra. Fue Newton quien describió por primera vez esta ley de la gravitación universal, y a Newton le debemos también la segunda y tercera leyes del movimiento que explican el empuje: el empuje es una fuerza reactiva producida cuando un objeto acelera o expulsa masa en una dirección, lo que ocasiona una fuerza proporcional en sentido contrario. La resistencia al avance o arrastre obedece a varios fenómenos a la vez, entre los que se encuentra el rozamiento, y que podríamos resumir como la suma de las fuerzas que actúan en sentido opuesto al empuje.

Nosotros vamos a concentrarnos hoy en la sustentación. La sustentación es una fuerza aerodinámica perpendicular al flujo del aire, que se produce cuando un objeto avanza a través del mismo. Cualquier objeto puede producir sustentación, pero sólo los objetos con un determinado perfil producen más sustentación que arrastre para vencer al peso eficientemente. Este perfil es el denominado perfil alar (airfoil). La eficiencia de un ala se mide mediante la relación sustentación-arrastre (lift-to-drag ratio).

El ala, pues, resulta de gran utilidad para el vuelo porque es capaz de producir mucha sustentación con muy poco arrastre, en un gorrioncillo o en un Airbus A380. Los cohetes no tienen alas porque toda su fuerza ascensional procede del empuje, lo que resulta muy costoso energéticamente (pero muy útil cuando vas a mandar algo a un lugar donde no hay aire, y por tanto no se pueden producir fuerzas aerodinámicas). Para que algo más pesado que el aire vuele con un consumo razonable de energía, necesita un ala o algo que desempeñe la función del ala para generar sustentación. Y ahora, al grano: ¿cómo se produce esta sustentación? ¿Por qué las alas quieren volar?

Partes del ala.

Partes del perfil alar (sección del ala). Utilizaremos los siguientes términos en el texto a continuación: extradós, intradós, cuerda, borde de ataque y borde de salida; si no los conoces, sería conveniente que los localizaras en el gráfico para tener claro de qué hablamos. ;-)

Explicación (incorrecta) de la sustentación por efecto Venturi.

Explicación (incorrecta) de la sustentación por efecto Venturi. El aire acelerara al tener que realizar un recorrido mayor por el extradós que por el intradós; supuestamente, eso actuaría como una «boquilla de Venturi», reduciendo la presión del aire encima del ala. Sin embargo, no hay nada encima del ala que permita contener el aire para que esta «boquilla de Venturi virtual» pueda llegar a producirse: la superficie está «al aire». Si este fuera el principio de funcionamiento de la sustentación, el vuelo invertido no sería posible con un ala simple y los aviones de papel caerían al suelo sin más.

Las explicaciones incorrectas (o incompletas).

Como apunté al principio, hay varias explicaciones muy populares para la sustentación que o son incorrectas, o son incompletas. Una de las más comunes es la que podríamos denominar la «explicación Venturi«, no porque la propusiera Venturi (que obviamente no lo hizo), sino porque se atribuye la sustentación al efecto Venturi. Según esta explicación (recordemos: incorrecta) la parte superior del ala o extradós estaría construida con una curvatura mayor y por tanto mayor longitud que la parte inferior o intradós. Cuando la aeronave pasa a través del aire, cortándolo, eso aceleraría el aire que pasa por la parte superior, reduciendo así su presión como en una boquilla de Venturi. Esta zona de baja presión generada encima del ala actuaría como una «ventosa», produciendo la sustentación.

Esta explicación presenta varios problemas insuperables. El más fundamental, obviamente, es que el extradós de un ala no es una boquilla de Venturi: se trata de una superficie plana, no de ninguna clase de cilindro. Tendríamos sólo una pared de la boquilla y faltaría el resto; por tanto, no puede actuar de ese modo.

Como consecuencia de este error, se derivarían efectos curiosos que no se dan en la realidad. Uno de ellos es que un avión no podría volar boca abajo, puesto que en ese caso el extradós apuntaría hacia el suelo y la sustentación generada apuntaría hacia el suelo también, con lo que esta fuerza se sumaría al peso y el aparato se desplomaría más que como una piedra. Sin embargo, esto evidentemente no es así: los aviones pueden realizar vuelo invertido. Otro efecto curioso sería que la forma del intradós (la parte inferior) sería irrelevante, puesto que toda la sustentación se generaría en el extradós. Esto tampoco es así: la forma del intradós es tan importante como la del extradós y un perfil alar con un intradós de cualquier manera no funciona si intentamos construirlo en la práctica.


Un Sukhoi Su-31 acrobático, pilotado por Jurgis Kairys, pasa por debajo de un
puente en vuelo invertido. Esta maniobra no sería posible si la sustentación del
ala se generase únicamente en el extradós (por efecto Venturi o de cualquier otro modo),
puesto que al invertir el vuelo lanzaría a la aeronave hacia abajo junto con el peso.

Otra explicación parecida, que también supone que la sustentación se genera en el extradós (y por tanto haría igualmente imposible el vuelo invertido) podría denominarse como la conjetura del tiempo de tránsito igual. Esta conjetura se sustenta en la misma idea que la anterior y de hecho constituye una variante de la misma: la parte superior del perfil alar estaría diseñada para ser más larga que la inferior y cuando el ala corta el aire, éste tendría que viajar más deprisa por el extradós que por el intradós para encontrarse de nuevo en el borde de salida. Debido a esta velocidad mayor se produciría una zona de baja presión sobre el extradós, en este caso debida al principio de Bernoulli, lo que originaría la sustentación. Podemos ver que se parece mucho a la anterior, sustituyendo a Venturi por Bernoulli.

Conjetura (débil) de sustentación por efecto Bernoulli.

En la «variante Bernoulli», la zona de baja presión se produciría laminarmente en la superficie del extradós debido a la mayor velocidad del aire que circula por él. Este efecto provoca algo de sustentación, pero mucho menos que la medida en la realidad, y tampoco explicaría ni el vuelo invertido ni el del avioncito de papel.

Tampoco funciona. ;-) Para ser más exactos, no funciona lo suficiente. En realidad, una vez las dos láminas de aire se han separado en el borde de ataque, no hay ningún motivo por el que tengan que encontrarse al mismo tiempo en el de salida y de hecho no lo hacen. En la práctica, ocurre algo curioso: las moléculas de aire que circulan sobre el extradós se aceleran muchísimo más de lo esperado en esta conjetura del tiempo de tránsito igual y escapan por el borde de salida mucho antes de que lo hagan las que circulan bajo el intradós. Se podría pensar: «bueno, pues estupendo, ¿no? ¡Así se magnifica el efecto Bernoulli y aumentará aún más la presión diferencial!».

Lamentablemente, no. :-P De hecho, si se aplica la ecuación de Bernoulli para calcular las presiones así generadas, resulta que la sustentación final sería muchas veces menor que la observada en la realidad a pesar de la diferencia de velocidades. Y si esta fuera la causa fundamental de la sustentación, nos volveríamos a encontrar con que no puede explicar el vuelo invertido (cuando la aeronave se pusiera boca abajo, la fuerza «saliendo del extradós» la empujaría hacia abajo y se desplomaría a gran velocidad).

Ambas suposiciones se basan en principios físicos reales y sobradamente comprobados, lo que contribuye a la confusión porque no están «evidentemente mal», violando las leyes de la física.  Bernoulli y Venturi estaban en lo cierto. Lo que pasa es que estos no son los principios fundamentales que producen la sustentación (y de hecho ninguno de los dos científicos propuso jamás cosa semejante, entre otras cosas porque ambos son muy anteriores al vuelo de máquinas más pesadas que el aire). Por Venturi no se produce ninguna sustentación (no hay boquilla de Venturi) y por Bernoulli se produce muy poquita, prácticamente despreciable en el conjunto del fenómeno.

Las dos explicaciones presentan además el problema del avioncito de papel (o del ala delta, por ejemplo). En un avioncito de papiroflexia, el ala es prácticamente un plano sin diferencia significativa alguna entre su parte inferior y su parte superior (una hoja de papel, vaya…). Si las aeronaves funcionasen por algún mecanismo de acción diferencial entre el intradós y el extradós, un avioncito de papel no volaría porque no hay distinción práctica entre los dos lados del ala. Ni un ala delta, ni ninguna otra cosa por el estilo. No. Nasti. Necesitamos una hipótesis mejor.

Avión de papel

Sí, parece una coña, pero no lo es. Cualquier hipótesis de la sustentación aerodinámica que no explique algo tan aparentemente sencillo como el vuelo de un avioncito de papel es probablemente errónea y con toda seguridad incompleta. En un avión de papel, el perfil alar es plano a efectos prácticos y el intradós y extradós, idénticos; con lo que todas las conjeturas sustentadas estrictamente en mecanismos de presión diferencial entre ambas superficies lo tienen muy mal. Cosas de la ciencia. :-P Pero si no explica el vuelo de un avioncito de papel, ¿cómo pretenderemos que explique el vuelo de un Airbus A380 de 569.000 kilos MTOW? :-D

Modelo (débil) de sustentación por acción-reacción.

La conjetura de sustentación por acción-reacción, producida cuando las moléculas del aire impactan en el intradós, sólo funciona a velocidades y altitudes muy grandes. Para la mayor parte de casos, tampoco basta.

Una tercera conjetura, un poco más correcta pero aún insuficiente, se diferencia de las dos anteriores en que supone que la sustentación se genera en el intradós (la parte inferior) mediante un mecanismo newtoniano de acción-reacción (tercera ley del movimiento). Según esta idea, las moléculas del aire golpean la parte inferior del ala (que está algo angulada sobre su eje transversal) y rebotan como una piedra rebotando sobre el agua; al hacerlo, la «empujan» hacia arriba y con ella al resto del aparato. Parece una proposición maja, ¿eh?

Aquí el problema radica en que también hay aire en la parte superior. Y por tanto, sus moléculas rebotan igualmente sobre el extradós, anulando cualquier sustentación significativa producida por este mecanismo en el intradós (una empuja hacia arriba y la otra hacia abajo). Dar por buena esta explicación supondría también imaginar que dos alas con el mismo perfil inferior y distinto perfil superior generarían exactamente la misma sustentación; en el mundo real, se observa enseguida que esto no va así. Tampoco tendrían sentido dispositivos de conocida utilidad práctica como los spoilers, que actúan completamente sobre la sustentación generada en el extradós (si en la parte superior no se produjera sustentación, entonces, ¿por qué intentar intervenir sobre la misma?). Por otra parte, si sacamos los cálculos de la sustentación producida por este método, tampoco cuadran con los registrados en el mundo real.

Esto tiene una excepción. En vuelo de muy-muy gran altitud y muy-muy alta velocidad, algo así como más de 270.000 pies y más de diez mil kilómetros por hora –vamos, un transbordador espacial reentrando hipersónico en la atmósfera terrestre o cosa parecida–, este efecto parece predecir correctamente la sustentación observada en la realidad. Se debería a que, en condiciones de avance muy rápido y muy baja presión y densidad del aire, la cantidad de moléculas de aire que «aprietan y golpean» sobre el extradós sería significativamente inferior a las que «aprietan y golpean» sobre el intradós (particularmente durante un vuelo descendente, como suele ocurrir en las reentradas…).

Sin embargo, en los vuelos más corrientes –por ejemplo el de un jetliner, típicamente a 30 o 35.000 pies de altitud y 800 a 900 km/h– este efecto se cancela a sí mismo porque las moléculas de aire golpean por igual en el extradós y el intradós y como resultado no genera ninguna sustentación significativa.

Adicionalmente, los dos primeros modelos no explican y el tercero no describe correctamente otro efecto significativo observado en el vuelo real: cuanto más baja es la velocidad y mayor es la carga, más alto debe ser el ángulo de ataque (hasta un cierto límite). El ángulo de ataque es el ángulo entre la cuerda y la dirección del aire incidente. De la «explicación Venturi» y la «explicación Bernoulli», que dependen únicamente de la diferencia de longitud entre extradós e intradós, no se deduce ningún motivo por el que el ángulo de ataque deba variar en el vuelo a baja velocidad y/o con más carga. En la «explicación reactiva» podría encontrarse alguna justificación, pero si sacamos los cálculos, de nuevo resulta que no. Vamos a tener que pensar en algo mejor aún.

La máquina ala.

El elemento esencial para entender la sustentación no es la forma del ala, sino el ángulo de ataque. Acabamos de decir que esto es el ángulo entre la cuerda alar y la dirección del aire. Para que nos quede claro por completo, veámoslo en un dibujín:

Ángulo de ataque

El ángulo de ataque es el formado entre la cuerda alar y la dirección del aire.

¿Y por qué el ángulo de ataque es la clave? Pues porque los tres gráficos de arriba (los de las caritas :-D ) están mal. La parte de la derecha (la correspondiente al flujo de aire detrás del ala) está dibujada incorrectamente. En la realidad, cualquier ala que presente un ángulo de ataque distinto de 0º produce un flujo de aire más parecido al siguiente:

Flujo real de aire en torno a un ala en avance

Flujo real de aire en torno a un ala en avance.

Avión pasando cerca de una capa de nubes, lo que evidencia el downwash y los vórtices.

En esta foto se aprecia muy bien el «downwash» generado por un avión. Al pasar cerca de la capa de nubes, este aire desviado hacia abajo abre una especie de canal tras la aeronave. También se distinguen los vórtices producidos en las puntas de las alas, lo que ocasiona esa especie de «rizos» en la nube.

Puede observarse que al paso del ala hay una gran cantidad de aire que resulta desviada hacia abajo (en adelante, «downwash«). Si el ala está invertida, siempre que se mantenga el ángulo de ataque, el flujo de aire sigue circulando hacia abajo. De hecho, esto es exactamente lo que hace un piloto para volar en invertido: ajustar el ángulo de ataque. Y, por supuesto, el fenómeno también se produce con un ala totalmente plana como la de un avioncito de papel.

De hecho, el perfil alar es esencialmente irrelevante para la sustentación. La importancia del perfil alar está relacionada con el arrastre, y por tanto con la relación sustentación-arrastre (lift-to-drag ratio) que definirá finalmente la eficiencia del ala. Pero la sustentación a secas tiene muy poco que ver con el perfil alar y mucho con este ángulo de ataque y la formación del downwash.

¿Cuánto aire desvía hacia abajo el ala en forma de downwash? ¡Bastante! Una avioneta Cessna 172 de 1.045 kg volando a 220 km/h con un ángulo de ataque alar de 5º desvía unas trescientas toneladas por minuto; un avión grande a velocidades próximas a Mach 1, miles de toneladas por segundo. La manera exacta como se produce semejante fenómeno está muy bien explicada de forma bastante sencilla en este escrito (en inglés, me temo) redactado por David F. Anderson (que, además de físico retirado en el Laboratorio Nacional Fermi y el CERN, es piloto y entusiasta de la aviación) y Scott Eberhard, doctor en tecnología aeroespacial y diseñador para Boeing.

Flujo de aire en torno a un ala Kármán-Trefftz a 8º de ángulo de ataque.

Flujo potencial de aire en torno a un ala con perfil Kármán-Trefftz a 8º de ángulo de ataque.

¿Y por qué la formación del downwash produce sustentación? Cosas de Newton, y específicamente de su tercera ley del movimiento. Recordémosla:

«Con toda acción ocurre siempre una reacción igual y contraria: o sea, las acciones mutuas de dos cuerpos siempre son iguales y dirigidas en sentido opuesto.»

El ala provoca un cambio en el momento del aire que está desviando a razón de cientos o miles de toneladas por segundo (acción) y a cambio se produce en la misma una fuerza igual y opuesta (reacción). Si el aire está siendo desviado hacia el suelo, esta fuerza igual y opuesta empuja hacia el cielo. Eso es, exactamente, la sustentación. Así de simple.

La manera precisa como se desarrollan estos flujos de aire y la sustentación consiguiente es extremadamente compleja y se describe mediante las ecuaciones de Navier-Stokes. A pesar de esta complejidad en el detalle, algunos elementos principales de la sustentación se pueden describir de forma bastante sencilla, pues se derivan directamente de las leyes newtonianas que son centrales al fenómeno. Por ejemplo, los siguientes:

Alphajet y Mirage 2000.

Durante una exhibición en Cambrai, un caza Mirage 2000C acompaña a un avión táctico Alphajet, mucho más lento. Puede observarse cómo el piloto del Mirage ha tenido que aumentar notablemente el ángulo de ataque para mantener la sustentación a una velocidad tan baja (para su diseño). Este fenómeno no tendría sentido si la sustentación no fuera fundamentalmente dependiente del ángulo de ataque. Foto: Ian Older en airliners.net.

  • Hemos quedado en que la sustentación es una fuerza reactiva igual y opuesta a la transferencia de momento al aire ocasionada por el ala. Dado que el momento es igual a la masa por la velocidad, la sustentación es directamente proporcional a la cantidad de aire desviado y la velocidad vertical del mismo: cuanto más aire se desvíe a mayor velocidad vertical, más aumenta la sustentación, y viceversa. Por eso un ala de gran longitud a gran ángulo de ataque genera mucha más sustentación que un ala de poca superficie a poco ángulo de ataque: el ángulo de ataque determina cuál va a ser el componente vertical de la masa de aire desviada, mientras que la superficie alar define cuánto aire se desviará.
  • La masa de aire desviada es directamente proporcional a la velocidad del ala, a su longitud y la densidad del propio aire. Si la densidad del aire es baja (como sucede, por ejemplo, a gran altitud) hace falta un ala más grande o más veloz para desviar la misma masa de aire. Por este motivo, los aviones que deben volar a gran altitud tienen alas muy largas y/o motores muy potentes.
  • La velocidad vertical de la masa de aire desviada es directamente proporcional al ángulo de ataque (como ya hemos dicho) pero también a la velocidad del ala. A mayor velocidad de avance, se puede obtener la misma sustentación con un ángulo de ataque menor. Por eso, a poca velocidad (por ejemplo, durante un aterrizaje) el ángulo de ataque se incrementa mucho.
  • Conforme la carga de la aeronave aumenta, se requiere más sustentación. Eso significa que se requiere más velocidad del ala, más longitud del ala (en la práctica, más área, pues de lo contrario la carga alar será muy elevada y se romperá) y/o más ángulo de ataque.

En la sustentación aerodinámica actúa también otro efecto significativo: los vórtices. En la parte superior del ala la presión suele ser más baja que en la parte inferior. En la punta del ala, el aire tiene libertad para moverse de la zona de alta presión (debajo) a la zona de baja presión (arriba), lo que genera una fuerte turbulencia en espiral que son estos vórtices. Esto produce un componente de downwash adicional, muy intenso en el extremo del ala y más débil hacia el centro de la aeronave, que contribuye significativamente a la sustentación final (a favor o en contra dependiendo del tipo de vuelo; en los aviones, generalmente actúan en contra). Algunas aves ligeras como los colibrís y numerosos insectos son capaces de mantener vuelo estacionario exclusivamente mediante la generación de esta clase de turbulencias, batiendo sus alas (si bien a un coste energético elevado). El vuelo del frisbee es una combinación de efecto Bernoulli y sobre todo vórtices de borde de salida. Los vórtices de extremo alar son también el componente básico de la estela turbulenta que las aeronaves dejan detrás. Los winglets (esas aletitas en las puntas de las alas que llevan los aviones modernos) sirven para optimizar la generación de estos vórtices (minimizándolos, ya que en este caso actúan en contra).

Gráfica de ángulo de ataque frente a sustentación

La sustentación es una función directa del ángulo de ataque. El perfil alar, por su parte, es importante para determinar algunas de las características esenciales del vuelo, como la relación sustentación-arrastre o el ángulo crítico de entrada en pérdida.

Quisiera incidir en una cosa. Estoy diciendo todo el rato que la sustentación es fundamentalmente dependiente del ángulo de ataque, no del perfil alar, y así es. Pero eso no quiere decir que el perfil alar no tenga importancia en la fuerza ascensional final. Como ya apunté, el perfil alar es definitivo para el arrastre, que es la fuerza que se opone al empuje (recuerda el primer gráfico de este post). Si el arrastre aumenta mucho (si la relación sustentación-arrastre se reduce), el avión volará cada vez peor y finalmente no volará en absoluto. También es clave en la formación y desarrollo de la capa límite.

Vinculado con esto último, otro fenómeno de interés en este asunto es la entrada en pérdida (stall), relacionado al mismo tiempo con el ángulo de ataque y con el perfil alar. De lo dicho anteriormente podría pensarse que el ángulo de ataque se puede aumentar de manera ilimitada (hasta los 90º o cerca) para incrementar la sustentación. Sin embargo, esto no es así. La capacidad del ala para desviar el aire y producir el downwash depende de la incompresibilidad y de la viscosidad del aire; incomprensibilidad y viscosidad que tienen un límite. Dicho en términos sencillos, el ala sólo puede desviar el aire si éste se mantiene «adherido» a su superficie; a partir de cierto ángulo de ataque, el aire comienza a «desprenderse» del ala y la sustentación colapsa rápidamente. Este ángulo de ataque máximo a partir del cual el aire se separa significativamente de un determinado perfil alar se llama ángulo de ataque crítico.

La entrada en pérdida se produce habitualmente cuando una velocidad baja obliga a aumentar tanto el ángulo de ataque que éste supera al ángulo de ataque crítico (lo que a veces sucede porque las características de sustentación del ala han variado, por ejemplo mediante la acción –o inacción– de los flaps u otros dispositivos hipersustentadores). Esta velocidad mínima a la que un avión puede volar sin que el obligado ángulo de ataque supere al ángulo de ataque crítico es la velocidad de entrada en pérdida.

Una vez perdida, la única manera de recuperar la sustentación es que el ángulo de ataque caiga otra vez por debajo del ángulo de ataque crítico. Esto puede ser más complicado de hacer que de decir si a consecuencia de la pérdida el avión ha entrado también en barrena.

Un cohete Soyuz se aleja hacia el espacio por el interior de la atmósfera terrestre.

Un cohete Soyuz se aleja hacia el espacio, aún dentro de la atmósfera terrestre. La sustentación de un cohete es en su mayor parte no-aerodinámica, generada a pura fuerza de motores con un alto coste energético. Las naves espaciales sólo deben respetar las leyes de la aerodinámica mientras se encuentran en la atmósfera.

¿Y por qué vuela un helicóptero?

Se desprende de todo lo dicho que la sustentación aerodinámica depende de varias cosas. Una, de que haya un aire, esto es, un fluido gaseoso que desviar con un ala; por ejemplo, este que forma la atmósfera terrestre y que tenemos la costumbre de respirar. (Aún queda por ahí quien cree que el aire es «la nada» o «el vacío», pero esto evidentemente no es así: aunque sea generalmente invisible al ojo, se trata de un gas compuesto por nitrógeno y oxígeno en su 99%) Aquellas naves cuyo propósito es viajar por lugares donde no hay aire, como las naves espaciales, sólo usan los principios aerodinámicos durante el lanzamiento o la reentrada en la atmósfera terrestre; durante el vuelo espacial propiamente dicho, se rigen por otra aplicación muy distinta de las leyes de Newton. Los proyectiles en general se rigen por las leyes de la balística.

Las aeronaves más ligeras que el aire, es decir los globos y dirigibles, no vuelan por sustentación aerodinámica sino por flotabilidad, siguiendo el principio de Arquímedes exactamente igual que un barco o un submarino hacen en el agua. De hecho, en inglés a los dirigibles se les llama airships: los barcos del aire. Del mismo modo, se podría decir que barcos y submarinos son los dirigibles del agua: generalmente flotan y no se van al fondo del mar matarilerilerile por flotabilidad, no por sustentación hidrodinámica. Algunos navíos en los que la sustentación hidrodinámica resulta importante para su funcionamiento son los hidroalas o, simplemente, una tabla de surf. Pero todos los buques, de superficie o submarinos, son esencialmente hidronaves más ligeras que el agua.

Entre unos y otros se encuentran los aerodeslizadores (hovercrafts) y los ekranoplanos. Ambos se comportan técnicamente como aeronaves, si bien su sustentación obedece a un efecto aerodinámico distinto: el efecto suelo. En el caso de los aerodeslizadores, se trata de un colchón de aire producido al disparar este gas directamente contra el suelo, en un efecto acción-reacción. Los ekranoplanos utilizan el efecto suelo de manera mucho más eficaz cuando se desplazan sobre el agua.

La sustentación aerodinámica (e hidrodinámica, que vienen a ser dos caras de la misma moneda) requiere además velocidad. Ya hemos visto por qué: la sustentación aerodinámica es dependiente de la velocidad del ala con respecto al aire. Si no hay velocidad, el aire no se puede desviar, no hay ángulo de ataque, no hay downwash, no hay vórtices y no hay sustentación que valga. Tanto los pájaros como los aviones, ambos más pesados que el aire, vuelan porque avanzan (si bien ya mencionamos que algunos animales muy ligeros, como los colibríes y varios insectos, pueden generar sustentación estática durante largo rato mediante la generación de vórtices de borde de ataque; eso sí, a gran coste energético).

Helicóptero a baja altitud

En este tipo de imágenes se aprecia bien el efecto causado por el «downwash» del ala rotativa («hélice superior») en el agua que hay debajo.

Los helicópteros no son una excepción y también obtienen su sustentación aerodinámica mediante el movimiento de su ala con respecto al aire. ¿Qué ala? Pues la pala o «hélice», claro. Las palas de un helicóptero son sus alas, que se mueven en círculo con respecto al aire mediante un motor rotativo, generando así la sustentación exactamente igual que cualquier otra ala.

De hecho, todas las hélices son alas rotativas; incluyendo, por ejemplo, un ventilador. El airecito que nos da un ventilador no es sino el downwash aerodinámico inducido por el ala rotativa (y es bien sabido lo muy bien y muy peligrosamente que vuelan cuando se sueltan del eje, hasta que pierden velocidad). La primera máquina más pesada que el aire de la humanidad fue también un ala rotativa: el búmeran (boomerang) y diversos tipos de palos lanzables en general, mucho más antiguos que el arco y la flecha, cuyos orígenes se pierden en las sombras de la prehistoria.

De viejo fue sueño humano esto de volar, cosa de locos y visionarios. Y aunque ahora ya nos resulte natural por completo, hace apenas 227 años que los hermanos Montgolfier se elevaron al cielo con su globo, los fundamentos teóricos de la aerodinámica no fueron establecidos hasta 1799 y hubo que esperar hasta 1903 para que los hermanos Wright desarrollaran el vuelo controlado, autopropulsado y sostenido exclusivamente por fuerzas aerodinámicas de una máquina más pesada que el aire. Apenas 107 años después, volar de un lugar a otro parece haberse convertido en cosa corriente e incluso hablamos de las crisis de la aviación, olvidando a menudo que aún vive gente que conoció un mundo donde todavía no habíamos aprendido a volar.

Para más información y detalles:

Anderson, D. y Eberhardt, S. (2009), A physical description of flight, revisited (ex-Fermi National Laboratory / Boeing, resumen de  Understanding flight de McGraw-Hill, por los mismos autores). Disponible en inglés aquí.

203 Comentarios Trackbacks / Pingbacks (64)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (87 votos, media: 4,71 de 5)
Loading...
Be Sociable, Share!

Preguntas y respuestas sobre… el agua.

No existen preguntas estúpidas. Sólo respuestas estúpidas.

El poder de las preguntas.

El poder de la curiosidad, el poder de las preguntas, es la fuerza más poderosa detrás del método científico y de cualquier forma eficaz de adquisición del conocimiento.

Bastante a menudo, recibo en el correo preguntas de índole científica. Casi siempre, hago lo posible por responderlas. Si me mandaste alguna y no te he contestado, lo más normal es que me pillases en un momento muy atareado y «se quedase debajo del montón»; te invito a hacérmela de nuevo. Algunas son sencillas; otras, muy complejas. En general, todas están realizadas por personas que quieren saber más de lo que saben y, sólo por eso, ya son valiosas. Únicamente quien pregunta puede aprender, sólo las preguntas conducen a las respuestas y a nuevas y mejores preguntas. La historia del progreso humano es la historia de nuestras preguntas y de las cosas que hicimos para darles contestación y actuar en consecuencia.

Algunas de estas preguntas me resultan de singular interés por una diversidad de motivos. Unas porque, pese a ser sencillas, inciden en conceptos que no todo el mundo tiene claros. Otras, porque abren la puerta a ideas mucho más grandes y complejas. Aún otras más porque son de suyo intrigantes o evocadoras. Y también hubo otras que no supe responder. Todas ellas me han hecho recordar cosas que sabía y aprender cosas que no sabía o no tenía claras para tratar de darles contestación. Muchas me han hecho pensar: «es una lástima que esto no lo lea más gente».

Así pues, me ha parecido oportuno –tras obtener el permiso de quienes las realizaron, ¡gracias! ;-) – iniciar la publicación de algunas de ellas con sus correspondientes respuestas. En este primer post nos vamos a concentrar en cuestiones relacionadas con el agua. Es evidente que el agua, su naturaleza, su origen, su comportamiento, el papel fundamental que desempeña en las cosas vivas como tú y yo despierta gran interés. Vamos allá.

Si el agua, en condiciones normales, es aislante… ¿por qué aumenta tanto el riesgo de electrocución?

Remitida por Paco, de 42 años, residente en Dos Hermanas (Sevilla):

Hola Yuri,

Soy un fiel seguidor de tu blog, y me gustaría que me aclararas una duda que tengo, y que estoy seguro de que sabrás resolvérmela. Se trata de algo relacionado con el agua y con la electricidad.

Cuando estaba en el instituto, hicimos un experimento: echamos agua en una probeta en forma de U. En un extremo de la U, introducíamos un cable de cobre atado al polo positivo de una pila, y en el otro, otro cable atado al negativo. Un medidor, medía la corriente eléctrica que circulaba, y ésta era nula. Ello demostraba que el agua, en condiciones normales, es aislante eléctrico.

A continuación, se echaba sal común en la probeta, y llegaba un momento en el que el agua comenzaba a conducir la electricidad. Es decir, la sal convertía el agua en conductor.

Y aquí es donde me surge la duda: si el agua, en condiciones normales, es aislante eléctrico, ¿por qué resulta tan peligroso (y hasta mortal) juntar el agua con la electricidad? ¿Por qué si pisamos en un suelo cubierto de agua al que está llegando electricidad de alguna manera (por ejemplo, por un cable suelto que transporta electricidad) nos electrocutamos?

Es una duda que he tenido siempre, y que nunca he sabido cómo resolver.

Muchas gracias, y un saludo.


El agua pura es un buen aislante eléctrico; al disolver iones, se convierte en conductor.

Electrocutarse en la bañera.

Llevarse el ordenador portátil a la bañera, sobre todo cuando está conectado a la red, NO es una gran idea. Lo mismo cabe decir de cualquier otro aparato eléctrico o electrónico.

El agua pura es un buen aislante eléctrico. Sin embargo, en cuanto hay presencia de algún material iónico (como la sal), ésta se vuelve rápidamente conductora.

El agua pura contiene aproximadamente 10–7 moles por litro de iones H+ con carga positiva, y otros tantos de iones HO- con carga negativa, lo que se traduce en una conductividad de aproximadamente 0,055 µSiemens/cm a 25ºC (resistencia de 18,2 MΩ·cm²/cm). Esto es un aislante muy bueno, aunque no tanto como el aire (con una resistencia doscientas mil veces mayor; aunque se suele decir que la resistencia eléctrica del aire es infinita, esto no es cierto).

Sin embargo, debido a las sustancias en suspensión del aire, el agua de lluvia que las arrastra presenta una conductividad de 35-50 µSiemens/cm (resistencia: 28,6-20kΩ·cm²/cm). Cuando hay mucha polución, llega fácilmente a 100 µSiemens/cm (resistencia: 10 kΩ·cm²/cm). El agua de un río (como el Rhin, por ejemplo) asciende a 300-745 µSiemens/cm (resistencia de 3,3 a 1,3 kΩ·cm²/cm). Y el agua de mar, con cantidades significativas de sales, conduce a 42.000 µSiemens/cm (resistencia de 23,8 Ω·cm²/cm).

No es una conductividad muy buena (el cobre, por ejemplo, presenta una resistencia de 1,7 µΩ·cm²/cm: catorce millones de veces menos que el agua salada y doce mil millones de veces menos que el agua de lluvia). Pero resulta suficiente, sobre todo teniendo en cuenta que el agua cubre toda la piel y se mete por todos los poros y grietas, multiplicando enormemente la superficie de contacto.

El agua del grifo resulta, pues, significativamente más conductora que el agua destilada. El agua de una bañera, llena de iones procedentes del jabón, las sales (artificiales o cutáneas) y demás resulta casi tan conductora como el agua de mar, al igual que el sudor. Aunque sea millones de veces menor que la de un conductor idóneo como el cobre, es bastante y con el incremento de la superficie de contacto se multiplica. Así es como el agua ayuda a que nos electrocutemos.

Europa de Júpiter.

Se piensa que bajo el hielo superficial de Europa, una luna de Júpiter, existe un océano de agua salada en estado líquido.

¿Es el agua indispensable para la vida desde un punto de vista termodinámico?

Remitida por Chrisinthemorning, de 29 años, residente en Ourense:

Hola Yuri, enhorabuena por el blog, es magnífico.

Una pregunta ¿has posteado algo sobre la importancia del agua en la vida visto desde un punto de vista termodinámico? (que es de la única manera en la que yo puedo explicar «la vida» (soy doctor en biología molecular y genética)). ¿Sería posible otro compuesto como dador último de electrones? ¿O es el agua realmente indispensable para que haya vida?

Muchas gracias.

Atentamente,

Sí, aunque incorporado en varios post dispersos; te recomendaría un vistazo a la serie «Hijas de la Lluvia» en general. De hecho, te me has adelantado, porque voy a escribir una serie sobre los «cuatro elementos clásicos» desde la óptica moderna; el primero ha sido el fuego y la semana que viene no sé aún si me toca tierra o agua; pero si no es la próxima, va a la siguiente. ;-) [Ejem… será pronto, palabrita]

La verdad es que se me hace difícil imaginar un «solvente universal» mejor que el agua a las temperaturas planetarias típicas. En la literatura se mencionan frecuentemente varias sustancias o combinaciones alternativas posibles, a distintos rangos de temperatura. Una de las más populares es el amoníaco, líquido entre –78ºC y –33ºC aproximadamente, y con casi toda seguridad el candidato mejor posicionado para reemplazar al agua como «cuna de la vida». Otras posibilidades comentadas a menudo son el metano, el etano, el ácido clorhídrico y el ácido sulfúrico, cada una con sus pros y sus contras. Personalmente, he fantaseado alguna vez con los hexanos. ;-)

Lo que pasa es que el agua lo reúne todo: amplia disponibilidad planetaria, buen rango térmico en el que permanece líquida, elevada polaridad (lo que facilita la «opción carbono», que parece a su vez una de las más fáciles para la vida), pH neutro, su gran capacidad para establecer enlaces por puente de hidrógeno… parece como si la vida en la Tierra fuera la que es porque sus fundamentos de agua-carbono son los «más inmediatos» para una forma de vida planetaria (al menos en un planeta rocoso; sería más discutible en uno gaseoso, pero eso presenta sus propios problemas).

Pero sí, son imaginables «otras cosas» no basadas en el agua.

[Chris en realidad se refería a otra cosa, que yo ya no fui capaz de contestarle con propiedad. Esta es su respuesta; si alguien tiene algún dato al respecto, le ruego que lo aporte:]

Hola Yuri, muchas gracias por la respuesta.

Tienes razón en que el agua es el mejor «medio» para que se den las condiciones para «la vida». Pero mi pregunta pretendía hacer hincapié en un aspecto más «básico» de la vida. La vida es un proceso de reciclaje de energía (magnífico y totalmente recomendable libro del hijo de Carl Sagan, Dorion Sagan,  «La termodinámica de la vida»; y algún otro de Ilya Prigogine y Erwin Schrödinger) en el que el agua juega un papel crucial.

La energía de la que estamos hechos y por la que estamos vivos viene del sol, y el mecanismo para captarla y «meterla» en el proceso de la vida es la fotosíntesis (o en «el origen» otro proceso similar). Los fotones energéticos del Sol excitan la molécula de clorofila que pierde un electrón, electrón que a medida que pasa de molécula en molécula hacia un nivel energético menor (a favor de gradiente), permite que su energía (¿física?) pase a energía química creando gradientes protónicos, lo que al final pasará dará como resultado la síntesis de ATP (la energía de las células). Esto se conoce como «Esquema Z«.

El problema es que la primera clorofila ha perdido ese electrón, permitiendo así que comience «la vida» (esto no es del todo exacto pero lo dejamos así); si este electrón no es reemplazado se para todo el proceso. Y ahí es donde entra el agua, que le cede un electrón a esa clorofila (y libera oxígeno), y de esta manera se puede volver a excitar por los fotones solares y seguir el eterno devenir vital…

Esta pequeña reacción inicial es la clave de que estemos vivos tú y yo y de que todo el mundo sea tal y como lo conocemos. En el «origen» tuvo que ser una reacción similar. Entonces yo me pregunto, será  el agua la única molécula capaz de ceder esos electrones? y si es así, proviene esa capacidad de sus características óxidoreductoras? (yo de esto no sé mucho). Y si es así, entonces el agua sí que es fundamental para que exista vida.

Un cordial saludo y perdón por las molestias. Enhorabuena de nuevo por la página.

Evaporación de los líquidos.

Los líquidos (y los sólidos) tienden a evaporarse a todas las temperaturas. Al hacerlo, producen presión de saturación. Cuando esta presión de saturación supera a la presión atmosférica, entonces entran en ebullición.

¿Por qué el agua se evapora muy por debajo del punto de ebullición?

Remitida por Eloi, de 27 años, residente en Barcelona:

Hola Yuri:

Soy un ferviente seguidor de tu blog. Te felicito, ¡es la mar de interesante!.

Tengo una duda que me corroe de hace mucho tiempo y aún no he encontrado la respuesta.

Es la siguiente: Si el agua de la lluvia proviene, principalmente, de la evaporación de ríos y mares. ¿Cómo se consiguen los 100ºC para llevarla a cabo?

Si no puedes responderme lo entenderé perfectamente. En todo caso, muchas gracias igualmente.

Un saludo,

Es fácil. ;-) Lo que necesita 100ºC es la ebullición (el momento en que toda la masa de agua comienza a vaporizarse a la vez). La evaporación, en cambio, se produce en todo el rango de temperaturas.

Esto puedes observarlo en tu taza de café (o de tu infusión favorita…). Puedes ver cómo se evapora ante tus ojos, cuando genera por condensación el vaho o «humo» blanco que se desprende de todas las bebidas calientes. Y por supuesto no está a 100ºC cuando te la estás tomando, o te abrasaría la boca. :-P

También se observa muy fácilmente al tender la ropa en un día caluroso (aunque no haga viento). En cuestión de minutos, la ropa está seca: el agua se ha evaporado. Pero, evidentemente, no ha hervido.

En suma: que evaporación y ebullición son cosas distintas. ;-)

[Paco, de Dos Hermanas, también se interesó por esta cuestión en otro mensaje; lo que me impulsó a escribir una respuesta un poco más elaborada:]

De todo el mundo es sabido que los estados de la materia son 3: sólido, líquido y gas (por cierto, duda paralela, ¿en qué categoría queda el estado plasmático?). El paso de un estado a otro, se produce con un cambio de las condiciones de presión y temperatura. En el caso del agua, a una presión de una atmósfera, se sabe que se mantiene sólida por debajo de cero grados, líquida por encima de cero grados, y hasta los 100, punto de ebullición en el cual el agua pasa a evaporarse y convertirse en gas (vapor de agua).

Sin embargo, si dejas un vaso de agua encima de una mesa, al cabo del tiempo, el agua desaparece (se evapora), o, cuando una superficie se moja, sin hacer nada, termina por secarse. La duda es: ¿por qué se evapora el agua, sin alcanzar su punto de ebullición, ni tan siquiera acercarse a él? Una mancha de agua en el suelo, a menos de 10 grados, y a más de cero, termina por evaporarse a pesar de estar a más de 90 grados por debajo de su punto de ebullición. ¿Ocurre esto con otras sustancias, solo con el agua, con algunas, con todas?

En realidad es que no hay tres estados de la materia, como sabe todo el mundo, sino cuatro. ;-) Y el plasma es el cuarto. Aunque, mejor dicho, el primero:  por muchísimo, se tratra del más común en todo el universo conocido. Hasta el 99% de la materia no-oscura de este universo estaría en estado plasmático.

Con respecto a tu segunda pregunta: Como ya vimos, la evaporación es distinta de la ebullición (evaporación y ebullición son las dos formas de vaporización de un líquido). Por tanto, el punto de ebullición sólo tiene una importancia relativa durante la evaporación: la evaporación se produce más cuanto más cerca está el líquido al punto de ebullición, pero se da en todo el rango de temperaturas. Un vaso de agua dejado a pleno sol en medio del verano se evapora antes que uno dejado en la cornisa un día de invierno.

Todos los líquidos están evaporándose continuamente, con independencia de su punto de ebullición. Los que parece que no lo hacen (el aceite, por ejemplo), sí lo hacen, sólo que muy despacito. Los hidrocarburos como la gasolina, por ejemplo, producen gases explosivos de manera bien conocida (a menudo, acelerados por la proximidad de un motor caliente). Esto se debe a que las moléculas de un líquido están en movimiento: el calor (a cualquier temperatura por encima del cero absoluto) se encarga de ello. No tanto como las de un gas, por supuesto, pero aún así se mueven.

Este movimiento las provee de energía cinética. Esta energía cinética puede ser suficiente para superar el límite de transición de fase (transición entre estados), siempre que se den tres condiciones: la molécula debe estar lo bastante cerca de la superficie, moverse en la dirección adecuada y hacelo con la suficiente rapidez. No son muchas las moléculas que cumplen estas tres condiciones al mismo tiempo, por lo que la evaporación se da poco a poco: es un proceso lento. Adicionalmente, esta «pérdida de energía al aire» enfría el líquido restante (enfriamiento evaporativo), lo que modera la rapidez del proceso aún más. Por eso el sudor sirve como mecanismo regulador de temperatura, al enfriar «lo que hay debajo» mientras se evapora. Un líquido esparcido en un área extensa se evapora antes porque hay una proporción de moléculas muy superior cerca de la superficie.

Ropa tendida en el frío.

La evaporación se produce incluso a temperaturas muy bajas. La ropa tendida en el frío, aunque no haga viento, sigue secándose.

Si el ambiente está muy saturado de humedad el proceso se ralentiza enormemente (el aire está ya «saturado» y «acepta peor» las moléculas en evaporación); habrás observado que en los días húmedos y lluviosos a la ropa le cuesta mucho secarse (aunque no esté expuesta a la lluvia). Por el contrario, el flujo de gases (el viento, la corriente de aire) lo acelera, porque tiende a hacer que esa saturación se disipe rápidamente. Por eso la ropa se seca antes en un día ventoso que en un día sin viento (y también porque el viento «arranca» las partículas de agua).

A temperaturas por debajo de cero, el agua se congela pero sigue existiendo algo de vaporización por sublimación. Debido a ese motivo, es posible tender la ropa en un día muy frío, y aún así se seca. Esta tendencia natural de los líquidos (y los sólidos) a vaporizarse produce la llamada presión de saturación.

Conforme la temperatura se acerca al punto de ebullición, las moléculas se mueven mucho más y la evaporación se acelera (el «vapor sobre el café»; o el «vaporcillo» que se ve salir de un guiso antes de que eche a hervir): su presión de saturación aumenta. En un determinado punto, la presión de saturación iguala y supera a la presión atmosférica. Este es el punto de ebullición. Entonces, al vencer a la presión atmosférica, el líquido comienza a «elevarse» y permite la formación de burbujas en su interior. En ese momento, todo el conjunto del líquido empieza a vaporizarse a la vez: decimos que ha entrado en ebullición. El proceso de vaporización sigue sin ser instantáneo: sólo mucho más rápido que durante la evaporación (a altas temperaturas / presiones ciertos cambios pueden provocar un fenómeno conocido como «flash boiling» o «ebullición instantánea»; este fenómeno fue la «puntilla» durante el accidente de Chernóbyl). Puede verse que si no fuera por la tendencia natural de los líquidos a evaporarse en presencia de energía, el punto de ebullición nunca se alcanzaría.

Se deduce fácilmente que, si queremos mantener líquida una sustancia por encima de su punto de ebullición, la manera más fácil de hacerlo es aumentar la presión ambiental. De esa forma, el punto en el que la presión de saturación supera a la presión atmosférica está mucho más arriba; por eso el agua de refrigeración permanece líquida. Así se hace, por ejemplo, dentro de los reactores nucleares (como los PWR), a temperaturas de varios cientos de grados. Por el contrario, si la presión atmosférica es muy baja, la ebullición se produce mucho antes; ese es el motivo de que la tenue atmósfera de Marte tenga problemas para conservar el agua en estado líquido: el punto en el que la presión de saturación supera a la atmosférica es mucho más bajo, y por tanto la temperatura de ebullición también (y la evaporación es más intensa).

Pájaro bebiendo.

¿De dónde sale el agua? Sí, vale del grifo. ¿Y la del grifo? Del río. ¿Y la del río? De las nubes, al llover. ¿Y la de las nubes? Del mar, por evaporación. ¿Y la del mar?

Y… ¿de dónde sale el agua?

Remitida por Raquel en representación de su hijo Tony Pastor Martín, de 11 años, residentes en Azuqueca de Henares (Guadalajara);
digo yo que cuando un muchacho de once años osa hacer esta pregunta, habrá que ir hasta el fondo del universo si es preciso para contestársela.
;-)

Buenas noches!!!

En primer lugar pedir disculpas, ya que no se ni escribir ni expresarme todo lo bien que me gustaría…

Tengo un hijo de once años, el cual tiene una curiosidad infinita, y me ha llegado esta tarde con una pregunta que me ha parecido interesante, ¿como llegó el agua a la Tierra???. Llevo un tiempo leyendo tu blog y ahora tu página web, me alucina todo lo que escribes, es impresionante como trasmites y nos haces comprender, incluso a gente como yo, sin más conocimientos que los que me proporciona la wikipedia, y algún que otro libro que cae en mis manos sobre física de divulgación, bueno, y al grano, no se si ya habrás escrito algo sobre este tema, yo no lo he encontrado, y nos encantaría leer o conocer tu opinión al respecto.

Perdona por molestarte, imagino que estarás saturado de correos de gente como yo, que busca respuestas claras.

Gracias de antemano por tu atención, y de nuevo te doy la enhorabuena por tu extraordinario trabajo!!! Que tio más inteligente (como dice mi hijo…) :)

El agua llegó a la Tierra con todo lo demás. ;-) Veámoslo:

El agua es óxido de di-hidrógeno. O sea, oxígeno e hidrógeno en relación 1:2, es decir H2O: dos átomos de hidrógeno unidos a uno de oxígeno. Vamos a ver de dónde salieron.

Superficie del Sol. Sonda TRACE, NASA.

Los elementos por encima del hidrógeno se forman durante las reacciones de fusión que se dan en las estrellas. En la imagen, la superficie del Sol. Sonda espacial TRACE, NASA.

El hidrógeno está por todo el universo. De hecho, la materia formada por el Big Bang fue hidrógeno en su muy inmensa mayoría. El Big Bang fue demasiado «simple» (¡ejem!, es una forma de hablar…) como para formar muchas cosas más complejas. Pero lo que formó, el hidrógeno, lo formó en grandes cantidades. Las estrellas (como nuestro Sol), que concentran buena parte de la materia del universo, están compuestas fundamentalmente de hidrógeno. Cuando se formaron las primeras estrellas, el universo sólo contenía hidrógeno y por tanto no podían aparecer cosas compuestas de otros elementos, como los planetas (y su agua). Estas primeras estrellas se llaman de generación III o sin metalicidad (porque aún no habían surgido los metales) y aparentemente ya no queda ninguna (que sepamos).

El oxígeno se forma dentro de las estrellas, como parte de sus procesos de fusión nuclear, en un proceso que se llama nucleosíntesis. ¿Cómo puede ser esto? Bueno, la idea es relativamente sencilla. Quizá hayáis oído que la fusión nuclear combina dos átomos de hidrógeno para formar uno de helio (lo he contado al menos en dos posts ;-) ). El hidrógeno tiene un protón, más otro protón de otro hidrógeno: dos protones, que es el helio. Pero con la suficiente energía, este proceso no tiene por qué acabarse aquí. Si se suma otro núcleo de hidrógeno (un protón) al de helio (dos protones), obtendremos litio (tres protones). ¡Ah, ya tenemos el primer metal! El litio es un metal.

Cuando la temperatura es lo bastante alta, y dentro de una estrella puede llegar a ser muy alta, el helio (dos protones) comienza a fusionar también entre sí. Al juntarse dos núcleos de helio (2+2 protones) obtenemos berilio (4 protones): otro metal. Así surgieron las estrellas de generación II o baja metalicidad y, conforme el proceso siguió adelante, las de generación I o alta metalicidad como la nuestra y la mayor parte de las que vemos en el cielo presente.

Y cuando se suma otro núcleo de helio más, ya tenemos carbono, ese que forma la base de la vida en la tierra: el núcleo de carbono tiene 6 protones. Este proceso en tres fases (helio -> berilio -> carbono) se llama proceso de nucleosíntesis triple-alfa. (Observad que estamos ignorando los neutrones, que se suman también, pero no es relevante para la explicación)

Proceso triple-alfa. NASA.

Proceso termonuclear triple-alfa, que a partir del helio forma el berilio y el carbono durante la fusión nuclear que se dan en el núcleo de las estrellas. Un "paso alfa adicional" forma el oxígeno; junto con el hidrógeno primordial y estelar, ya puede surgir el agua. Imagen original: NASA. (Clic para ampliar)

Ya hemos llegado al carbono, que no es un metal. Resulta que estos procesos alfa (fusión con núcleos adicionales de helio) pueden seguir produciéndose si la temperatura es lo bastante brutalmente alta. Cuando un núcleo de carbono (6 protones) fusiona con aún otro núcleo más de helio (2 protones)… pues ya tenemos un núcleo de 8 protones, que es exactamente el oxígeno. O sea, que en nuestra estrella ya tenemos átomos de hidrógeno (que estaba desde el principio) y átomos de oxígeno (y de helio, y de carbono, y de más cosas que van formándose por vías parecidas). Y si tenemos hidrógeno y oxígeno… pues ya tenemos todo lo necesario para hacer agua, ¿no?

Las estrellas hacen cosas energéticas, como explotar, cuando llegan a determinados momentos de su vida: esto son las novas y las supernovas. Y cuando una cosa como una estrella explota… vaya, explota de verdad, pero muy en serio, de una manera que resulta difícil de imaginar. Al suceder esto, grandes cantidades de esta materia que se encuentra dentro de las estrellas salen despedidas a mucha distancia y con una velocidad asombrosa. Con lo cual, van «llenando el universo» de estos nuevos elementos. Al pasar el tiempo, la atracción gravitatoria y otras fuerzas hacen que una parte de esta materia (que incluye al hidrógeno y al oxígeno) se distribuya en forma de discos de acreción. Los discos de acreción son la «cuna» de los sistemas solares: así nacen, con una nueva estrella en el centro (o más de una…) y planetas que se van formando por más atracción gravitatoria en órbita a su alrededor.

El hidrógeno y el oxígeno, cuando entran en contacto, reaccionan furiosamente a poco que el calor de estos planetas en formación sea un poco alto (y es bastante alto, porque la gravedad los comprime y al hacerlo aumenta la temperatura, aunque no tanto como dentro de las estrellas). Los motores del transbordador espacial, por ejemplo, consumen hidrógeno y oxígeno: así de energética es su reacción. Y el hidrógeno y el oxígeno, al combinarse (en el motor del transbordador espacial o en los planetas en formación), producen… H2O, agua. :-)


Lanzamiento del transbordador espacial Atlantis, visto desde cámaras en el exterior y a bordo.
Los dos grandes impulsores laterales son de combustible sólido, pero los tres de la nave
consumen hidrógeno y oxígeno para producir agua y energía.
Al final, podemos acompañar a uno de los impulsores laterales hasta su caída al mar.

Superficie y atmósfera de Marte.

La atmósfera de Marte es demasiado tenue para retener el agua líquida en su superficie. Por ello, sólo queda en forma de hielo; el resto ha escapado al espacio exterior.

Si la gravedad del planeta es demasiado baja para retener una atmósfera con suficiente presión, o su temperatura es demasiado alta, o ambas cosas a la vez, este agua se evapora y termina por perderse en dirección al espacio exterior. Eso, por ejemplo, le pasó a Marte y probablemente también a Venus: en el segundo apenas queda agua (en forma de vapor) y en el primero, la que queda, está en forma de hielo.

En la Tierra, que está dentro de lo que llamamos una zona de habitabilidad estelar, las condiciones son adecuadas para que el agua líquida se mantenga en su superficie. Por eso la vida en nuestro sistema solar surgió en la Tierra y no en cualquier otro lugar. :-)

En resumen: el agua estaba aquí desde el principio, como parte de los materiales que formaron la Tierra durantre el surgimiento del sistema solar. Es posible que hubiera una aportación adicional en forma de cometas de hielo, que se forman en las regiones exteriores de los sistemas solares, pero la mayor parte del agua terrestre se formó junto al resto de la Tierra por el proceso indicado.

Al principio no había mucha «agua libre» (como en los mares, océanos, ríos, lagos, vapor atmosférico, etc), sino que estaba «prisionera» con el resto de sustancias que formaron la Tierra. Con el paso de los millones de años, el agua fue «liberándose», fundamentalmente por cinco vías distintas:

  • Por enfriamiento progresivo de la Tierra primigenia, hasta el punto de que los componentes gaseosos (como el vapor de agua) quedaron retenidos en una atmósfera de presión suficiente para retener y estabilizar el agua líquida. Cuando la temperatura cayó lo bastante, comenzó a llover y el agua empezó a acumularse en las partes más profundas (océanos, mares…). Este fue el proceso de «liberación» de agua más importante. Por eso a mí me gusta decir que somos todos hijos e hijas de la lluvia. :-)
  • Por fisiadsorción (¡vaya con la palabrita!), fijando moléculas de agua o combinando átomos de hidrógeno/oxígeno que estaban presentes en el disco de acreción del que se formó el planeta.
  • Por fuga gradual del agua almacenada en los minerales hidratados de las rocas que forman la Tierra.
  • Por fotólisis, donde la radiación solar es capaz de romper algunas moléculas presentes en la superficie terrestre y «dejar libre su agua».
  • Una vez surgida la vida, por procesos bioquímicos que liberan agua capturada del suelo, como la transpiración.

Y esta es la historia del surgimiento del agua en la Tierra. Y, de paso, de todo lo demás que conocemos. Es lo bonito de la ciencia: sus respuestas siempre dan lugar a nuevas y mejores preguntas, que terminan por explicar muchas cosas. En ciencia nunca aceptamos un «porque sí» o «porque no» o «porque es así»; somos curiosos y puñeteros. Como los niños. O no tan niños. ;-)

Y en último término, añado, la más alta función de la ciencia es contestar mejor a las preguntas de los niños futuros.

79 Comentarios Trackbacks / Pingbacks (13)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (63 votos, media: 4,78 de 5)
Loading...
Be Sociable, Share!

38 antihidrogenitos.

El experimento ALPHA del CERN ha logrado capturar 38 antiátomos durante algo más de un sexto de segundo.
¿Qué significa esto? ¿Por qué es importante?

Salió publicado en prensa el jueves pasado: el experimento ALPHA del CERN ha logrado capturar 38 átomos de antimateria durante diecisiete centésimas de segundo, antes de que se fugaran. Qué pasada, ¿eh? Qué barbaridad, qué cosas hace la ciencia…

…venga, en serio. :-D A ver, que levante la mano quien pueda decir qué significa esto y por qué tiene a los físicos de medio mundo descorchando el champán bueno (vale, si eres físico, me imagino que ya sabes por qué andas borracho; pero ¿y si no? ¿Eh? ¿Eh? ;-) ).

El experimento ALPHA del CERN (Foto: CERN)

El experimento ALPHA del CERN (Foto: CERN)

Antimateria.

Partículas y antipartículas.

Partículas y antipartículas: electrón y positrón, protón y antiprotón, neutrón y antineutrón. Son como "imágenes en el espejo" con las cargas invertidas (el neutrón no tiene carga eléctrica, pero el antineutrón está compuesto de antiquarks, al igual que el antiprotón). Al combinarse, forman átomos y antiátomos.

Ya explicamos en este blog qué es la antimateria. Para resumirlo rápidamente, haré aquello tan feo de citarme a mí mismo:

La antimateria es, sencillamente, materia donde alguna de las cargas está invertida con respecto a la materia corriente. Veámoslo con un electrón, que se comprende muy bien. El electrón, como leptón que es, tiene masa y spin pero sólo una carga: la eléctrica, siempre negativa. Su antipartícula, llamada positrón, posee exactamente la misma masa, spin y carga eléctrica; sin embargo, en este caso la carga eléctrica es positiva.

De esta forma el positrón mantiene todas las propiedades de su antipartícula el electrón pero electromagnéticamente reacciona al revés. Por ejemplo: dos electrones, por tener carga negativa, tienden a repelerse entre sí. Pero un electrón y un positrón, aunque en todo lo demás sean idénticos, tienden a atraerse entre sí porque uno tiene carga eléctrica negativa y el otro positiva. Y así con todo.

Con los quarks ocurre lo mismo. El quark arriba, por ejemplo, tiene una carga eléctrica de +2/3 (dos terceras partes de la de un positrón). Antiarriba, en cambio, tiene una carga eléctrica de -2/3 (dos terceras partes de la de un electrón). Su carga cromática también cambia: si por ejemplo está en estado rojo, el antiquark estará en anti-rojo, que se suele llamar magenta. (Que esto de los colores no te confunda: es una forma simbólica de representar su estado de cara a la cromodinámica cuántica; no tiene nada que ver con colores de verdad).

Veamos lo que ocurre entonces con un protón y un antiprotón; por ejemplo, respecto al electromagnetismo, que es más sencillo. Hemos quedado en que los protones (como todos los bariones) están compuestos de tres quarks, y que en su caso éstos son dos arribas y un abajo. El quark arriba lleva una carga eléctrica de +2/3 y el quark abajo, otra de –1/3. Sumémoslas: (+2/3) + (+2/3) + (–1/3) = +3/3 = +1. Resultado: el protón tiene una carga positiva.

Ahora contemplemos el antiprotón, formado por dos antiquarks arriba (carga –2/3) y un antiquark abajo (carga +1/3). Observa que está formado exactamente igual, sólo que con las versiones invertidas de los quarks. Sumemos (–2/3) + (–2/3) + (+1/3) = –3/3 = –1. Resultado: el antiprotón tiene una carga negativa.

El resto de cargas también se invierten. En aquellos leptones que no tienen carga eléctrica (los neutrinos) se invierte otra propiedad distinta, la helicidad, que es la proyección del spin relativa al momento de inercia. O, alternativamente, es posible que sean partículas de Majorana y constituyan su propia antipartícula.

La antimateria ha llamado la atención de muchas personas, entre otras cosas por sus propiedades energéticas explosivas. Cuando la materia entra en contacto con la antimateria, se aniquilan mutuamente siguiendo la conocida fórmula E=mc2. Pero, así como en la fisión y en la fusión sólo es una minúscula parte de la materia o energía del átomo las que se liberan, en la aniquilación materia-antimateria toda la masa se transforma íntegramente en energía. Y esto, compi, es de una potencia pavorosa, la reacción más energética posible en todo el universo conocido:

Medio gramo de materia interactuando con medio gramo de antimateria (un gramo de masa total) genera espontáneamente 89.876 gigajulios de energía (se obtiene aplicando simplemente E = mc2; E = 0,001 · 299.792.4582 = 89.875.517.873.682 J). En términos de energía utilizable, esto equivale a unos 25 gigawatios-hora (una central nuclear como Cofrentes tirando watios a toda mecha durante casi un día entero); si queremos presentarlo en términos de energía explosiva, son 21,5 kilotones: como Nagasaki más o menos. Con un solo gramo de material.

Mapa de positrones en la Via Láctea.

Esta imagen del Observatorio Espacial Compton de la NASA presenta evidencias de que existe una nube de positrones, una forma de antimateria, extendiéndose a lo largo de unos 3.000 años-luz sobre el centro de la galaxia. Estos rayos gamma tienen una energía de 511 keV, un cuarto de millón de veces más que la luz visible, y se producen cuando los positrones de antimateria se aniquilan con los electrones de materia; así, la masa de ambos queda convertida íntegramente en energía según la conocida ecuación relativista E = mc2. Curiosamente, esta nube de antimateria parece extenderse hacia el norte del plano galáctico pero no hacia el sur.

Comparemos. El uranio-235 de grado militar puede llegar a producir, óptimamente, 88,3 gigajulios por gramo; la mezcla usada normalmente en las centrales civiles, entre medio y tres y medio. Por debajo de mil veces menos. La fusión del deuterio-tritio en las armas termonucleares puede alcanzar 337 gigajulios por gramo; y la fusión más energética posible roza los 650; esto es, ciento y pico veces menos.

La aniquilación materia-antimateria tiene otra ventaja: a diferencia de la fusión, se produce espontáneamente en todos los rangos de energía. A diferencia de la fisión, se produce con cualquier cantidad de materia/antimateria. Esto significa que no presentaría problemas de contención: el diseño conceptual de un reactor de materia-antimateria se parecería mucho al de un carburador o, si lo prefieres, a un motor cohete o una central térmica normal. Si necesitas más energía aumentas un poco el flujo, si necesitas menos lo reduces, si dejas de necesitar lo cortas. Eso es todo.

Como la antimateria presenta propiedades exactamente simétricas a la materia (o eso hemos observado hasta el momento), puede organizarse de manera idéntica. Un universo de antimateria sería indistinguible de un universo de materia. Este nuestro podría ser un universo de antimateria donde anduviéramos a la caza de la materia. De hecho, lo es: el «pro» y el «anti» dependen exclusivamente del punto de vista humano. Así pues, la antimateria se organiza en átomos igual que la materia:

Entonces imaginemos un átomo, el más básico de todos: el hidrógeno-1 o protio (hidrógeno corriente). Está compuesto por un protón (carga eléctrica positiva) y un electrón (carga eléctrica negativa) en órbita alrededor. Esta configuración es posible porque el protón y el electrón, al tener cargas distintas, tienden a atraerse (igual que hace la gravedad con una nave espacial en órbita alrededor de un planeta).

Si sustituimos el electrón por su antipartícula el positrón, o el protón por un antiprotón, este átomo se vuelve imposible: ambos tendrían idéntica carga, se repelerían violentamente y saldrían despedidos cada uno por su lado.

Pero si sustituimos los dos –el electrón y el protón– por un positrón y un antiprotón, el átomo es igualmente posible porque las relaciones entre ambos se mantienen; sólo que ahora están invertidas. Ahora la carga positiva está en el positrón orbitando y la negativa se halla en el antiprotón del núcleo, pero como la relación entre ambas se mantiene (cargas invertidas), el átomo puede existir. Y se llama antihidrógeno. No sólo puede existir, sino que hemos fabricado un poquitín. El CERN (sí, los mismos del LHC) fue el primero en lograrlo, probablemente en 1995 y de manera verificada a partir de 2002 en sus deceleradores de partículas. En los aceleradores también se ha creado un pequeño número de núcleos de antideuterio (antihidrógeno-2) y antihelio-3. Hablamos, en todo caso, de cifras de billonésimas de gramo. Con la tecnología presente, su coste sería tan exorbitante como su rareza: aproximadamente, 50 billones de euros por un gramo de antihidrógeno.

Pero no todo es tan difícil. Por ejemplo, ya existen desde hace algunos años aplicaciones tecnológicas basadas en la antimateria, como la tomografía por emisión de positrones (PET) de uso generalizado en medicina moderna.

Hidrógeno y antihidrógeno.

Un átomo de hidrógeno (isótopo: protio) y otro de antihidrógeno (isótopo: antiprotio). Esta es la antimateria que se logró contener esta semana en el CERN durante más de un sexto de segundo.

El Big Bang produjo, sobre todo, grandes cantidades de hidrógeno: la mayor parte protio y alguna pequeña cantidad de deuterio y tritio. También pudo formar algo de helio, litio y berilio. Todos los demás elementos que componen el cosmos –eso nos incluye a nosotros– surgieron en las estrellas; como decía Sagan, somos esencialmente polvo de estrellas. Y el Big Bang produjo sobre todo hidrógeno precisamente porque es el elemento más sencillo. Digamos que fue un suceso demasiado primitivo para formar cosas mucho más sofisticadas; éstas necesitaron procesos mucho más largos y complejos, en el corazón de los soles. Cuando las personas intentamos crear antimateria, también empezamos por el elemento más básico. Como ya hemos dicho, este es el antihidrógeno: un antiprotón en el núcleo y un positrón (antielectrón) orbitando alrededor.

La institución líder en el mundo para estas cuestiones de física súperavanzada es la Organización Europea de Investigaciones Nucleares (también llamada Laboratorio Europeo para la Física de Partículas), más conocido por sus siglas originales CERN. Hay otras instituciones de gran prestigio, pero algunas cosas que se hacen en el CERN no se hacen ni se pueden hacer en ningún otro lugar. Como resulta bien sabido, el CERN dispone del LHC, el acelerador de partículas más grande y potente del mundo por casi un orden de magnitud. Pero no solamente eso: también cuenta con algunos otros medios únicos. Entre ellos se encuentra el Decelerador de Antiprotones (AD). ¿Qué es esto de un decelerador?

La fábrica de antimateria.

El Decelerador de Antiprotones sucede a tres máquinas de antimateria anteriores desarrolladas en el CERN: AA, AC y LEAR. Aunque en 1995 LEAR creó al menos 9 átomos de antihidrógeno (la primera producción de antimateria atómica de la historia), en 1996 estas tres máquinas se cerraron porque era preciso liberar recursos económicos para la construcción del LHC. Cosas de las reducciones de costes y tal. Sin embargo, un grupo de científicos no estuvo de acuerdo con esta cancelación y presionaron para que se instalara al menos una nueva máquina de bajo coste. Esta nueva máquina fue el Decelerador de Antiprotones (AD).

Un decelerador es un tipo particular de acelerador; en esencia, un anillo de almacenamiento que hace cosas. Cuando una partícula choca con un blanco a velocidades próximas a las de la luz –de esto se encarga el acelerador–, se producen temperaturas locales enormes, en el rango de diez billones de grados. Sí, millones de millones. A estos niveles, una parte de la energía generada se transforma en materia: con estas máquinas somos capaces de crear materia nueva a partir de la energía. Y siempre, siempre surge como un par partícula-antipartícula. Esto es, materia y antimateria. Tal como predijo Paul Dirac a principios del siglo XX, nunca se ha observado que surja un número desigual de partículas materiales y antimateriales. Esta materia-antimateria sigue las mismas leyes que toda la demás del cosmos, con lo que forma cosas conocidas: protones, neutrones, electrones, antiprotones, antineutrones, positrones y demás fauna habitual.

El Dr. Jeffrey Hangst a los mandos del experimento ALPHA del CERN.

El profesor Jeffrey Hangst, astrofísico de la Universidad de Aarhus (Dinamarca), a los mandos del experimento ALPHA. (Foto: CERN)

Cuando se lanzan protones (casi siempre producidos por el Sincrotrón de Protones) contra un blanco, aproximadamente en un impacto de cada millón se forma un par protón-antiprotón. Parece una cifra muy baja, pero como el Sincrotrón de Protones produce muchos, pueden generarse más o menos diez millones de antiprotones por minuto. Estas partículas siguen avanzando con elevada energía, pero no todos con la misma («esparcimiento de energía», energy spread), ni tampoco en la misma dirección («oscilación transversa»). Parecen un montón de críos traviesos saliendo de clase a la carrera, cada uno a una velocidad y con una dirección.

Cada vez que una de estas antipartículas entra en contacto con una partícula (por ejemplo, en las paredes del acelerador) ambas se aniquilan instantáneamente, generando energía. Sin embargo, son tan minúsculas y su número es tan bajo que no causa ningún efecto visible a los ojos. Pero, en todo caso, esto no nos conviene: queremos esos antiprotones para hacerles cositas. Así pues, utilizamos magnetos para obligarles a continuar por un camino determinado (que está, por supuesto, al vacío). De este modo llegan al decelerador, un anillo de doscientos metros de diámetro, donde continúan dando vueltas sin tocar las paredes por acción de estos magnetos.

A cada vuelta que dan por dentro del anillo, los intensos campos magnéticos van frenándolos. Cuando su velocidad desciende a una décima parte de la de la luz, se consideran decelerados y un cambio súbito en el campo magnético los saca hacia la línea de eyección, donde ya los tenemos disponibles para hacer cosas con ellos de manera manejable. Por su parte, los positrones (antielectrones) suelen proceder del isótopo radioactivo sodio-22. El experimento ATRAP se encargó de decelerar y acumular estas antipartículas frías para dar el siguiente paso: la creación artificial de antiátomos a escala significativa.

En agosto de 2002, el experimento ATHENA logró combinar estos antiprotones y positrones para formar muchos átomos de antihidrógeno de baja energía, muchos más que aquellos nueve originales de 1995: produjo cincuenta mil de ellos en un momentín. Esto se pudo confirmar con bastante facilidad, por el sencillo método de observar y contar las aniquilaciones subsiguientes con la materia del entorno.

La "celda de antiátomos" del experimento ALPHA del CERN.

La "celda de antiátomos" del experimento ALPHA del CERN.

Domando antiátomos.

Este fue un éxito enorme de esos que cabe celebrar con pompa y fanfarria. Por primera vez habíamos obtenido antimateria atómica manejable en cantidad suficiente para hacer algo con ella; y lo primero, por supuesto, estudiarla. Así se empezó a resolver una de las grandes preguntas de la física: la antimateria, ¿es de veras totalmente simétrica con respecto a la materia o presenta alguna anomalía oculta? Según el teorema CPT, sus espectros debían ser idénticos, con completa precisión. En estos momentos, sabemos ya que sus propiedades son especulares por completo hasta una precisión de una parte en cien billones.

ATHENA y ATRAP produjeron antihidrógeno combinando antiprotones y positrones en unas botellas electromagnéticas que se llaman trampas de Penning. Las trampas de Penning tienen fuertes campos magnéticos solenoidales y pozos electrostáticos longitudinales que son capaces de confinar las partículas cargadas. Como el antiprotón presenta carga negativa y el positrón la tiene positiva, ambas resultan contenidas en estas trampas de Penning.

Sin embargo, cuando ambas partículas se combinan en un átomo, la carga negativa del antiprotón y la positiva del positrón se anulan mutuamente. Entonces, el átomo de antihidrógeno resultante es electromagnéticamente neutro. Las trampas de Penning no pueden contener cosas neutras y nuestro precioso átomo antimaterial entra rápidamente en contacto con la pared material de la botella, aniquilándose pocos microsegundos después de su formación. Para estudiar el antihidrógeno con técnicas más detalladas (como la espectroscopia láser) hay que contenerlos durante más tiempo. Como mínimo, durante un séptimo de segundo en esa mezcla de anti-átomos neutros y partículas constituyentes cargadas.

Para resolver este problema se creó el experimento ALPHA. Se pueden atrapar átomos o antiátomos neutros porque tienen momento magnético y éste puede interactuar con un campo magnético exterior. Si creamos una configuración de campo con una fuerza magnética mínima, desde donde el campo se desarrolle en todas direcciones, algunos estados cuánticos del átomo se verán atraidos hacia esta región de potencia mínima. Esto suele adquirir la forma de una trampa de Ioffe-Pritchard. La idea es que cuando el antiátomo se forme, lo haga ya «prisionero» en esta trampa, disponible para su estudio al mentos durante unas fracciones perceptibles de segundo.

Y eso es exactamente lo que se supo logrado el pasado miércoles: ALPHA fue capaz de capturar 38 antihidrógenos neutros durante 170 milisegundos, más de un sexto de segundo y por tanto más de lo necesario para poder estudiar la antimateria con espectroscopia láser como si se tratara de materia vulgar. Se abre así la puerta para comprender uno de los misterios más sobrecogedores de este universo: su asimetría bariónica y por tanto la violación de la simetría CP.


Explicación del funcionamiento de la «trampa de antiátomos» del experimento ALPHA (CERN). (En inglés)

Detección de antimateria en el AD del CERN.

La aniquilación de antimateria tal como es detectada en el Decelerador de Antiprotones del CERN. El antiprotón produce cuatro piones cargados (amarillo), cuyas posiciones quedan determinadas mediante microcintas de silicio (rosa) antes de depositar su energía en los cristales de yoduro de cesio (cubos amarillos). El positrón también se aniquila, produciendo rayos gamma transversales (rojo).

Entonces, ¿esto para qué sirve?

En nuestro universo hay algunas cosas notables que todavía no nos cuadran. Una de ellas es este hecho sencillo: si la materia se forma siempre en pares partícula-antipartícula, si a cada partícula de este universo le corresponde una antipartícula… entonces, ¿dónde está toda la antimateria? Si durante el Big Bang se hubiera formado tanta materia como antimateria, ambas se habrían aniquilado entre sí y el cosmos no existiría ahora mismo.

Para empezar, ¿cómo sabemos que el universo es esencialmente material y no antimaterial? Bueno, pues porque todas las interacciones que conocemos hasta el momento sugieren un predominio radical de la materia. Cuando mandamos naves a otros planetas, no se aniquilan. En los rayos cósmicos que llegan a la Tierra, procedentes del Sol y del resto de la galaxia, hay diez mil veces más protones que antiprotones. Tampoco estamos detectando la energía de aniquilación que debería producirse en las regiones de transición entre galaxias de materia y galaxias de antimateria, si estas últimas existieran. La cantidad de antimateria en el cosmos parece ser extraordinariamente baja, y existe sólo cuando se forma a partir de procesos de la materia.

Aparentemente, la inmensa mayor parte del universo se aniquiló a sí misma durante el Big Bang. Edward W. Kolb y Michal S. Turner han estimado que durante el origen de todo se formaron treinta millones de antiquarks por cada treinta millones y un quarks. Tras la aniquilación, esa diferencia de un quark por cada treinta millones formó el cosmos presente.

Dije más arriba que en el laboratorio siempre observamos cómo de la energía surgen pares partícula-antipartícula y nunca desigualdades entre partículas y antipartículas. Esto no es exacto. En realidad, puede surgir más materia que antimateria bajo las condiciones de Sakharov; se han registrado muchas violaciones de la simetría CP y recientemente se han encontrado indicios de formación asimétrica de muones-antimuones en el Tevatrón del Fermilab estadounidense. El logro del CERN, junto a los demás avances en el campo, no sólo apuntan ya a una comprensión más profunda de los primeros momentos del universo –la ruptura de la supersimetría y la bariogénesis primordial–, sino que sugieren posibilidades futuras relacionadas con la transformación de la materia en energía y de la energía en materia.

La tomografía por emisión de positrones (PET): una aplicación práctica de la antimateria en medicina.

La tomografía por emisión de positrones (PET): una aplicación práctica de la antimateria en medicina.

Hay personas que no entienden por qué todo esto es importante ni por qué algunos defendemos a capa y espada que se prioricen recursos para esta clase de investigaciones, cuando hacen falta tantas cosas en el mundo y encima ahora que estamos en crisis. Por lo general, estas personas ignoran un hecho sustancial del progreso humano: desde hace más de cien años, sin teoría no hay práctica, sin ciencia no hay tecnología. Hubo una época, siglos atrás, en que era posible avanzar la tecnología por la cuenta de la vieja: trasteando con cosas hasta que hallabas una solución a un problema. Sin embargo, nada de lo que hemos visto suceder en el último siglo habría sido posible sin el desarrollo teórico de la ciencia. En cuanto subes un poquito el nivel, sin teoría previa, no hay práctica que valga. Tienes que comprender cómo funcionan las cosas antes de hacer algo con ellas, y no digamos ya de crear cosas nuevas.

Por ejemplo, toda la tecnología electrónica e informática moderna se derivan directamente de la Teoría Atómica, la Teoría de la Relatividad y la Teoría Cuántica, originadas a principios del siglo XX. No existe forma alguna de crear un transistor electrónico sin tener primero claros estos conceptos, y no digamos ya construir un microchip; lo mismo ocurre con la química moderna, los nuevos materiales y en general todo lo que constituye el mundo que conocemos. La medicina contemporánea sería imposible sin la Teoría Microbiana, la Teoría de la Evolución o los fundamentos teóricos de la farmacología química, entre otras muchas. Y así en todos los casos.

Actualmente, además, la ciencia es multidisciplinar y no le queda otra que serlo cada vez más. Es una situación –vamos a llamarlo así– holística, donde se requiere al mismo tiempo un grado asombroso de hiperespecialización y un grado igualmente asombroso de visión de conjunto. Hoy por hoy, no resulta extraño que un avance teórico en un oscuro rincón del conocimiento tenga consecuencias prácticas en ciencias aplicadas y tecnologías aparentemente muy distintas. Una observación astrofísica del telescopio Spitzer hoy puede ser la clave de tu tratamiento médico dentro de veinte años. Por poner sólo un ejemplo, ¿alguien se imagina un hospital moderno sin máquinas de resonancia magnética?

Manifestación de científicos del CERN contra los recortes presupuestarios.

Manifestación de científicos y otro personal del CERN contra los recortes presupuestarios frente a la sede de la institución en Meyrin (cerca de Ginebra). En la pancarta se lee: "Sin presupuesto para investigación: sin futuro para Europa". No puedo estar más de acuerdo.

La física, al estudiar las leyes básicas que rigen el universo, ocupa un lugar central en este proceso ciencia teórica -> ciencia aplicada -> tecnología. Todo avance en física, además de sus derivaciones tecnológicas directas, tiene un efecto inmediato en la química; también en la bioquímica, y por tanto en la medicina; y así en una especie de trama o red del conocimiento que se realimenta a sí misma una y otra vez. De este modo fue como se produjeron todos los grandes avances de la revolución científico-técnica y, sin ello, estamos condenados al estancamiento y la decadencia. Y la ruina. Las sociedades que no son capaces de continuar este proceso se quedan atrás y nadie va a esperarlas.

Las contribuciones anuales de los estados miembros al CERN ascienden a 1.112 millones de francos suizos, unos 823 millones de euros. Esto viene a ser más o menos como el presupuesto de una ciudad del tamaño de Valencia. Sólo en mantener las televisones autonómicas españolas ya nos gastamos mucha más pasta. Los recientes planes de rescate bancario se han tragado el presupuesto entero del CERN durante milenios; aparentemente, es mucho más importante salvar a los causantes de la crisis que apostar por las cosas que pueden contribuir a sacarnos de ella mediante el desarrollo científico-tecnológico.

Para una potencia global como Europa, ochocientos y pico millones de euros anuales es una cifra ridículamente baja hasta el extremo de la mezquindad. Tenemos la institución generadora de ciencia más avanzada del planeta Tierra y andamos haciendo el imbécil con su dinero; ahora, con la excusa de la crisis, los politicastros habituales andan recortándoselo aún más. Esto ya ha ocasionado consecuencias graves y algunas protestas.

Avances como el de esta semana son de importancia extraordinaria y sientan las bases de lo que serán la ciencia y la técnica futuras, como los avances de los científicos anteriores –que también tuvieron que luchar contra la ceguera absurda de los prácticos– constituyeron las bases de la ciencia y la técnica presente. Conforman, así, el antídoto más poderoso contra las eras de oscuridad. Sin ellos, no vamos a ninguna parte y estamos condenados al estancamiento y la recesión; la misma clase de estancamiento y recesión que sufrieron las culturas clásicas e islámicas y ahora empieza a manifestarse de nuevo en otras que no lo son.


Explicación del experimento ALPHA por el Dr. Hangst (en inglés).

104 Comentarios Trackbacks / Pingbacks (11)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (77 votos, media: 4,91 de 5)
Loading...
Be Sociable, Share!

El rayo, ¿sube o baja?

El fenómeno que conocemos comúnmente como «rayo»
no «cae», sino que asciende desde la tierra al cielo
durante el transcurso de un complejo vaivén de inmensa energía.


La sonda Cassini-Huygens registra relámpagos en una nube de la atmósfera superior de Saturno.
Observación de 16 minutos comprimida en este video de 10 segundos;
audio sintético creado con las señales electromagnéticas recibidas por la nave.
(Jet Propulsion Laboratory – NASA)

Es uno de los fenómenos planetarios más notorios, allá donde haya una atmósfera gaseosa con la suficiente densidad. El rayo, ese viejo miedo y asombro de la humanidad desde que pudimos sentir, constituye el prodigio más espectacular de los muchos que se encuentran en la atmósfera terrestre. Y desde siempre, hemos dicho que el rayo cae. Que cae de los cielos sobre nosotros, vamos, como lanzado por algún Zeus. Pero, ¿es esto verdad? ¿Realmente el rayo cae, o hay algo aún más sorprendente esperándonos también detrás de este fleco de la realidad?

De las cosas que caen.

Los seres humanos somos un bicho fuertemente antropocéntrico. Esto tiene sus cosas buenas, como por ejemplo el humanismo. Y sus cosas menos buenas, porque el antropocentrismo no deja de ser una forma colectiva de egocentrismo y etnocentrismo, a menudo con rasgos profundamente narcisistas y chauvinistas. En general, los seres humanos tendemos a pensar que todo lo que hay en el universo está para favorecernos o fastidiarnos a nosotros personalmente, como individuo, como grupo o como especie. La idea de que el universo va a su bola y nosotros no hacemos mucho más que correr de acá para allá tratando de seguir su ritmo o huir de sus peligros nos resulta inquietante, indeseable. La mayoría de la gente prefiere pensar que estamos aquí por algo, que las cosas suceden por alguna razón más allá de sus causas físicas inmediatas. Adoramos suponer que las cosas vienen hacia nosotros. Que si nos parte un rayo, nos partió por algo, y no sólo porque estábamos en medio cuando saltó sin preocuparse por nosotros ni un poquitín. Este es uno de los orígenes de la religión.

Zeus con el águila y el rayo. Museo del Louvre, París.

Zeus con el águila y el rayo en un ánfora griega del 470-460 aC. Museo del Louvre (pieza G204), París.

Además, a falta de información y análisis de buena calidad (y a veces hasta teniéndolo…) las personas tendemos a interpretar la realidad según nuestras preconcepciones, prejuicios, miedos, deseos, creencias y anhelos: nuestra cosmovisión. En la cosmovisión común, todo lo que sube, baja; y si algo sucede en el cielo y afecta a cosas que están en la tierra –nosotros, por ejemplo– entonces es que viene del cielo o cae del cielo. Pensar de otra manera nos resulta confuso e incómodo.

Con estos antecedentes, parece de sentido común decir que el rayo cae del cielo, viene sobre nosotros desde el cielo. Sin embargo, lo cierto es que este fenómeno sucede demasiado deprisa para que nuestros ojos puedan percibir en qué sentido viaja: buena parte de él se desplaza a la velocidad de la luz, y ninguna parte de él va más lento que una tercera parte de la velocidad de la luz. Nuestro cerebro y nuestros ojos reaccionan mucho más despacio. En realidad, cuando pasa el rayo, lo único que llegamos a percibir es un destello instantáneo; por autosugestión, percibimos que cae hacia abajo. Pero en realidad no lo hemos visto caer hacia abajo, porque no somos capaces de tal cosa. Por fortuna, ahí está la ciencia –esa aguafiestas– y los instrumentos tecnológicos que produce para echarnos una manita.

En general, la lógica de todo lo que está en el cielo tiene que caer sólo resulta válida cuando la fuerza preponderante en el fenómeno es la gravedad. Sin embargo, en el rayo y el relámpago la gravedad no juega ningún papel significativo: se trata de un fenómeno esencialmente electromagnético. Un rayo no es otra cosa que una gran chispa saltando entre dos superficies con carga eléctrica: la tierra y la nube. Por tanto, en principio, no tiene ningún sentido de circulación preferente. La mitad inferior del rayo debería subir hacia arriba y la superior, caer hacia abajo hasta encontrarse en algún punto intermedio. Sin embargo, el fenómeno es más complejo e interesante. Veámoslo.

¿Cómo se foman los rayos?

Para responder a esta pregunta correctamente, primero debemos aprender cómo se forma una tormenta eléctrica. Las tormentas eléctricas se originan en un tipo particular de nubes: los cumulonimbos. En el planeta Tierra, la inmensa mayoría parte de los rayos y relámpagos se producen durante estas tormentas; aunque también se observan ocasionalmente en las nubes de ceniza causadas por los volcanes o por grandes incendios (como los forestales) y en ciertas tormentas de arena. Todos ellos son sitios donde el rozamiento entre una miríada de partículas en suspensión puede generar carga eléctrica y electricidad estática. En el planeta Tierra, más del 95% de los rayos y relámpagos suceden en los cumulonimbos; el 20% alcanzan el suelo y el 80% circulan de nube a nube. En todo momento, hay unas mil ochocientas tormentas eléctricas sucediendo a la vez, lo que totaliza unos dieciséis millones de ellas al año.

Un cumulonimbo.

Un cumulonimbo.

Los cumulonimbos son nubes convectivas densas y pesadas, con notable desarrollo vertical, lo que les da la forma de una montaña o de grandes torres en el cielo. Su parte superior tiende a ser plana (lo que en ocasiones les hace parecer un yunque) y a menudo suave, aunque también puede aparecer como fibrosa o estriada. Bajo la base, muy oscura, aparecen nubes desiguales. Los cumulonimbos traen lluvia y granizadas fuertes y breves, a veces en forma de virga. Si hay granizo, truenos o relámpagos, estamos sin duda ante una de estas nubes. Aunque no todos los cumulonimbos traen tormentas eléctricas. Con frecuencia, se limitan a provocar precipitaciones intensas pero de corta duración. Cuando ocasionan tormentas eléctricas, éstas suelen tener una duración máxima de media hora; si dura más, es que hay varios.

Dentro de estas nubes se forman un montón de gotitas de agua, que salen propulsadas hacia arriba debido a sus corrientes ascendentes internas (updraught). Así se enfrían con un mecanismo de sobrefusión; unas se van acumulando en forma de granizo blando y otras permanecen como minúsculas partículas heladas. Cuando el granizo es lo bastante grande y pesado, cae a través de la nube y desciende chocando y rozando contra las partículas pequeñas que viajan hacia arriba. Durante estas colisiones, algunos electrones de las partículas resultan capturados por el granizo, con lo que éste adquiere una carga negativa (mientras que las partículas que siguen subiendo a lo alto, desprovistas de esos electrones, presentan carga positiva). Así se van generando acumulaciones de carga eléctrica estática en la parte inferior y superior del cumulonimbo.

Una parte del granizo descendente con carga negativa se ha vuelo ahora tan pesado que las corrientes ascendentes no pueden propulsarlo de nuevo hacia arriba, con lo que queda durante un tiempo entre dos aguas, sin llegar a caer aún a tierra pero concentrado en las regiones inferiores de la nube. Así, la base de la nube se va volviendo fuertemente electronegativa. Como consecuencia, el trozo de tierra que hay debajo se va haciendo fuertemente electropositivo por inducción electrostática (explicado un poco a lo bruto: los electrones presentes en la parte inferior de la nube repelen a los que se encuentran sobre la superficie terrestre y los separan de sus átomos, dejando a éstos con carga positiva) Conforme el fenómeno se desarrolla, dos intensísimas cargas eléctricas se van acumulando –una negativa en la base de la nube y la otra positiva en la superficie terrestre– separadas por una capa de aire. El aire es un poderoso aislante eléctrico, lo que impide que estas cargas se reequilibren poco a poco. Así se va formando un gigantesco condensador natural, que a cada segundo aumenta más y más su carga.

En un determinado momento, esta carga es ya insoportablemente alta y se inicia un proceso de reequilibrio. El mecanismo exacto que lo dispara sigue siendo objeto de disputa, pero lo que ocurre a continuación es bien conocido. Básicamente se trata de un proceso en tres etapas, que crea canales conductores en el aire aislante. En cuanto estos canales se establezcan, una violenta descarga casi-instantánea circulará por uno de ellos para igualar las cargas entre la base de la nube y la superficie de la Tierra, con gran energía en forma de luz y calor: el rayo.

La formación de los canales conductores.

Formación del rayo.

Formación del rayo.

La formación de estos canales conductores en el aire aislante constituyen una especie de «pre-rayo» o «relámpago preliminar». El proceso comienza con la generación de los llamados líderes escalonados (stepped leaders), de energía relativamente baja (decenas a cientos de amperios) y luz tenue, que a veces llega a ser percibida por el ojo pero más a menudo resulta invisible por completo. Estos líderes surgen cuando la atracción entre la base electronegativa de la nube y la superficie terrestre electropositiva supera un cierto umbral. Entonces, los electrones excedentes de la base nubosa comienzan a salir despedidos hacia la superficie a notable velocidad: unos 120 kilómetros por segundo.

Estos líderes no pueden viajar mucho: apenas unos cincuenta metros, con algunos llegando al centenar. Pero como siguen bajando electrones desde la nube en gran cantidad, se supera de nuevo el umbral y los líderes dan otro salto de cincuenta o cien metros, y así sucesivamente, extendiéndose en diversas direcciones como el delta de un río. Cada uno de estos saltos o escalones dura unas cincuenta millonésimas de segundo. Por donde pasan, van dejando «canales» o «riachuelos» de aire fuertemente ionizado, que se vuelve conductor de la electricidad. En unas veinte milésimas de segundo se están acercando a la superficie, con unos cinco culombios de carga.

Cuando uno de estos líderes escalonados se aproxima al suelo, provoca chispas positivas ascendentes que parten de la tierra y «salen a interceptarlo». Estas chispas se llaman gallardetes positivos (positive streamers) y surgen típicamente de los objetos conectados al suelo más próximos a la nube: la parte superior de los árboles, los edificios, las colinas o lo que sea. Cuando los gallardetes positivos entran en contacto con los líderes escalonados, la conexión eléctrica entre la nube y la tierra queda establecida a través de estos «canales», «riachuelos» o «cables» de aire fuertemente ionizado y por tanto conductor. Necesariamente, uno de estos caminos tendrá una resistencia más baja que los demás.

Entonces, los electrones situados en la región inferior del canal se precipitan violentamente hacia el suelo velocidades próximas a las de la luz. Esto provoca una intensísima corriente eléctrica en dirección a la superficie, ocasionando un potente destello inicial en las cercanías del suelo, con fuerte emisión de calor. El rayo acaba de comenzar.


Un rayo filmado a 7.200 FPS y reproducido a cámara lenta. Se observa perfectamente el desarrollo
de los líderes escalonados, estableciendo la conexión entre la nube y la tierra,
seguido por el intenso destello del rayo principal. (Tom A. Warner / ZT Research)

Desarrollo del rayo.

Desarrollo del rayo. (Clic para ampliar)

El rayo.

Sin embargo, esta «apertura de canal» no se traduce en una avalancha instantánea de electrones circulando desde la nube hacia el suelo. Nos lo explica el Dr. Martin A. Uman, uno de los mayores expertos mundiales en fenómenos relacionados con el rayo:

Cuando el líder queda conectado al suelo, las cargas negativas en la parte inferior del canal se mueven violentamente hacia el suelo, haciendo que fluyan hacia éste grandes corrientes y provocando que el canal se vuelva muy luminoso en esta zona.

Pero dado que las señales eléctricas (o cualquier otra señal, para el caso) tienen una velocidad máxima de 300.000 km/s –la velocidad de la luz–, el canal líder situado por encima del suelo no tiene ninguna maera de saber, durante un breve periodo de tiempo, que el líder de abajo ha tocado el suelo y se ha vuelto muy luminoso.

Así, la luminosidad del canal –el golpe de retorno (return stroke)– se propaga continuamente hacia arriba del canal y por los ramales laterales a una velocidad de entre 30.000 y 100.000 km/s. El viaje desde el suelo hasta la nube dura unas cien millonésimas de segundo.

Conforme la luminosidad del golpe de retorno se mueve hacia arriba, con ella asciende también la región de alta corriente.

–Martin A. Uman, «All about lightning», Dover Publications, Nueva York, 1986.

Vamos a explicarlo de otra manera, por si se no ha entendido bien. Lógicamente, en un rayo común los electones van a viajar desde la base nubosa (electronegativa, con electrones excedentes) hacia el suelo (electropositivo, con déficit de electrones); esto es, hacia abajo. Pero el «fenómeno rayo», lo que los humanos entendemos habitualmente como «un rayo» –la luz, el calor, la generación del trueno, técnicamente el golpe de retorno–, se forma hacia arriba. Por esto decimos que el rayo «asciende» en vez de «caer».

La razón radica en que la velocidad de la luz en el vacío es el límite absoluto de rapidez para todo ente con masa o información. La información de que el canal conductivo ha quedado establecido no puede viajar hacia la base de la nube más deprisa de lo que van cayendo los electrones situados en las regiones inferiores del canal hacia abajo, puesto que éstos ya lo hacen a la velocidad de la luz. En la práctica, hacen falta unas cien millonésimas de segundo para que la base de la nube «se entere» de que el canal con el suelo ha quedado establecido y empiece a lanzar el resto de los electrones hacia abajo. Durante ese periodo el «golpe de retorno» sube hacia arriba y, con él, la región de alta corriente.

Los rayos más potentes pueden transportar corrientes de hasta 120.000 amperios y 350 culombios, aunque normalmente suelen andar por los 30.000 amperios y quince culombios. No es raro que produzcan temperaturas de hasta 30.000 ºC; este calor, al transferirse al aire, ocasiona las ondas de choque que forman el trueno (que, lógicamente, también se crea de abajo arriba). Surgen señales de radiofrecuencia de gran longitud de onda. En los últimos años se ha descubierto que los rayos generan también notables emisiones de radiación ionizante, los destellos terrestres de rayos gamma (TGF).

Completado el golpe de retorno primario, pueden producirse otros secundarios; entonces, el rayo parece «centellear». Este fenómeno se produce de manera análoga al primero: surgen de la base nubosa los llamados líderes dardo (dart leaders) que recorren de nuevo el canal en dirección al suelo, seguidos por los nuevos golpes de retorno ascendentes. Al finalizar el fenómeno, la diferencia de carga entre la base de la nube y el suelo ha desaparecido.

Rayos positivos.

Distintos tipos de descargas eléctricas atmosféricas, en función de la altitud.

Distintos tipos de descargas eléctricas atmosféricas, en función de la altitud. (Clic para ampliar)

Existen diversos tipos de rayos, desde el electronegativo troposférico común que acabamos de ver hasta rarezas como los duendes rojos que se dan en las capas superiores de la atmósfera o los posibles rayos globulares que habrían causado el espanto más de una vez.

Hay uno en el que merece la pena detenerse de modo especial: el rayo positivo. Como hemos visto, el rayo común está ocasionado por la presencia de una fuerte carga electronegativa en la parte inferior de los cumulonimbos. Pero, ¿qué pasa con la carga electropositiva igualmente intensa que ha ido a parar a su parte superior? Pues que también puede formar rayos, muchos menos (apenas el 5% de los rayos son positivos) pero aún más potentes: hasta ¡300.000 amperios y mil millones de voltios, diez veces más que un electronegativo común! Debido a su elevada potencia y alcance, suelen causar habitualmente importantes incendios forestales, daños a las redes eléctricas y se cree que en alguna ocasión, catástrofes aéreas.

El rayo positivo resulta especialmente inquietante porque parece «salir de la nada». Ya hemos dicho que los líderes escalonados son prácticamente invisibles al ojo, sobre todo durante el día. Su problema es que, al originarse en la parte superior de la nube, los líderes recorren una larga distancia en rumbo general horizontal antes de «inclinarse» hacia el suelo. Así, puede surgir un rayo de enorme potencia en un lugar donde aparentemente no hay nubes, ni lluvia ni nada. Los rayos positivos emiten, además de los efectos habituales, cantidades importantes de ondas de radio de muy baja frecuencia: VLF y ELF.

El pararrayos.

La tendencia de los rayos a conectarse con el punto más alto de un terreno determinado fue observada desde tiempos antiguos. Solía ocurrir con frecuencia que este punto más alto fuera la torre de un templo –el campanario de una iglesia, el minarete de una mezquita, la punta de una estupa–, lo que generaba ciertas contradicciones sobre la supuesta protección divina para aquellos que se acogían a sagrado durante una tormenta eléctrica. Si los edificios de la antigüedad ardían continuamente como teas debido a sus técnicas constructivas en madera y paja, los templos iluminaban al pueblo cada dos por tres por efecto del rayo.

Al parecer, algunas estupas budistas de Sri Lanka ya incorporaban algo parecido a un primitivo pararrayos. La torre inclinada de Nevyansk, en Rusia, fue construida entre 1725 y 1732 e incluye una estructura aparentemente concebida para actuar como pararrayos: una esfera con puntas en lo alto directamente conectada a una trama metálica que se hunde en los cimientos. En Occidente, la invención de este dispositivo se atribuye generalmente al estadounidense Ben Franklin, en 1749.

La torre inclinada de Nevyansk (Rusia), con lo que parece ser un primitivo pararrayos.

La torre inclinada de Nevyansk (Rusia), con lo que parece ser un primitivo pararrayos compuesto por una esfera con púas superior y una conexión metálica estructural al subsuelo. De ser así, precedería en 20 años al pararrayos de Franklin.

La función de un pararrayos es canalizar la corriente del rayo a través de un conductor seguro, impidiendo así que atraviese destructivamente la estructura protegida. Por tanto, consiste en un mástil conductor situado en el punto más alto conectado a un cable que se hunde profundamente en el suelo. Debido al comportamiento parcialmente caótico del rayo, la eficacia del pararrayos resulta variable; las instalaciones críticas suelen contar con varios para asegurar su protección. En las torres eléctricas, hay un cable superior desempeñando esta misma función; las centrales y estaciones de transformación cuentan con sofisticadas defensas contra este fenómeno natural. Los barcos utilizan un sistema muy parecido, con el conductor puesto en contacto con el agua.

Más intrigante resulta la protección contra el rayo en los aviones, que no mantienen contacto con el suelo. En general, por esta misma razón, las aeronaves no «atraen» al rayo (actúan un poco como «un pájaro posado sobre el cable de alta tensión»); aunque, en ocasiones, las cargas estáticas propias de cualquier aparato que avanza por el aire provocan el efecto inverso. Además, siempre puede ocurrir que un rayo conectando con el suelo atraviese casualmente a una aeronave que se encuentre en su camino, especialmente durante las operaciones a baja altitud o debido a los rayos positivos ya mencionados.

Los efectos del rayo sobre las aeronaves son generalmente menores. Por un lado, el fuselaje metálico exterior actúa como jaula de Faraday, lo que impide el paso al interior de buena parte de la descarga (los aviones modernos con gran cantidad de composites son intrínsecamente más débiles contra el rayo, pero llevan mejores protecciones). Sin embargo, siempre es posible que algo llegue a penetrar, con la posibilidad de dañar sistemas críticos. En la práctica, muy pocas veces un avión ha sido derribado por el rayo sin duda de ninguna clase. Desde 1945 hasta aquí, sólo constan dieciséis pérdidas atribuidas al rayo en todo el mundo… y es cosa sabida que esta atribución se realiza a veces como cajón desastre cuando no se puede identificar otra causa.

La más notoria, y una de las pocas difícilmente discutibles, es el accidente del vuelo 214 de Pan American el 8 de diciembre de 1963: un Boeing 707. Mientras permanecía en el patrón de espera para aterrizar en Filadelfia (EEUU), durante una fuerte tormenta eléctrica, un rayo causó la explosión de los gases combustibles en el depósito del extremo del ala de babor. El ala resultó destruida y la aeronave se precipitó a tierra, muriendo sus 81 ocupantes. Cosa parecida le pasó en Perú al LANSA 508, un Lockheed Electra que se estrelló de manera parecida en 1971, con una única superviviente entre sus 92 ocupantes. Uno que nos afectó directamente fue la pérdida de un carguero Boeing 747 de la Fuerza Aérea del Irán del Shá, en Madrid, el 9 de mayo de 1976 (17 bajas). Mucho más incierto resulta el caso del Air France 117 (1962), con 113 víctimas, o el TWA 871 en Italia (1959). El resto son aeronaves de porte menor y/o casos más que dudosos. Fabricantes notables como Airbus, la antigua McDonell Douglas, Tupolev, Antonov o Ilyushin, con decenas de millares de aviones volando durante décadas por los lugares más insólitos en toda clase de condiciones meteorológicas, no  han sufrido nunca ninguna pérdida ocasionada por el rayo.

Como puede verse, el riesgo mayor en estos casos consiste en la detonación de los gases en algún depósito de combustible, seguido por la sobrecarga de los equipos eléctricos y electrónicos de a bordo (especialmente los de navegación). Para evitarlo, las aeronaves modernas incorporan tramas o mallas de conductores, conectadas a los descargadores de estática, que en caso de contacto con el rayo actúan como canales de derivación de la energía hasta disiparla a través de estos dispositivos. También llevan barreras dieléctricas, concebidas para impedir que el rayo acceda a lugares críticos, así como sistemas eléctricos y electrónicos específicamente diseñados para derivar los pulsos de corriente generados por el rayo sin que dañen los componentes. El resultado es que, en los últimos treinta años, no se ha perdido ningún avión de gran porte debido a este motivo.

Rayos de otros mundos.

Relámpagos en Júpiter.

Relámpagos en Júpiter. Imagen obtenida por la nave espacial Galileo. (NASA)

Además de la Tierra, se han registrado rayos en Marte, Júpiter, Saturno y Urano. Probablemente también en Titán y Neptuno, y se discuten en Venus. En general, como dijimos al principio, todo lo que tiene una atmósfera de densidad suficiente parece producir tormentas eléctricas. Como hemos visto, estos fenómenos electromagnéticos emiten muchas cosas además de luz y calor: especialmente, radiofrecuencia y radiación gamma con niveles de energía superiores a 20 MeV (y posiblemente también rayos X). Esto último resulta muy interesante porque esta radiación puede viajar grandes distancias por el cosmos, en lo que constituye la base de la astronomía de rayos gamma. Aunque nuestros instrumentos aún no son lo bastante sensibles, esto abre la posibilidad de detectar y analizar atmósferas planetarias remotas en el futuro.

La emisión en radio de baja frecuencia causada por las tormentas eléctricas resulta todavía más intrigante. Estas emisiones son breves pero extremadamente poderosas: un rayo terrestre puede llegar a emitir con una potencia de 100.000 millones de vatios. Esto es perfectamente detectable desde las proximidades de la Tierra (por ejemplo, desde la cara oculta de la Luna) incluso con radiotelescopios sencillos. Una señal de un megavatio procedente de Epsilon Eridani, a 11 años luz de aquí, se puede detectar sin problemas con un plato de doscientos metros de diámetro: menos que Arecibo. Y hablamos de emisiones cien mil veces más potentes.

Es más chulo aún. Resulta que las características de la atmósfera donde se genera el rayo determinan las características de la señal. Las tormentas eléctricas de las atmósferas ricas en oxígeno, como la terrestre, emiten con un pico característico entre 5 y 7 kHz. Por tanto, aunque los desafíos técnicos y económicos son relevantes, no resulta imposible concebir un radiotelescopio especializado en la detección de atmósferas extrasolares del tipo de la terrestre mediante las emisiones de radio producidas por sus tormentas eléctricas. El principal problema provendría de las interferencias causadas por nuestros propios rayos. Por ese motivo, este radiotelescopio estaría mejor situado en el espacio y a ser posible «blindado» frente a la Tierra (¿dijimos la cara oculta de la Luna?). Por su parte, un telescopio en órbita solar a 7,4 horas-luz de distancia podría utilizar al Sol como lente gravitacional para enfocar las ondas de radio. Hay un estudio bastante interesante sobre todo esto aquí.

Durante milenios, el rayo fue objeto de temor y veneración supersticiosa. Quizás en un tiempo no tan lejano, de la mano de la ciencia, sirva para indicarnos los rumbos futuros de la humanidad: el mundo, aún ignoto, que nos espera para convertirse en nuestro segundo hogar. Si es que no está ocupado ya, lo cual sería más interesante aún.

68 Comentarios Trackbacks / Pingbacks (20)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (73 votos, media: 4,77 de 5)
Loading...
Be Sociable, Share!

« Entradas anteriores Página siguiente » Página siguiente »