Así le tomamos la medida al tiempo

Estas fechas son muy curiosas.

Termómetro de mercurio

Que el termómetro y su escala sean una invención humana no significa que el calor no exista. Pues con el tiempo pasa igual. Imagen: Wikimedia Commons.

Me sigo encontrando con personas que no captan a la primera la diferencia entre el tiempo y la medida del tiempo. O sea, entre el tiempo como hecho físico y la manera como lo contamos: años, días, segundos, etcétera. En consecuencia, algunas opinan que el tiempo es una invención humana y no existe de verdad.

Bien, pues esto es como confundir el espacio con los kilómetros, o el calor con los grados centígrados. O los números con las cosas que cuentan. Por ejemplo, por mucho que el número 8 con sus dos cabecitas una encima de la otra sea una invención humana, si nos dan ocho bofetones en vez de uno o dos pillaremos enseguida la diferencia entre hecho físico (las bofetadas), medida (8) y la relación entre ambas. :-P Una cosa son los hechos físicos y otra distinta la manera como nosotros los humanos los medimos. Que es de lo que va este post.

El tiempo es un hecho físico real, que Aristóteles definió como la medida del cambio (Física, libro IV, partes 10-13.) Aunque Aristóteles esté bastante superado en estos temas, y aunque hubo otros que defendieron que el tiempo no existe con mejores argumentos, va a ser que sí existe, o algo que se le parece mucho. Si no existiera el tiempo, o algo que se comporta exactamente como el tiempo, este sería un universo estático, congelado en su mismísimo momento inicial. El tiempo y la entropía están estrechamente relacionados. Tanto, que hay quien los considera dos avatares del mismo hecho físico: el que obliga al universo a cambiar constantemente (por ejemplo, creando, desarrollando y destruyendo a cosas como tú o yo o las estrellas) y lo empuja irreversiblemente hacia adelante (o sea, hacia donde apunta la flecha del tiempo) sin parar. La flecha del tiempo, a su vez, quedó determinada por la bajísima entropía del universo inicial. En realidad el tiempo no es sino una de las cuatro dimensiones del espaciotiempo. El doctor Sergéi Krásnikov de Púlkovo tuvo a bien aclararnos un poco todo esto para este blog aquí.

La capacidad de medir el espaciotiempo tuvo que comenzar con la humanidad. Es difícil imaginar que en cuanto surgió una inteligencia intelectiva no comenzáramos a calcular cuántos pasos hay hasta aquella montaña, y si lograremos llegar antes del anochecer. Y si no, ya te enterarás, ya, cuando los tengas que caminar.

Parece que desde el principio nos aclaramos bastante mejor con el espacio que con el tiempo. Probablemente porque, al igual que los demás animales, tenemos una percepción intuitiva de la distancia. Un gato sabe cuánto tiene que saltar para cazar al ratón. Una araña, cuánto debe moverse para tejer su tela. Una abeja, por dónde anda su panal. El tiempo, en cambio, se nos hace un poquito más difícil de aprehender. Intuitivamente sabemos que está ahí, pues tenemos una percepción clara de pasado, presente y futuro; lo que se suele llamar el tiempo psicológico. Pero se presta mal a tocarlo con los dedos, o pasarle los ojos por encima (a decir verdad con el espacio en sí nos pasaría lo mismo, pero como podemos ver y tocar las cosas que se hallan en él, nos parece que lo controlamos mejor.) A medirlo, vamos.

Del sol y la luna, del día y el mes.

Básicamente sólo podemos medir el tiempo observando ciclos, y sólo hay dos ciclos obvios a primera vista para una inteligencia terrestre. El primero es el periodo de luz y oscuridad al que llamamos día. Este ciclo día/noche requiere muy poca inteligencia para captarlo y es incluso posible que algunos animales no humanos tengan alguna clase de consciencia del mismo, más allá de los ritmos circadianos y el mero seguimiento del entorno en general. El segundo es el ciclo lunar (lunación) y para ser exactos su periodo sinódico: el que va de luna llena a luna llena (o de nueva a nueva o como prefieras). Darse cuenta del periodo sinódico lunar ya requiere un poquito más de inteligencia, de memoria y de atención para al menos fijarse y llevar la cuenta.

Rotación terrestre

El eje de rotación terrestre está inclinado con respecto al plano de la Eclíptica (por así decirlo, la «línea Sol-Tierra», representada en rojo en este gráfico.) Esto hace que tengamos estaciones y que las horas de luz y oscuridad varíen a lo largo del año. No está claro cuándo supimos con certeza que la suma de ambas dura siempre lo mismo. Imagen: 1718.wikispaces.com (Clic para ampliar)

En primera instancia, para medir el tiempo, la luz del sol no es un indicador muy preciso. A menos que estemos cerca del ecuador, las horas de luz (y oscuridad) varían notablemente a lo largo del año. A la latitud de España, por ejemplo, se van más de un 23%, que es muchísimo. En latitudes donde luego surgirían cosas curiosas como los lugares ahora llamados Cairo, Bagdad, Mbabane o Stonehenge, puede oscilar entre el 13,5% y el 36%. Esto es extraño, confunde. Nuestra cueva está siempre a los mismos pasos de distancia del río, pero cuando hace calor llegamos antes de que se haga de noche y cuando hace frío, no. No parece muy confiable, sobre todo si nos va la vida en ello. A un nivel muy primitivo, el día sólo nos sirve para contar ciclos luz-oscuridad, marcar momentos como el amanecer o el anochecer y hacer estimaciones genéricas.

No se sabe cuándo nos dimos cuenta de que la suma de luz y oscuridad dura siempre lo mismo y lo llamamos un día, porque la medida psicológica del tiempo es fuertemente subjetiva: hay ratos que se nos pasan volando y otros que no parecen acabar nunca, por no mencionar que mientras dormimos no nos enteramos. No es evidente por sí mismo. Para asegurarnos de que los días siempre duran lo mismo hace falta un reloj que no sea de sol, y aún faltaban muchos milenios para que tuviéramos esa clase de relojes. Intenta demostrar que un día completo dura lo mismo que el anterior sin un reloj o algo que desempeñe su función y enseguida me comprenderás.

Fases y libración lunar

Las fases de la luna, tal como se ven desde el Hemisferio Norte terrestre. El periodo transcurrido entre dos puntos cualquiera de sus fases siguiente varía relativamente poco, en torno a los 29,53 días. Por cierto, el bamboleo aparente se conoce como «libración». Imagen: Wikimedia Commons.

La luna, en cambio, es más de fiar. El número de ciclos luz-oscuridad que transcurren entre luna nueva y luna nueva varía poco. Son siempre algo menos de treinta; convencionalmente, veintinueve (la media exacta son 29,5306). Como máximo se va de siete horas, apenas un 1%, en la práctica imperceptible a simple vista. Además, probablemente por mera coincidencia pese a lo mucho que se dice lo contrario, cuadra bastante con otro ciclo natural. Uno que, aunque suele irse bastante más, difícilmente nos pasaría desapercibidos a los humanos y sobre todo a las humanas: la menstruación, con sus 28 días de media pero a menudo 29. Que no en vano se llama también regla en numerosas lenguas latinas (español regla, francés règles, catalán regla, portugués regras, gallego regra, rumano regulă, occitano règla, etc.) e incluso en algunas muy poco latinas, como el ruso: регулы, transcrito reguly.

Sí, como la de medir espacio (es. regla, fr. règle, ca. regle, pt. régua, ro. riglă, etc.) La regla de medir y la regla de sangrar vienen del latín regŭla, o sea, un bastón o palo recto. Por ahí se origina también la palabra regular (del latín regulo, dirigir, guiar, seguramente con el susodicho bastón), que en numerosos idiomas modernos hace referencia a lo que es uniforme, lo que cambia poco, lo que siempre funciona igual. Y resulta que las cosas regulares van extraordinariamente bien para medir. No otra cosa es una regla de medir (distancias) o la dilatación y contracción del mercurio en un termómetro (temperatura) o las marcas de un transportador (ángulos.) Y cada vez que una jovenzuela de las que en el mundo son aprende a llevar la cuenta de su regla de sangrar mientras se le agitan las hormonas, está aprendiendo una nueva manera de medir el tiempo. Para medir cosas necesitamos una referencia regular absoluta, algo que siempre mida lo mismo, o al menos parecido. En el caso del tiempo, nos hacía falta un ciclo regular y Luna vino a regalárnoslo con su periodo sinódico.

Hueso de Lebombo y Tianhe-2

Arriba: el hueso de Lebombo (Swazilandia) con sus 29 marcas, de 35.000 años de antigüedad, un palo de cómputo como los que se siguen usando en la zona hasta la actualidad. Eso lo convierte en el primer instrumento matemático y por tanto científico conocido de toda la historia de la humanidad. Si además se usó para contar el ciclo sinódico lunar de 29 días, también sería el primer calendario. Abajo: el superordenador Tianhe-2 (Vía Láctea-2) del Centro Nacional de Supercomputación en Cantón, China. En el momento en que escribo esto, aparece en el Top500 como el más potente del mundo con 3.120.000 núcleos, 33,82 Pflops/s de Rmax (Linpack) y 54,9 Pflops/s de Rpeak teórica. Pese al abismo de tiempo, conocimiento, ciencia y tecnología entre ambos, en su esencia son lo mismo: instrumentos para computar.

Puede que por todo esto, los primeros calendarios de la humanidad fueron lunares. Los más antiguos se remontan a la prehistoria. Tenemos, por ejemplo, el calendario de Aberdeenshire, hallado en ese concejo de Escocia, con unos 10.000 años de edad. Sin embargo, hay algún otro objeto muy, muy anterior que resulta de lo más intrigante. Por ejemplo, el hueso de Lebombo (entre Sudáfrica y Swazilandia), un peroné de babuino con 35.000 años de antigüedad usado como palo de cómputo; los bosquimanos de la región siguen usando objetos similares para contar y calcular hasta la actualidad. Eso lo convierte en el instrumento científico más antiguo que se conserva, porque el hecho de contar es un acto matemático y por tanto científico. No hay ninguna diferencia obvia entre la lógica de fondo subyacente al hueso de Lebombo y al superordenador Tianhe-2 de los chinos, el más potente del mundo en estos momentos. Esencialmente, ambos sirven para lo mismo: para computar.

Y el hueso de Lebombo tiene… veintinueve marcas. Naturalmente, existen muchos motivos distintos por los que un ser humano quisiera contar veintinueve unidades de algo. Muchísimos. Pero igual de naturalmente, entre esos motivos se incluye la posibilidad de que alguien estuviese contando los días del ciclo lunar, o los de su ciclo menstrual, o ambos. En este caso, ese sería además el primer calendario conocido de la humanidad. Permíteme ensoñar por un instante: nuestro primer matemático, nuestro primer científico, al menos el primero que nos dejó una anotación, pudo ser una muchacha curiosa contando los días de su regla y comparándolos con las fases de la luna y maravillándose ante semejante prodigio hace treinta y cinco milenios tal noche como hoy, en plena Edad de Piedra. Lo que también la convertiría en el primer astrónomo, el primer astrofísico y el primer biólogo conocido. Por qué demonios no. Bajo sus cabellos tenía todo lo necesario para poder.

Bueno, ya. Sea Aberdeenshire o Lebombo o cualquiera de los otros que hay por ahí, no cabe duda: nuestros primeros calendarios fueron lunares, para contar días y meses. A decir verdad, lunisolares, puesto que establecen una relación entre el periodo sinódico lunar y el ciclo de luz-oscuridad al que llamamos «día», regido por el sol. Y así, la humanidad comenzó a medir el tiempo por fin.

Del año, las estaciones y las horas.

Hay otra observación que tampoco pudo pasarnos desapercibida durante mucho tiempo. El día será poco de fiar a lo largo del año porque las horas de luz y oscuridad cambian mucho, pero ese cambio es en sí mismo regular. Por ejemplo, en Europa, cuando el clima es frío el sol se levanta menos en el cielo y durante menos tiempo que cuando es cálido. Es más: la altura máxima que el sol alcanza en el cielo desde el punto de vista terrestre va aumentando durante algo más de 180 días, desde la temporada fría a la temporada cálida. Luego, se reduce durante otros tantos, de la temporada cálida hasta la fría. Entre ambos, suman trescientos sesenta y pico. Y así una y otra vez. Es una regla.

Además, este hecho viene acompañado por toda otra serie de fenómenos cíclicos de gran importancia para nosotros los humanos desde tiempos prehistóricos: las migraciones de los animales que cazamos o carroñeamos, la maduración de las frutas y bayas que recolectamos, la necesidad o no de preparar pieles o tejidos para abrigarnos, la disponibilidad de agua en ríos y lagos, los vientos, las tormentas y las inundaciones. Mil cosas. Sin embargo, no nos consta que los paleolíticos tuvieran una idea clara de esto, que ahora llamamos año. Sin duda tuvieron que observar estos hechos, pero parece que más bien se dejaban llevar junto con el resto de la naturaleza, probablemente con la ayuda de leyendas y tradiciones ancestrales. Si tenían una concepción intelectual clara del año solar, no nos han dejado ningún rastro.

Pero entonces inventamos el Neolítico, con la agricultura y el pastoreo. Para las sociedades agrícolas y ganaderas, el conocimiento del año y sus estaciones es vital. No es posible la agricultura sin una percepción clara de los tiempos de siembra y cosecha, de las heladas, de la crecida de los ríos, de las épocas de riego, de los propios ciclos anuales de las plantas, de todo. Lo mismo ocurre con la ganadería. Además, el dominio del año facilita las operaciones militares y la organización de sociedades cada vez más y más complejas. El problema, o uno de los problemas, es que el año solar es un proceso más lento y difícil de centrar. Por ejemplo, no hay nada evidente a la primera que delimite el final de un año y el principio de otro, como sí lo hay para el día solar y el mes lunar, que sólo requieren abrir los ojos y fijarse un poco para reconocerlos. Las estaciones tampoco están bien definidas en la experiencia cotidiana: no hay nada que separe claramente el último día del otoño y el primer día del invierno, por decir algo, y además hay un montón de veranillos de San Martín, de San Miguel, de San Juan y demás santoral, que pueden darse o no cada año. Resulta difícil establecer reglas precisas porque no acaba de ser muy regular. Un lío.

Círculo de Goseck (4900 - 4700 AEC), actual Alemania

El Círculo de Goseck (4900 – 4700 aEC), actualmente en Alemania, tal y como ha sido reconstruido por el Depto. de Arqueología Prehistórica de la Universidad Martín Lutero de Halle-Wittenberg y el Gobierno del Estado Federado de Sajonia-Anhalt. Se trata de un lugar arqueoastronómico y un cementerio prehistórico en cuyos alrededores se han hallado huesos descarnados de ganado y humanos colocados cuidadosamente, lo que puede indicar rituales de enterramiento, sacrificios de animales o humanos y/o canibalismo ritual. Dos de sus tres entradas apuntan en la dirección por donde sale y se pone el sol durante el solsticio de invierno, mientras que la tercera está próxima al meridiano astronómico. Otros huecos en la empalizada parecen señalar hacia los mismos puntos para el solsticio de verano y las tradicionales fiestas de primavera. Está «ajustado» para las posiciones del sol de hace 6.800 años, con una precisión de unos 4 días. Dos mil años más antiguo que el popular Stonehenge, manifiesta un notable conocimiento de diversos fenómenos astronómicos como el año, las estaciones y su regularidad. Fotos: E. Schütze vía Wikimedia Commons | © M. Grimm (Clic para ampliar)

Sin embargo, muy poco a poco, comienzan a surgir instrumentos como el círculo de Goseck (hoy en Alemania, 6.900 años de antigüedad), el complejo megalítico de Mnajdra (actual Malta, a partir de hace 5.600 años), el conocidísimo Stonehenge (actual Reino Unido, entre 5.100 y 3.600 años) y puede que algo de la estructura circular de Nabta, Egipto, entre otros. Sobre estas construcciones se han contado tantas tontadas, algunas de ellas magufadas evidentes pero otras con peer review, que resulta muy difícil separar el grano de la paja. Lo que es una pena, porque son creaciones absolutamente fascinantes que habrían merecido mucho mejor trato. A pesar de todo, estas estructuras parecen evidenciar un conocimiento cada vez más profundo de fenómenos anuales y estacionales como los solsticios, los equinoccios, las posiciones del sol y de ciertas estrellas a lo largo de todo el año y quizá algún rudimento sobre ciclos plurianuales más complejos. Si otras culturas lo lograron también en el mismo periodo, no nos lo dejaron saber.

Lamentablemente, ninguno de esos pueblos sabía ni siquiera escribir. Probablemente funcionaban por observación, prueba y error, lo que tiene su mérito, ¿eh? Pero seguir avanzando exige alta tecnología: escritura, geometría, astronomía, matemáticas. Como en aquella época no tenían un CERN ni un DARPA ni nada parecido para agilizar un poco las cosas, hubo que esperar a que fuéramos inventándolo todo. Se duda de si los primeros en lograrlo fueron los astrónomos egipcios o los sumerios, después babilonios, en lo que hoy día es Iraq. Probablemente fueron los dos, durante un largo proceso de aprendizaje que pudo extenderse durante algún que otro millar de años. Allá por los albores de la historia, crearon muy poco a poco los primeros calendarios modernos, muchas de cuyas características seguimos utilizando en la actualidad, como la semana de siete días o los doce meses del año.

Ruinas de Eridu, Sumeria

Lo que queda de la ciudad de Eridu (actual Iraq), convencionalmente considerada la cuna de la cultura sumeria y por tanto de la escritura, la civilización y la ciencia que la caracterizaron. Floreció hace algo más de 6.000 años, llegando a alcanzar una población superior a los 4.000 habitantes (puede que hasta 10.000, una enormidad para su época). Inició su declive hace aproximadamente cuatro milenios pero no quedó abandonada del todo hasta hace unos 2.500 años. Foto: Wikimedia Commons. (Clic para ampliar)

Los sumerios, después babilonios, o más generalmente mesopotámicos, comenzaron con un calendario primordialmente lunar de 354 días dividido en doce meses alternos de 29 y 30 días. Como se les descuadraba debido a la diferencia entre esos 354 días y los 365,25 días que hay aproximadamente en un año solar, cada cierto tiempo intercalaban por decreto un mes adicional para reajustarlo, dando así lugar a los primeros años bisiestos. Los meses empezaban siempre al primer avistamiento de la luna nueva (en la práctica, el inicio del cuarto creciente), con el primero en primavera, originando el día de Año Nuevo. A partir de ahí contaban tres semanas de siete días más una de 8 o 9, con el último día considerado maligno, o sea inhábil para hacer cosas y por tanto de descanso. ¿Te suena de algo esto de los doce meses alternos con en torno a treinta días, la intercalación de bisiestos, y las semanas de siete días con el último sacralizado para descansar? (Puede que a estos respectos también te interese el origen de Dios)

Sin embargo, a los meticulosos escribas sumerios no les gustaba demasiado este año tan irregular y allá por el 2.400 antes de nuestra era ya estaban usando un año con 12 meses de 30 días, que suman 360. Sigue sin ser muy exacto pero es más sencillo de llevar, más regular, y además permite cálculos rápidos y fáciles. Ahí se originan también los 360 grados de un círculo y el sistema sexagesimal en general. Aprendiendo a medir el tiempo, aprendieron y nos enseñaron a medir muchas cosas más.

Hasta aproximadamente el 500 aEC, este calendario era fundamentalmente observacional; esto es, miraban el sol, la luna y lo reajustaban trabajosamente acorde a los mismos. Pero a partir de ahí se percataron del ciclo metónico, que luego Metón el Ateniense les piratearía (o redescubriría) y ahora conocemos bajo su nombre. Y ese fue el primer ciclo combinado complejo de tiempo que descubrió la humanidad. Resulta que 19 años solares suman 6.940 días, al igual que 235 meses (sinódicos) lunares. Sólo se van de unas pocas horas. Desde ese momento fue posible computar los años, los meses y sus bisiestos de manera regular, sin tener que estar mirando a los cielos todo el rato, sino sólo de vez en cuando. Además, el ciclo metónico también sirve para predecir los eclipses. No veas qué poder.

Pirámides de Guiza vistas desde el Nilo

Dos de las Grandes Pirámides de Egipto vistas desde el río Nilo, a las afueras de El Cairo. Foto: © AP. (Clic para ampliar)

Para los egipcios, el dominio del año era absolutamente esencial. Toda la civilización del Antiguo Egipto dependía de las crecidas anuales del Nilo. Parece ser que al principio empezaron con un calendario lunisolar, como todo el mundo. Pero ya vemos lo rápido que se descuadra, y un año descuadrado es un año de cosechas fallidas, hambre y revueltas. Así que enseguida se pusieron a buscar, yo diría que a la desesperada, algo más regular.

Como suele pasarnos a los humanos cuando buscamos cosas verdaderamente importantes, lo encontraron en las estrellas. Para ser exactos, en el orto helíaco (sin coñitas) de la estrella Sirio. Que al estar directamente vinculado a la órbita terrestre alrededor del Sol se produce, claro, coincidiendo con el año real. Y además, se correspondía también con la inundación del Nilo. Así que, al menos desde tiempos del faraón Shepseskaf (c. 2486 – 2479 aEC), los egipcios se saltaron el magreo y pasaron directamente al año moderno de 365 días, con tres estaciones llamadas inundación, siembra y cosecha. Una tablilla vinculada a Dyer podría remontar la fecha hasta el 3.000 aEC o por ahí, aunque esto no es seguro; pero probablemente ya lo usaban cuando hicieron las pirámides (a partir de aprox. 2.670 aEC.)

Los egipcios también dividieron el año en 12 meses de 30 días y al final del año añadían cinco más, llamados epagómenos. En cambio, usaban tres semanas de diez días en vez de las cuatro de siete o siete y pico que nos legaron los ahora iraquís. Pese a tanta brillantez, no estuvieron finos a la hora de intercalar un día bisiesto para corregir la diferencia entre los 365 días del año egipcio y los 365,25 del real. Así que, aunque mucho más lentamente, también se les descuadraba hasta tal punto que las fiestas de verano comenzaban en invierno y cosas así; la reforma de Canopo, en el 238 aEC, fracasó debido a broncas entre clérigos.

Sin embargo, mirando ortos, acabaron por descubrir otro ciclo complejo: el ciclo sótico o sotíaco (Sothis es el nombre en griego de Sirio.) Este es el tiempo que tarda un calendario de 365 días en descuadrarse tanto como para que vuelva a empezar en el mismo momento del año. Este ciclo sotíaco (también llamado canicular) es de aproximadamente 1.460 años (365 x 4). En la práctica, la precesión de los equinoccios y otros fenómenos lo hacen variar un poco. Pero tuvieron que ser ya los griegos y en particular el primer señor que dijo que era la Tierra la que giraba alrededor del Sol, un cierto Aristarco de Samos (c. 310 – 230 aEC), quienes establecieron con claridad la diferencia entre el año aparente de 365 días, el año tropical y el año sideral.

Reloj de sol en los Jardines Botánicos de Singapur.

Reloj de sol en los Jardines Botánicos de Singapur. Dado que Singapur se encuentra casi en el ecuador, su diseño está adaptado para reflejar el hecho de que el sol de mediodía brilla prácticamente desde el Norte en verano y desde el Sur en invierno. Foto: Wikimedia Commons (Clic para ampliar)

Al mismo tiempo, hay otro fenómeno obvio que o bien nos pasó desapercibido, o no le dimos importancia o no se nos ocurrió que sirviera para gran cosa durante mucho tiempo. Y mira que es evidente: el sol se mueve por el cielo a lo largo del día de manera regular y por tanto proyecta sombras que se desplazan sobre la tierra de modo igualmente regular. Por el sencillísimo procedimiento de clavar un palo en el suelo y hacer unas marcas arbitrarias pero también regulares entre la primera sombra de la mañana y la última sombra de la tarde, es posible dividir el día en periodos mucho más exactos y delimitados que el tradicional al amanecer, al atardecer o cuando el sol esté alto en el cielo. Es decir, un reloj solar que dé las horas. Da igual que sean 12, 24 o 60: son horas.

O no se nos ocurrió o no nos hizo gracia la idea de vivir colgados del reloj o yo qué sé, porque los primeros relojes solares –es decir, los primeros relojes, punto– tardaron muchísimo en surgir. Se ha dicho muchas veces que los obeliscos, las escalinatas de los templos y cosas así desempeñaban la función, pero no hay absolutamente ninguna prueba al respecto, como por ejemplo unas marquitas en el suelo. Que algo se pudiera hacer no significa que se hiciera, o incluso que se conociera. Desde luego, si lo hacían, no era algo generalizado. De hecho, algunos de los propios obeliscos prevén en sus grabados que las generaciones futuras se preguntarán para qué fueron levantados, y lo explican: para el culto religioso. Ni una sola mención a la medida del tiempo.

Las mismas civilizaciones que construyeron Stonehenge, las pirámides de Egipto o los ziggurats babilónicos pasaron olímpicamente de las horas o les dieron una importancia mínima hasta fecha tan tardía como el 1.500 aEC, que es cuando empiezan a aparecer los relojes solares propiamente dichos. Llevo años preguntándome el porqué, pero claro, no tengo a nadie de hace cuatro milenios a mano para consultárselo. No es hasta el reinado de Tutmosis III, hace unos 3.500 años, cuando aparece en Egipto el primer reloj solar verdadero: el sechat. Al menos, que conozcamos. En la web de la Asociación de Amigos de los Relojes de Sol tienen un estudio interesante sobre la manera como se usaba (y aquí).

Las horas que da un reloj de sol son desiguales. Me refiero a que su duración va variando a lo largo del año según el día se alarga o se acorta. Pero aún así, lo hacen dentro de una regularidad y permiten un control mucho más sofisticado sobre las actividades diurnas que no tenerlo. En la práctica se siguieron utilizando hasta bien entrada la Edad Media europea, cuando los relojes mecánicos comenzaron a desplazarlos.

Reloj estelar de Ramsés VI

Funcionamiento del reloj estelar de Ramsés VI (1145-1137 aEC), Egipto Antiguo. Imagen: Wikimedia Commons (Clic para ampliar)

Fueron también los egipcios quienes inventaron la manera de contar las horas nocturnas, cuando no hay sol para tu reloj solar. Para ello crearon el merjet o instrumento del saber, básicamente una doble plomada que permite tomar referencias con respecto a las estrellas. Así, marcaron 36 constelaciones decanas (una por cada 10º del círculo de 360º) y las usaron para dividir la noche en diez horas, más otras dos adicionales para el amanecer y el anochecer. En total, doce. Y de este modo, sumando otras tantas para el día, surgió el día de veinticuatro horas, que aún hoy seguimos contando en dos grupos de doce; en lenguaje común (y en los relojes comunes) después de las doce del mediodía viene la una de la tarde, no las trece, que es cosa más de militares, científicos, marinos, aviadores y asimilados.

En realidad, todas estas civilizaciones usaban un mezcladillo de calendarios, cada uno para una cosa distinta. Solía haber un calendario civil común, otro más científico para calcular las efemérides, uno religioso con las festividades, y muchos más, que podían coincidir o no entre sí. Por ejemplo, a mediados del primer milenio anterior a nuestra era, los atenienses utilizaban el sistema de calendarios áticos, con uno lunar de doce meses para las festividades, otro estatal de diez meses arbitrarios y uno agrícola que mayormente contaba estaciones. Un jaleo, vamos, pero es que la idea de establecer unas fechas y tiempos precisos para el conjunto de las actividades humanas tardó en desarrollarse.

De los cumpleaños, la corrupción de los políticos y el calendario unificado.

En la práctica, los años se contaban diciendo aquello de «en el tercer año del reinado del Rey Fulano…». Ni siquiera los romanos usaban normalmente el famoso ab urbe condita, o sea, «desde la fundación de la ciudad», muchísimo más común entre quienes luego escribieron sobre ellos. Era mucho más habitual decir (y escribir) «en el año del cónsul Tal» o «en el cuarto año del emperador Cual.» Esto ocurría en todas las culturas de su tiempo, incluyendo a los egipcios, con lo cual aparece el concepto de cumpleaños.

En la Antigüedad, la gente no sabía cuántos años tenía más que de una manera muy aproximada. El concepto de adolescencia era desconocido y se pasaba de niño a hombre, o de niña a mujer, con el inicio de la pubertad. Luego, si llegabas, te convertías en viejo. Y punto. La pregunta «¿cuántos años tienes?» habría desconcertado a la mayoría de la gente antigua. Sin embargo, había una excepción: el monarca, gobernante, o mandamás en general. Por el mero hecho de contar el tiempo desde el año de su acceso al poder, la sociedad en su conjunto estaba contándole cumpleaños, se celebraran o no.

Clepsidra griega

Otro reloj de la antigüedad: la clepsidra o reloj de agua. Esta es griega, del siglo V aEC (la de arriba, la de abajo es una reproducción contemporánea) pero parece ser que los babilonios ya las usaban hace cuatro mil años. La de esta imagen es muy sencilla (es simplemente un chorrito de agua que va escapando a un ritmo determinado), pero sus versiones más sofisticadas podían llegar a ser notablemente precisas y fueron los relojes más comunes y exactos que tuvimos hasta el siglo XVII. En torno a ellas se desarrollaron gran parte de los mecanismos que luego permitirían la aparición de los relojes mecánicos (como el escape relojero, el que hace «tic tac».) Objeto: Museo de la Antigua Ágora, Atenas, Grecia. Imagen: Wikimedia Commons.

En algún momento del primer milenio antes de nuestra era varias culturas comenzaron a celebrar también los aniversarios de distintos eventos, templos e incluso dioses, como por ejemplo el de la diosa griega Artemisa, a la que le ponían velitas (¿te suena esto también?). Parece ser que fueron los romanos quienes empezaron a celebrar los aniversarios de las personas en sus dies natalis, debido a una combinación de factores culturales, políticos y supersticiosos. Por supuesto, sólo entre las clases altas; al pueblo de a pie ni se le ocurría hacer semejantes gastos (salvo por una casta proporcionalmente muchísimo más reducida que la actual, eran pobres como ratas y bastante tenían con ingeniárselas para comer a diario.) Y sólo se celebraba el de los hombres adultos; para que se celebrase el cumpleaños de las mujeres hay que esperar al siglo XII de nuestra era y el de los niños (y niñas) al XVIII, cuando los críos van dejando de ser una boca inútil que alimentar llevada a palos para convertirse en los reyes y reinas de la casa. Cosas del pasado.

Fueron también los romanos quienes primero vieron la necesidad de tener un calendario único, o al menos dominante. Empezaron con el calendario de Rómulo, lunar y agrícola, que sumaba 304 días divididos en diez meses de 30 y 31 más un periodo invernal que no se asignaba a ningún mes. El año nuevo coincidía con el equinoccio de primavera y a partir de ahí se contaban los diez meses, llamados martius (por el dios Marte, con 31 días), aprilis (origen desconocido, probablemente relacionado con Afrodita/Venus, 30 días), maius (seguramente por Maia, la diosa buena, 31 días), iunius (por Juno, 30 días) y el resto derivado de sus ordinales: quintilis (de quintus, quinto, con 31 días), sextilis (sexto, 30 días), september (séptimo, 30 días), october (octavo, 31 días), november (noveno, 30 días) y december (décimo, 30 días), gran parte de lo cual te sonará también. Sin embargo, las semanas obedecían a un ciclo nundinal (de mercado) de ocho días.

Ya en fechas muy tempranas, allá por el 713 aEC, el rey (probablemente legendario) Numa Pompilio modificó este calendario inicial con criterios supersticiosos (los romanos eran extremadamente supersticiosos). Como pensaban que los números impares daban buena suerte (y los pares, mala), cambiaron el número de días de cada mes a 29 o 31. Ya que estaban, aprovecharon para convertir ese periodo invernal indefinido en dos meses nuevos: ianuarius (seguramente por Jano, con 29 días) y un februarius (vinculado a las februa), necesariamente con 28 días y por tanto de malísimo fario. Tanto era así que en la práctica lo dividían en dos periodos de 23 y 5 días, antes y después de las terminalias, y además se convirtió en un mes de ritos de purificación y demás. Que si no, lagarto, lagarto. Curiosamente, la Cuaresma de purificación de los cristianos también suele empezar en febrero (y su celebración más importante, la Pascua, cae en el primer día sagrado del año pagano tradicional, que comenzaba con la primera luna llena tras el equinoccio de primavera.)

Calendario de la República Romana, c. 60 aEC

Reconstrucción del calendario de la República Romana «Fasti Antiates Maiores» hallado en una villa de Anzio (aprox. 60 aEC). Los nombres abreviados de los doce meses «normales» y el mes intercalar se encuentran en la fila superior. En la fila inferior, podemos leer el número total de días. Los días, mostrados en la primera columna de cada mes, se representan mediante las ocho letras A a H (pues aún usaban la semana nundinal de ocho jornadas de mercado). La segunda columna muestra la K de «kalendas» para el primer día del mes, la N de «nones» para el quinto y la E de «eidus» (idus) para el 13º. El resto de días están indicados por su función: F de «fasti» («laborables»), N de «nefasti» («no laborables»), C de «comitiales» (se podían celebrar asambleas públicas), EN de «endotercisi» (mitad fasti y mitad nefasti) y «nefastus publicus» (festividades públicas). Las palabras en letras grandes hacen referencia a festivales importantes y las de letra más pequeña, a otros festejos y deidades menores. Fuente: Universidad de Chicago. (Clic para ampliar)

Esto totalizaba un año de 355 días, bastante menos preciso que el de egipcios y mesopotámicos. Para reajustarlo, el Sumo Pontífice (pontifex maximus) intercalaba un mes bisiesto de 27 días tras los primeros 23 del febrero de mal rollo cada dos o tres años. Al principio lo llevaban relativamente bien pero luego se convirtió en una juerga de corrupción política y clerical. Metían el mes bisiesto cuando les convenía para extender o abreviar el periodo en el poder de sí mismos o sus amiguetes, y también para alargar o acortar el plazo de pago de las deudas según les interesase. Esta no era una práctica exclusiva de los romanos; resultaba bastante común en la Antigüedad. En la comedia Las Nubes del griego Aristófanes (423 aEC), la luna en persona baja a quejarse del cachondeo con los meses, a fuerza de manipularlos. Tres siglos después, las cosas no habían mejorado: los calendarios venían en dos versiones, una «según el dios» (la luna) y otra «según el arconte» (el jerarca de turno).

Pues para el siglo I antes de nuestra era, a los romanos les estaba pasando lo mismo. Y además, por lo visto, de una forma bastante acusada y con notable mala leche, vinculada al desorden y la violencia de los últimos años de la casi cinco veces centenaria República Romana. Vamos, que iban a saco. El caos era tal que fuera de la ciudad de Roma nadie sabía muy bien cuándo empezaban y terminaban los meses y años oficiales; y dentro de Roma, sólo podían predecirlo quienes estaban en el ajo. Entonces uno de los últimos cónsules republicanos, que también desempeñaba las funciones de sumo pontífice, decidió hacer algo  al respecto en el año 46 aEC. Este señor era ni más ni menos que Julio César.

Cayo Julio César

Cayo Julio César (100 – 44 aEC), general, cónsul y sumo pontífice romano, creador del calendario juliano que con unas pocas modificaciones usamos hoy día en todo el mundo. Busto en el Museo dell’Opera del Duomo, Pisa. Imagen: Wikimedia Commons.

El jefazo Julio reunió a sus astrónomos, filósofos y matemáticos. En particular, a un experto greco-egipcio llamado Sosígenes de Alejandría. Y crearon el calendario juliano. Estaba compuesto por 365 días divididos en doce meses de 30 y 31 días, salvo febrero, que siguió siendo de 28. Pero abolió el mes intercalar que se había convertido en un cachondeo para sustituirlo por un único día bisiesto que se añadía al final de febrero cada cuatro años. Es decir, muy parecido a lo que seguimos haciendo ahora. El calendario juliano es ya nuestro calendario moderno, salvo por un par de arreglos que vendrían después. Y con ello, al forzar un calendario unificado de duración regular, solventó el problema de un plumazo. Bien es cierto que, ya que estaba, César aprovechó el ajuste para extender su propio año de consulado hasta un total de 445 días. Casi tres meses por la cara que se arrogó el colega. O sea, como si ahora alguno de nuestros amados líderes saliese diciendo que su mandato de cuatro años en realidad dura cinco.

Poco después, la semana romana pasó a ser de siete días, como la de los griegos y babilónicos, en vez de los ocho tradicionales. Con el calendario juliano, el principio del año quedó también fijado en el 1 de enero. No está claro cuándo el mes de enero pasó a ser el primero del año en la civilización (greco-)romana, sustituyendo así a marzo con su equinoccio de primavera. En todo caso es anterior al año juliano y puede que sea algo muy antiguo. Al menos desde el 153 aEC, el año consular (el año de mandato de los cónsules republicanos) comenzaba el 1 de enero. Pero desde luego, no fue algo generalizado en el mundo (ni siquiera en el mundo occidental) hasta mucho después. En civilizaciones alejadas de la cultura occidental, que tienen sus propios calendarios con su propia historia, sigue sin serlo (como el Año Nuevo Chino.)

En general, casi todo el mundo mantuvo el principio del año en torno al equinoccio de primavera o algo después hasta siglos relativamente recientes (como por ejemplo continúa ocurriendo con el Año Nuevo Persa o el Indio). Es decir, que deberíamos haberlo celebrado esta semana pasada (este año 2014 cayó en 20 de marzo.) Aquí en Valencia tuvimos las Fallas, ¿y en tu casa?

Cremà de una falla valenciana

Cremà (quema) de una falla valenciana, uno de los incontables festivales del fuego celebrados en torno al equinoccio de primavera desde la más remota antigüedad. Foto: Wikimedia Commons.

Voy a detenerme un instante en esto. No es casual en absoluto que tantas civilizaciones distintas hayamos concedido tanta importancia al equinoccio de primavera. Dentro de la arbitrariedad de las maneras humanas de contar el tiempo, el equinoccio de primavera ha demostrado un poder excepcional sobre nuestra imaginación desde antes de la historia. El Año Nuevo de decenas de culturas, la Pascua judeocristiana, el Akitu babilónico, el Shunbun-no-Hi japonés, el Sham-el Nessin egipcio, el Holi hinduista, cientos de festivales del fuego paganos repartidos por todo el mundo y mil cosas más están directamente vinculadas al también llamado equinoccio vernal.

Al menos en el Hemisferio Norte nos gusta este equinoccio vernal, el momento en el que muere el invierno para dejar paso a la primavera. Nos gusta, claro, el instante en que se acaba el frío, la austeridad y el hasta el hambre para permitirnos otra vez cultivar, cazar, jugar a pleno sol. Cautivó nuestro misticismo religioso, nuestra imaginación popular y nuestra curiosidad científica. Muchas de nuestras civilizaciones son hijas, al menos en parte, del equinoccio vernal.

Los calendarios precolombinos.

En otro orden de cosas, las culturas precolombinas de América me resultan especialmente fascinantes porque se separaron de las Afroeuroasiáticas mucho antes del Neolítico. Por ello, aunque partían de unas «bases comunes mínimas», crearon modelos de civilización humana alternativos sin conexión alguna con la de los viejos continentes durante más de 15.000 años. Un poco como si fuesen alienígenas, o nosotros para ellos, o viceversa, ya me entiendes.

Detalle de la estela C de Tres Zapotes, Veracruz, México.

Detalle de la estela C de Tres Zapotes, Veracruz, México, una de las anotaciones en Cuenta Larga (el mal llamado «calendario de los mayas») más antigua que se conserva. De arriba abajo, indica la fecha 7(hallada después).16(fragmentaria).6.16.18, correspondiente al día 5 de septiembre del 32 aEC según nuestro calendario moderno. Objeto: Museo Nacional de Arqueología, México.

Así, hicieron cosas fascinantemente diferentes y otras sobrecogedoramente idénticas, pues humanos somos todos. Por ejemplo, las estructuras sociales piramidales. Y las propias pirámides, de las que tanto se ha hablado. No es que vinieran los extraterrestres a hacérselas, sino que para todo humano es la manera más sencilla de construir un edificio grande, la que menos arquitectura exige: apilar piedras más o menos bien cortadas hasta levantar una montañita con algunas grutas interiores (pasadizos) y tal. Y al contrario: también hicieron cosas misteriosamente marcianas que aún hoy en día no entendemos bien. Algunos de sus secretos se los llevaron las tinieblas de la jungla, el tiempo y la viruela y no los sabremos jamás.

Los calendarios precolombinos se encuentran un poco a caballo entre ambos extremos. Cuando el último cazador-recolector siberiano quedó aislado al lado americano del estrecho de Bering, es dudoso que llevara más ciencia encima que uno de esos palos de computar. A partir de ahí, tuvieron que crearlo todo prácticamente de cero. La escritura, la astronomía, las matemáticas, todo. Algunas de sus elecciones son bastante obvias: por ejemplo, tomaron la base 20 para sus números, igual que muchos otros pueblos del mundo, como los vascos antiguos. Claro, esto no tiene nada de raro: salvo amputaciones y tal, todos tenemos veinte dedos aptos para contar. Sin embargo, su calendario más común, para usos tanto civiles como religiosos, tenía años de 260 días desde tiempos de los olmecas y así siguió siendo con los aztecas, los mayas y demás.

No es obvio por qué eligieron esa cifra. Aunque hay quien lo ha querido vincular con el cultivo del maíz o el periodo de gestación humana, no acaba de cuadrar muy bien. Y no es que ignorasen que el año solar tiene en torno a 365 días. Lo sabían y lo utilizaban (aztecas: xiuhpohualli; mayas: haab’, en ambos casos de 18 x 20 días más otros cinco que se consideraban maléficos). Pero no le daban mucha importancia. Les gustaba mucho más el de 260, que en el caso azteca se ha bautizado posteriormente como tonalpohualli y para el maya, tzolkin. 260 es el producto de 20 x 13 y por lo visto el 13 era un número importante en la numerología mística mesoamericana. A lo mejor sólo se trata de eso. Hablamos de calendarios con unas implicaciones religiosas muy fuertes, que se extendían a cada detalle de sus culturas. El calendario de 260 días sigue usándose en algunos lugares hasta la actualidad para practicar la adivinación, la magia popular y otras cosas por el estilo. Ambos calendarios coinciden cada 52 años solares de 365 días o 73 de esos raros de 260 (18.980 días). A esto se le suele llamar el «ciclo redondo» o «completo.»

Y sin embargo, sobre esas bases crearon auténticos monstruos matemáticos con pocos parangones en ningún otro lugar. El más impresionante y conocido, o desconocido de todos ellos es la Cuenta Larga. Conocido, porque hace poco tuvimos una de esas tontadas milenaristas en torno a ella: sí, es el famoso calendario maya que ni siquiera es propiamente maya, sino de toda la Mesoamérica precolombina. Desconocido, porque ninguno de quienes hablaban de fines del mundo o cambios de era o cosas de esas tenía más que una vaga idea sobre él y el público en general, pues todavía menos. Impresionante, porque hasta tiempos muy recientes a pocos más se les había ocurrido o habían sido capaces de desarrollar semejante cosa. Hace falta un notable ejercicio de imaginación, de astronomía y de matemáticas para crear un calendario capaz de contar «automáticamente» largos periodos de tiempo sin repetir un solo día. Parece más propio de la ciencia moderna que de algo que pudo empezar antes de nuestra era.

Funcionamiento de la Cuenta Larga mesoamericana.

Funcionamiento de la Cuenta Larga mesoamericana (el mal llamado «calendario de los mayas»). Fuente: Wikimedia Commons. (Clic para ampliar)

Matemáticamente, la Cuenta Larga funciona de manera muy parecida al odómetro de un coche. No es un calendario lunar ni estrictamente solar, sino que va sumando días, uno detrás de otro, y en principio podría seguir haciéndolo hasta el infinito. Comienzas contando los primeros veinte días en la posición más a la derecha (k’in), numerados del 0 al 19 (por cierto, uno de los primeros usos del número cero propiamente dicho.) Cuando has llegado al 19 y quieres contar otro más, subes un uno a la segunda posición de la derecha (uinal) y vuelves al cero en la primera. Así, te queda 1.0, lo que significa «veinte». Pero con el uinal sólo puedes contar hasta 18 (es decir, de 0 a 17). En 360 días (20 x 18), o sea un año haab’ sin sus cinco «días maléficos», tienes un 17.19: esto es, 17 en la posición uinal y 19 en la posición k’in.

Si quieres añadir otro día más (el primero del segundo año haab’), tienes que poner de nuevo un cero en ambas posiciones de la derecha (uinal y k’in) y un uno en la tercera (tun), que también es de base 20. Vamos, que se te queda: 1.0.0. A partir de ahí, vuelves a sumar k’in (en base 20) y uinal (en base 18) hasta llegar al 19.17.19 que, como contamos empezando por el cero, equivale a 20 x 18 x 20 días. Eso son 20 años «mesoamericanos» de 360 días.

Y así sucesivamente, ya siempre en base 20 excepto con los uinal, donde mantenemos la base 18. Se sigue por los katun (lo que permite contar hasta 400 años mesoamericanos) y luego por los baktun (hasta 8.000 años mesoamericanos). Para aumentar otro día más, tendríamos que poner un 1 en la sexta posición (pictun) y un cero en todas las demás. Lo que pasa es que la posición pictun y las de orden superior son ya invenciones de los mayanistas modernos. Los mesoamericanos antiguos sólo usaban cinco posiciones. Es decir, que la Cuenta Larga original habría dado para un máximo de 8.000 años de los suyos. Teniendo en cuenta que comenzaban a contar desde una fecha mítica de la creación establecida en el año 3.114 aEC, aún queda Cuenta Larga para más de dos mil años a partir de hoy. Lo único que ocurría el famoso 21 de diciembre de 2012 es que pasábamos del baktun 12 al baktun 13. Sólo con eso, algunos se inventaron sus historias. Puedes ver qué día es hoy en Cuenta Larga aquí.

Por supuesto, si las civilizaciones mesoamericanas hubiesen seguido existiendo y utilizando la Cuenta Larga (en realidad, ya estaba olvidada cuando llegó el colonizador europeo), nada les habría impedido seguir añadiendo posiciones a la izquierda cuando se les acabasen los baktun, tal como hacen los mayanistas modernos con el pictun y demás. Así, la Cuenta Larga tiene el potencial para contar cualquier periodo del tiempo, hasta el infinito. ¡Hey, un momento! Eso es exactamente lo que hacemos con nuestros números, sólo que en base 10 pura: del 9 pasamos al 10. Del 99, al 100. Del 999, al 1.000. Y así una y otra vez, hasta el infinito. La gracia de la Cuenta Larga es que los mesoamericanos antiguos se dieron cuenta muy pronto de que podían usar eso para contar días, y derivar a partir de ahí las fechas «normales» (como las del tzolkin). Bueno, y su rollo jeroglífico, que impresiona un montón.

De los meses modernos y los días de la semana.

Volvamos al calendario romano de Julio César, porque es el que ha acabado imponiéndose como referencia común en todo el mundo, con algunas pequeñas variaciones. La primera es que a la muerte de César se le honró cambiando el nombre del mes quintilis por iulius, o sea Julio (había nacido el 12 o 13 de julio del 100 aEC.) Después, el primer emperador del Imperio Romano, César Augusto, llamó al mes sextilis… pues cómo lo iba a llamar, augustus, o sea agosto, en honor a sí mismo.

Estatua del dios romano Jano

Estatua del dios Jano, una deidad romana sin equivalente griego, caracterizada por sus dos caras mirando eternamente en sentidos contrarios. Como era el dios del mes de enero (ianuarius), se cree que éste pasó progresivamente a ser el primero del año por asociación a su figura, que miraría así al año pasado y al futuro. Estatua: Museos Vaticanos, Roma.

Así ya tuvimos todos los meses del calendario moderno: enero (ianuarius, por Jano, 31 días), febrero (por las februa, 28 días o 29 cuando carga el bisiesto), marzo (por Marte, 31 días, antiguamente el primero del año), abril (seguramente por Afrodita/Venus, 30 días), mayo (por la diosa buena, 31 días), junio (por Juno, 30 días), julio (por Julio César, 31 días), agosto (por Augusto, 31 días, no iba a ser menos el hombre…) y el resto siguiendo su antiquísimo ordinal romano, de cuando sólo tenían diez: septiembre («el séptimo» después de marzo, 30 días), octubre («octavo», 31), noviembre («noveno», 30) y diciembre («décimo», 31).

El nombre de nuestros días de la semana merece párrafo aparte. La idea es también mesopotámica (jodó con los iraquís), pero su origen moderno es griego, correspondiente a los siete dioses / astros mayores del sistema solar conocidos en aquellos tiempos: hêméra Hêlíou (día de Helios / Sol), Selénês (de Selene / Luna), Áreôs (de Ares / Marte), Hermoú (de Hermes / Mercurio), Diós (del padre de los dioses Zeus / Júpiter), Aphrodítês (de Afrodita / Venus) y Krónou (de Cronos / Saturno). Los romanos, que eran unos multiculturetas de postín (en eso radica gran parte del éxito de la civilización romana: absorbían, asimilaban y asumían todo lo que les molaba), simplemente los tradujeron: dies Sōlis, Lūnae, Martis, Mercuriī, Iovis, Veneris y Saturnī. Seguro que al menos cinco de ellos los conoces: lunes, martes, miércoles, jueves (la letra J es una variación de la I inventada en el siglo XVI) y viernes.

En muchos idiomas, como el inglés, el sábado sigue siendo también el día de Saturno (Saturday – Saturn day) y el domingo, el día de Sol (Sunday – Sun day). Monday continúa siendo el día de Luna (Moon day) y los demás se corresponden con las versiones locales de los mismos dioses: Tuesday de Tiw/Týr, Wednesday de Wōden, Thursday de Thor y Friday de Frigg. En cambio, por estos lares del Sur, adoptamos ya en tiempos de la Cristiandad las versiones judeocristianas sabbat (sábado) y dies dominicus (día del Señor, domingo.)

¿Antes y después de Cristo? Va a ser que no…

San Dionisio el Exiguo

(San) Dionisio el Exiguo (c. 470 – c. 544 aEC) en un icono ortodoxo rumano. Quiso determinar la fecha de nacimiento de Cristo para contar los años a partir de ahí como Anno Domini, y la estableció en el 754 desde la fundación de Roma. Esto daría lugar posteriormente a la conocida fórmula «antes de Cristo / después de Cristo». Pero se equivocó. Dando por buenos los Evangelios, Jesús no pudo nacer en ese año, y si no se dan por buenos, pues no sabemos cuándo fue, si fue.

En torno al año 525 de nuestra era, un monje llamado Dionisio el Exiguo sentó las bases para cristianizar el calendario. Su logro más notable y conocido fue la creación del Año del Señor (Anno Domini, AD), según el cual los años empiezan a contarse a partir del nacimiento de Cristo: la fórmula tradicional actual. A todos los que peinamos ya alguna cana y a algunos de quienes aún sólo tienen pelo en la cabeza nos enseñaron y les enseñan que ahora mismo contamos los años desde el nacimiento del Nazareno y dividimos la historia en antes de Cristo (aC) y después de Cristo (dC). Según esto, hoy viviríamos en el año 2014 después de Cristo, como todos sabemos, ¿no?

Pues no. Y no es una cuestión de fe religiosa o lo contrario. El problema es que el buen Dionisio metió la pata. Tras muchos cálculos, hizo coincidir el año 1 de nuestra era, el primer año del Señor, con el 754 ab urbe condita (AUC, desde la fundación de Roma.) Esta forma de contar los años se generalizó a partir del siglo IX europeo: la historia se dividía en ab urbe condita para los años anteriores al 1 y Anno Domini para el 1 y siguientes (en ambos casos contando hacia adelante). Pero en el siglo XVII se extendió la fórmula «antes de Cristo» (contando hacia atrás a partir del Anno Domini -1) y «después de Cristo» (contando hacia adelante a partir del Anno Domini +1). Esa es la que seguimos oyendo hoy.

Está mal. La fecha dada por Dionisio el Exiguo es imposible. Los propios académicos cristianos de hoy en día lo aceptan: si existió Jesus de Nazaret tal como lo cuentan en la Biblia, o de manera parecida, no hay forma ninguna de que pudiese nacer en el 754 ab urbe condita. En primer lugar: para que el Rey Herodes el Grande pudiese instigar la famosa matanza de los Santos Inocentes tal como afirmó el evangelista Mateo (Mt 2:16-18), tuvo que ser antes del 750 AUC porque ese es el año en el que Herodes murió. (En el 754 reinaba en Judea otro Herodes distinto, Herodes Arquelao, al que nadie ha atribuido jamás la autoría de lo de los Santos Inocentes ni nada de eso.)

El Emperador romano César Augusto

Tal como afirma el evangelista Lucas, el emperador César Augusto (en la imagen) ordenó un censo en los territorios romanos durante los albores de nuestra era. Lucas dice que Jesús de Nazaret nació durante el mismo, y de ahí la historia del Portal de Belén. Pero en Judea este censo, realizado por el gobernador Publio Sulpicio Quirinio, se llevó a cabo en el año 6 «después de Cristo». Con lo que, para que cuadre la Biblia, el año 1 de Dionisio el Exiguo no pudo ser el de nacimiento de Jesús. Si decimos «antes o después de Cristo» para referirnos a los años modernos, estamos contando mal. Estatua: Museos Vaticanos, Roma.

En segundo lugar, y aún más contuntente: si Jesús nació durante el censo realizado por el gobernador romano de Siria y Judea llamado Publio Sulpicio Quirinio, como asegura el evangelista Lucas (Lc 2:1-2), y de ahí toda la temática sobre el Portal de Belén… bien, pues tal censo existió, pero se realizó seis o siete años después del Anno Domini 1 (según Flavio Josefo, fue «37 años después de que Octavio derrotó a Antonio en la batalla naval de Accio«, lo que se correspondería con el año 6 «después de Cristo».) No hubo ningún otro censo en la región en ese periodo.

Existen otras posibilidades que alejan aún más la fecha de nacimiento de Jesús del «año 1», y ninguna a favor. Pero estas dos son las más aplastantes: por esa época Herodes I el Grande ya estaba muerto y no hubo censo alguno en Judea hasta seis años después. O sea: el problema no es que decir «antes de Cristo» y «después de Cristo» sea algo religioso o deje de serlo. El problema es que es erróneo. Aceptando los Evangelios, Cristo no pudo nacer en el 754 ab urbe condita convertido en el Año del Señor nº 1 por Dionisio el Exiguo. No cuadra. O fue antes del 4 «antes de Cristo» (muerte de Herodes el Grande) o fue en el 6 «después de Cristo» (censo de Quirinio, también conocido como Quirino o Cirino.) Y si no damos por buenos los Evangelios, pues entonces, claro, no hay referencia alguna. Por un lado o por el otro, estamos contando mal.

Por este motivo (y también porque el calendario occidental ha sido asimilado por culturas que tienen muy poca relación con el cristianismo), en todos los ámbitos mínimamente rigurosos utilizamos ahora las expresiones «Era Común» (EC) y «antes de la Era Común» (aEC) en lugar de «antes de Cristo» y «después de Cristo». En contra de lo que parecen creer algunos, no es una conspiración anticristiana, sino la mera corrección del error histórico cometido por Dionisio el Exiguo y un resultado del éxito global del calendario occidental.

De los relojes, el minuto, el segundo y más allá.

Papa Gregorio XIII

El Papa Gregorio XIII (1502 – 1585) promulgó la bula Inter gravissimas (1582) para dar los últimos retoques al calendario juliano, convirtiéndolo así en el calendario moderno. Por eso lo conocemos como «calendario gregoriano.» En muchos lugares del mundo no fue adoptado hasta el siglo XX. Retrato realizado por Lavinia Fontana (1552 – 1614).

Durante los siguientes siglos, fue volviéndose evidente que el calendario juliano se descuadraba también. Esto se debe a que la duración real del año trópico no es exactamente 365,25 días, sino más bien 365,242, con una pequeña variación interanual. En el año 1582, se había ido unos diez días desde los tiempos de Julio César. Entonces el Papa Gregorio XIII ordenó el último cambio notable: saltaron esos diez días y los años bisiestos dejaron de ser uno de cada cuatro. En su lugar, lo fueron aquellos que son divisibles por cuatro, excepto los que también son divisibles por cien, pero no por cuatrocientos.

Esto crea un año efectivo de 365,2425 días, mucho más parecido al real, que es el que seguimos usando ahora: el calendario gregoriano, hoy en día ya más conocido como el calendario occidental o el calendario internacional (pues sólo quedan cinco países que no lo usen de manera oficial: Afganistán, Arabia Saudita, Etiopía, Irán y Nepal, e incluso éstos lo utilizan en sus relaciones con el exterior y la gran mayoría de sus aplicaciones tecnológicas e industriales. Hay algunos otros que lo simultanean con algún calendario local, pero lógicamente éstos se van viendo cada vez más desplazados por la pujanza global del internacional.)

Es más o menos en la época de este Papa Gregorio XIII cuando empiezan a aparecer los primeros relojes con precisión suficiente para contar segundos. La idea del minuto como sesentava parte de la hora es bastante antigua (seguramente se origina también en los babilonios), y la del segundo como sesentava parte del minuto ya fue utilizada por científico persa Al Biruni en torno al año 1.000 de la Era Común. Pero no había ninguna manera práctica de medir tiempos tan precisos hasta el siglo XVI y de hacerlo con exactitud, hasta el XVII. Ni relojes solares, ni clepsidras ni los primeros relojes mecánicos eran capaces. Hubo que esperar al reloj de péndulo inventado por el matemático, astrónomo y físico holandés Christiaan Huygens en 1656 para que esto fuese posible.

Esquema para un reloj de péndulo de Christiaan Huygens (1673)

Ilustración en el libro «Horologium Oscillatorium sive de motu pendulorum» publicado por Christiaan Huygens en 1673, donde se define el primer reloj de péndulo realmente funcional. Los relojes de péndulo fueron por fin capaces de medir segundos, dándonos un control mucho más avanzado sobre la medida del tiempo.

La gracia del reloj de péndulo es que está construido en torno a un oscilador armónico: el péndulo en cuestión. Esto significa que siempre oscila en un periodo exacto de tiempo (o tan exacto como permitan las imperfecciones del mecanismo), dependiendo de su longitud. Es decir, que sus movimientos son isócronos. O sea, una de esas reglas lo más regulares posible que nos gustan tanto para medir cosas.

Y el péndulo resultó ser notablemente regular. Tanto que pasó a ser la clave del tiempo durante los siguientes 270 años, hasta bien entrado el siglo XX. Sólo la invención del reloj electrónico de cuarzo en 1927 comenzaría a desplazarlo, pero no del todo hasta después de la Segunda Guerra Mundial. En el reloj de cuarzo, el péndulo queda reemplazado por un oscilador piezoeléctrico de cristal mucho más pequeño y preciso. Y veloz, lo que permite medir fracciones mucho más breves de tiempo, a millones de ciclos por segundo. Poco después llegó el reloj atómico, más exacto todavía. De pronto, resultó que nuestros relojes comenzaban a ser enormemente más regulares que la inmensa mayor parte de los fenómenos naturales que medían, como la órbita de la Tierra alrededor del Sol, la de la Luna alrededor de la Tierra o casi cualquier otra cosa que antes constituyese la referencia mejor de tiempo. Y ya sabes, lo regular, la regla, es lo que mola para medir.

Entonces hicimos algo nuevo: invertimos la referencia. Es decir, el sol y la luna y las estrellas dejaron de ser la referencia última para nuestros relojes y fueron nuestros relojes, cada vez más precisos y prácticos, los que nos sirvieron para medir el resto de fenómenos naturales. Incluyendo al sol, la luna y las estrellas. Hoy en día la referencia absoluta de tiempo ya no está en los cielos, sino en la tierra, en nuestros relojes atómicos (bueno, algunos hay en el espacio…). Ahora decimos que la unidad básica de tiempo en el sistema internacional es el segundo, y en estos momentos lo definimos así, en el lenguaje cuántico de estos relojes atómicos:

«El segundo es la duración de 9.192.631.770 periodos de la radiación correspondiente a la transición entre los dos niveles hiperfinos del estado fundamental del átomo de cesio-133.» [A una temperatura de 0 K]

Reloj atómico de estroncio del JILA, 2014

El reloj más preciso del mundo en la actualidad: el atómico de estroncio del Joint Institute for Laboratory Astrophysics (JILA), formado por la Universidad de Colorado y el Instituto Nacional de Estándares y Tecnología de los Estados Unidos (NIST). Necesitaría por encima de cinco mil millones de años, más que la edad del sistema solar, para «irse» un solo segundo. Foto: Ye group and Baxley/JILA

…lo que es una regla exacta como el demonio y además muy práctica, porque no tenemos que andar dando tantas vueltas a que si el sol, la luna o las estrellas cada vez que queremos contar el tiempo con precisión, ni depender de sus imperfecciones cósmicas. Cosa que hoy en día es totalmente necesaria en todas partes. Toda nuestra ciencia y tecnología modernas, las claves de nuestro nivel y calidad de vida, dependen por completo de la regularidad de nuestros relojes.

Me he saltado necesariamente muchas cosas, porque esta fue una historia muy larga y compleja, llena de acelerones y paradas y marchas adelante y atrás. Pero quiero añadir que nuestra historia, la historia de la humanidad, está indisolublemente vinculada a las maneras como aprendimos a medir el tiempo. Exigió lo mejor y lo más brillante de nosotros. A cambio, nos premió con una clase de dominio sobre nuestro mundo que de otro modo jamás habríamos podido soñar. La agricultura, la navegación oceánica, la electrónica moderna o la astronomía, entre otro millón de cosas más, son en parte hijas de nuestro afán por medir el tiempo de manera cada vez más y más precisa. Sin ese afán, sin esa capacidad, seguiríamos anclados allá por el Epipaleolítico. Y, te lo aseguro, eso no te iba a gustar.

(Quizá te interese también: La computadora de Anticitera, en este mismo blog.)

59 Comentarios Trackbacks / Pingbacks (14)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (39 votos, media: 4,85 de 5)
Loading...
Be Sociable, Share!

Air France 447: Buscando cajas negras a 4.000 metros de profundidad (y 2)

A la memoria del Malaysian Airlines MH370

He estado dudando sobre si era el momento más adecuado para publicar esta segunda parte, porque la casualidad es mucha casualidad. Me refiero, por supuesto, a la pérdida del Malaysia 370 en el mar este fin de semana. Hasta se parecen la hora y el número de ocupantes; la principal diferencia es que el MH370 parece estar en una región de poca profundidad. Al final me he decidido, dado que es educativo y enseña un poco lo que puede venir a continuación. No obstante, he cambiado un poco el tono, que en la anterior versión era demasiado ligero para mi gusto dadas las circunstancias. En todo caso, este post va a la memoria del pasaje y la tripulación del vuelo Malaysia Airlines 370, perdido en el mar sobre las dos de la madrugada hora local del 8 de marzo de 2014 con 239 personas a bordo. Sit vobis mare levis.

Por petición, y por supuesto:«Mi corazón comparte la tristeza y la impotencia de los familiares de los pasajeros del Malaysian Airlines.»
Firma: la mamá de un pasajero del 447 de Air France, que leyó estas líneas.

Ir a la primera parte

Ruta prevista del vuelo Air France 447, 31 de mayo - 1 de junio de 2009.

Recopilemos: el vuelo Air France 447 había partido de Río de Janeiro – Galeão a las 19:29 (local) del 31 de mayo de 2009 y se le esperaba en París – Charles de Gaulle sobre las 09:10 del 1 de junio. Sobrevoló las playas del Brasil antes de adentrarse en la noche atlántica con toda normalidad. Entre las 02:11 y las 02:14 de la madrugada UTC, cuando se encontraba atravesando una región turbulenta de convergencia intertropical fuera del alcance de los radares, se produjo una ráfaga de mensajes ACARS de alerta y ya no se volvió a saber de él. Gráfico: Wikimedia Commons modificado por la Pizarra de Yuri. (Clic para ampliar)

Durante la mañana del 1 de junio de 2009, tres continentes fueron alcanzando poco a poco tres conclusiones. La primera, que al vuelo Air France 447 de Río de Janeiro a París con 228 personas a bordo ya no podía quedarle ni una gota de combustible. La segunda, que el avión, un moderno Airbus A330-200, no se hallaba en ningún lugar de las tierras emergidas. Y por tanto la tercera: que había desaparecido en el mar. Como en los viejos tiempos.

A las 11:04 UTC salió la primera aeronave en su busca, de la Fuerza Aérea Brasileña. En torno a las 12:15 se le sumó un Breguet Atlantique-2 desde la base que Francia todavía conservaba en Senegal, antigua colonia suya. Después acudieron también un CASA 235 de la Guardia Civil Española y un P-3 Orion perteneciente a la Armada Estadounidense. Luego, muchos más, todos ellos buscando frenéticamente alguna pista del vuelo desaparecido y sus ocupantes a lo largo y lo ancho de miles de millas de mar. A primera hora de la tarde, Air France comunicó oficialmente al mundo que habían perdido un avión. Uno grande.

Durante un día entero, no encontraron nada. Fue a las 15:20 del día dos de junio cuando un Embraer R99 de la Fuerza Aérea Brasileña divisó la primera mancha de combustible en el océano. Aunque en un primer momento se les ocurrió que podía ser un sentinazo de algún barco, enseguida comenzaron a avistar otros fragmentos flotantes. Unos pocos al principio y luego algunos más, incluyendo restos humanos. El 6 de junio, la corbeta brasileña Caboclo rescataba los dos primeros cadáveres junto a un asiento, una mochila con un ordenador portátil y una cartera con una tarjeta de embarque para el AF447. Sin embargo lo más llamativo, o simbólico, fue la deriva que la gente llama «timón de cola» (el timón en sí es la parte móvil), cuya foto dio la vuelta al mundo. Su estructura es de fibra de carbono (CFC) y puede flotar. Un gran timón con los colores de Air France, o sea de Francia, por mucho que esté privatizada, flotando en medio del mar.

La Armada del Brasil recupera la deriva del Air France 447.

La imagen que dio la vuelta al mundo: la Armada del Brasil recupera la deriva («timón de cola») del Air France 447 en medio del Océano Atlántico, el 7 de junio de 2009. Foto: Fuerza Áerea del Brasil vía Associated Press. (Clic para ampliar)

Ay, la grandeur. Y encima mandando el Sarkozy y con la crisis ya en marcha. Y Airbus, con sede en Toulouse, acusándola como todo el mundo. Mira, no estuve yo atento a contar los minutos que tardó lo que era un accidente aéreo en convertirse en una cuestión de estado y orgullo nacional. Pero no fueron muchos.

Submarino nuclear de ataque S604 Émeraude, Francia

El submarino nuclear de ataque S604 Émeraude, la primera ocurrencia del gobierno francés para buscar los restos del AF447. Foto: Armada Nacional de Francia. (Clic para ampliar)

La primera que se les ocurrió fue sacar un submarino atómico. Cuál si no. Para un buen chauviniste ofendido en su orgullo patrio, cualquier excusa es buena para sacar a los submarinos atómicos. En menos de cuatro días, el submarino nuclear Émeraude se hizo a la mar a toda máquina para localizar las cajas negras con sus «sonares ultrasensibles» (así los definieron), y de paso el resto del avión. Le precedían la fragata Ventôse y el portahelicópteros Mistral. Eso, para empezar.

Los profesionales empezaron a encogerse con esa cara de velocidad que se nos pone a todos cuando vemos una catástrofe a punto de ocurrir, y ya iban a ser dos esa semana. Hay muchas, muchas maneras de destrozar una búsqueda y una investigación que prometían contarse entre las más delicadas de la historia de la aviación. Gracias a Neptuno, no rompieron nada. Pero sólo por la sencilla razón de que ni hallaron las cajas negras, ni los restos del avión y si encontraron el Océano Atlántico yo creo que fue porque ya estaban en él. Parecía un happening muy caro ilustrando aquello tan viejo de que al que sólo tiene un martillo, todos los problemas le parecen clavos. Con toda esa gente muerta, de un tono bastante macabro, la verdad.

Baliza de localización subacuática (ULB) para regristradoras de vuelo Dukane DK-120.

El cilindro horizontal es la baliza de localización subacuática (underwater locator beacon, ULB), en este caso del modelo Dukane DK-120. Estas balizas son capaces de sobrevivir a un accidente aéreo en más del 90% de las ocasiones (según estudio de la BEA) y seguir transmitiendo desde 6.000 metros de profundidad (más del 97% de los mares y océanos terrestres son menos profundos). Emiten un pulso ultrasónico (ping) cada segundo a 37 kHz de frecuencia durante aproximadamente un mes antes de agotar la pila. Actualmente se estudia bajarlas a 8,8 kHz para mejor recepción. Foto: Dukane Seacom Inc. / Radiant Power Corp. (Clic para ampliar)

Verás. Para empezar, cuatro días son radicalmente insuficientes para diseñar una búsqueda tan compleja como la que era fácilmente previsible. Por expeditivo y machote que quede de cara al electorado, el submarino salió con lo puesto, sin preparación, formación ni equipamiento específico alguno. Sólo disponían de sus sonares pasivos para detectar el pulso ultrasónico (ping) a 37,5 kilohercios que emiten una vez por segundo las balizas subacuáticas de las cajas negras. Estas balizas (underwater locator beacon, ULB) son el cilindro pequeño que suele verse al extremo de las mismas, capaces de seguir haciendo ping hasta a 6.000 metros de profundidad durante aproximadamente un mes.

Pero es que además resulta que tanto el Émeraude como cualquier otro submarino de combate en general son herramientas totalmente inapropiadas para esa función. Este en particular sólo podía barrer 34 km2 por día con alguna exhaustividad y encima, mal. De entrada, el área de búsqueda profunda ascendía a más de 17.000 km2 y terminó superando los 25.000. O sea, entre dieciocho meses y dos años y pico para hacer un barrido preliminar, sin parar ni un solo segundo y con más rendijas que la casa de la Familia Monster. Porque sus sensores, por «ultrasensibles» que fuesen, no eran los correctos para detectar una señal cada vez más débil y posiblemente apantallada por los restos del avión que tuviesen encima, menos aún en ese rango de frecuencias, y viniéndole desde muy abajo (los sensores de los submarinos son bastante mejores detectando a sus alrededores, en busca de otros submarinos o buques de superficie, que justo encima o debajo; y además están especializados en captar las frecuencias y señales más características de esos navíos).

Por si fuera poco, los submarinos de combate sólo se sumergen hasta unos cientos de metros. Supongamos que el Émeraude llegue hasta los 500, que ya es mucho suponer (los datos reales de profundidad máxima de los submarinos son secretos, pero para uno de ese tipo, por ahí puede ir la cosa; salvo algunos bichos extraños, ninguno llega ni cerca de mil). Y resulta que ahí hay entre 2.500 y 4.000 metros de profundidad. Es decir, una capa adicional de dos a tres kilómetros y medio de agua entre el fondo y el submarino (y sus sensores). Aún más: esa es una región con abundante ruido biológico, que tiende a confundir a estos sensores (o sus operadores). En suma, era como limpiar el agua radiactiva de Fukushima con un cubo, sin cuerda y encima agujereado.

Adicionalmente, la presencia de un submarino nuclear en el área obligó a crear una extensa zona de seguridad a su alrededor que no podía ser utilizada por los barcos con sensores remolcados. Hasta el informe oficial de la BEA francesa al respecto es sutilmente crítico cuando afirma que «el uso de un submarino genera constricciones operacionales significativas y dificultades de coordinación con los buques de superficie. La limitada capacidad de inmersión de los submarinos no representa una ventaja decisiva con respecto a los buques de superficie y es incluso menor que la de un hidrófono sumergido. Un submarino podría ser útil para explorar áreas de profundidad limitada, siempre que esté equipado con los sensores apropiados.»

Naturalmente los profesionales de la Armada Francesa, que son gente inteligente y capaz, pidieron ayuda ante semejante marrón. Acudió en su auxilio, por un lado, el buque Pourquoi Pas? del IFREMER con el batiscafo Nautile, capaz de llegar hasta el fondo del mar. Lo que también tenía algo de tufillo patriotero, porque aunque la gente del IFREMER son auténticos profesionales de las profundidades, y además de primera categoría (hace poco escribí algo sobre ellos), un batiscafo de limitada autonomía como todos los batiscafos tampoco parece la herramienta más apropiada para barrer decenas de miles de kilómetros cuadrados de mar. Por su parte, el américain ese del que hay que defender al cine francés les prestó algo bastante más útil: dos sensores de arrastre especializados en detectar esta clase de balizas a gran profundidad. Francia contrató otros dos barcos para remolcarlos: el Fairmount Glacier y el Fairmount Paramount.

Localizador remolcado de balizas subacuáticas TPL-25, Armada de los Estados Unidos.

El localizador remolcado de balizas subacuáticas (towed pinger locator) TPL-25 de la Armada de los Estados Unidos. Está especializado en detectar los pings de las ULB a gran profundidad, y fue el primer equipo adecuado a la función que se llevó al lugar del desastre. No obstante, la búsqueda inicial fue tan inadecuada que no sirvió de nada, pese a que pasaron al menos en dos ocasiones por encima de los restos. Foto: SEA OOC – Armada de los Estados Unidos. (Clic para ampliar)

Daba igual. Toda la operación obedecía a criterios tan absurdos que no sirvió de nada. Hacia finales del mes el Émeraude, el Pourquoi Pas?, la Ventôse, el Mistral y los dos Fairmount se retiraron muy discretamente sin haber encontrado un solo tornillo del Air France 447. Luego se supo que habían pasado dos veces prácticamente por encima de los restos, con al menos una baliza subacuática aún viva, emitiendo pings sin cesar. Pues ni por esas. El informe oficial de la BEA vuelve a clavar otra puyita al decir que «el uso de recursos sin probar no es deseable. Por ejemplo, los recursos acústicos del submarino nuclear y el Pourquoi pas? no se habían probado con señales de [balizas subacuáticas] ULB antes de ser desplegados en el sector. Ajustar los sistemas una vez en el lugar es difícilmente compatible con el cumplimiento de la misión.»

Mientras tanto, los buques y aviones de rescate brasileños recuperaban todo lo que se podía recuperar en superficie muy profesionalmente, sin alharacas pero con gran efectividad, cubriendo un millón de kilómetros cuadrados de mar. Rescataron 50 cuerpos humanos de los 288 ocupantes, incluyendo el del comandante Marc Dubois, y 640 fragmentos del avión; algunos, bastante grandes. Sin embargo, los elementos más importantes para la investigación, como los motores, los ordenadores, los instrumentos o las cajas negras, seguían en el fondo del océano.

La tontada, como todas las tontadas a ese nivel, tuvo consecuencias. Ya te digo, fue tan ineficaz que no rompieron nada porque no toparon con nada que romper. Pero se había perdido un tiempo precioso: exactamente los treinta días que tardan en agotarse las pilas de las balizas subacuáticas. Ahora, los restos críticos del Air France 447 no sólo permanecían en el fondo del mar, sino que además habían perdido la voz y se hallaban en el más completo silencio. El silencio de la gran profundidad.

Mientras tanto, mil Airbus A330 seguían volando por todo el mundo cargados de gente, más todos los demás aviones equipados con sistemas muy parecidos, y seguía sin saberse con ninguna certeza qué los podía matar. Lo único que se pudo hacer por el momento fue cambiar los tubos Pitot del modelo Thales AA, como los que llevaba el AF447, por otro modelo distinto, dado que ese era un problema conocido y además los mensajes ACARS que vimos al final del post anterior parecían apuntar en tal dirección. Pero sin saber lo que pasó, eso y nada es básicamente lo mismo. Podían ser los tubos Pitot o cualquier otra cosa. Sin restos y sin cajas negras y sin investigación técnica, en cualquier momento podía volver a ocurrir y matar a otras doscientas o trescientas o más personas de nuevo. Es lo que tienen la ignorancia y la estupidez, que son peligrosísimas. Con poder, para echarse a temblar. Y mira que había antecedentes, ¿eh?

El antecedente.

Los genios que idearon lo de mandar al submarino ni siquiera pueden alegar la novedad, porque no era la primera vez que se intentaba. Muchos años atrás, un Jumbo sudafricano acabó en el fondo del Océano Índico con 159 personas a bordo. Fue el vuelo South African 295 de Taipei a Johannesburgo con escala en Isla Mauricio, un Boeing 747-244B Combi mixto de carga y pasaje, una de esas cosas de entonces (aunque aún quedan algunos por ahí, si bien en versiones muy modernizadas).

Boeing 747-244B Combi matrícula ZS-SAS (South African 295)

El Boeing 747-244B Combi matrícula ZS-SAS (South African 295) desaparecido en el Océano Índico el 27 de noviembre de 1987. Tras dos meses de búsqueda infructuosa mediante sonar pasivo y otros métodos tradicionales, la compañía Steadfast Oceaneering localizó los restos a 4.900 m de profundidad en apenas 48 horas mediante magnetómetros y sonar de barrido lateral. Foto tomada dos años antes del accidente en Oporto por: Pedro Aragao / airliners.net vía Wikimedia Commons.

El 27 de noviembre de 1987, este vuelo South African 295 declaró una emergencia por humo en cabina y fallo eléctrico a los controladores de Mauricio que se extendió durante 16 minutos. Después, dejó de comunicar. Se había estrellado en el mar unos 250 km al Noreste de Isla Mauricio y mil al Este de Madagascar. Ahí el Océano Índico tiene casi 5.000 metros de profundidad. Como en aquellos tiempos Sudáfrica se hallaba bajo sanciones internacionales por el apartheid, muchas veces se ha dicho que el avión transportaba una carga ilegal de productos químicos militares que se incendió. Lo cierto es que no se sabe con seguridad.

Los sudafricanos intentaron primero localizar las cajas negras y con ello los restos del avión mediante sonar pasivo, exactamente igual que Francia 22 años después. Con el mismo éxito: ninguno. Tras dos meses de búsqueda, cuando ya era evidente que las balizas no podían seguir transmitiendo (de hecho, es posible que esas balizas antiguas ni siquiera funcionasen tan hondo), pagaron un pastón para contratar a la empresa Steadfast Oceaneering (ahora Oceaneering International), expertos en rescates de material a gran profundidad.

Avioneta Cessna en el fondo marino vista con sonar de barrido lateral (SSS).

Una avioneta Cessna en el fondo marino tal como se ve con un sonar de barrido lateral bastante antiguo. (Clic para ampliar)

Oceaneering tardó exactamente dos días en localizar buena parte de los restos, a 4.900 metros de profundidad, utilizando magnetómetros y un primitivo sonar de barrido lateral. A diferencia del sonar pasivo, básicamente hidrófonos que se dedican a escuchar el agua a su alrededor buscando alguna señal en las siempre inciertas condiciones de propagación submarinas, el sonar de barrido lateral es un sistema activo que sirve exactamente para ver el fondo marino. Es decir, la herramienta adecuada para buscar los restos de un avión (o de cualquier otra cosa) cuyas balizas subacuáticas no estás detectando a la primera. O sea, el destornillador para el tornillo. Como te digo, les costó poco más de 48 horas hallar lo que quedaba del South African 295, su carga y sus ocupantes.

Pese a que los restos estaban bastante dañados, en dos campos separados entre sí, el 6 de enero de 1988 Oceaneering rescató la grabadora de voces en cabina (CVR) utilizando un vehículo submarino a control remoto y así la investigación en serio pudo comenzar. Por el contrario, la grabadora de datos (FDR) nunca se encontró. No obstante, entre el análisis de la CVR y el estudio de los demás restos que hallaron pudieron descubrir lo ocurrido con bastante precisión. Muy resumido, el incendio se inició en el compartimiento de carga –no se pudo determinar el punto exacto, debido al grado de desintegración de los restos, pero sí el palé: el primero de estribor–, alcanzando los 600ºC necesarios para fundir una raqueta de tenis de fibra de carbono que se halló derretida. Debido a unas separaciones inadecuadas, el fuego se extendió rápidamente al área de pasaje y terminó dañando tantos sistemas que el avión no pudo más y se estrelló.

Restos del South African 295 filmados por Oceaneering, 01/1988.

Los restos del South African 295 filmados por Oceaneering tras su hallazgo a 4.900 metros de profundidad, en enero de 1988. (Clic para ampliar)

El caso es que podían recuperarse los restos de un avión a gran profundidad desde 1988 por lo menos, incluso mil metros más hondo. Se sabía cómo hacerlo. Sin embargo, esta vez iba a ser más difícil. Mucho más difícil.

Vuelven los profesionales. Con material.

El IFREMER regresó a mediados de julio de 2009, de nuevo con el Pourquoi Pas?, pero esta vez en mejores condiciones. Es decir, con material más adecuado: un sonar de barrido lateral como el que utilizó Oceaneering para encontrar al South African 295 casi un cuarto de siglo atrás, aunque mucho más moderno.

El problema fue que no sabían muy bien dónde buscar. Con las balizas subacuáticas de las cajas negras definitivamente muertas, no tenían ninguna pista. Comenzaron a partir de la última posición conocida del Air France 447 y durante las tres semanas siguientes fueron cubriendo trabajosamente un círculo de 75 kilómetros a su alrededor. Levantaron excelentes mapas del fondo marino… pero no encontraban ni una sola astilla del avión.

Contenedores de oxígeno de emergencia para pasaje del AF447 en posición cerrada.


Contenedores de oxígeno de emergencia para pasaje del AF447 (los que van encima de todos los bloques de asientos). Arriba: Contenedor recuperado en posición cerrada, con deformación coincidente en tapa y cubeta, indicando que no llegó a abrirse. Abajo: Contenedor recuperado en posición abierta, debido al impacto, pero con los tres seguros enclavados. Tal cosa significa que las máscaras de oxígeno no se desplegaron en ningún momento. Esto aporta el dato fundamental de que la cabina no se despresurizó antes del impacto, y permite deducir que no se produjo desintegración en el aire, sino que al menos el fuselaje llegó de una sola pieza y sin peforaciones al mar. Suele ser un fuerte indicador de que un avión no ha sufrido daños estructurales graves antes de estrellarse. Imágenes: BEA, Francia. (Clic para ampliar)

Mientras tanto, gracias al análisis de los restos recuperados en superficie por la Armada Brasileña, empezaban a saberse algunas cosas. Una de ellas, fundamental, es que no hubo despresurización de la cabina antes del impacto: ninguna máscara de oxígeno estaba desplegada. Esta es una de las primeras cosas que se buscan en una investigación, porque indica muy bien si el avión resultó dañado en el aire (en cuanto hay perforación o fractura del fuselaje, hay despresurización y se disparan las máscaras) o por el contrario llegó más o menos de una sola pieza al suelo. Esto es importantísimo, dado que excluye un conjunto enorme de posibles causas. Entre ellas, los tipos más comunes de atentado o derribo: las explosiones e impactos de proyectiles tienden a abrir boquetes en el fuselaje, con la consiguiente despresurización y despliegue de las máscaras. También excluye, por ejemplo, la posibilidad de una gran explosión interna en vuelo como la que mató al TWA800 en 1996. O fallos estructurales severos como el del Aloha 243. Y un montón de cosas más.

El análisis de los restos flotantes recuperados permitió descubrir varias cosas importantes más. En particular, el estudio de los cuerpos practicado por los forenses brasileños. Los cuerpos humanos son magníficos testigos de lo que les ha pasado antes, durante y después de la muerte. Por ejemplo, ninguna de las víctimas (ni de los restos del avión) presentaba quemaduras. Cuando viajas junto a 140.000 litros de combustible de aviación, de los que en ese momento debían quedar aún en torno a 100.000, eso significa que difícilmente se produjo explosión o incendio alguno antes del impacto contra el mar. Todo empezaba a apuntar a que el Air France 447 y sus ocupantes permanecían en buen estado hasta que se estrellaron, un dato esencial.

El estudio forense aportó más datos aún. Todas las víctimas murieron instantáneamente o casi, debido a lesiones muy parecidas: fracturas compresivas de pelvis, tórax y columna vertebral con ruptura masiva de los órganos internos por deceleración súbita en el eje vertical, con algo de ángulo hacia atrás y un pelín hacia un lado. O sea: estaban sentadas en sus asientos y cayeron de culo con la espalda inclinada unos 15º hacia atrás. Los pedazos recuperados del avión contaban la misma historia: deformaciones por frenazo repentino de arriba abajo con cabeceo positivo y algo de alabeo. Es decir, que el Air France 447 se estrelló de panza con el morro levantado y un poquito de inclinación lateral.

Aunque esto no es determinante, porque el ángulo de impacto puede deberse al azar, insinúa que el avión conservaba alguna clase de control. En caso contrario, suelen caer de cualquier modo: en picado, de cola, con un ala por delante, boca abajo, como sea. Es relativamente raro que un avión incontrolado por completo caiga de panza  con el morro levantado como si estuviese aterrizando, si bien a un ángulo y velocidad brutal. Más bien sugiere pérdida de control sobre la altitud, la velocidad y el ángulo de ataque, entre otras cosas, pero no tanto sobre la actitud (de alabeo, cabeceo y guiñada). Sugiere que los pilotos, humanos o automáticos, seguían al mando aún. En estos dos videos podemos ver lo que suele pasarle a un avión cuando hay pérdida total de control:

El Tatarstan 363, un Boeing 737-500 procedente de Moscú, se estrella en Kazán (Rusia) el 17 de noviembre de 2013 con 50 personas a bordo. Puede observarse que lo hace en un fuerte picado, a consecuencia de una entrada en pérdida aerodinámica por mala configuración durante un aterrizaje frustrado, que derivó en una pérdida total de control.

Accidente del carguero militar estadounidense National Airlines 102, un Boeing 747-428BCF Jumbo con 7 tripulantes a bordo, a la salida de Bagram (Afganistán). Estaba llevándose vehículos militares pesados de vuelta a Dubai. Cinco de ellos se soltaron durante el despegue, dando lugar a un corrimiento de carga con sobredesplazamiento hacia atrás del centro de gravedad y pérdida total de control. Puede observarse que, aunque en este caso viene a caer «de panza», la actitud de descenso es totalmente incontrolable y podía haber caído en cualquier otra posición.

Áreas barridas durante la 1ª y 2ª fase de la búsqueda del Air France 447, 10/06 - 17/08/2009

Áreas barridas durante la 1ª y 2ª fase de la búsqueda del Air France 447 entre el 10 de junio y el 17 de agosto de 2010, sin resultados. Imagen: BEA, Francia. (Clic para ampliar)

Todas estas fueron informaciones muy interesantes y útiles para descartar una montaña de posibilidades. Pero no para saber lo que ocurrió. Y sin saber lo que ocurrió, la seguridad aeronáutica continuaba en entredicho. El 17 de agosto, el Pourquoi Pas? se tuvo que retirar por segunda vez, sin haber encontrado nada. Todos los días, a todas horas, miles de aviones seguían surcando los cielos sin saber si lo que mató al Air France 447 podía matarlos a ellos en cualquier momento también.

A la tercera…

Y pasaron los meses. Tras la segunda intentona del Pourquoi Pas?, ya nadie sabía muy bien dónde buscar o qué hacer. ¿Podía ser que el AF447 se hubiera desviado enormemente de su ruta antes de estrellarse? ¿O quizá estaría encajonado en el fondo de alguno de los profundos valles submarinos que habían detectado en el sector, a cubierto de los haces del sonar de barrido lateral? ¡Porque todo aquello resultó ser una especie de escarpada cordillera sumergida a miles de metros de profundidad! No estaba fácil, no.

Conforme pasaba el tiempo, todo el mundo iba poniéndose más y más nervioso. El gobierno francés, porque lo que convirtieron en asunto de orgullo nacional se había transformado en humillación. Air France-KLM, porque en un contexto de crisis global donde muchas compañías aéreas estaban quebrando, miraba a sus aviones preguntándose cuál de ellos les daría un puntillazo de los malos. Airbus, porque en el peor año de ventas de la industria aeronáutica en década y media, tenía que explicar a sus clientes que bueno, que en fin, que no, que no sabemos por qué se estrelló nuestro avión, ¿cuántos dijo que quería comprar? Sus tripulantes, porque sabían que podían ser los próximos. Y eso sin mencionar a las familias y amistades de las víctimas, que iban pasando de la resignación a la furia, y con sobrada razón.

En abril de 2010, diez meses después del accidente, lo intentaron otra vez. La cosa estaba tan caliente que se dejaron por fin de patrioterismos y contrataron a empresas de talla mundial expertas en rescate submarino. Por un lado, a la estadounidense Phoenix International, que acudió con el buque Anne Candies, un sonar avanzado de barrido lateral ORION y un vehículo submarino a control remoto (ROV) CURV-21, ambos propiedad de la Armada de los Estados Unidos. Por otro, a la noruega Swire Seabed, con el navío especializado Seabed Worker, tres vehículos submarinos autónomos (AUV) del modelo REMUS-6000 y otro ROV más. Además, consultaron las áreas de búsqueda con oceanógrafos no sólo franceses, sino también británicos, norteamericanos y rusos. Esta vez iban en serio de veras.

Seabed Worker, Noruega

El Seabed Worker, un buque noruego especializado en rescate a gran profundidad que se utilizó durante la tercera fase de la búsqueda del Air France 447. Foto: Swire Seabed. (Clic para ampliar)

Áreas cubiertas en la 3ª fase de la búsqueda del Air France 447, 02/04 - 24/05/2010

Áreas cubiertas en la 3ª fase de la búsqueda del Air France 447 entre el 2 de abril y el 24 de mayo de 2010, una vez más sin resultados. Imagen: BEA, Francia. (Clic para ampliar)

Ambos buques partieron de Recife (Brasil) el 29 de marzo e iniciaron la búsqueda el 2 de abril, en un área de 4.500 km2 al Norte de la última posición conocida del avión. Pese a todos sus medios, tampoco encontraron nada. La cosa empezaba a ser desesperante. Para acabar de arreglarlo, cuando regresaron a hacer una parada técnica en Recife el 28 de abril, se encontraron con que la Armada de los Estados Unidos necesitaba que les devolviesen el sonar ORION y el vehículo CURV-21 para una de sus operaciones militares. Y a los dueños de uno de los REMUS-6000, los alemanes del IFM-GEOMAR, también les hacía falta el suyo. La tercera intentona parecía condenada a acabar como las dos anteriores antes siquiera de terminar.

Entonces, Airbus y Air France salieron por fin al quite. Vamos, que se sacaron la chequera para financiar otras tres semanas de búsqueda con el material restante y otro sonar lateral. En total, barrieron un área de 6.300 km2 en distintos sectores al Norte y alrededor de la última posición conocida. Pero una vez más, sin éxito. ¿Dónde demonios estaba ese maldito avión?

Y llegaron los científicos.

Transcurrió otro año, que se dice pronto. Durante ese tiempo, una de las empresas a las que habían consultado, Metron Scientific Solutions de Estados Unidos, propuso una aproximación innovadora. Bueno, en realidad no tan innovadora, porque era un método que ya se había utilizado para localizar el naufragio del submarino nuclear USS Scorpion, hundido en 1968, o la bomba termonuclear que cayó frente a Almería en 1966.

Metron sugirió un nuevo juego de patrones de búsqueda basado en un método matemático teórico conocido como busqueda bayesiana, utilizando datos de la BEA francesa y la MAK rusa. Simplificándolo mucho, este es un método estadístico que permite asignar distintas probabilidades a cada cuadrícula de un mapa y dirige la búsqueda de mayor a menor probabilidad, retroalimentándose constantemente a sí mismo. Sobre esta idea, volvieron a intentarlo otra vez más. Y, con algunas lecciones ya aprendidas, en esta ocasión encargaron directamente el trabajo a la Woods Hole Oceanographic Institution de Massachusetts, una universidad y centro de investigación que se cuenta entre los líderes mundiales en ciencias marinas.

La WHOI se puso a ello con el yate M/V Alucia y tres vehículos autónomos submarinos REMUS-6000, estudiando un área inicial de 10.000 km2 en las zonas sin barrer o peor barridas durante las expediciones anteriores. Se hicieron a la mar desde Suape (Brasil) el 23 de marzo. Iniciaron la búsqueda siguiendo esas técnicas bayesianas el 25. Y apenas nueve días después, el 3 de abril de 2011, el Air France 447 apareció por fin:

Campo de restos del Air France 447 detectado por SSS, 03/04/2010.

Campo de restos del Air France 447 tal como fue detectado por uno de los vehículos autónomos REMUS-6000 de la Woods Hole Oceanographic Institution mediante sonar de barrido lateral, el 3 de abril de 2010, utilizando técnicas de búsqueda bayesiana propuestas por Metron Scientific Solutions. Foto: BEA. (Clic para ampliar)

Posición de los restos del AF447.

Posición de los restos del Air France 447. Puede observarse que los sumergidos se encontraban a apenas 12 km de su última posición conocida y 8 km a la izquierda de su ruta de vuelo prevista. Imagen: BEA. (Clic para ampliar)

Mientras la BEA y Air France y todo quisqui convocaban ruedas de prensa y demás, profesionales de todo el mundo se agolparon a mirar. Y se miraron un poco raro, porque la primera sorpresa fue que los restos del Air France 447 no se encontraban entre todas aquellas montañas submarinas, sino en una suave llanura de limo a unos 3.900 metros de profundidad; a apenas doce kilómetros de su última posición conocida y justo al lado de su ruta de vuelo prevista, un poquito a la izquierda. Habían pasado un montón de veces por encima. Estuvo ahí todo el tiempo, a la vista de cualquiera que mirase bien.

Vista frontal de un motor del Air France 447 tras su rescate del fondo del mar

Vista frontal de un reactor del Air France 447 tras su rescate del fondo del mar. Puede observarse a la perfección cómo los álabes de la turbina están fuertemente torcidos, indicando que el motor giraba a toda potencia cuando impactó contra el mar. Foto: BEA. (Clic para ampliar)

La segunda cosa que llamó la atención fue que, salvo por unos pocos fragmentos que habían ido a parar algo más lejos, el campo de restos era muy pequeño: apenas 600 x 200 metros, después de estrellarse con gran violencia y hundirse cuatro kilómetros. Esto confirmó que el Air France 447 hizo impacto contra la superficie de una sola pieza, sin ninguna desintegración significativa en el aire. El avión estaba entero cuando golpeó contra el océano.

No sólo eso. La primera inspección visual de los motores, gracias a las imágenes proporcionadas por los vehículos submarinos de la Woods Hole Oceanographic Institution, evidenció que las turbinas giraban a gran velocidad cuando se produjo la colisión. Sus álabes están torcidos de una manera que sólo puede explicarse si los reactores seguían en marcha a toda potencia cuando penetraron en el agua. En cuestión de horas, quedó prácticamente confirmado que el Air France 447 permaneció vivo y peleando hasta el último momento. No era un avión que hubiese sufrido algun gravísimo problema en el aire para luego caer como un ladrillo inerte al mar. Era un avión que continuó operativo, en marcha y al menos parcialmente controlado hasta el instante final. Todo lo cual no hizo sino engordar todavía más el misterio. ¿Qué hace que un avión perfectamente funcional se caiga del cielo así?

Francia envió inmediatamente al buque cablero Île de Sein con un vehículo submarino a control remoto Remora-6000 para iniciar la recuperación de los restos. Llegó el 26 de abril y ya durante la primera inmersión encontró el chasis de la registradora de datos (FDR), pero sin la cápsula de memoria, que hallaron el 1 de mayo. Y al día siguiente, a las 21:50 UTC del 2 de mayo de 2011, apareció la registradora de voz (CVR). Estaba en relativo buen estado, parcialmente hundida en el limo, pero de una sola pieza y con su baliza subacuática, sin nada encima que hubiera podido apantallar la señal. Después se comprobó que estuvo emitiendo pings como debía hasta agotar la pila. Que la primera búsqueda con el submarino y demás no fuera capaz de localizarla sólo evidencia la chapuza que fue.

Registradora de voces en cabina de pilotaje (CVR) del Air France 447.

La «caja negra de voz» (CVR) del AF447 tal como fue localizada en el fondo del mar. Puede observarse que está en bastante buen estado y con su baliza subacuática, que estuvo emitiendo «pings» hasta agotar la pila al menos un mes después del accidente. Imagen: BEA. (Clic para ampliar)

Toda la información de ambas cajas negras se pudo recuperar. Finalmente, todas las partes sustanciales del AF447 fueron localizadas con la siguiente distribución, y rescatadas del fondo del mar junto a (creo que) todos los cadáveres restantes, o lo que quedase de ellos casi dos años después:

Mapa de restos del Air France 447.

Mapa de restos del Air France 447. Imagen: BEA. (Clic para ampliar)

Bueno, y… al final, ¿qué les pasó?

Pues como siempre, varias cosas. Prácticamente ya no quedan accidentes aéreos que obedezcan a una sola causa. Este, además, tiene algo de Chernóbil: se origina en un problema de diseño, pero conocido y hasta tenido en cuenta en los manuales y procedimientos, que de modo casi incomprensible resulta agravado por los humanos a los mandos hasta que ya no les salva ni la caridad. Y digo casi incomprensible porque en realidad es muy comprensible, demasiado comprensible, como vamos a ver.

Ubicación de los tubos Pitot en un Airbus A330.

Ubicación de los tubos Pitot en un Airbus A330 como el Air France 447. Imagen: BEA. (Clic para ampliar)

El problema de diseño estaba en el sistema de tubos Pitot. Los tubos Pitot son un dispositivo que, en combinación con las sondas de presión estática, permiten calcular la velocidad con respecto al aire a la que va un avión: su referencia fundamental de velocidad, la que vale. En el caso particular del Airbus A330, hay tres tubos Pitot (llamados comandante, copiloto y standby) más seis sondas de presión estática.

La presión registrada en cada uno de estos tubos y sondas es digitalizada por los ADM (Air Data Modules) y procesada por los ADR (Air Data Reference) de unos dispostivos llamados ADIRU (Air data inertial reference unit). Estos ADIRU, en combinación con otros sensores como la unidad de referencia inercial (IR o IRU), proporcionan a los ordenadores del avión y sus pilotos las medidas esenciales de velocidad, ángulo de ataque, altitud, actitud y posición. De los ADIRU dependen un montón de sistemas críticos: los ordenadores de control de vuelo y el fly-by-wire, los de gestión de los motores, los de gestión de vuelo y orientación, el sistema de aviso de proximidad al suelo, el transpondedor y el sistema de control de flaps y slats. Y, por supuesto, los pilotos, que ya me dirás tú qué van a hacer si no saben su velocidad, ángulo de ataque, altitud, actitud y demás.

Como puede comprenderse fácilmente, esto es algo muy importante y en el caso del Airbus A330 va todo por triplicado. Si falla uno o incluso dos, siempre queda uno más. Además, existe otro dispositivo llamado ISIS (integrated standby instrument system) que utiliza sus propios sensores para proporcionar información de respaldo sobre velocidad, altitud y actitud, pero aún depende del tubo Pitot 3 («standby«) y su correspondiente par de sondas estáticas. De algún sitio tiene que tomar las referencias de presión exterior, no se las puede inventar.

No es ningún misterio que este es un sistema bastante complejo, pero necesario para los ordenadores volantes que son los aviones de hoy en día. En realidad es mucho más seguro y eficiente volar así que a la manera tradicional. Sin embargo, da problemas cuando uno o varios sensores suministran información inconsistente con los demás, normalmente debido a algún fallo técnico. Los ordenadores tienen problemas para saber qué datos son los buenos y cuáles son los malos, así que pueden inducir comportamientos anómalos. Esto había ocurrido varias veces en aviones tanto de Airbus como de Boeing (como por ejemplo el Malaysia 124 en 2005, un Boeing 777-2H6ER como el que se ha estrellado este fin de semana, y esto no quiere decir nada por el momento).

Daños en el vuelo Qantas 72 el 07 Oct 2008

Daños en el interior del vuelo Qantas 72 de Singapur a Perth (Australia), el 7 de octubre de 2008, tras una de estas descoordinaciones del ADIRU que provocó la desconexión del autopiloto y dos fuertes cabeceos no controlados. Se trataba de otro Airbus A330. Hubo 115 personas heridas entre pasaje y tripulación, con 12 de ellos presentando lesiones graves en cabeza y columna. La mayoría de esos agujeros que ves en el techo los hicieron las cabezas del pasaje que no llevaba abrochado el cinturón de seguridad. Fotos: Qantas. (Clic para ampliar)

No obstante, parece como si la implementación específica en el Airbus A330 hubiese sido especialmente delicada. Casi todos los problemas «menos leves» se habían dado en aviones de este modelo. Hasta lo del Air France 447 el peor incidente se produjo en el Qantas 72, otro A330, el 7 de octubre de 2008. Durante un vuelo de Singapur a Perth, un fallo en el ADIRU nº 1 provocó la desconexión del piloto automático, falsas alarmas de entrada en pérdida y sobrevelocidad y, lo más grave, dos bruscos cabeceos que hirieron a 115 de los 315 ocupantes, 12 de ellos graves. Más a menudo, el tema se saldaba con una simple desconexión del piloto automático y un rato de datos erróneos hasta que los pilotos humanos se aclaraban. Normalmente, cuando los ordenadores no saben a qué atenerse, lo que hacen es desactivar el piloto automático y pasar el control a manos humanas.

El problema era tan común que, salvo en algún caso extremo como el del Qantas 72, no hacía mucho más que levantar alguna ceja. Es llamativo observar cómo cuando el centro de operaciones de Air France en París recibió el chorro de mensajes ACARS del Air France 447 informando de problemas con los Pitot, los ADIRU y demás –lo que vimos al final del post anterior–, simplemente pasó de ellos. Ocurría tan a menudo que no disparó ninguna alerta. Y esta es una de las primeras causas del accidente del AF447: la normalización de una anomalía evidente. El problema no es tanto que si los tubos Pitot hacen tal o el ADIRU deja de hacer cual, sino un «ecosistema humano» que asume y normaliza una anomalía conocida y obvia pero potencialmente muy peligrosa hasta el punto de emitir directivas de aeronavegabilidad (como la FAA 2008-17-12 y la 2009-0012-E) o redactar procedimientos específicos para cuando se dé el caso.

Los problemas del Air France 447 se inician a las 02:10’03» de la madrugada UTC. Ese es el momento en el que sus tubos pitot se congelan, la instrumentación se altera, los ordenadores del avión empiezan a recibir datos contradictorios y hacen lo de costumbre: desactivar el piloto automático (anunciado con una alarma sonora) y reconfigurar el modo de control de vuelo manual a ley alterna. Este es un modo que reduce las limitaciones (protecciones) del piloto, permitiéndole así actuar con mayor libertad. Ni qué decir tiene que eso le da también mayor libertad para meter la pata mucho más a fondo.

Y la mete. Nadie sabe muy bien lo que pasó por la cabeza del piloto al mando en ese momento, pero hay dos cosas que están claras. Una que, mentalizados como iban para un tranquilo vuelo transoceánico, este incidente súbito les tomó totalmente por sorpresa, induciéndoles un alto grado de confusión. La segunda, que sobrerreaccionó. La desconexión del autopiloto provocó un alabeo (inclinación lateral) de +8,4º, pero él, al intentar compensarla, levantó excesivamente el morro del avión. Es posible que le confundieran las falsas indicaciones del sistema director de vuelo, también dependiente de los ADIRU. A gran altitud, levantar mucho el morro no es una buena idea. Te elevas rápidamente –el AF447 ascendió a 6.500-7.000 pies por minuto (1.980-2.130 m/min), una barbaridad– pero a costa de la velocidad en una región del aire donde la velocidad es extremadamente crítica, provocando una inmediata entrada en pérdida aerodinámica (stall). Con eso, el avión pierde la capacidad de sustentarse en el aire. La primera alarma de entrada en pérdida suena a las 2:10’10», apenas siete segundos después de la desconexión inicial del piloto automático. Con eso podemos hacernos una idea de lo rápido y sorpresivo que fue todo.

El caso es que ahora el avión se hallaba en una senda y actitud incompatibles con la seguridad del vuelo. Que después de subir se caía, vaya. Sin embargo, aún no estaban ni siquiera cerca de un accidente. La solución habría sido tan sencilla como agachar el morro (picar) para recuperar velocidad y sustentación y reestabilizarse a una altitud inferior. Esto lo sabe cualquiera que haya echado dos partidas al Flight Simulator. Y así lo indica en el informe técnico final: en este momento y durante al menos dos minutos más, habría bastado con descender en actitud morro-abajo de manera sostenida hasta salir de la pérdida y volver a estabilizar el vuelo. El hecho de que dos pilotos profesionales no realizaran una maniobra tan obvia evidencia hasta qué punto quedaron confundidos desde los primeros segundos (hay que recordar que no tenían visibilidad exterior.) De hecho, es posible que pensaran que tenían el problema contrario, de exceso de velocidad, cuyos síntomas se parecen a los de la entrada en pérdida (recordemos también que habían perdido las indicaciones de actitud y velocidad).

Existe incluso un procedimiento para esto: el de vuelo con velocidad indicada dudosa, que los pilotos entrenan y practican. Pero claro, en Chernóbil también había decenas de procedimientos y limitadores para impedir que un reactor nuclear con un alto coeficiente de reactividad positiva sufriera, precisamente, un embalamiento por reactividad positiva. Y eso fue exactamente lo que ocurrió, tras muchas horas de manipulaciones insensatas. Si los humanos no siguen los procedimientos, o deciden saltárselos a la torera, o simplemente están demasiado confundidos y desorientados para comprender que se encuentran en esa situación (cosa esta última que pasó tanto en Chernóbil como aquí), pues entonces no sirven para nada porque ni siquiera llegan a ponerse en marcha.

Cuando un avión empieza a irse, no se suele disponer de muchas horas, sino sólo de unos pocos minutos en el mejor de los casos. Es crítico que los pilotos reconozcan la condición de inmediato para poder adoptar el procedimiento que la corrige antes de que todo esté perdido. Normalmente, lo hacen. Por eso casi nunca pasa nada. Sin embargo, en esta ocasión no fue así. Ninguno de los tres pilotos que había en la cabina en ese momento, incluyendo a un veterano comandante de amplia experiencia como Marc Dubois (58 años, 10.988 horas de vuelo, que entró en la cabina poco después), supo reconocer la condición de velocidad indicada dudosa y entrada en pérdida aerodinámica. Me resulta escalofriante, entre otras cosas porque si se hubieran dado cuenta, como te digo, habría sido facilísimo de resolver.

Datos seleccionados de la FDR del Air France 447 durante los últimos 5'30" del vuelo.

Parámetros seleccionados de la «caja negra de datos» (FDR) del Air France 447 durante los últimos cinco minutos y medio de vuelo. Puede observarse cómo la velocidad computada queda alterada bruscamente al principio del suceso (a las 02:10’10») y acto seguido se produce un fuerte ascenso que incrementa el ángulo de ataque hasta los 40º, disparando la alarma de entrada en pérdida aerodinámica. Pese a las constantes maniobras de cabeceo, los pilotos nunca fueron capaces de entender lo que sucedía y el ángulo de ataque se mantuvo consistentemente por encima de los 35º hasta estrellarse en el mar. Fuente: BEA. (Clic para ampliar)

El caso es que el avión siguió cayendo, cabeceando con fuerte ángulo de ataque, la panza por delante y una embarullada interacción entre ambos pilotos. La sorpresa, la confusión y los nervios no sólo deterioraron su capacidad para comprender la situación, sino que desestructuraron rápidamente la coordinación en cabina. Un minuto y medio después el comandante que se había ido a descansar regresa alertado por los bruscos movimientos (con aceleraciones verticales de hasta 1,6 g y alabeo) que deben haber despertado y aterrorizado a todo el pasaje. Les pregunta qué hacen, qué pasa. La contestación del piloto no-al mando (Robert) resume el accidente a la perfección:

02:11:43,0 – Qu’est-ce qui se passe? Je ne sais pas, je sais pas ce qui se passe. (…) On a tout perdu le contrôle de l’avion, on comprend rien, on a tout tenté.

¿Qué pasa? No sé, no sé lo que pasa. (…) Hemos perdido totalmente el control del avión, no entendemos nada, lo hemos intentado todo.

No entendemos nada. Esa es la explicación (que no la causa) primaria del accidente. Ese es el motivo por el que no hicieron cosas tan obvias que sabe cualquier jugador de videojuegos de aviones. Aparentemente, sin indicaciones de velocidad, no creen que la alarma de entrada en pérdida sea real. Y el retorno del comandante a la cabina no lo arregla en absoluto. Por el contrario, parece inducir aún más nerviosismo y confusión. Hay que decir que en ese momento el avión, después del veloz ascenso provocado por la sobrerreacción inicial del piloto al mando, se encuentra más o menos a la misma altitud a la que estaba cuando él se marchó a descansar. Así que, como no ha visto la secuencia previa de acontecimientos, tampoco tiene motivos para creer que estén en una situación de pérdida aerodinámica («si estamos en pérdida, ¿cómo es que seguimos a la misma altitud que cuando me fui?»).

Saben que están cayendo, saben que llevan los motores acelerados a potencia de despegue (TO/GA), saben que cabecean con un ángulo de ataque letalmente alto pero en apariencia no se les ocurre en ningún momento que realmente están en pérdida completa a pesar de que las alarmas de stall  y otras más no paran de sonar (se ha sugerido que el exceso de alarmas sonoras en la cabina incrementó la confusión) y que el avión batanea (se sacude) sin cesar. En realidad, parecen mucho más concentrados en impedir que les alabee (que se les incline de lado). El avión está yéndose a estribor y describiría casi tres cuartos de vuelta antes del impacto.

Ahora con los tres pilotos en cabina, el Air France 447 cae por debajo del nivel 315 (31.500 pies, 9.600 m) sobre las 02:12. En ese momento el ángulo de ataque es de 40º, descendiendo muy deprisa, y eso ya no tiene tan fácil solución. En palabras del informe final de la BEA, a partir de ahí «sólo una tripulación extremadamente resuelta con una buena comprensión de la situación podría haber realizado una maniobra que quizá hubiera permitido recuperar el control de la aeronave. En la práctica, la tripulación había perdido casi por completo el control de la situación» y así siguió siendo durante otros dos minutos y dieciocho segundos más. El avión es una batidora que cabecea sin parar. El ángulo de ataque ya jamás volvió a bajar de 35º. Las penúltimas palabras registradas en la CVR, pronunciadas por el copiloto Pierre Cédric-Bonin, dejan poco margen a la duda:

02:14:23,7 – (!) On va taper. C’est pas vrai. Mais qu’est-ce qui se passe?

Memorias de la CVR del AF447.

Memorias de la registradora de voces en cabina (CVR) del AF447, recuperadas del fondo del mar, tras retirarles los blindajes y protecciones. Toda la información se pudo recuperar. Foto: BEA. (Clic para ampliar)

¡Nos vamos a estrellar! Esto no puede ser verdad. ¿Pero qué está pasando? Continuaban sin comprender nada. Pierre apenas había acabado de decir estas palabras cuando el Air France 447 con todas sus 228 vidas se estrelló violentamente contra el océano, de panza y con la cola por delante, siendo exactamente las 02:14:28,4 de la madrugada del 1 de junio de 2009. Fin de la grabación.

El informe final de la BEA lo explica así (las negritas y corchetes son míos, el resto es traducción directa del original):

3.2. Causas del accidente.

La obstrucción con cristales de hielo de los tubos Pitot era un fenómeno conocido pero poco comprendido por la comunidad aeronáutica en el momento del accidente. Desde una perspectiva operacional, la pérdida total de información sobre la velocidad con respecto al aire que resultó de este suceso era un fallo clasificado [previsto] en el modelo de seguridad. Tras unas reacciones iniciales que dependen de habilidades de pilotaje básicas, se esperaba que [la situación] fuese diagnosticada rápidamente por los pilotos y gestionada en lo que fuese preciso mediante medidas de precaución sobre la actitud de cabeceo y el empuje, tal como se indica en el procedimiento asociado.

Cuando se produjo este fallo en el contexto de un vuelo en fase de crucero, sorprendió por completo a los pilotos del AF447. Las dificultades aparentes con el manejo del avión a gran altitud entre turbulencias condujeron al piloto al mando a levantar el morro bruscamente y alabear en exceso. La [subsiguiente] desestabilización ocasionada por la senda de vuelo ascendente y la evolución en la actitud de cabeceo y la velocidad vertical se añadió a las indicaciones de velocidad erróneas y los mensajes ECAM, lo que no ayudó con la diagnosis. La tripulación, desestructurándose progresivamente, probablemente nunca comprendió que se enfrentaba a una “simple” pérdida de tres fuentes de información sobre la velocidad con respecto al aire.

En el minuto que siguió a la desconexión del autopiloto, el fracaso de los intentos por comprender la situación y la desestructuración de la cooperación entre tripulantes se realimentaron hasta alcanzar la pérdida total del control cognitivo de la situación. (…) El avión entró en una pérdida sostenida, señalada por la alarma de entrada en pérdida y un fuerte bataneo [sacudidas]. Pese a estos síntomas persistentes, la tripulación nunca entendió que habían entrado en pérdida y en consecuencia nunca aplicaron la maniobra de recuperación. La combinación de la ergonomía de diseño de las alertas, las condiciones en las que los pilotos de aerolínea son entrenados y expuestos a pérdidas durante su formación profesional y el proceso de entrenamiento recurrente no genera el comportamiento esperado con ninguna fiabilidad aceptable.

En su forma actual, dar por buena la alarma de entrada en pérdida, incluso cuando está asociada al bataneo [sacudidas], supone que la tripulación otorga un mínimo nivel de “legitimidad” [credibilidad] a la misma. Esto presupone una experiencia previa suficiente con las entradas en pérdida, un mínimo de disponibilidad cognitiva y de compresión de la situación, conocimiento de la aeronave (y sus modos de protección)  y su física de vuelo. Un examen del entrenamiento actual para los pilotos de aerolínea, en general, no aporta indicaciones convincentes de que se formen y mantengan las habilidades asociadas.

Tormenta convectiva en la Zona de Convergencia Intertropical que atravesaba el Air France 447 al inicio del accidente.

La tormenta convectiva en la Zona de Convergencia Intertropical que atravesaba el Air France 447 cuando se le congelaron los tubos Pitot, poniendo así en marcha el accidente. No obstante, esto es algo habitual y de hecho en ese mismo momento volaban por la zona otros doce aviones más que no tuvieron ningún problema, entre ellos el Air France 459, que venía detrás. Imagen: BEA. (Clic para ampliar)

Más generalmente, el doble fallo de las respuestas procedimentales planeadas pone de manifiesto los límites del modelo de seguridad actual. Cuando se espera que la tripulación actúe, siempre se supone que serán capaces de tomar inicialmente el control de la senda de vuelo y realizar una rápida diagnosis que les permita identificar el epígrafe correcto en el diccionario de procedimientos. Una tripulación puede verse enfrentada a una situación inesperada que les lleve a una pérdida de comprensión momentánea pero profunda. En este caso, su supuesta capacidad para dominar [la situación] al inicio y después realizar la diagnosis se pierde, y el modelo de seguridad queda entonces en “modo de fallo general.” Durante este accidente, la incapacidad inicial para dominar la senda de vuelo les hizo también imposible entender la situación y acceder a la solución planeada.

Por tanto, el accidente fue el resultado de:

  • Una inconsistencia temporal entre las mediciones de velocidad con respecto al aire, a consecuencia de la obstrucción de los tubos Pitot con cristales de hielo que, en este caso particular, causaron la desconexión del piloto automático y la reconfiguración del [control de vuelo] a ley alterna;
  • [La aplicación de] acciones de control inapropiadas que desestabilizaron la senda de vuelo;
  • La incapacidad de la tripulación para establecer un vínculo entre la pérdida de las velocidades indicadas y el procedimiento apropiado;
  • La identificación tardía por parte del piloto no-al mando del desvío de la senda de vuelo, y la insuficiente corrección aplicada por el piloto al mando;
  • La incapacidad de la tripulación para identificar la aproximación a la entrada en pérdida, su falta de respuesta inmediata y el abandono de la envolvente de vuelo;
  • La incapacidad de la tripulación para diagnosticar la entrada en pérdida y, como resultado, la ausencia de las acciones que les habrían permitido recuperarse de la misma;
Recuperación de la grabadora de voces en cabina (CVR) del Air France 447, 2 de mayo de 2011.

Arriba: recuperación de la grabadora de voces en cabina (CVR) del Air France 447 por el cablero Île de Sein y un robot subacuático Remora-6000 el 2 de mayo de 2011. Abajo: preparación para su transporte al laboratorio de análisis. Puede observarse cómo la conservan en agua salada, de tal modo que sufra las mínimas alteraciones adicionales posibles hasta su llegada al laboratorio. Fotos: BEA (Clic para ampliar)

Estos sucesos pueden explicarse mediante una combinación de los siguientes factores:

  • Los mecanismos de retroalimentación [de información] por parte de todos los implicados [el conjunto del sistema humano, no sólo los pilotos] que hicieron imposible:
    • Identificar que, repetitivamente, no se estaba aplicando el procedimiento para la pérdida de información sobre la velocidad con respecto al aire y remediarla.
    • Asegurar que el modelo [de gestión] de riesgos para tripulaciones incluía la congelación de los tubos Pitot y sus consecuencias.
  • La ausencia de entrenamiento para el pilotaje manual a gran altitud y en el procedimiento de “vuelo con velocidad indicada dudosa.”
  • Una [coordinación] de tareas debilitada por:
    • La incomprensión de la situación cuando el piloto automático se desconectó.
    • La pobre gestión del efecto sorpresa que indujo un factor de alta carga emocional en ambos copilotos.
  • La ausencia de un indicador claro en cabina que mostrase las inconsistencias en la velocidad con respecto al aire identificadas por los ordenadores.
  • La tripulación que no tuvo en cuenta la alarma de entrada en pérdida, lo que pudo deberse a:
    • Incapacidad para identificar la alarma sonora, debido al poco tiempo de exposición durante el entrenamiento a los fenómenos de  entrada en pérdida, alarmas de entrada en pérdida y bataneo [sacudidas].
    • La aparición al principio del suceso de alertas transitorias que pudieron considerarse espurias.
    • La ausencia de ninguna información visual que confirmase la aproximación a entrada en pérdida tras la pérdida de los límites de velocidad.
    • La posible confusión con una situación de exceso de velocidad, para la que el bataneo también se considera un síntoma.
    • Indicaciones del sistema director de vuelo que pudieron conducir a la tripulación a creer que sus acciones eran apropiadas, aunque no lo eran; y
    • La dificultad para reconocer y comprender las implicaciones de una reconfiguración [del modo de vuelo] a ley alterna sin protección de ángulo de ataque.

O sea (y esto ya lo digo yo):

  1. El diseño e implementación del sistema de tubos Pitot/ADR/ADIRU en el Airbus A330 era problemático, un hecho conocido y normalizado. Tanto es así, que el centro de operaciones de Air France en París ignoró los mensajes ACARS transmitidos automáticamente por los ordenadores del AF447 desde el Atlántico porque sucedía a menudo sin mayores consecuencias.
  2. El avión se encontraba fuera del alcance de los radares terrestres y en la práctica sin servicio de control de tráfico aéreo, o con el mismo reducido a un mínimo, pero esto era el procedimiento estándar en ese tramo de su ruta. No tuvo ningún efecto sobre los acontecimientos.
  3. La noche y el estado de la meteorología degradaban severamente o impedían la orientación natural de los pilotos (con sus ojos, vamos). Operaban por completo bajo condiciones de vuelo instrumental («a ciegas») y por tanto dependían totalmente de la fiabilidad de los instrumentos del avión.
  4. Pese a ello, las condiciones no eran peligrosas y de hecho había otros vuelos circulando con normalidad por la misma ruta u otras próximas. El Air France 447 operaba de manera estándar sin violar ninguna norma de seguridad aérea, orientado instrumentalmente, por su ruta, altitud y velocidad previstas. Ni la aeronave, ni la tripulación ni sus procedimientos presentaban ningún problema específico.
  5. Súbitamente, al congelarse los tubos Pitot, se produjeron diversos acontecimientos simultáneos (desconexión del piloto automático, reconfiguración del control de vuelo a ley alterna con la consecuente pérdida de protecciones y limitaciones, indicaciones anómalas en los instrumentos…) que tomaron completamente por sorpresa a los pilotos, mentalizados en ese momento para un largo vuelo de crucero a gran altitud.
  6. El avión no sufrió ningún otro problema técnico. Todos sus demás sistemas siguieron operando perfectamente hasta el momento del impacto final. Sus ordenadores comenzaron a transmitir automáticamente mensajes ACARS notificando las anomalías al centro de operaciones de Air France en París y siguieron haciéndolo hasta los momentos anteriores a la colisión.
  7. La tripulación técnica (los pilotos) no estaba bien formada para el vuelo manual a gran altitud en este tipo de circunstancias anómalas, sobre todo bajo el efecto de la sorpresa. El entrenamiento al respecto era inadecuado, insuficiente y no cubría numerosas posibilidades realistas.
  8. La instrumentación de cabina no incluía ningún indicador claro que permitiera a los ordenadores comunicar a los pilotos la pérdida de sincronía entre los datos procedentes de los tubos Pitot, lo que habría clarificado bastante la situación.
  9. Debido a la sorpresa y al entrenamiento inadecuado, la pobre reacción inicial del piloto al mando llevó al avión a una actitud anómala incompatible con la seguridad del vuelo a gran altitud.
  10. La veloz sucesión de estos hechos indujo a los pilotos un intenso estado psicológico de confusión y ofuscación con fuerte carga emocional. El rápido regreso del comandante a la cabina desde el área de descanso, aunque sin duda inspirado por un recto sentido de la responsabilidad, no tuvo ninguna utilidad práctica y sólo sirvió para aumentar aún más la confusión, en la que él también cayó.
  11. Este estado de ofuscación degradó rápidamente sus capacidades cognitivas y la coordinación entre ellos, llegando al extremo de no reconocer o reaccionar a algunas indicaciones obvias y tomar acciones contradictorias, mientras creían seguir actuando racional y coordinadamente.
  12. Debido a todo esto, cuando el avión entró en pérdida aerodinámica («comenzó a caerse») por causa de su actitud de vuelo anómala, los pilotos no creían que estuviese sucediendo realmente pese al disparo de la alarma sonora de entrada en pérdida y las características sacudidas (bataneo) que la acompañan, pero que también pueden darse en otras condiciones como el exceso de velocidad.
  13. Durante los cuatro minutos y veinticinco segundos que transcurrieron desde la desconexión inicial del piloto automático hasta el impacto final contra el mar, el estado de confusión y ofuscación de los pilotos no hizo sino incrementarse con el nerviosismo. Ninguno de ellos mostró indicios de comprender la situación real del avión o la severa degradación de su propio estado cognitivo. Todos creían estar haciendo lo correcto en un estado psicológico tenso pero bien ajustado y normal. Aparentemente en ningún momento se sintieron compelidos a sobreponerse, pues no percibieron que hubiera nada a lo que sobreponerse, sino que tan solo debían resolver la situación técnica a la que se enfrentaban.
  14. Como consecuencia de todo lo anterior, los pilotos nunca llegaron a entender lo que estaba sucediendo, el conjunto de sus reacciones fue inadecuado y el avión acabó por estrellarse en el mar, matando a todos sus ocupantes de manera instantánea o prácticamente instantánea. La mayor parte de sus restos acabaron sumergidos a gran profundidad.
  15. El «ecosistema humano» que envolvió al accidente no permitía la identificación y resolución eficaz de estas deficiencias y de hecho era bastante pasivo con las mismas.
Pierre Cédric-Bonin

El primer oficial Pierre Cédric-Bonin con su esposa. Esta es su verdadera foto y cualquier otra «graciosilla» que hayas podido ver por ahí, además de no ser él, es cosa de mamarrachos ignorantes como piedras. Foto: © Associated Press.

Así que ya ves. Ni un piloto idiota, como pretendieron algunos desalmados, incluso con fotitos de pésimo gusto (además de falsas) que me niego a enlazar; ni un comandante entretenido con una azafata como dijeron otros –claro, un comandante francés, qué iba a estar haciendo, jiji, jaja >:-( –, ni ninguna otra simpleza por el estilo. Como siempre en el mundo real, fue todo mucho más complejo y difícil. Desde mi punto de vista, de todas las causas del accidente definidas por la investigación técnica, doy la mayor importancia a dos: las notables deficiencias en el entrenamiento de los pilotos de Air France (y probablemente de muchas otras compañías) en esos momentos y la inexistencia de mecanismos eficaces para detectar numerosos problemas humanos y técnicos y corregirlos.

En mi opinión, el problema con los tubos Pitot fue secundario por mucho que iniciara la secuencia de acontecimientos que condujo al accidente. Como cualquier otra máquina fabricada por manos humanas, un avión en vuelo puede tener un problema con los tubos Pitot o con cualquier otra cosa. Precisamente para eso están los pilotos. Hoy en día o en breve plazo, el estado de la técnica permitiría tener aviones totalmente automáticos, sin pilotos, como los UAV militares. Mantenemos y con bastante seguridad mantendremos pilotos durante mucho tiempo justamente por si la técnica falla, por si la situación se sale de la envolvente de diseño concebida por los ingenieros. Para cuando todo sale mal, porque aún no sabemos hacer máquinas que reaccionen igual o mejor que un humano en tales circunstancias. Se dice a veces que un piloto (o un conductor de cualquier otro transporte público) se gana todo el sueldo de su carrera en diez segundos malos, y es verdad. Diez segundos, o cuatro minutos y medio, pueden ser la diferencia entre la vida y la muerte para decenas o cientos de personas.

Simuladores de vuelo de CAE Inc.

Arriba: Simulador de vuelo CAE 7000 con control en todos los ejes para el Boeing 747-8F Jumbo. Abajo: Interior de un simulador de la misma compañía para el Airbus A320. Este tipo de formación puede llegar a ser costosa y consumir mucho tiempo de trabajo, pero es totalmente fundamental porque permite entrenar al piloto para situaciones extremas que difícilmente se dan en la realidad… hasta que se dan. Fotos: CAE Inc. (Clic para ampliar)

Pero para eso tienen que estar bien entrenados, y los pilotos del Air France 447 no habían sido bien entrenados. El «ecosistema» les traicionó. Tal entrenamiento, sobre todo cuando se realiza con simuladores realistas y ya no te digo con vuelo real, es caro y consume mucho tiempo durante el que el piloto «no está produciendo.» Así que siempre existe una presión para recortarlo o rebajarlo de cualquier otra manera. Es fundamental para la seguridad aérea que estas presiones no tengan éxito, por muy nerviosos que se pongan los contables.

Porque un personal insuficientemente entrenado, como los pilotos del AF447 o los operadores de Chernóbil, puede provocar el efecto opuesto: convertir un problema técnico conocido y documentado, y en el caso del AF447 relativamente menor, en una catástrofe. El accidente del AF447 no se inicia cuando se congelan los tubos Pitot, sino cuando el piloto al mando queda totalmente sorprendido y reacciona mal, sacando rápidamente al avión de la envolvente de vuelo seguro. Pero aún en ese momento podrían haberse salvado. Tuvieron casi cuatro minutos y medio antes de estrellarse. Al igual que en Chernóbil, la causa esencial del accidente fue la inmediata degradación cognitiva y la desestructuración rápida de la coordinación que se produjo como resultado de la sorpresa, la confusión y los nervios, a su vez consecuencia de un entrenamiento inadecuado.

Incluso aunque hubiesen hecho algo bien, habría sido por casualidad, como en «…sonó la flauta por casualidad.» Resulta imposible acertar si no sabes lo que está ocurriendo, si estás totalmente confundido y obcecado y ni siquiera eres consciente del hecho. Los seres humanos reaccionamos fatal ante la sorpresa y la acumulación rápida de tensión. Desde tiempo inmemorial, todo soldado sabe lo eficaces que son los ataques por sorpresa, cuanto más violentos mejor, precisamente porque confunden y obcecan al enemigo de tal modo que para cuando quiere reaccionar, ya ha sido derrotado. La única forma de evitarlo es, precisamente, un entrenamiento estricto, minucioso, motivador y eficaz que prevea el caso. El entrenamiento que no tuvieron los pilotos del Air France 447. Así, sufrieron un ataque por sorpresa de las circunstancias y ya no fueron capaces de reaccionar, atrapados entre el cielo y el mar. Más que ninguna otra cosa, eso fue lo que se los llevó y a las otras 225 personas que iban con ellos, también. Pues como es sabido desde muy viejo, del cielo y del mar no cabe esperar piedad.

***

NOTA IMPORTANTE: El accidente del Air France 447 y el del Malaysia Airlines 370 ocurrido este fin de semana, pese a todas sus similitudes aparentes, pueden obedecer a causas y circunstancias radicalmente distintas. Extrapolar conclusiones del uno al otro es una mala idea, al igual que formular conjeturas u opiniones antes de que se complete la investigación técnica. Nadie sabe todavía lo que le ha pasado al MH370, tardará algún tiempo en saberse y quien pretenda lo contrario, o miente o desconoce la profundidad de su ignorancia. Esta misma regla es aplicable a cualquier otro accidente de aviación y a todos los siniestros tecnológicos complejos en general. Muchas veces, incluso a los aparentemente simples, que luego resulta que no lo eran tanto.

***

A la pregunta: ¿Es seguro volar en un Airbus A330? Yo diría que sí, y de hecho yo mismo lo elijo si se da el caso. Precisamente, el éxito de la investigación técnica permitió introducir los cambios necesarios tanto en sus sistemas ADIRU como en la formación de los pilotos, de tal modo que es muy difícil que el mismo tipo de accidente pueda repetirse en este modelo. Me atrevería a decir que ahora antes sucedería en cualquier otro avión que en un A330, por lo demás una aeronave excelente. Justamente para eso sirven las buenas investigaciones técnicas: para corregir los problemas y así salvar incontables vidas futuras.

145 Comentarios Trackbacks / Pingbacks (38)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (68 votos, media: 4,94 de 5)
Loading...
Be Sociable, Share!

Air France 447: Buscando cajas negras a 4.000 metros de profundidad (1)

Y con montañas submarinas, y tiburones, y de todo.

Quizá recuerdes que el 1 de junio de 2009 ocurrió una catástrofe aérea que nos dejó helados a todos. Quiero decir especialmente helados, porque los grandes aviones de hoy en día no se caen de los cielos sin más. Que no, que no, que ni en broma. Que un gran avión de pasajeros desaparezca por las buenas es cosa de los viejos tiempos. Y sin embargo, eso fue exactamente lo que le pasó al vuelo regular Air France 447 de Río a París, un moderno Airbus A330-203 con apenas cuatro años y pico de antigüedad y 228 personas a bordo. Así, tal cual.

Air France F-GZCP, Airbus A330-203

El avión del vuelo Air France 447, un Airbus A330-203 con matrícula F-GZCP. Fotografía tomada en el aeropuerto París – Charles de Gaulle dos años antes de su desaparición. Foto: Pawel Kierzkowski vía Wikimedia Commons.

A ver, lo primero para los puristas (como yo): sí, ya sé que caja negra se pone en cursiva, porque en realidad se llaman grabadoras o registradoras de vuelo y tal. Pero es que esto no permite poner cursivas en el título y me sobraban las comillas. En los aviones suele haber dos, como mínimo: la grabadora de voz en cabina de vuelo (cockpit voice recorder, CVR) y la grabadora de datos de vuelo (flight data recorder, FDR). La última vez que lo miré eran obligatorias, por EU OPS, en todas las aeronaves multi-turbina, con capacidad para más de 9 pasajeros o con peso máximo al despegue superior a 5.700 kg, y deben cumplir la norma EUROCAE ED-112.

CVR, FDR y memoria SSFDR

Arriba: una grabadora de voz de cabina de vuelo («caja negra de voz», CVR). Registra las comunicaciones con el exterior y todos los sonidos de cabina a través de un sistema de micrófonos y una derivación de las radios. Al medio: una grabadora de datos de vuelo («caja negra de datos», FDR). Según modelos, almacenan entre decenas y cientos de parámetros del avión, desde la altitud hasta la configuración de los motores, a través de las unidades de adquisición de datos de vuelo (FDAU). Antiguamente grababan en cinta, pero ahora lo hacen en memorias de estado sólido (abajo, una SSFDR -solid state FDR-) con protecciones adicionales de extrema resistencia. Resisten impactos de 3.400 g, incendios de 1.100ºC durante 1 hora seguido de otro de 260ºC durante 10 horas, pueden permanecer sumergidas en agua o cualquier otro medio hasta 6.000 metros de profundidad durante 30 días y muchas otras cosas. Las «cajas negras» son en realidad de color naranja chillón para facilitar su localización entre los restos de un accidente. Fotos: NTSB / Meggar vía Wikimedia Commons y BAE. (Clic para ampliar)

Esto quiere decir que la gran mayoría de avionetas y pequeños helicópteros, por ejemplo, no suelen llevar (las grabadoras son caras y pesadas, así que resultan difícilmente compatibles con las aeronaves ligeras). Por el contrario, todos los jetliners de pasajeros cargan ambas y en ocasiones, también cosas más avanzadas como las QAR. En aviones de combate y eso, lo que mande la superioridad para cada país. Normalmente se montan en la cola, lejos de los puntos de impacto primarios más típicos, de los grandes depósitos de combustibles situados en las alas y protegidas por las fuertes estructuras que sujetan los timones y otras cosas sólidas.

Este hecho y alguna evidencia estadística circunstancial (basada únicamente en accidentes investigados por la NTSB estadounidense) hace pensar a algunos que la mítica parte más segura de un avión es exactamente esa, la cola. Claro que cada vez que alguien dice esto, sale un accidente a desmentirle. En el mundo real, la diferencia es mínima. Tus (y mis) probabilidades de supervivencia en caso de accidente aéreo dependen sobre todo de la naturaleza del mismo y la manera como esté construida tu aeronave en particular. Una de las leyes de hierro de la aviación dice que, desde que una persona acompañó a otra a los cielos, a bordo de las máquinas de volar vamos todos juntos desde el señor comandante hasta el último bebé y o volvemos todos juntos, o sólo vuelven quienes decida el azar.

Desde hace ya muchos años, las cajas negras no sólo van a bordo de los aviones. También se encuentran, por ejemplo, en gran cantidad de instalaciones terrestres, como los centros de control de tráfico aéreo. Y en muchos otros sitios que no tienen nada que ver con la aviación, desde los trenes hasta instalaciones críticas como las centrales nucleares (cada cual según sus propias necesidades, como es de suponer). La idea de que en el peor de los casos siempre quede un testigo objetivo, insobornable e inconfundible para contarnos lo que pasó y evitar así que vuelva a ocurrir es ciertamente brillante.

Resulta imposible saber cuántas vidas se han salvado gracias a eso pero yo no tengo la menor duda de que son millones. Es por eso que las personas que trabajan bajo su ojo implacable no oponen mucha discusión. Bueno, y porque va con el curro, claro. No te creas, representa una grave cesión de la privacidad personal. ¿A ti te haría alguna gracia que tus hijos, o tus padres, o quien te importe en esta vida pudieran oírte morir maldiciendo porque algún hideputa le ha filtrado la grabación a un Murdoch cualquiera?

Grabadoras de vuelo recuperadas del avión presidencial polaco 101. MAK, Moscú, Rusia.

Grabadoras recuperadas del avión presidencial 101 de la Fuerza Aérea de Polonia, un Tupolev 154M, que se estrelló en Smolensko (Rusia) el 10 de abril de 2010 con la muerte de todos sus ocupantes. Como puede verse, estas eran todavía grabadoras soviéticas antiguas de cinta. La práctica totalidad de las voces y datos datos fue recuperada en las instalaciones del MAK de Moscú. Foto: Comité Interestatal de Aviación MAK, Rusia. (Clic para ampliar)

Que a veces ha ocurrido, ¿eh? Que una cosa es la transcripción, que en muchos países es un documento público de la investigación y a veces ya son duras, ya, pero tira que te vas, no se puede evitar y son útiles para aprender. Y otra muy distinta, la grabación. Imagínate a tu abuelo favorito, ese que está tan delicado de salud, o a tu hija pequeña escuchándola porque anda por ahí subida por Internet y no se han podido resistir, que son las últimas palabras de su papá adorado o su nieto favorito o su mejor amigo, joder, a ver quién no se obsesiona con eso. Este que te escribe opina que una vez finalizadas las investigaciones deberían destruirse todas las copias del audio por ley salvo que las familias de quienes salgan en ellas quieran una. Ya no le sirven a nadie para nada ético y sólo pueden causar dolor.

Al grano. A decir verdad las cajas negras también resultan un poquito inquietantes para muchos otros porque, claro, cada vez que una aeronave aterriza en más de un trozo hay otra caja que empieza a sumar. Es una caja registradora. Y no sabes –bueno, a lo mejor sí– lo muy deprisa que pueden empezar a acumularse los ceros a la derecha. Para empezar, el avión, que puede costar desde unos pocos millones para los más viejos y pequeños hasta varios cientos en el caso de los más grandes y nuevos. Por ejemplo, un Airbus A330 como era el Air France 447 no baja de 165 millones de euros, nuevo. Cualquier 320 de estos de ir a por el pan se te puede poner en 68 millones. Y un 380 gigantón, de los que no se ha estrellado nunca ninguno, y esperemos que jamás lo haga, se te puede subir a la parra hasta los 300 millones. Boeing anda con unos precios muy parecidos para lo que ofrece. Ya sabes, es un mercado, hay competencia.

Primera clase de Emirates (A380) y clase única de Ryanair.

Arriba: Una de las legendarias suites de Primera Clase en los Airbus A380 de Emirates. Sí, eso es un avión y se puede viajar así si tienes la pasta. Abajo: Un bebé duerme en la clase única de una low-cost, en este caso Ryanair, con este que te escribe sentado detrás. En los aviones volamos gentes de todo pelaje, algunas muy, muy humildes y otras que pueden llegar a costar muchísimos millones hasta después de muertas. Pero la ley de hierro de la aviación viene a decir que a los cielos subimos todos juntos y o bajamos todos juntos o de ahí arriba no vuelve ni Dios. Fotos: Emirates / La Pizarra de Yuri (Clic para ampliar)

Por ahí andan también los seguros de vida de quienes van a bordo, que puede oscilar desde el mínimo obligatorio de la inmigrante que iba a ver a su primer nieto con el pasaje de clase turista más económica hasta los múltiples y multimillonarios de ese financiero tan importante que viajaba en primera tomando Dom Pérignon, pasando por mucha gente como tú y como yo. Que quien más y quien menos, además del obligatorio de viaje, ha pagado el billete con la Visa (lo que muchas veces incluye un seguro de viaje adicional), tiene el personal de la hipoteca por ahí y una cosita que se hizo para los hijos una vez, por si las moscas. En un país desarrollado, cada difunto cuesta como poco medio millón de media, más los gastos. Y si quedan heridos o inválidos o eso, pues a pagar atención médica e indemnizaciones varias para los restos.

Luego están los seguros de equipaje y carga, que pueden subir otro pico, y eso suponiendo que el avión no transportase algún objeto realmente valioso. Cosa que no es tan rara. Cuando un objeto es muy valioso y no muy pesado o voluminoso, sale muy a cuenta y muy seguro mandarlo por avión, o incluso que un segurata de fiar lo lleve encima. Yo me sé de algún paquete de diamantes de los buenos que acabó en una marisma con los piedros esparcidos por el cieno a lo largo de varios kilómetros junto con el resto del avión y quienes iban dentro, en pleno Tercer Mundo. Porque claro, entre dos paraísos de primerísimo Primer Mundo muchas veces hay subcontinentes enteros de Tercer Mundo. En ocasiones, hasta las mismísimas alambradas de la frontera esa desde donde los de siempre defienden a los de siempre contra los de siempre. A veces pasa que a tus diamantes como bellotas les da por acabar al otro lado de la alambrada. Ve y busca. Otras veces hay océanos y cosas así. El caso es que ya te puedes imaginar cuántos se recuperaron. Me han dicho que al del seguro diamantífero le entró como una risa tonta cuando vio la nota. Así como con un tic, ¿sabes o qué?

Ahora suma las indemnizaciones por daños en tierra, si los ha habido. La investigación, que algunas se te pueden poner en treinta millones o más. Los costes jurídicos, porque va a haber juicios, y muchos y muy caros. Las pérdidas de rentabilidad futura. Los intangibles. Y alguien va a tener que pagar todo eso. Imagínate qué facturón. Alguna vez en que las cosas se complicaron y hubo años de juicios intercontinentales, demandas tejidas y fuertes indemnizaciones, pasó de mil millones. Sí, de euros, claro.

Unidades brasileñas recuperan la FDR del Gol 1907 en la selva del Mato Grosso.

Un go-team brasileño recupera la grabadora de datos del vuelo 1907 de Gol Transportes Aéreos, un Boeing 737-8EH que se estrelló en la selva del Mato Grosso el 29 de septiembre de 2006, tras una colisión aérea con un jet privado Embraer Legacy. El Boeing se desintegró en el aire y cayó a plomo sobre la selva desde 37.000 pies de altitud, pereciendo las 154 personas que iban a bordo. No obstante, puedes observar que la «caja negra» sólo presenta unas abolladuras en la cubierta exterior. Así de duras son. Foto: Alessandro Silva / Força Aérea Brasileira vía Wikimedia Commons. (clic para ampliar)

Pack de memoria interno de una "caja negra" con sus protecciones.

Pack de memoria interno de una grabadora de vuelo con sus protecciones puestas. Foto: Jeffrey Milstein – www.jeffreymilstein.com

Por cierto, una cosita. Que vamos, que supongo que sobra decirlo, y más a ti, ¡qué tonterías tengo! Pero si alguna vez por una de aquellas que pasan en la vida te encuentras una cosa de estas por ahí, no se te vaya a venir ninguna idea rara a la cabeza. Lo de NE PAS OUVRIR – DO NOT OPEN, o sea NO ABRIR, o sea no manipular de ninguna manera, va en serio. Serio como una cárcel. Llamas a la autoridad pública que te merezca más confianza y se lo comunicas sin tocarla. Si puede ser y no hay peligro, te quedas al lado cuidándola para que nadie le meta mano. Y si no hay ninguna autoridad pública disponible, pero ninguna, tipo área blanca en zona de guerra, entonces, y sólo entonces, la llevas con mucho cariño a un lugar donde la haya lo antes posible. Cuando la tengas en las manos, recuerda que ahí dentro van muchas vidas futuras en juego. Que yo ya sé que tú no vas a hacer nada raro, vamos, ni de coña. Está claro que tú no eres la clase de miserable hideputa o la piedra ignorante que hay que ser para andar jodiendo con una caja negra. Fijo que tú eres buena gente y con cabeza y estarás diciendo «el Yuri este, que cósas tiene» con toda la razón. Pero por si no habías caído y eso. Si por ejemplo tienes hijos o alumnos o esas cosas, también se lo puedes contar.

Bien. Idealmente, la investigación técnica no puede usarse para establecer responsabilidades (Art. 3.1 del Anexo 13 de la OACI; Art. 4.3 de la Directiva Europea 94/56/CE; Art. 12.2 de la Ley española). Sólo y únicamente para saber lo que pasó y corregirlo. Es eso lo que ha salvado tantas vidas. Porque claro, en el momento en que empezamos a determinar responsabilidades, la investigación se convierte en persecución y la gente deja de buscar la verdad para ponerse a salvar el culo. Pero si quieres salvar vidas futuras, la investigación técnica necesita descubrir la verdad o lo más parecido que sea posible. Si no se sabe lo que ha fallado realmente, no se podrá corregir. Y si no se corrigen los fallos, otra ley de hierro dice que el accidente puede volver a ocurrir en cualquier momento, cobrándose decenas o cientos de vidas más. En ocasiones, una y otra vez.

Caja negra del vuelo 93 de United Airlines.

Grabadora extremadamente dañada del vuelo 93 de United Airlines, el «cuarto avión» de los atentados del 11 de septiembre de 2001. El avión, un Boeing 757-222, se estrelló en un área rural del estado de Pennsylvania a alta velocidad (906 km/h), 40º de picado y boca abajo, desintegrándose por completo. Formó un cráter de 12 metros de diámetro y sus 44 ocupantes resultaron pulverizados. Arriba puede verse lo que queda del cuerpo y abajo, la cápsula con los datos, arrancada de cuajo. La práctica totalidad de los datos fue recuperada. Fotos: Departamento de Justicia de los Estados Unidos de América.

En la práctica, las investigaciones judiciales –las de cargar culpas– se apoyan a menudo en la investigación técnica, directa o indirectamente, lo que constituye un verdadero problema que suele acabar matando a más gente. La actual tendencia a criminalizarlo todo y endurecer las penas de todo no hace sino empeorar las cosas. (Ver aquí, aquí , aquí o aquí también) En el momento en que un profesional se ve obligado a responder a otro profesional «lo siento, pero para contestarte a eso tengo que hablar primero con mi abogado» tú ya sabes que va a morir más gente.

Este es un dilema de difícil solución porque bien, obviamente hay que establecer las responsabilidades. Entre otras cosas, para determinar qué compañía de seguros y sus reaseguradoras van a pagar esa factura monumental. Y los tribunales no suelen tener ni la capacidad científico-técnica ni la proclividad a realizar complejas investigaciones aeronáuticas, tanto más cuanto menos recursos tienen. Cuando la cosa degenera a considerar las aportaciones de los peritos de las partes, ya puedes contar con que nadie está buscando la verdad. Sólo están viendo a ver quién se come el marrón. Y tú te vas a hacerte un cubatita con un sentimiento de fatalidad de lo más molesto, pensando en si irán muchas criaturas en el próximo avión.

Sin embargo, mal que bien, el sistema funciona por una diversidad de razones. Una de ellas, y lo siento por los más cínicos, es que cuando hay vidas en juego mucha gente tiende a comportarse honorablemente, aunque sea recurriendo a algún subterfugio. Va en serio, la gente normal no suele sen tan perra y los profesionales que lo son siempre dejan algún huequecito libre para pasar un dato esencial. Otra es que los profesionales del vuelo saben que su propia seguridad depende de que se corrijan los fallos verdaderos. Una más, que para los fabricantes de aeronaves y las aerolíneas un accidente no resuelto o mal resuelto es pésima publicidad, sobre todo si se repite. No sería la primera vez que un accidente o una serie de accidentes han acabado con una línea aérea. Cuando tienen algún estado detrás, la misma credibilidad y prestigio de ese estado pueden verse afectados. Air France o British Airways estarán privatizadas, pero nadie ha quitado las palabras France o British de sus aviones. Y no hace falta decir lo que representan Boeing o Airbus para Estados Unidos y la Unión Europea, respectivamente.

La misteriosa desaparición del Air France 447.

Hablando de Air France y Airbus, como te dije al principio, durante la madrugada del 1 de junio de 2009 les pasó algo espantoso. Y a las 228 personas que iban a bordo del vuelo AF447 desde Río de Janeiro a París, ni te cuento. Lo impensable. Lo que a estas alturas ya no puede suceder. Que no, que no, que te lo dice el tío Yuri, que los grandes aviones de pasajeros modernos no desaparecen en la noche y el mar en plan Madagascar. Qué va.

Configuración de clase turista 2-4-2 de un Airbus A340-300 de Air France.

Clase turista de un Airbus A340-300 de Air France (configuración 2-4-2 nº2, parecida a la del A330-200). Foto: Mr. Guillaume Grandin vía www.seatplans.com

De sus 228 ocupantes, tres eran tripulantes técnicos (2 pilotos a los mandos y 1 de reserva), nueve tripulantes de cabina y el resto pasaje, incluyendo a siete menores de 12 años (1 infant y 6 children). Como curiosidad, entre los pasajeros adultos se encontraba el príncipe Pedro Luís de Orléans-Bragança, tercero en la línea de sucesión al desaparecido trono imperial del Brasil; los músicos de fama internacional Silvio Barbato y Fatma Ceren; y el activista contra el tráfico ilegal de armas Pablo Dreyfus, acompañado por su esposa. 228 personas son un pueblo medianín entero de gente. Más o menos como Villasrubias o Villaherreros o Alba, todos bien juntitos y apretados en una máquina de volar junto con 140.000 litros de combustible Jet A1 para reactores de aviación.

Terminal 1 del aeropuerto internacional de Galeão, Río de Janeiro, Brasil ( GIG / SBGL ).

La última tierra que pisaron los ocupantes del Air France 447: Terminal 1 de salidas internacionales del aeropuerto internacional de Galeão, Río de Janeiro, Brasil (GIG / SBGL). Imagen: Google Street View. (Clic para ampliar)

Ruta prevista del vuelo Air France 447, 31 de mayo - 1 de junio de 2009.

Ruta prevista del vuelo Air France 447, 31 de mayo – 1 de junio de 2009. Gráfico: Wikimedia Commons modificado por la Pizarra de Yuri. (Clic para ampliar)

Toda esa humanidad pisó tierra por última vez una tarde magnífica de primavera tropical, con una temperatura de 26ºC, visibilidad total, el sol brillando en un cielo muy azul con pocas nubes y suavísima ventolina del Norte (METAR SBGL 312200Z 34002KT 9999 FEW035 SCT100 26/18 Q1009=). Con un peso al despegue de 233 toneladas, el vuelo AF447 partió de la gran metrópoli brasileña en torno a las siete y media del 31 de mayo, hora local (22:29 UTC). Comandaba el capitán Marc Dubois, de 58 años, con 10.988 horas de vuelo y 1.747 en ese tipo de Airbus. Su copiloto era el primer oficial Pierre-Cédric Bonin (32 años, 2.936 horas de vuelo, 807 en el tipo). El otro primer oficial, David Robert (37 años, 6.547 horas de vuelo, 4.479 en el tipo), descansaba en el área de reposo situada detrás.

Enseguida ascendieron por encima de las nubes hacia los 35.000 pies de altitud, lo que vienen siendo unos 10,7 kilómetros, bajo la blanca luz del sol estratosférico. No pudo ser un despegue mejor, sin turbulencia alguna a pesar de unos cumulonimbos lejanos en el cielo azul profundo. Tras activar el piloto automático nº 2, la autotransferencia de combustible y el autoempuje, tomaron rumbo Norte-Noreste (028º) hacia Recife y el Atlántico para el largo viaje oceánico de 9.200 kilómetros hasta París-Charles de Gaulle. Ahí les esperaban sus familias y amistades diez horas y media después, de buena mañana. Vamos, como el viaje de Marco Polo, pero en línea recta, en apenas una noche, viendo pelis, tomando algo y echando una cabezadita en una burbuja de aire acondicionado de alta tecnología con el mundo a tus pies. El progreso. Conforme atardecía, la tripulación de cabina de pasajeros empezó a servir las cenas. Todo iba bien.

Amanecer a gran altitud sobre España.

Un amanecer estratosférico. Gélido, bellísimo, despiadado, letal, si no fuese por esas máquinas de volar tan cojonudas que los humanos sabemos hacer. En este caso, un Boeing 737-800. Algo muy parecido tuvo que ser la última visión del mundo de las 228 personas que viajaban en el Air France 447, sólo que al anochecer. Foto: La Pizarra de Yuri. (Clic para ampliar)

Sobre las 21:30 hora local (00:30 del 1 de junio UTC), aún sobrevolando las playas del Brasil, los pilotos recibieron un mensaje del centro de control de operaciones de Air France. Les indicaban que iban a encontrarse con tormentas convectivas vinculadas a la Zona de Convergencia Intertropical. Esto ocurre normalmente en las regiones ecuatoriales y no se le dio más importancia. De hecho, el informe procedía de uno de los otros doce vuelos que circulaban por la misma ruta u otras cercanas en esos momentos. El avión puede agitarse un poco, pero se atraviesa sin problemas y no pasa nada. Así pues, siguieron adelante. Desde las playas de Recife, una mulata guapa vio pasar una estela muy alta, muy blanca, muy lejos. Pero ni se fijó, claro. Por ahí pasan aviones constantemente. Qué te vas a fijar.

Cabina de vuelo de un Airbus A330-200

Cabina de vuelo de un Airbus A330-200 de Swiss. Foto: © C. Galliker. (Clic para ampliar)

Los ocupantes del AF447 divisaron tierra por última vez mientras se ponía el sol sobre Natal, a las 21:54 hora local (00:54 del 1 de junio UTC, METAR SBNT 010100Z 00000KT 9999 FEW018 24/24 Q1012=). Después, el avión se adentró en el Océano Atlántico, hacia el punto INTOL y la noche. Sobrepasaron INTOL a las 22:35 (01:35 UTC), a Mach 0,82 de velocidad. Ahí se pusieron en contacto por alta frecuencia con el control brasileño de la FIR Atlántico para notificar sus intenciones y hacer una prueba de comunicaciones SELCAL que salió bien. Sin embargo, no dio resultado un intento de conectar por ADS-C con su siguiente destino, la FIR Dakar-Oceánica. ya en el lado africano del Charco. Pero esto no tiene mayor importancia y continuaron su camino. Los controladores brasileños de FIR Atlántico fueron los últimos humanos que oyeron la voz de otro humano a bordo del Air France 447.

Tal como les avisaron, el tiempo empeoraba, con una tormenta eléctrica bastante espectacular. Los pilotos constataron que estaban penetrando en las nubes y tuvieron que oscurecer las luces de cabina para ver mejor los instrumentos. Pero sólo hallarían algo de turbulencia a las 22:45 (01:45 UTC), que cesó siete minutos después. En realidad, no ocurría nada anormal en esa clase de vuelos intercontinentales entre hemisferio y hemisferio donde las comunicaciones son inciertas y la meteorología, difícil. Tanto era así, que poco después el comandante Dubois fue a despertar al primer oficial Robert para que ocupase su puesto como piloto al mando e irse él a descansar.  Tras conversar los tres sobre la mejor manera de atravesar la tormenta, así lo hizo. Quedaron, pues, David Robert al mando y Pierre-Cédric Bonin de copiloto. Eran las dos de la madrugada UTC, y el Air France 447 se aproximaba al punto TASIL, muy océano adentro. A las 01:49, salieron del alcance de los radares de FIR Atlántico, alejándose aún más mar adentro, hacia las tinieblas durante unos veinte minutos más.

Últimos mensajes ACARS transmidos por el vuelo Air France 447, 01/06/2009 02:11-02:14 UTC

La famosa última ráfaga de mensajes ACARS transmitida automáticamente por los ordenadores del  vuelo Air France 447 entre las 02:11 y las 02:14 del 1 de junio de 2009 UTC. Texto completo y significado por orden de recepción: AUTO FLT AP OFF – Desactivación automática del autopiloto | AUTO FLT REAC W/S DET FAULT – Perdida la detección y corrección automática del viento en cizalladura | F/CTL ALTN LAW – Conmutación automática del control de vuelo de ley normal a ley alterna | FLAG ON CAPT PFD SPD LIMIT, FLAG ON F/O PFD SPD LIMIT – Las pantallas principales de ambos pilotos han perdido la indicación de límites de velocidad | AUTO FLT A/THR OFF – Desactivación automática del autoempuje | NAV TCAS FAULT – El sistema anticolisiones TCAS ha dejado de operar | FLAG ON CAPT PFD FD, FLAG ON F/O PFD FD – Las pantallas principales de ambos pilotos han perdido las indicaciones del sistema director de vuelo (flight director) | F/CTL RUD TRV LIM FAULT – El sistema de control de vuelo no puede limitar las acciones de los pilotos sobre el timón | MAINTENANCE STATUS EFCS 2, MAINTENANCE STATUS EFCS 1 – Notificación de mantenimiento para ambos sistemas de control electrónico de vuelo (EFCS) | EFCS2 1,EFCS1,AFS,,,,,PROBE-PITOT 1X2 / 2X3 / 1X3 (9DA),HARD – Los sensores de velocidad con respecto al aire presentan discrepancias superiores a 30 nudos entre sí en menos de un segundo | EFCS1 X2,EFCS2X,,,,,,FCPC2 (2CE2) / WRG: ADIRU1 BUS ADR1-2 TO FCPC2,HARD – El ordenador de control de vuelo (FCPC) ha dejado de aceptar datos de los sistemas de tubos pitot (ADR) | FLAG ON CAPT PFD FPV, FLAG ON F/O PFD FPV – Las pantallas principales de ambos pilotos han dejado de mostrar las indicaciones del vector de ruta de vuelo (FPV, «bird») | NAV ADR DISAGREE – Datos contradictorios en los sistemas de tubos pitot (ADR); el sistema electrónico de control de vuelo no los está aceptando | ISIS 1,,,,,,,ISIS(22FN-10FC) SPEED OR MACH FUNCTION,HARD – Datos de velocidad en el sistema de instrumentos combinados ISIS fuera de límites durante al menos 2 segundos | IR2 1,EFCS1X,IR1,IR3,,,,ADIRU2 (1FP2),HARD – La unidad de referencia de navegación inercial nº 2 considera que todos los datos de los sistemas de tubos pitot son inválidos | F/CTL PRIM 1 FAULT, F/CTL SEC 1 FAULT – Los ordenadores de control de vuelo primario y secundario han dejado de funcionar | MAINTENANCE STATUS ADR 2 – Notificación de mantenimiento para el sistema de tubos pitot (ADR) nº 2 | AFS 1,,,,,,,FMGEC1(1CA1),INTERMITTENT – Inconsistencias entre los canales del ordenador nº 1 de gestión, guiado y envolvente de vuelo (FMGEC) | ADVISORY CABIN VERTICAL SPEED – Aviso de velocidad vertical: cambio de altitud de más de 1.800 pies/minuto durante al menos 5 segundos. Pese a su tono ominoso, este tipo de transmisiones ocurrían a veces por problemas con los tubos pitot, se resolvían fácilmente y no dispararon ninguna alarma. Sin embargo, esta vez era una última transmisión. La máquina, que se lamentaba al morir. Imagen: Air France. (Clic para ampliar)

De pronto, algo ocurrió. Algo muy malo. Entre las 02:11 y las 02:14 UTC, los ordenadores de a bordo transmitieron automáticamente una ráfaga de mensajes de alerta a Air France por el sistema de telecomunicaciones ACARS, una especie de SMS aeronáutico que se recibe desde prácticamente todo el planeta. Fueron un total de 26 mensajes, indicando una serie de fallos y alertas en sistemas diversos, pero casi todos ellos relacionados con inconsistencias entre los sensores y las computadoras del avión que condujeron a una desactivación anómala del piloto automático. Dicho a lo sencillo: por una causa entonces desconocida los ordenadores están recibiendo datos contradictorios de los sensores, no saben a qué atenerse y devuelven el control a los pilotos humanos para que se aclaren.

Sin embargo, el centro de mantenimiento de Air France donde se recibieron estos mensajes tampoco les dio demasiada importancia. Al parecer, sucedía a veces cuando los aviones atravesaban tormentas, por problemas con los tubos Pitot. Ya hablaremos de esto. Así que no se activó ninguna alarma en ese momento.

Pasó un poco más de media hora. Noche en el Atlántico. A las 02:48 UTC los controladores de Dakar (Senegal) llaman a los de Sal (Archipiélago de Cabo Verde) para comunicarles que el Air France 447 debería estar llegando a su lado del océano, pero no tienen noticias. A las 03:54 Sal devuelve la llamada a Dakar. Dicen que tampoco está entrando a su zona a la hora prevista, ni se han puesto en contacto para modificar el horario. A las 04:07 Dakar y Sal vuelven a conversar, porque en sus pantallas están viendo llegar al siguiente vuelo (otro Air France, el AF459) pero no al AF447. Dakar pide al AF459 que intente contactar con sus compañeros a las 04:11. El AF459 lo intenta, pero no lo consigue, y a las 04:20 se lo notifica a Dakar y también a Air France, para que prueben ellos.

Durante la siguiente hora, las llamadas empiezan a multiplicarse entre Dakar-Oceánico, Sal, Canarias, Madrid, Francia y Brasil, cada vez más preocupadas. Air France lanza numerosos mensajes ACARS al AF447 y luego prueba a entrar en contacto con ellos por vía satélite. Los sistemas rechazan todos sus intentos. El receptor está offline. Ni personas ni máquinas saben nada del avión. Sobre las 05:20, Brasil-Atlántico dispara la primera alarma y pone en prealerta a su Servicio Aéreo de Rescate.

Poco a poco, la verdad sencilla se va volviendo evidente: el vuelo AF447 con sus 228 vidas ha desaparecido. Un escalofrío recorre tres continentes al amanecer. Lo impensable, que se esfume sin más un moderno jetliner lleno de gente dormida plácidamente, viendo pelis en sus sistemas de entretenimiento personal o llevando al baño a Clarita Eccard, de dos años de edad, acaba de suceder. Y nadie sabe ni dónde, ni cómo, ni por qué.

Próxima: Air France 447: Buscando cajas negras a 4.000 metros de profundidad (2)

94 Comentarios Trackbacks / Pingbacks (38)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (41 votos, media: 4,61 de 5)
Loading...
Be Sociable, Share!

Resultados encuesta: ¿Qué fuentes de energía deberíamos fomentar más?

Resultados encuesta marzo 2011.

Anterior: ¿Crees que sucederá algún suceso de tipo apocalíptico durante tu tiempo de vida?

En esta ocasión, si lo llego a hacer a propósito no me sale una encuesta más adecuada a las circunstancias. Durante la tarde del 11 de marzo comenzaron a llegar noticias de que en las centrales nucleares japonesas pasaba algo tras el terremoto sucedido ese día, así que se me ocurrió anotar los votos recopilados hasta ese momento al punto de la medianoche. Por ello, puedo ofrecerte los resultados totales y desglosados en dos periodos: el primero desde el día 1 hasta el 11, momento en que el tsunami puso en marcha los accidentes nucleares de Fukushima que siguen sucediendo ahora mismo, y el segundo a partir del día 12 hasta el cierre de la encuesta a fin de mes. Aunque esta encuesta no es científica por los motivos habituales, el elevado número de votos recibidos desde un montón de direcciones IP y lugares geográficos distintos me hace conjeturar que puede ser cuanto menos indicativa del pulso social al respecto.

Así pues, una vez cerrada la séptima encuesta de la Pizarra de Yuri, realizada entre el 1 y el 31 de marzo de 2011 (inclusives), los 4.786 votos emitidos han dado lugar a los siguientes resultados en detalle:

Resultados encuesta marzo 2011: ¿Qué fuentes de energía deberíamos fomentar más?

Resultados encuesta marzo 2011: ¿Qué fuentes de energía deberíamos fomentar más?

¿Qué fuentes de energía deberíamos fomentar más?

Total Del
1 al 11
Del
12 al 31
Diferencia %
entre ambos periodos
Las energías renovables 2.594 (54,20%) 331
(43,78%)
2.263
(56,15%)
+28,25% (Abs: +12,37%)
La energía nuclear de fusión 1.520 (31,76%) 283
(37,43%)
1.237
(30,69%)
–18,00% (Abs: –6,74%)
La energía nuclear de fisión 554 (11,58%) 125
(16,53%)
429
(10,65%)
–35,62% (Abs: –5,89%)
Otras 77 (1,61%) 11
(1,46%)
66
(1,64%)
+12,56% (Abs: +0,18%)
Las «convencionales» (petróleo,
gas natural, carbón, hidroeléctrica…)
41 (0,86%) 6
(0,79%)
35
(0,87%)
+9,43% (Abs: +0,07%)

Los porcentajes pueden presentar diferencias o no totalizar el 100% debido a los redondeos decimales.

Esta encuesta no es científica. Sólo refleja la opinión de aquellas personas que eligieron participar.
Los resultados no representan necesariamente la opinión del público, de los usuarios de Internet en general o de los lectores de La Pizarra de Yuri en su totalidad.

Encuesta de abril:

¿Existen inteligencias extraterrestres en nuestra propia galaxia?

101 Comentarios Trackbacks / Pingbacks (4)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (22 votos, media: 4,64 de 5)
Loading...
Be Sociable, Share!

Resultados encuesta: Dentro de un cuarto de siglo, ¿quién será el líder científico-tecnológico del mundo?

Resultados encuesta noviembre 2010.

Anterior: ¿Hacia dónde debería dirigirse la exploración espacial humana en el futuro próximo?

Encuesta La Pizarra de Yuri, noviembre 2010: Dentro de un cuarto de siglo, en 2035, ¿quién será el líder científico-tecnológico del mundo?

Resultados de la encuesta La Pizarra de Yuri, noviembre 2010: Dentro de un cuarto de siglo, en 2035, ¿quién será el líder científico-tecnológico del mundo?

Una vez cerrada la tercera encuesta, realizada entre el 1 y el 30 de noviembre de 2010 (inclusives), los 2.182 votos emitidos han dado lugar a los siguientes resultados en detalle:

Dentro de un cuarto de siglo, en 2035, ¿quién será el líder científico-tecnológico del mundo?

  1. China: 844 (38,68%).
  2. Será multipolar: 577 (26,44%).
  3. Estados Unidos: 219 (10,04%).
  4. Europa: 164 (7,52%).
  5. Japón: 144 (6,6%).
  6. India: 127 (5,82%).
  7. Rusia: 43 (1,97%).
  8. Brasil: 32 (1,47%).
  9. Otro: 32 (1,47%).

Los porcentajes pueden no totalizar el 100% debido a los redondeos decimales.

Esta encuesta no es científica. Sólo refleja la opinión de aquellas personas que eligieron participar.
Los resultados no representan necesariamente la opinión del público, de los usuarios de Internet en general o de los lectores de La Pizarra de Yuri en su totalidad.

Abierta ya la encuesta de diciembre:

¿Crees que es posible un espacio común entre ciencia y religión?

20 Comentarios Trackbacks / Pingbacks (17)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (12 votos, media: 4,33 de 5)
Loading...
Be Sociable, Share!

Así funciona una central nuclear

Energía nuclear de fisión.


La película El Síndrome de China (1979) sigue conteniendo una de las mejores explicaciones sencillas del funcionamiento de una central nuclear.
Sin embargo, hoy intentaremos profundizar un poquito más.

Pues… que me he dado cuenta de que aquí hemos hablado con detalle sobre armas nucleares, termonucleares e incluso del juicio final. Y sobre las perspectivas de la fisión y de la fusión, sobre los héroes y mitos de Chernóbyl, sobre la central nuclear más grande del mundo, mil cosas… pretendo incluso elaborar un todavía futuro post sobre lo sucedido de verdad en Chernóbyl (ya te dije, resulta más difícil distinguir la paja del grano de lo que parece, y ese quiero que sea riguroso y documentado hasta el extremo)… pero aún no he explicado cómo funciona realmente una central nuclear y el ciclo de su combustible. Yo, que soy así de chulo. :-/

La central nuclear de Cofrentes vista desde el pueblo. Foto de la Pizarra de Yuri.

La central nuclear de Cofrentes (Valencia) vista desde el pueblo. Contiene bajo la cúpula un reactor de agua en ebullición (BWR) que produce 1.092 MWe. (Clic para ampliar)

Producción, demanda y balance de importación - exportación de la Red Eléctrica de España

Producción, demanda y balance importador/exportador de la Red Eléctrica de España, 1995-2010. Datos tomados de los informes mensuales en www.ree.es/operacion/balancediario.asp (Clic para ampliar)

Seguramente sabrás, y si no ya te lo cuento yo, que una central nuclear es una fábrica de electricidad. Cualquier día típico en España, las centrales nucleares producen uno de cada cinco vatios que consumimos para mover nuestras vidas (¿te imaginas un mundo sin electricidad?). Esta cifra del 19%, que antes era mayor (hace quince años era del 35%), es ahora similar a la de los Estados Unidos o el Reino Unido. Por el momento, vamos servidos: España es, desde hace más de un lustro, exportador neto de electricidad (sí, exportador; y sí, desde mucho antes de la crisis: si te han dicho otra cosa, te han mentido. Observa que en los informes de la REE el saldo importador aparece en positivo y el exportador en negativo).

Una central nuclear es, además, un tipo particular de central térmica. Es decir: la energía eléctrica se produce generando calor. En las centrales térmicas corrientes se utilizan grandes quemadores a carbón, gas natural o derivados del petróleo como el gasoil, bien sea en ciclo convencional o en ciclo combinado, con o sin cogeneración. En todo caso se trata, básicamente, de calentar agua en unas calderas hasta que ésta se convierte en vapor con fuerza suficiente como para hacer girar una turbina según los ciclos de Carnot y Rankine. El eje rotativo de la turbina impulsa a su vez el de uno o varios alternadores, que son los que producen la energía eléctrica en sí. Cuando hablamos de estos grandes generadores instalados en las centrales eléctricas y conectados a potentes turbinas de vapor, se suelen denominar turboalternadores.

La pura verdad es que no resulta un método muy eficiente: se pierde aproximadamente entre una tercera parte y las dos terceras partes de la energía térmica producida (y por tanto del combustible consumido) debido a las ineficiencias acumulativas de estos mecanismos y a las limitaciones teóricas del ciclo de Carnot. Toda central térmica del presente, nuclear o convencional, necesita producir entre dos y tres vatios térmicos para generar un vatio eléctrico. Esto es: uno o dos de cada tres kilos o litros de su valioso combustible –petróleo, gas natural, carbón, uranio– se malgastan en estropear cosas caras dentro de la instalación y ocasionar contaminación térmica en el exterior. Típicamente, una central nuclear capaz de generar mil megavatios eléctricos debe producir tres mil térmicos. Es lo que hay. Si se te ocurre alguna manera de mejorarlo, no dejes de comentármelo, que tú y yo tenemos que hablar de negocios. :-D

Así pues, la clave de toda central térmica consiste en calentar agua para producir vapor que haga girar unas turbinas y con ellas unos alternadores eléctricos. En el caso particular de una central nuclear, este calor se origina por medios… eso, nucleares. :-) Específicamente, hoy por hoy, mediante la fisión de átomos pesados e inestables como algunos isótopos del uranio. Veámoslo.


Cualquier cosa capaz de hacer girar el eje de un alternador producirá energía eléctrica.
Arriba, un alternador manual;
abajo, el eje de un gigantesco generador hidroeléctrico en la Presa Hoover, Estados Unidos.

Fisión nuclear y reacción en cadena.

Ya te conté un poquito de cómo va esto de la fisión y la reacción en cadena en Así funciona un arma nuclear. Vamos a repasarlo por encima, centrándonos en esta aplicación civil. Como sabes, existen algunas sustancias en la naturaleza que son radioactivas. ¿Qué quiere decir esto? Bueno, su propio nombre nos da una pista: radio-activas. O sea: no son totalmente inertes desde el punto de vista físico, como cualquier otro piedro, líquido o gas. Por el contrario, los núcleos de sus átomos presentan una actividad física que se expresa en forma de radiación; para ser más exactos, en forma de radiaciones ionizantes. Estas radiaciones son más energéticas y pueden causar más alteraciones en la materia que las no ionizantes, como las que emite una televisión de tubo, una antena de radio o un teléfono móvil.

¿Por qué se produce esta radioactividad? Para contestar a eso hay que responder primero a otra pregunta: ¿por qué algunos núcleos atómicos no son estables? Esto se debe a que la configuración de protones y neutrones en su núcleo es anómala y tiende a un estado de menor energía. Veámoslo con un ejemplo, que ya introdujimos en Así funciona un arma termonuclear. La mayor parte del carbono que nos compone (a nosotros y a otro buen montón de cosas en este universo) es carbono-12 (12C). Se llama así porque tiene en su núcleo seis protones y seis neutrones: en total, doce partículas. Este es un núcleo estable, que no tiende espontáneamente a un estado de menor energía bajo condiciones corrientes. El hecho de tener seis protones en su núcleo es lo que hace que sea carbono; este número no debe variar o pasará a ser otra cosa.

Algunos isótopos del carbono: carbono-12, carbono-13 y carbono-14.

Algunos isótopos del carbono: carbono-12, carbono-13 y carbono-14.

Sin embargo, su número de neutrones sí que puede variar, y seguirá siendo carbono. Por ejemplo, cuando tiene seis protones y siete neutrones (total, trece partículas) estamos ante el carbono-13 (13C). El carbono-13 es también estable en condiciones estándar y, de hecho, aproximadamente el 1,1% del carbono natural (incluyendo el que forma nuestro cuerpo) pertenece a esta variante. Como sigue siendo carbono, sus propiedades químicas (y bioquímicas) son prácticamente idénticas; las físicas varían un poquito, pero muy poco.

Si este núcleo presenta un neutrón más, entonces estamos ante el carbono-14 (14C), que constituye una billonésima parte del carbono natural y está compuesto por seis protones y ocho neutrones. ¡Ah! Aquí cambia la cosa. Esta combinación ya no es estable: tiende a perder energía (y algún neutrón) para transformarse en otra cosa. Sus propiedades químicas y bioquímicas siguen siendo las mismas, pero las físicas difieren sustancialmente. Entre estas diferencias, de manera muy notoria, surge la radioactividad. Con el paso del tiempo, estos núcleos de carbono-14 van a sufrir transmutación espontánea para convertirse en otra cosa. Por ejemplo, en una muestra de carbono-14, la mitad de sus átomos transmutarán en 5.730 años aproximadamente. Cualquiera de ellos puede hacerlo en cualquier momento, por mero azar.

El carbono-14 lo hace por desintegración beta negativa: uno de sus neutrones se reajusta, pierde una carga negativa (en forma de un electrón) y con eso deja de ser neutrón (sin carga) y pasa a tener una carga positiva, con lo que ahora es un protón. Dicho en términos sencillos: un neutrón (neutro, como su nombre indica) «expulsa un negativo» para «quedarse en positivo». Y al «quedarse en positivo» ya no es un neutrón, porque ya no es neutro: se ha convertido en protón (que es positivo). Con lo que ahora tenemos en el núcleo siete protones y siete neutrones. ¿Hemos dicho siete protones? ¡Entonces ya no puede ser carbono! Acaba de transformarse en nitrógeno, un gas en condiciones estándar con propiedades físico-químicas totalmente distintas; para ser exactos, en nitrógeno-14 (14N), el nitrógeno común. Sí, como en la transmutación que soñaban los alquimistas y que finalmente resolvió la física nuclear. (Observa que durante este último proceso el número de partículas en el núcleo no ha cambiado. Lo que ha cambiado es su naturaleza y configuración.)

Uranio-235 altamente enriquecido.

Uranio-235 altamente enriquecido. Rebajado con uranio-238 y dispuesto en forma de pastillas, constituye el combustible más frecuente de las centrales nucleares.

¿Y qué pasa con el electrón («el negativo») que ha emitido? Pues que escapa hacia el exterior, y además lo hace con una cierta energía: 156.000 electronvoltios. Estamos ante la radiación beta. Ya tenemos nuestra radioactividad.

Los núcleos atómicos pueden decaer y desintegrarse de distintas maneras, lo que ocasiona los distintos tipos de radioactividad. Pueden hacerlo en forma de un pequeño grupo de dos protones y dos neutrones (o sea, un núcleo de helio-4), que se llama partícula alfa y constituye la radiación alfa. O como acabamos de ver, emitiendo un electrón o un positrón, lo que forma la radiación beta. O en forma de fotones muy energéticos, de naturaleza electromagnética, que da lugar a la radiación gamma y X. O lanzando neutrones libres, en lo que viene a ser la radiación neutrónica. Cada una de ellas tiene unos efectos y una peligrosidad diferentes, pero todas son distintas manifestaciones del mismo fenómeno: la radioactividad. Todas estas emisiones son capaces de desarrollar trabajo, hacer cosas; entre otras, producen calor. Este calor es el que vamos a utilizar para calentar el agua que moverá las turbinas y con ellas los generadores de electricidad.

Algunos núcleos resultan tan inestables que además son fisionables. Es decir: no se conforman con hacerse retoques aquí y allá, sino que se parten en otros núcleos más pequeños. Al hacerlo, despiden una notable cantidad de energía en forma de energía cinética de los fragmentos, fotones (radiación gamma) y neutrones libres. De manera espontánea, esto sólo ocurre con núcleos muy grandes y pesados, que pueden contener unas configuraciones de lo más raro. Entre estos se encuentra el torio-232 (232Th) o el uranio-238 (238U).

Unos pocos núcleos fisionables son además fisibles. Es decir: la energía que emiten cuando se rompen es tan alta, su estabilidad resulta tan pobre y su sensibilidad al impacto de los neutrones libres es tan elevada que pueden fisionarse entre sí muy rápidamente, intecambiando neutrones una y otra vez. Cuando esto sucede, estamos ante la reacción en cadena: la fisión espontánea de un solo núcleo puede romper varios más, que a su vez rompen muchos más, y así hasta que se agote el material fisible. Hay muy pocos isótopos que reúnan estas condiciones; en la práctica, sólo dos sirven para producir energía de fisión a gran escala. Uno está presente en la naturaleza: el uranio-235 (235U). El otro hay que producirlo artificialmente: se trata del plutonio-239 (239Pu). Hay algunos más, todos ellos sintéticos, como el uranio-233 (233U).


La reacción en cadena. Un neutrón fragmenta un núcleo fisible, lo que produce más neutrones que fisionan los de alrededor, y así sucesivamente hasta que se agota el material o la reacción se contamina demasiado. Cada una de estas fisiones produce energía que se plasma, entre otras cosas, en forma de calor.

Es posible que hayas oído también hablar del torio como combustible para la fisión nuclear. Hablaré de ello con más detalle próximamente, pero ya te adelanto que no es ni con mucho la «solución mágica» que algunos pretenden.

Pila Chicago 1

La Pila Chicago-1, en Estados Unidos, donde Enrico Fermi y Leó Szilárd consiguieron la primera reacción en cadena autosostenida de la historia.

Masa crítica.

Hecho este inciso, sigamos. ¿Cómo se consigue la reacción en cadena? Pues es muy sencillo: simplemente acumulando el suficiente material fisible. Sí, sí, si echas el suficiente uranio-235 enriquecido o plutonio-239 en un cubo, él solito se activará y comenzará a producir energía. De hecho, así ocurren los accidentes de criticidad, como los dos del famoso núcleo del demonio en el Laboratorio Nacional Los Álamos.

¿Cómo es esto posible? Sencillo. En cualquier masa de material fisible hay siempre algún átomo sufriendo fisión espontánea, que vimos más arriba. Si no hay mucho material, los neutrones generados escapan al medio exterior y la reacción en cadena no se produce. Pero cuando se alcanza cierta cantidad de material fisible, la probabilidad de que estos neutrones alcancen a otros núcleos durante su fuga se incrementa; entonces, estos núcleos fisionan y producen más neutrones. Ya tenemos la reacción en cadena.

En consecuencia, por el simple hecho de echar suficiente material fisible en una piscina de agua, éste sufrirá una reacción en cadena y el agua se calentará. Usando uranio-235 puro, bastaría con unir las dos mitades de una esfera de 52 kg dentro de una balsa y tendrías tu reactor nuclear. Claro, la cosa no es tan sencilla. Para empezar, tú no quieres hacer eso; porque si lo haces, obtendrás una excursión instantánea de energía nuclear y con ella uno de esos bonitos accidentes de criticidad abierta que se parecen a una bomba atómica floja aunque no sean realmente una bomba atómica. Y luego, ¿cómo lo paras?

El primer reactor nuclear de la historia fue la Pila Chicago-1, creada por Enrico Fermi y Leó Szilárd: un precario montaje de madera que soportaba capas alternas de grafito mezclado con seis toneladas de uranio puro junto a otras 34 de óxido de uranio. El grafito es un potente moderador neutrónico capaz de ralentizar los neutrones rápidos producidos por la fisión y transformarlos en neutrones térmicos (los alemanes tuvieron un error con el grafito y por eso no pudieron completar nucna un reactor operativo).  Esto tiene dos efectos. El primero es que facilita la fisión entre todo ese material disperso: los neutrones rápidos son demasiado energéticos y tienden a escapar al exterior, mientras que los térmicos están en su punto justo para mantener la reacción en cadena. El segundo es que lo puedes utilizar para acelerar y decelerar la reacción a tu gusto. Sin embargo, la Pila Chicago-1 sólo usaba el grafito para la primera función; la segunda quedaba asegurada mediante unas barras de cadmio, que absorbe los neutrones. Esto dio lugar al peculiar puesto de trabajo del hombre del hacha, quien debía cortar la cuerda para que estas barras cayeran de golpe si todo saliera mal. A las 3:25 de la tarde del día 2 de diciembre de 1942, esta Pila Chicago-1 situada en la ciudad estadounidense del mismo nombre produjo la primera reacción en cadena sostenida de la historia de la humanidad. Comenzaba así la Era Atómica.

Gráfica de intensidad neutrónica de la Pila Chicago-1

Gráfica de intensidad neutrónica de la Pila Chicago-1, el 2 de diciembre de 1942. Puede observarse el momento en que la reacción en cadena neutrónica se dispara por sí misma y no deja de aumentar hasta que se insertan las barras de control.

Las centrales nucleares modernas.

Tomemos como ejemplo la Central Nuclear de Cofrentes (Valencia), que me pilla cerca de casa. Cofrentes es un diseño estadounidense, desarrollado por General Electric, que se llama de reactor de agua en ebullición (BWR). Es el segundo diseño más popular entre los utilizados comúnmente en Occidente,  sólo por detrás del reactor de agua a presión (PWR). Veamos una representación esquemática de este BWR:

Diseño esquemático BWR de la Central Nuclear de Cofrentes (Valencia)

Diseño esquemático BWR de la Central Nuclear de Cofrentes (Valencia). (Iberdrola) (Clic para ampliar)

Vamos a concentrarnos en la parte central derecha de la imagen anterior, que es donde se genera la energía y se halla distribuida del siguiente modo:

Distribución general de los edificios de reactor, combustible y turbinas en la Central Nuclear de Cofrentes

Distribución general de los edificios de reactor, combustible y turbinas en la Central Nuclear de Cofrentes. (Iberdrola) (Clic para ampliar)

…y específicamente en el reactor, donde se produce la energía térmica que luego convertiremos en eléctrica. Ya dijimos que las centrales térmicas son muy poco eficientes: este reactor en particular genera 3.237 megavatios térmicos; sin embargo, la potencia final resultante es de 1.092 megavatios eléctricos. Eso es un 33,7%, apenas un pelín más de la tercera parte. Expresado de otra manera, el 66,3% de la producción (o sea, del valioso combustible nuclear) se pierde por las vías ya mencionadas (sin contar la emisión neutrínica que se funde casi el 5% antes incluso de empezar a producir energía térmica).

Detalle esquemático del reactor nuclear de Cofrentes.

Detalle esquemático del reactor nuclear de Cofrentes. 1.- Venteo y rociador de la tapa. 2.- Barra para izado del secador. 3.- Conjunto del secador de vapor. 4.- Salida de vapor. 5.- Entrada para rociadores del núcleo. 6.- Conjunto de separadores de vapor. 7.- Entrada de agua de alimentación. 8.- Distribuidor de agua de alimentación. 9.- Entrada de la inyección de refrigerante. 10.- Tubería de rociadores del núcleo. 11.- Distribuidor para rociadores del núcleo. 12.- Guía superior. 13.- Bombas de chorro. 14.- Envolvente del núcleo. 15.- Elementos combustibles. 16.- Barra de control. 17.- Placa soporte del núcleo. 18.- Entrada de agua de recirculación. 19.- Salida de agua de recirculación. 20.- Soporte de la vasija. 21.- Blindaje del reactor. 22.- Accionadores de las barras de control. 23.- Tuberías de accionamiento hidráulico de las barras de control. 24.- Detectores internos de neutrones. (Iberdrola)

El reactor es una vasija de acero SA-533 GrB con revestimiento interior inoxidable, de 21,3 metros de altura por 5,53 de diámetro; el grosor mínimo del acero asciende a 13,6 cm, para soportar una presión máxima de 87,5 kg/cm2 (unas 84,7 atmósferas). Los reactores BWR utilizan agua destilada corriente como refrigerante y como moderador, por lo que aquí no nos encontramos con grafito ni agua pesada ni nada de eso; pero, por esta razón, requiere para funcionar uranio ligeramente enriquecido en el isótopo fisible 235U. En el caso particular de Cofrentes, utiliza uranio enriquecido al 3,6% (el llamado uranio natural tiene un 0,7% de 235U).

Este combustible está organizado en forma de pequeñas esferas o perdigones de dióxido de uranio, introducidos en varillas y ensamblajes de un material que se llama zircaloy. El zircaloy es una aleación compuesta en su gran mayoría por zirconio. El zirconio, un metal, tiene una característica peculiar: es muy transparente a los neutrones. O sea: los neutrones que aseguran el sostenimiento de la reacción en cadena pueden pasar libremente a su través, saltando de barra en barra.

Para el uranio natural, el agua corriente (agua ligera) es un absorbente neutrónico y bloquea la reacción en cadena. Sin embargo, con este uranio enriquecido al 3,6%, la radiación neutrónica es lo bastante intensa para mantenerla y entonces el agua ligera actúa de moderador como si fuera grafito o agua pesada. Esto presenta varias ventajas significativas. La primera es que el agua ligera destilada sale enormemente más barata y accesible que el agua pesada. Al mismo tiempo, no presenta el riesgo de incendio del grafito (en Chernóbyl, el incendio principal fue un incendio de grafito). Sirve para transportar el calor producido. Y, adicionalmente, el flujo y temperatura del agua se pueden utilizar en el control de la reacción.

Pero el control principal corre por cuenta de 154 barras de carburo de boro, un poderoso absorbente neutrónico con poca tendencia a crear isótopos raros como resultado de esta absorción. Cuando se insertan estas barras entre las de combustible, atrapan los neutrones producidos por la fisión del uranio presente en estas últimas y deceleran o interrumpen la reacción en cadena. Al extraerlas, permiten la circulación de los neutrones y el reactor se acelera.

La lógica del invento resulta bastante sencilla. Hemos quedado en que la mera acumulación de un material fisible como el uranio-235 inicia espontáneamente una reacción en cadena, cuya intensidad depende fundamentalmente del enriquecimiento y de la densidad; esta reacción se produce porque los neutrones emitidos en cada fisión espontánea pueden alcanzar otros átomos de uranio-235, haciéndolos fisionar a su vez, y así sucesivamente.

En un reactor recién cargado pero aún parado tenemos las barras de combustible introducidas en el agua, lo que debería iniciar de inmediato esta reacción en cadena espontánea; sin embargo, hemos metido por entre medias las barras de control, el absorbente neutrónico, con lo que los neutrones no pueden saltar de barra en barra y por tanto la reacción no se produce o lo hace con una intensidad muy pobre.

Entonces, para poner en marcha la central comenzamos a extraer las barras de control (de absorbente neutrónico). Las fisiones espontáneas en los núcleos de uranio-235 (o, para el caso, plutonio-239) comienzan a lanzar neutrones en todas direcciones, y específicamente hacia las demás barras de combustible.

Estos neutrones producidos por la fisión son mayoritariamente neutrones rápidos. Los neutrones rápidos tienen una capacidad relativamente pobre de provocar nuevas fisiones; ya dijimos que, por explicarlo de algún modo, pasan demasiado deprisa para tener un efecto. Pero entonces se encuentran con el moderador, que tradicionalmente era grafito o agua pesada y aquí es agua destilada corriente. Cuando el uranio está poco enriquecido, el agua actúa como absorbente neutrónico –igual que si fuera una enorme barra de control– y los detiene por completo, interrumpiendo la reacción. Pero cuando el uranio está algo más enriquecido (como en este caso, al 3,6%), el agua actúa como moderador neutrónico: es decir, los ralentiza hasta convertirlos en neutrones térmicos, óptimos para provocar nuevas fisiones.

Así que al extraer las barras de control y dejar a las de combustible envueltas en agua, la reacción en cadena comienza a acelerar, calentando este agua de su alrededor. Mediante una compleja combinación de barras de control y flujo del agua, se puede ajustar la reacción en cada zona exacta del núcleo con gran precisión.

De este modo, la temperatura del agua circundante aumenta rápidamente. En la gran mayoría de los reactores nucleares, esta agua moderadora-controladora-transportadora se encuentra contenida en un circuito cerrado con circulación forzada que nunca entra en contacto directo con el exterior (o no debe hacerlo, vamos). Este circuito cerrado que pasa por dentro del reactor se llama circuito primario.

En un reactor de agua en ebullición, el agua de este circuito primario se halla a unas 70 o 75 atmósferas de presión (en Cofrentes está a 70,1). Esto permite que entre en ebullición cuando la temperatura alcanza unos 285ºC (los reactores de agua a presión se mantienen a casi 160 atmósferas, lo que no deja que haya ebullición). Así se forma rápidamente vapor en la parte superior de la vasija, que circula por unas canalizaciones hacia la turbina de alta presión. Ya tenemos energía. Ahora hay que convertirla en electricidad.

Central nuclear de Cofrentes desde una loma cercana.

La central nuclear de Cofrentes vista desde una loma cercana, con las torres de refrigeración proyectando los característicos –e inocuos– penachos de vapor.

Cuando este vapor a elevada presión y temperatura llega a la turbina de alta presión, la hace girar sobre su eje siguiendo las leyes de Carnot y Rankine que mencionamos más arriba. Y con ello hace girar un alternador que produce energía eléctrica, exactamente como cualquier otra clase de central térmica y la inmensa mayoría de los generadores. De ahí, el vapor –que aún mantiene una cantidad importante de energía aprovechable– pasa a las turbinas de baja presión, cuyos alternadores producen más electricidad. Toda esta corriente es remitida a los transformadores exteriores y de ahí a la red de 400.000 voltios para su distribución comercial.

Ahora ya sólo queda asegurarnos de que el agua vuelve al reactor para mantener el ciclo sin fin, más fría y de nuevo en estado líquido. Esta es la función de los condensadores, que son, en esencia, cambiadores de calor. Los condensadores se mantienen fríos con agua procedente de algún río o mar próximo, que viaja por su propio circuito: el circuito secundario. Así, cuando el agua del circuito primario pasa por estos condensadores, pierde temperatura suficiente como para volver al estado líquido por completo y regresar al reactor. Ambos circuitos no entran nunca en contacto, garantizando que la contaminación radioactiva ocasionada al pasar por el reactor permanezca contenida en el primario.

Finalmente, el agua del secundario –que se ha calentado al pasar por los condensadores– es enfriada en las torres de refrigeración. Así se forman esas características nubes de vapor blanco que podemos ver en la imagen de la izquierda.

En mi opinión, las centrales nucleares de fisión son una buena manera de producir la muy necesaria electricidad. Lo que pasa es que tienen sus limitaciones. En realidad, no son ni la pesadilla que creen unos ni la panacea que creen otros. Ya apunté las razones en el post El renacimiento nuclear, en la incubadora. De manera muy resumida, es cara, es incierta, tiene sus riesgos y resulta poco flexible en los mercados liberalizados. Resulta tremendamente significativo que el 89% de los reactores que se construyen en la actualidad pertenezcan a empresas monopolísticas estatales o paraestatales, mientras sólo seis unidades representan una apuesta privada.

De hecho, la energía nuclear de fisión ha sido la más subvencionada de toda la historia: sólo en los Estados Unidos, representó el 96% de los subsidios totales al desarrollo energético entre 1947 y 1999. El coste de instalación por kilovatio es varias veces mayor que el de, por ejemplo, una central de ciclo combinado a gas natural. El precio en el mercado del kilovatio final no sale tan ventajoso. Y tampoco garantiza la independencia en tecnologías energéticas: por razones de liberalización y deslocalización de los mercados, existen componentes esenciales de las centrales nucleares que únicamente se fabrican en Japón, China y Rusia. Las mayores minas de uranio sólo están en Canadá, Australia, Kazajstán, Rusia, Namibia y Níger: muchos menos países que productores de petróleo o gas. Si se opta por combustible reprocesado, únicamente quedan reactores regeneradores a gran escala en Rusia. (Los datos de todo esto están en el post mencionado sobre el renacimiento nuclear)

En suma: después de décadas de cultura de la seguridad, ni milagro ni diablo. Sólo una fuente de energía más, al menos en el presente orden socioeconómico, que nos obliga a seguir investigando otras maneras de extraerle a la naturaleza la energía que necesitamos. Y necesitaremos.


Otra explicación básica del funcionamiento de una central nuclear.

Próximamente: El ciclo del combustible nuclear.

129 Comentarios Trackbacks / Pingbacks (75)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (78 votos, media: 4,85 de 5)
Loading...
Be Sociable, Share!

El error de un Nobel que condenó el proyecto atómico nazi

Una demostración palmaria de lo importante que resulta la verificación independiente en ciencia.

Los documentos secretos del proyecto atómico nazi.

Para este post contamos con los documentos secretos originales del programa nuclear de la Alemania nazi, que no fueron desclasificados por sus posteriores propietarios hasta muchos años después. En el Deutsches Museum, Munich.

Fueron muchas las razones científicas, políticas, materiales y humanas por las que la Alemania nazi no produjo nunca una bomba atómica. Entre ellas, que no creyeron poder alcanzarla antes del fin de la Segunda Guerra Mundial y por tanto dedicaron sus esfuerzos a otras cosas más perentorias. Vamos, que no llegaron a proponérselo en serio y la historia siguió adelante por los caminos que ya conocemos.

Sin embargo, el asunto tiene aguijón: parte de esta dejadez  en materia atómica obedeció a un error científico crucial, pero fácilmente subsanable con una mera verificación independiente. Tal verificación no se produjo y el error, cometido por un futuro premio Nobel, les hizo creer que la energía nuclear estaba mucho más lejos de lo que quizá podría haber estado. ¿Pudo ser diferente? ¿Existió alguna posibilidad de que el Tercer Reich consiguiese la bomba atómica y con ello cambiara el curso de la historia?

El submarino U-202 de la Kriegsmarine.

El submarino U-202 de la Marina de Guerra nazi. El 12 de junio de 1942, este navío desembarcó con éxito a un equipo de saboteadores en Long Island, Nueva York. Seis días después, el U-584 hizo lo propio cerca de Jacksonville, Florida. Aunque los saboteadores fueron traicionados antes de alcanzar sus objetivos, ambos buques habían cumplido su misión y regresaron sin novedad a su base en Brest. Durante 1942 y 1943 hubo más de veinte submarinos alemanes operando en el Golfo de México hasta la misma boca del Mississippi. Y en fecha tan tardía como el 5 de mayo de 1945, dos días antes de la rendición, el U-853 torpedeó aún a un último mercante norteamericano enfrente de Rhode Island antes de ser hundido a su vez. Cualquiera de ellos podría haber transportado a bordo una primitiva bomba atómica con destino a la Costa Este de los Estados Unidos.

El club del uranio.

Werner Heisenberg, permio Nobel de física 1932, en una fotografía de 1933.

Werner Heisenberg, premio Nobel de física 1932, en una fotografía de 1933. Heisenberg, como director del Instituto de Física Kaiser-Wilhelm de Berlín durante la Segunda Guerra Mundial, fue la cabeza más visible de las investigaciones nucleares en la Alemania nazi.

El 3 de julio de 1967, veintidós años después de que terminara la Segunda Guerra Mundial, el físico teórico alemán Werner Heisenberg concedía una entrevista a un profesor de universidad estadounidense en la que hizo varias declaraciones sorprendentes para muchas mentalidades:

Ya al principio, sospechamos que si era realmente posible hacer explosivos [atómicos], tomaría tanto tiempo y requeriría un esfuerzo tan enorme que había una muy buena probabilidad de que la guerra terminase antes de lograrlo.

Cuando tuvimos éxito en el experimento L-4, cuando supimos que podíamos hacer reactores y, gracias al trabajo de Weizsacker, que así se podía hacer plutonio o algo parecido, supimos que en principio éramos capaces de crear bombas atómicas.

Pero aún así no hicimos ningún esfuerzo serio en ese dirección. Hablemos en serio: si queríamos fabricar el agua pesada necesaria, nos costaría de uno a tres años conseguir suficiente cantidad. Producir plutonio bastante se tomaría otros tres años. Así que, con la mejor conciencia del mundo, le dijimos al gobierno: «no será posible hacer una bomba hasta al menos dentro de cinco años.»

Ya sabíamos que prohibirían cualquier nuevo desarrollo que no pudiera usarse durante el año siguiente o así. Estaba claro que iban a decir: «¡No, no! ¡No dediquemos esfuerzos a la bomba atómica!». Y eso fue lo que pasó.

El líder más destacado del programa atómico alemán nos está diciendo que, básicamente… no hubo un proyecto atómico alemán digno de tal nombre. Que en la carrera por la bomba, Estados Unidos estuvo esencialmente solo a pesar de todos los temores geniales emigrados allí huyendo del nazifascismo. Y además, apostilla:

La decisión de no hacer bombas [atómicas] tomada por nuestro gobierno fue muy sensata. Habría sido muy sensata incluso para el gobierno de ustedes, porque podrían haber ganado antes la guerra contra Alemania si no se hubieran puesto a hacer bombas. No hay ninguna duda sobre esto: si ustedes hubieran dedicado todo ese esfuerzo a hacer aviones y tanques y demás, la guerra habría terminado antes. Esto puede no ser cierto en el caso de Japón, porque la guerra contra Japón era distinta; pero si hablamos sólo de la guerra contra Alemania, esto es un hecho.

Uno podría pensar que Heisenberg trata de limpiar su biografía con estas palabras. Nosotros no hacíamos nada malo, nosotros no sabíamos nada de lo que pasaba y todo ese rollo. Lo que pasa es que las pruebas hablan fehacientemente en su favor. O, mejor dicho, la ausencia de pruebas. Por toda la Alemania derrotada, tanto la misión Alsos norteamericana como su versión soviética sólo encontraron indicios de unas investigaciones dispersas, poco decididas, apenas dotadas de recursos y orientadas fundamentalmente a la construcción de reactores experimentales… ninguno de los cuales logró alcanzar masa crítica. Los documentos, los testimonios, las pruebas materiales: todo indica que Alemania en ningún momento se planteó seriamente el desarrollo de armamento nuclear. La carrera por la bomba no existió.

¿Cómo puede ser tal cosa? Vamos, en serio, los nazis no eran precisamente unos pacifistas ni gente tiquismiquis ante el derramamiento de sangre ajena. Resulta francamente dudoso que los fundadores de Auschwitz, Treblinka o Sobibor, los autores del Generalplan Ost que quiso exterminar a los infrahombres del este tanto como a los judíos, los gitanos o los comunistas, hubieran dudado mucho a la hora de volar por los aires a algún millón de personas con bombas atómicas. Heisenberg ya nos apuntaba un motivo de los dirigentes nazis para descartar esta opción: la muy dudosa posibilidad de construir un arma nuclear antes del fin de la guerra. Este premio Nobel alemán, en la entrevista mencionada, aún sugiere alguna más:

Había, por supuesto, una intención muy clara por nuestra parte: teníamos que impedir que nos implicaran en un gran esfuerzo para hacer bombas atómicas. Lo que queríamos era conseguir el dinero justo para seguir adelante con nuestro proyecto de reactor, pero nada más. Teníamos mucho miedo de que, en otro caso, alguien dijera: «Ahora, vamos a por la bomba atómica.» […] Esto salió como esperábamos. Definitivamente, no queríamos que nos metieran en este asunto de la bomba.

No quiero idealizar esta cuestión: lo hicimos también por nuestra seguridad personal. Pensábamos que la probabilidad de que esto condujera al desarrollo de bombas atómicas durante la guerra era casi cero. Si no hubiéramos actuado así, y si se hubiese puesto a trabajar a miles de personas en ello sin resultados… podría haber tenido consecuencias extremadamente desagradables para nosotros.

Equipo con el que se descubrió la fisión en Alemania, 1938.

Experimento con el que Lise Meitner, Otto Hahn y Fritz Strassmann descubrieron la fisión del núcleo atómico en Alemania, 1938. Deutsches Museum, Munich. (Clic para ampliar)

¿Y la dirigencia nazi no se olió nada? Es decir, numerosos científicos y algunos políticos y militares venían hablando ya del advenimiento de la energía nuclear desde antes de la guerra. ¡Pero si Otto Hahn y Lise Meitner habían descubierto la fisión nuclear en la misma Alemania nazi, siendo 1938! El 22 de abril de 1939 Georg Joos y Wilhelm Hanle comunicaron a Abraham Esau –director de la división de física del Consejo de Investigaciones del Reich– las posibles aplicaciones militares de la fisión del átomo. Apenas dos días después Paul Harteck, asesor científico de la Oficina de Municionamiento del Reich, hacía lo propio dirigiéndose al estamento militar. El 29 del mismo mes, un montón de físicos se reunieron en el Ministerio de Educación para considerar todas estas cuestiones, fundando así el primer Uranverein: el club del uranio. Tenían a Hans Geiger, el del contador Geiger. Manfred von Ardenne iba por su cuenta, investigando la separación de isótopos con el apoyo entusiasta del ministro de Correos nazi Wilhelm Ohnesorge. Todo en el más riguroso secreto… pero, en los ámbitos del poder nazi, un secreto a voces. Evidentemente, el Führer y sus lugartenientes tanto políticos como militares tenían que estar al tanto de lo que se cocía en materia atómica; aunque fuera por encima.

Es más. En junio el químico nuclear Nikolaus Reihl, director científico de la empresa Auergesellschaft, se puso también en contacto con la Oficina de Municionamiento del Reich para comunicarles que la compañía estaba en posesión de una respetable cantidad de basura de uranio como resultado de su producción de radio. Y que si estaban interesados, podían ponerse a procesar este uranio, obtenido en las minas de la Checoslovaquia ocupada. Estuvieron interesados y pronto abrían la planta de Oranienburg, al norte de Berlín, que produciría óxido de uranio y otros metales de interés hasta casi el final de la guerra.

El 1 de septiembre de 1939 estalló la Segunda Guerra Mundial, sin pillar por sorpresa a casi nadie: desde años atrás, estaba cantado que se avecinaba algo gordo. Ese mismo día se fundaba el segundo Uranverein bajo los auspicios del Consejo de Investigaciones del Reich, ahora en manos militares. El 19 de este mes, mientras las últimas tropas polacas caían ante la Wehrmacht en la Batalla de Buzra, los científicos atómicos alemanes del segundo club se reunían en secreto por primera vez. Poco después el Instituto de Física Kaiser-Wilhelm y el Instituto Max Planck, las dos instituciones más relevantes de Alemania en asuntos relacionados con la física avanzada, pasaban también a la jurisdicción militar. Sabían que el isótopo uranio-235 era la clave de todo aquel asunto y que había otro aún más prometedor, no presente en la naturaleza pero descubierto igualmente en Alemania: un cierto eka-osmio, al que hoy en día llamamos plutonio.

Werner Heisenberg en 1940.

Werner Heisenberg en 1940, poco antes de descubrir que podía construir un reactor nuclear. Deutsches Bundesarchiv.

En el mes de diciembre, el profesor Heisenberg –por entonces, aún en la Universidad de Leipzig– descubrió con gran emoción que era posible construir un reactor nuclear de uranio-235, que se estabilizaría a sí mismo en torno a 800ºC de temperatura operacional. En los últimos días de 1939, Heisenberg escribía una carta a la Oficina de Guerra del Reich que terminaba así:

Conclusiones: Según las evidencias actuales, el proceso de fisión del uranio descubierto por Hahn y Strassmann puede utilizarse para la producción de energía a gran escala. El método más seguro para construir un reactor capaz de hacer esto sería enriquecer el isótopo uranio-235. Cuanto más alto sea el grado de enriquecimiento, más pequeño se puede hacer el reactor. El enriquecimiento de uranio-235 es la única manera de conseguir que el volumen del reactor sea pequeño, comparado con un metro cúbico.

Es, además, el único método de producir explosivos varios órdenes de magnitud más potentes que los explosivos más poderosos conocidos ahora.

De todos modos, para la generación de energía se puede usar incluso uranio ordinario, sin enriquecer ei isótopo 235, si se utiliza en conjunción con otra sustancia que ralentice los neutrones del uranio sin absorberlos. El agua no es apropiada para esto. Por el contrario, el agua pesada y el grafito muy puro podrían bastar según las evidencias actuales. Las impurezas más minúsculas siempre pueden impedir la generación de energía.

Vaya. Cualquiera diría que en esos momentos de finales de 1939, el buen doctor Heisenberg no tenía tan claro eso de omitir las posibilidades explosivas del invento. Por otra parte, también especifica claramente la necesidad de un moderador neutrónico y las mejores opciones para obtenerlo: el carbono ultrapuro en forma de grafito y el agua pesada. A mediados de 1940 se realizaron varios intentos de construir pequeños reactores en Berlín-Dahlem, demasiado primitivos para funcionar (llegaron a intentar el uso del papel como moderador). En la siguiente carta de Georg Joos a la Oficina de Municionamiento del Reich, fechada en marzo de 1940, ya se plasman las necesidades de pureza del carbono para su uso en reactores nucleares. Pero, ¿qué es esto de un moderador neutrónico?

Carta de Georg Joos sobre el carbono

Carta de Georg Joos a la Oficina de Municionamiento del Reich explicando los detalles de pureza del carbono para constituir grafito de uso nuclear. Se especifican con detalle las proporciones máximas de boro, un poderoso absorbente neutrónico que altera las propiedades de la reacción en cadena. Deutsches Museum, Munich. (Clic para ampliar)

Moderadores neutrónicos.

Reacción en cadena

Reacción en cadena por fisión del núcleo atómico. Para sostenerla con uranio poco enriquecido, hay que reducir la energía de los neutrones rápidos y convertirlos en neutrones térmicos. Esto lo hace el moderador. (Clic para ampliar)

En la reacción en cadena, los neutrones producidos durante la fisión del núcleo atómico provocan nuevas fisiones en los átomos de alrededor. Si hay suficiente masa de material fisible para que estos neutrones se encuentren con algo útil –la masa crítica–, entonces la reacción es capaz de sostenerse a sí misma, generando más energía y más fisiones. En los explosivos nucleares esta reacción es muy rápida, utilizando uranio-235 o plutonio-239 muy enriquecidos sin moderación de ninguna clase, buscando un pico de energía instantánea. Sin embargo, en un reactor nuclear ocurre lo contrario: se desea una reacción en cadena eficiente, económica y progresiva, que funcione con una proporción baja de material fisible y a ser posible usando uranio natural (uranio refinado y concentrado, pero con la misma proporción isotópica que se da en la naturaleza). En aquellos tiempos resultaba aún más importante: la cantidad de uranio disponible era baja y las posibilidades de enriquecerlo, endiabladamente difíciles y costosas usando la tecnología de la época.

Resulta que durante la fisión la mayor parte de los neutrones se emiten en forma de neutrones rápidos, muy energéticos. Se podría pensar que esto es estupendo para provocar nuevas fisiones que aseguren la reacción en cadena, pero… resulta que no va así. La fisión del núcleo atómico se produce mejor cuando es alcanzado por neutrones térmicos, menos energéticos. Dicho en términos sencillos, los neutrones rápidos «pasan demasiado deprisa» para producir una reacción eficaz, mientras que los térmicos lo hacen a la velocidad adecuada. Por tanto, la construcción de un reactor nuclear eficiente exige decelerar estos neutrones rápidos; la sustancia encargada de tal cosa es el moderador. Entre los mejores moderadores neutrónicos se encuentran, como predijeron Heisenberg y otros, el grafito y el agua pesada.

Sin embargo, esta sustancia no debe ser tan efectiva que tienda a frenarlos por completo, porque en ese caso ya no tenemos un moderador sino un absorbente neutrónico que captura los neutrones e interrumpe la reacción. Entre estos tenemos, por ejemplo, al cadmio o el boro. Esta «resistencia al paso de los neutrones» se puede medir de varias maneras. Una de ellas es la longitud de absorción, difusión o atenuación, que indica la probabilidad de que una partícula no sea absorbida durante su paso por estas sustancias. Para construir un reactor con uranio natural, sin enriquecimiento alguno, la longitud de difusión en el moderador debe estar aproximadamente entre cuarenta centimetros y un metro y pico. Si es mayor, no provocará la atenuación necesaria y la reacción en cadena no llegará a producirse. Si es menor, la sustancia actuará como absorbente neutrónico y la detendrá por completo. La longitud de difusión mínima para un moderador básico de uranio natural está en 37 cm.

Agua pesada de Norsk Hydro

Agua pesada de Norsk Hydro al 99,6%. En toda Europa no había ninguna otra instalación donde se produjera en las cantidades industriales precisas. (Clic para ampliar)

El agua pesada es H2O con los átomos de hidrógeno corriente sustituidos por átomos de deuterio; es decir, 2H2O (o D2O, óxido de deuterio). Con una longitud de difusión de 116 cm, constituye un excelente moderador neutrónico. Pero presenta varios problemas de orden práctico. Fundamentalmente es difícil, costosa y complicada de producir; y no te digo ya con el grado de pureza necesario (más del 99%), por lo que en último término sale cara de narices y llega con cuentagotas. Tanto, que en tiempos de los nazis sólo había una fábrica en Europa que la produjese, y eso gracias a un acúmulo de casualidades y rarezas: la planta de Norsk Hydro en Vemork, Noruega. Desde 1927 Norsk Hydro mantenía una sociedad con el inmenso consorcio químico alemán IG Farben y además Noruega fue invadida por los nazis en abril de 1940, con lo que gozaban de libre acceso a este recurso. Pero eso no hacía que el agua pesada resultase más económica, fácil o rápida de producir. Además, había que transportarla en un complicado viaje hasta los laboratorios atómicos alemanes.

El grafito, en cambio, es básicamente carbono y hay por todas partes. Al principio cuesta un poco de producir con el grado de pureza exigido, que es puñetero, pero después sale por toneladas en forma de bloques económicos fáciles de manejar, transportar y utilizar. Por ello, todos los primeros reactores construidos por todas las potencias nucleares fueron de uranio natural moderado por grafito. Cuando partes de cero, ese es el camino más rápido, barato y directo para obtener energía nuclear y armas atómicas.

¿Y el reactor, para qué?

A todo esto, ¿para qué necesitamos un reactor si queremos hacer bombas? Pues por dos motivos fundamentales. El primero es que sin un reactor operativo hay una serie de detalles sobre el funcionamiento íntimo del núcleo atómico que no se pueden aprender; y sin esos detalles, tendrás que construir tu arma nuclear a ciegas en una montaña de consideraciones técnicas importantes. Y el segundo, para producir plutonio en cantidad fácil y rápidamente.

Hay, esencialmente, dos aproximaciones para fabricar tu primera bomba atómica. Una es pillar mineral de uranio y enriquecerlo una y otra vez hasta que obtienes decenas de kilos del preciado isótopo uranio-235 para hacer una bomba del tipo de la de Hiroshima. Esto es un lío, cuesta una fortuna y encima ese tipo de bomba es un rollo, un arma muy limitada. Hubo un momento en que, para realizar este proceso, la planta norteamericana de Oak Ridge consumía la sexta parte de toda la energía eléctrica producida en los Estados Unidos. La Alemania nazi no podía permitirse semejante cosa ni por casualidad, ni en Oranienburg ni en ninguna otra parte.

El reactor B de Hanford.

El reactor B de Hanford, donde se produjo el plutonio estadounidense para Trinity, Nagasaki y numerosas armas de posguerra, era de uranio natural moderado por grafito.

Ni falta que hace. Los americanos es que fueron por las dos vías a la vez, pero la gente que sabe lo que quiere y cómo conseguirlo a un precio justo opta siempre por el plutonio. El plutonio resulta enormemente más práctico como arma que el uranio; cuesta mucho menos de producir y separar; permite más fácilmente el diseño de armas más avanzadas; y no necesitas instalaciones tan grandes, caras y conspicuas. Por eso la primera bomba atómica fue de plutonio, la de Nagasaki fue de plutonio, la primera de los soviéticos fue de plutonio  y hoy en día todas son de plutonio total o parcialmente. Hágame caso, joven: para jugar a los soldaditos atómicos, uranio kk, plutonio mola. Y de buen grado o a la fuerza, a Alemania no le quedaba otra que ir por la vía del plutonio.

El plutonio sólo tiene un par de pejiguerías, y una de ellas es que no se da en la naturaleza. Estamos ante un elemento sintético que hay que producir por completo. Sólo hay una manera de hacerlo a escala industrial: con un reactor nuclear. Es muy sencillo. Bueno, bastante sencillo. Metes uranio natural, que está compuesto fundamentalmente por uranio-238 con una pequeña proporción de uranio-235. El uranio-235 es fisible, el -238 no (en condiciones normales). Entonces le das mecha al reactor. El -235 empieza a fisionar en cadena y una parte de sus neutrones alcanzan al -238. Pero ya hemos dicho que el -238 no puede fisionar, así que los va absorbiendo y al hacerlo se convierte en uranio-239. El uranio-239 es virulentamente inestable y en cuestión de minutos decae a neptunio-239, que tampoco está muy p’acá y transmuta en… ¡tachán! ¡Nuestro deseado plutonio-239! Todo esto ocurre en cadena, sin ningún esfuerzo adicional. De lo único que tienes que llevar cuidado es de que no se te desmande el reactor (por la acumulación de un nuevo material fisible, el propio plutonio-239) y de no acumular mucho plutonio-240, que a este nivel sólo sirve para tocar las narices. Yendo por el camino del plutonio consigues una bomba mejor, antes y con más posibilidades. Todo son ventajas.

Pero necesitas un reactor. Aunque sea un reactor experimental del año de la picor. Sin reactor no hay plutonio (ni electricidad, en las aplicaciones civiles de la energía nuclear). A todos los efectos prácticos de la Alemania nazi, sin reactor no hay bomba, ni programa nuclear ni nada.

Así pues, no quedaba otra que construir un reactor. Tenían los conocimientos, tenían los especialistas, tenían las materias primas (no muchas, pero tenían) y dos opciones para el moderador: el agua pesada, difícil, remota y cara; y el grafito, fácil, cercano y barato (¡será por carbón en Alemania!). ¿Con cuál te quedarías tú? Exacto: a diferencia de todos los demás, eligieron el agua pesada. Pero, ¿por qué?

Opciones tecnológicas para el desarrollo de las primeras armas nucleares

Opciones tecnológicas para el desarrollo de las primeras armas nucleares 1940-1960. (Clic para ampliar)

Walther Bothe en Stuttgart, 1935.

Walther Bothe durante una reunión de físicos en Stuttgart, 1935.

Un pequeño error para un hombre, un gran golpe para el proyecto atómico nazi.

Aunque Heisenberg estaba convencido por motivos teóricos de que tanto el grafito como el agua pesada valían de moderador neutrónico, resultaba preciso verificarlo experimentalmente y determinar cuánto con absoluta precisión. Con exactitud germánica, como si dijéramos. Del agua pesada se encargó él mismo, en colaboración con el matrimonio Robert y Klara Döpel. Debido a la importancia de este estudio, el grafito lo estudiaría otro físico prestigiosísimo distinto, con quien Heisenberg sustentaba alguna rivalidad: el doctor Walther Bothe de Heidelberg, director de la unidad de física del Centro de Investigaciones Médicas Kaiser-Wilhelm, padre del primer acelerador de partículas alemán digno de tal nombre y futuro premio Nobel. Si te crees más capaz que él, siempre puedes levantar la mano y ofrecerte voluntario, kamerad.

Esfera de Bothe para medir la longitud de difusión neutrónica en el electrografito.

La esfera de Bothe para medir la longitud de difusión neutrónica en el electrografito, a finales de 1940. En Walther Bothe, «La Longitud de difusión de los neutrones térmicos en el electrografito», fechado el 20 de enero de 1941, Kernphysikalische Forschungsberichte (G-71). Deutsches Museum, Munich.

Además, el doctor Bothe tenía experiencia en la materia. Entre otros trabajos relativos al uranio como combustible para obtener energía nuclear, el 5 de junio de 1940 ya había realizado el correspondiente estudio sobre una muestra de carbono común, concluyendo que su longitud de difusión ascendía a 61 cm. Esto es: bien por encima del límite mínimo de 37 cm y más de la mitad que el agua pesada, situada convencionalmente entre 100 y 116 cm. Pensaba que esa cifra de 61 cm aún podía mejorarse, porque su muestra de carbono estaba bastante contaminada con calcio, magnesio y otras cosas que alteran el resultado; según sus estimaciones, al usar grafito ultrapuro podría llegarse a 70 cm. Así lo plasmó en sus conclusiones:

…siguiendo [el dato] G1.(3) la absorción es del 6% con una longitud de difusión de 61 cm. Esto se acerca bien al valor de 70 cm, donde Heisenberg ha demostrado que es posible la Máquina [el reactor] […]. Con el límite de error estimado, queda determinada en el límite mínimo de la longitud de difusión (37 cm). […] Usando carbono puro, la longitud de difusión podría ser mayor que 70 cm, con una sección eficaz de captura inferior a 0,003 x 10-24.

En todo caso, se precisan más experimentos con el carbono. Parece que la idea es ensamblar inmediatamente una Máquina juntando Preparado 38 [uranio] y carbono. El carbono puro podría obtenerse, por ejemplo, mediante las vías propuestas por Joos, para después llevarlo al método del electrografito hasta una densidad de 1,5.

–Walther Bothe, «La Longitud de difusión de los neutrones térmicos en el carbono». Fechado el 5 de junio de 1940, Kernphysikalische Forschungsberichte (G-12).

Así pues, durante las últimas semanas de 1940 el doctor Bothe de Heidelberg se puso a la labor junto con Peter Jensen y algunos estudiantes universitarios de confianza reclutados como ayudantes. Con el máximo secreto, montaron en un sótano del Centro de Investigaciones Médicas un apparat para realizar la medición usando electrografito de la máxima calidad suministrado por Siemens-Plania: el mejor grafito que se podía conseguir en la Alemania del periodo.

Este dispositivo era básicamente una esfera de 110 cm de diámetro formada por bloques de este electrografito con una funda exterior de caucho, que se sumergía en un tanque de agua. La esfera estaba provista con una estructura de aluminio en la parte inferior, montada sobre una base de hierro y madera encerada, pero por lo demás era autoportante; en la parte exterior había cintas de cadmio. Por arriba dejaron un canal libre para introducir las sondas y la fuente neutrónica, un preparado de radón-berilio con una actividad de setenta milicurios; este canal se cerraba a continuación introduciendo más grafito en bloques cilíndricos. En un determinado momento del informe que escribiría con posterioridad, Bothe se queja de no tener medios para hacer un montaje más elaborado.

El 20 de enero de 1941, el futuro premio Nobel da a conocer sus resultados entre los miembros del segundo club del uranio con un informe ultrasecreto titulado La longitud de difusión de los neutrones térmicos en el electrografito (W. Bothe y P. Jensen, Die Absorption thermischer Neutronen in Elektrographit, en Kernphysikalische Forschungsberichte G-71). Las mediciones obtenidas hacen empalidecer a más de uno:

[…] se calcula la longitud de difusión:

L = 36 ±2 cm.

El error de Bothe que condenó al programa atómico alemán

El error de Bothe que condenó al programa atómico alemán en su documento secreto original «La Longitud de difusión de los neutrones térmicos en el electrografito», fechado el 20 de enero de 1941. Kernphysikalische Forschungsberichte (G-71), Deutsches Museum, Munich. La verdadera longitud de difusión neutrónica para el grafito son 54,4 cm, no 36 cm.

Así, destacadito, porque el resultado es de lo más sorprendente, contrario a la teoría y un verdadero jarro de agua helada para el programa atómico alemán. Treinta y seis centímetros resultaban radicalmente insuficientes, uno por debajo del mínimo absoluto de 37. Y un gravísimo error: la verdadera longitud de difusión neutrónica en el grafito es de 54,4 cm, muy correcta para un moderador, cosa que en los Estados Unidos midió Szilárd con éxito. Inmediatamente a continuación, Bothe afirma:

Con los [valores] sobre los que se basan los cálculos de Heisenberg se esperaría una longitud de difusión L0 = 61 cm. La longitud de difusión medida es mucho menor y la absorción mucho más fuerte, por lo que el carbono estudiado aquí difícilmente debería tomarse en consideración como un material moderador para la Máquina [el reactor].

La conclusión derivada del error de Bothe

La conclusión derivada del error de Bothe: el grafito no sirve como moderador para un reactor nuclear. Esta creencia errónea no desaparecería hasta los últimos meses de la guerra.

Con todas las letras. Por cierto, que el buen doctor Bothe se nos antoja un poco listillo a la hora de quitarse marrones de encima: cabría recordar que esos «valores sobre los que se basan los cálculos de Heisenberg» son los mismos que él dedujo siete meses antes. Pero da igual: es una catástrofe de todos modos. Tras un cuidadoso análisis de impurezas obtenido quemando una cantidad del carbono para estudiar sus cenizas, determina en las conclusiones:

En todo caso, se puede juzgar a partir del estado presente de la teoría que el carbono [grafito], aunque haya sido manufacturado con los mejores métodos técnicos conocidos y esté libre de impurezas, probablemente no sirve como material moderador para la Máquina en cuestión a menos que se acumule [enriquezca] el isótopo 235.

Conclusión de Bothe

La conclusión final de Bothe, en el mismo documento: el grafito sólo serviría como moderador neutrónico si se usara uranio enriquecido, que Alemania no podía producir en cantidades suficientes y de hecho ningún país utilizó en sus primeros intentos.

Cénit y ocaso del proyecto atómico alemán.

Estas conclusiones fueron devastadoras. Si para Alemania el grafito no servía como moderador y enriquecer uranio resultaba inviable económicamente, entonces la vía del plutonio debía discurrir necesariamente por el camino del agua pesada, largo, caro y complicado. A partir de este momento, el pesimismo comienza a instalarse poco a poco en la comunidad de los científicos atómicos nazis, lo que se va traduciendo en un progresivo desinterés por parte de los dirigentes políticos. Siguiendo a Werner Heisenberg:

[No hubo más interés en el grafito, a pesar de saber que el agua pesada era muy escasa] debido a que el experimento de Bothe no era correcto. Bothe había hecho esta medida del coeficiente de absorción del carbono puro y se le deslizó un error en el experimento. Sus valores eran demasiado altos [en absorción; bajos en difusión] pero asumimos que eran correctos y no creíamos que el grafito se pudiera usar.

Atención de nuevo a las fechas. Las fechas son muy importantes:

Fecha y firma del documento erróneo de Bothe.

Fecha y firma del documento erróneo de Bothe «La Longitud de difusión de los neutrones térmicos en el electrografito». Kernphysikalische Forschungsberichte (G-71), Deutsches Museum, Munich.

Adolf Hitler en París con Albert Speer y Arno Breker.

Adolf Hitler en París con Albert Speer (izda.) y Arno Breker (dcha.), 23 de junio de 1940; Francia se había rendido el día anterior. A principios de 1941, casi toda Europa estaba controlada directa o indirectamente por los nazis. Las grandes batallas contra los Estados Unidos y la Unión Soviética no habían comenzado aún. Todas las opciones políticas y militares permanecían abiertas en esas fechas.

Estamos todavía en enero de 1941. La Europa continental entera, desde el Vístula y el Danubio hasta el Atlántico, está en manos nazis o de amigos de los nazis a excepción de un par de países neutrales: una buena posición para atrincherarse. Aún no han invadido la Unión Soviética, con la que mantienen una paz precaria. Pearl Harbor no ha ocurrido tampoco todavía: los Estados Unidos siguen fuera del conflicto. En estos momentos, sólo el tropezón de la Batalla de Inglaterra empaña los éxitos alemanes. La guerra se lucha ahora mismo en África, lejos de la Fortaleza Europa. Los grandes bombardeos que más adelante aniquilarían las ciudades e industrias alemanas caen de momento principalmente sobre el Reino Unido, a manos de la Luftwaffe. Faltaba más de un año para que el Proyecto Manhattan se pusiera en marcha en serio. Von Braun y los suyos seguían en Alemania. Todas las posibilidades estaban abiertas aún.

¿Qué habría sucedido si Bothe no se hubiera equivocado y alguien hubiese dicho a la dirigencia nazi durante la primavera de 1941: «podemos construir un reactor de grafito y fabricar plutonio, podemos hacer bombas atómicas, consígannos algo de tiempo y uranio; es cosa de cuatro o cinco años, puede que menos si nos dotan con la mitad de los medios que harían falta para invadir la URSS el próximo verano»?

Por supuesto, resulta imposible saberlo. Sí conocemos, en cambio, lo que sucedió en realidad. En estas mismas fechas de 1941, la empresa Auergesellschaft que mencioné más arriba ya había fabricado varias decenas de toneladas de óxido de uranio y Degussa de Fráncfort, los primeros 280 kg de uranio metálico para el reactor de Heisenberg (en parte con mineral capturado durante la conquista de Bélgica). Los norteamericanos no empezarían a disponer de este material hasta 1942, cuando los científicos alemanes ya contaban con siete toneladas y media. En diciembre de 1942, la Pila Chicago-1 de Fermi y Szilárd necesitó 6 toneladas de uranio puro y 34 de óxido de uranio para convertirse en el primer reactor operativo de la historia. Pero no estamos en 1942: estamos aún en 1941, y el Tercer Reich tiene ya casi todo el uranio necesario.

En Alemania había (y hay) grandes minas de carbón; con él, compañías como Siemens-Plania, IG Farben, Degussa y otras podrían haber producido grafito de calidad nuclear a poco que sus científicos atómicos les hubieran dicho cómo hacerlo. Esto, evidentemente, no sucedió. En vez de eso, el agua pesada se convirtió en un recurso estratégico de primer orden, la única posibilidad. A partir de estas fechas, se realizaron numerosas actuaciones para asegurar el agua pesada noruega de Norsk Hydro, y también para empezar a producirla en Alemania, esto último con reducido éxito. Hacia finales del verano de 1941, encargaban a Norsk Hydro 1.500 kilos de agua pesada. Para fin de año, ya habían recibido los primeros 361.

Durante el mismo 1941 hubo diversos intentos para enriquecer uranio de manera más eficiente, lo que habría despertado un interés renovado en el grafito (posiblemente sacándoles de su error). Pero a pesar de que alguno tuvo éxito, no se vieron capaces de continuar por ese camino debido a las limitaciones económicas. Así, les quedó definitivamente vedada la vía del uranio. Sólo era posible la vía del plutonio, como concluyera el singular Fritz Houtermans en agosto de este año, lo que exigía construir un reactor sí o sí. A partir de finales de 1941, todos los intentos de los científicos atómicos alemanes estuvieron orientados a crear este reactor de uranio natural-agua pesada. En palabras de Heisenberg, fue en septiembre de 1941 cuando vimos ante nosotros un camino abierto que conducía a la bomba atómica.

En octubre, un atribulado Heisenberg se reunía en Dinamarca con Niels Bohr para conversar sobre la moralidad de que los científicos contribuyeran a esta clase de invenciones terribles; Bohr malinterpretó la conversación por completo y transmitió que Alemania estaba cerca de conseguir la bomba atómica a los norteamericanos (adonde Bohr huiría también poco después). Puede imaginarse la alarma que despertaron estas palabras, reforzando la reciente decisión de Roosevelt de iniciar el desarrollo de esta nueva clase de arma (en esos momentos y durante unos meses más, el proyecto Manhattan aún se compondría de investigaciones aisladas).

Operación Barbarroja

El 22 de junio de 1941, Alemania invadió la Unión Soviética. Comenzaba así la mayor batalla de la historia de la Humanidad, que se cobraría decenas de millones de víctimas civiles y militares y culminó con el colapso total del régimen nazi. Esto provocó enormes tensiones en la economía alemana desde el invierno de 1941, obligándoles a concentrarse en aquellos proyectos que pudieran ofrecer resultados militares de manera más inmediata. Deutsches Bundesarchiv.

En diciembre de 1941, con las fuerzas alemanas detenidas a las puertas de Moscú, el ministro de Armamento y Municiones Fritz Todt comunicaba a Hitler que la economía de guerra alemana estaba próxima a su punto de ruptura. Desde ese momento, cualquier incremento de gasto en un ámbito debía conducir necesariamente a una reducción en otros o el país colapsaría. Así pues, se cursaron órdenes para evaluar todos los programas armamentísticos y concentrar los recursos en aquellos que pudieran obtener resultados antes de que acabase la guerra. El profesor Schumann, director de investigaciones militares, escribió a los distintos institutos del uranio transmitiéndoles estas instrucciones.

Hubo una primera reunión evaluadora a principios de 1942. Durante esa reunión se vio que sus expectativas militares eran demasiado remotas: pasaría un largo tiempo antes de que se pudiera construir un reactor de uranio natural – agua pesada capaz de producir plutonio en cantidad. No habría bomba atómica en breve. Así pues, se decidió sacar este proyecto del ámbito militar y devolverlo al civil, bajo control del Ministerio de Educación. En ese momento, el cénit del programa atómico nazi, apenas había un total de setenta personas implicadas directamente en el mismo.

El 26 y 27 de febrero de 1942 se convocaron dos reuniones simultáneas para tratar el asunto en mayor profundidad, con la participación de todos los científicos nucleares principales. Se invitó a  Himmler y Keitel pero, debido a una equivocación administrativa, ambos declinaron su asistencia (les mandaron el programa de conferencias científicas por error, en vez de los encuentros de interés político-militar, lo que les hizo pensar «¿qué demonios pintamos nosotros en unas jornadas de físicos?»). A pesar de esto las reuniones resultaron satisfactorias y se aceleró la construcción de una planta de agua pesada en Leuna por cuenta de IG Farben. Pero seguían dependiendo de Norsk Hydro, que ahora producía unos 140 kg de calidad superior al 99% cada mes; la planta de Leuna no estaría lista hasta finales de la guerra… fabricando agua pesada a apenas el 1%. De todos modos, el programa atómico no regresó al ámbito militar.

Pila atómica alemana L-IV de Leipzig.

La pila atómica L-IV de Leipzig, el primer intento serio de construir un reactor nuclear en la Alemania nazi. Fue activada en mayo de 1942 y produjo más neutrones de los que gastaba, un 13%, aún lejos de lo necesario para sostener una reacción en cadena.

En mayo, Degussa había manufacturado ya tres toneladas y media de uranio para la pila atómica de Heisenberg. Hacia finales de mayo realizaron el primer intento en Leipzig: el reactor L-IV, con 750 kilos de uranio puro y 140 de agua pesada. Produjo neutrones, un 13% más de los que consumía, pero aún estaba muy lejos de sostener una reacción en cadena. Sin embargo, era un éxito: simplemente aumentando su tamaño, conseguirían un reactor nuclear efectivo. Heisenberg calculó que con diez toneladas de uranio metálico y cinco de agua pesada bastaría. El 28 de mayo, Degussa enviaba la primera tonelada a sus talleres de Fráncfort para cortarla en piezas del tamaño adecuado. Pero el agua pesada seguía llegando desde Noruega a un ritmo exasperantemente lento. ¡Si hubiera algo para sustituirla…! Alrededor, las fábricas germanas producían constantemente miles de toneladas de carbono purificado y grafitos elaborados con buen carbón alemán, para múltiples usos civiles y militares, ignorando que tenían en sus manos la clave de la bomba atómica.

El 4 de junio llegó el momento más decisivo del programa atómico alemán. Heisenberg viajó a Berlín para entrevistarse con el poderoso ministro del Reich Albert Speer, íntimo de Hitler. En la reunión, celebrada en el Instituto Kaiser-Wilhelm de Berlín-Dahlem, estaban también presentes otros pesos pesados de la ciencia, la política y el ejército. Heisenberg les explicó que era posible construir una bomba del tamaño de una piña capaz de aniquilar una ciudad. Pero, a continuación, anunció que Alemania no podría construirla en muchos meses; y, de hecho, representaba una imposibilidad económica con las tecnologías disponibles. Los asistentes, que se habían excitado mucho con la primera afirmación, quedaron decepcionados tras la segunda.

El día 23, Speer se reunía con Hitler. En el transcurso de una larga conversación sobre múltiples temas, apenas mencionó el asunto de la bomba atómica, y de manera poco entusiasta. Así, el programa nuclear nazi perdió definitivamente el interés de los políticos y los soldados. A pesar de ello siguieron financiándolo y prestándole asistencia hasta el final de la guerra, aunque como un proyecto civil de orden secundario para la futura producción de energía eléctrica.

En torno a esas fechas, los aliados identificaron el interés nazi en el deuterio noruego y pusieron en marcha una campaña de sabotajes y bombardeos contra la instalación de Norsk Hydro en Vemork, conocida por la historia como la batalla del agua pesada. Hubo grandes actos de heroísmo y famosas películas… pero en realidad, a esas alturas, Alemania ya estaba fuera de la carrera por la bomba atómica. Lo único que lograron estas acciones bélicas fue retrasar aún más la investigación civil. En torno a 1944, la instalación estaba tan dañada que ya sólo producía agua pesada al 1%.

Aún así, siguieron avanzando. Cada vez más despacio, conforme la guerra en el Este demandaba más y más de la sociedad alemana, los bombarderos del Oeste aniquilaban sus ciudades e industrias, el agua pesada llegaba cada vez más despacio y más impura. Varias instalaciones esenciales resultaron destruídas durante los bombardeos de alfombra. El suministro de corriente eléctrica era a cada día más azaroso, los recursos más raros y caros. Hacia el otoño de 1944 los cohetes balísticos V-2 de Von Braun comenzaron a atacar las ciudades enemigas… con componentes realizados en un grafito de alta calidad muy similar al que habría salvado el programa atómico tres años y medio antes.

También fue en esa época cuando, por el propio avance de la ciencia, los científicos alemanes adquirieron consciencia de que habían estado equivocados todo ese tiempo. De que las mediciones de Bothe estaban mal: el grafito era un extraordinario moderador neutrónico que habría permitido a la Alemania nazi crear rápidamente reactores generadores de plutonio. Pero a esas alturas ya no tenía arreglo. Aún llegaron a construir un último reactor en marzo de 1945, el B-VIII de Haigerloch, utilizando una solución mixta de agua pesada y grafito. Tenía las características tecnológicas para alcanzar la reacción en cadena autosostenida, pero aún resultaba demasiado pequeño debido a las carencias de agua pesada. A esas alturas, los Estados Unidos ya estaban produciendo plutonio industrialmente en Hanford. Con uranio natural y grafito, por supuesto.

Soldados norteamericanos y británicos desmontan el reactor B-VIII de Haigerloch.

Soldados norteamericanos y británicos desmontan el reactor nuclear nazi B-VIII de Haigerloch tras su captura. Archivo Gubernamental del Reino Unido.

A finales de abril de 1945, las tropas anglonorteamericanas conquistaban Haigerloch y otras instalaciones esenciales para el programa nuclear alemán, mientras el Ejército Rojo hacía lo propio por el este. El día 30, Hitler se suicidaba en su búnker. El 2 de mayo, el comandante de Berlín rendía la capital del Tercer Reich al general soviético Vasily Chuikov. Cinco días después, los restos de la Alemania nazi se rendían incondicionalmente a los aliados. Las misiones Alsos norteamericana y soviética hicieron su particular agosto. La historia aún tuvo un último coletazo: el 14 de mayo, un buque estadounidense capturaba al submarino U-234. Iba cargado con materiales nucleares y otros componentes tecnológicos avanzados, en dirección a Japón. Algunos de estos productos llegarían a su destino tres meses después… como parte de las bombas de Hiroshima y Nagasaki.

¿Qué fue lo que falló?

Aún hoy se discute por qué un físico tan extraordinario como Walther Bothe, que ganaría el premio Nobel en 1954, cometió ese error fatal en sus mediciones del grafito. Algunos creen que el electrografito purísimo suministrado por Siemens-Plania para el experimento estaba contaminado con boro, un poderoso absorbente neutrónico capaz de alterar los resultados: un solo gramo de boro captura tantos neutrones como cien kilos de carbono. En aquella época era común que el proceso de elaboración industrial del grafito incorporase carburo de boro, un hecho que Szilárd sabía y tuvo en cuenta durante sus experimentos análogos en los Estados Unidos. Pero Bothe, aparentemente, no estaba al tanto de este detalle. A pesar del cuidadoso análisis de la pureza del grafito realizado por este último, incluso cantidades minúsculas de boro bastarían para reducir la longitud de absorción de la muestra por debajo del mínimo exigible en un moderador neutrónico. Otros deducen que los bloques de grafito utilizados no encajaban perfectamente entre sí y, al sumergirlos en el agua, mantuvieron burbujas de aire en su interior. En este caso, el nitrógeno del aire podría haber producido un efecto parecido. Esta era la opinión del propio Werner Heisenberg.

Hay incluso quien piensa que Bothe saboteó los resultados. Walther Bothe despreciaba profundamente a los nazis por el asunto de la física aria, estaba casado con una rusa y –a diferencia de lo ocurrido con sus colegas– los vencedores no le molestaron tras el fin de la Segunda Guerra Mundial. En este caso Bothe, perfecto conocedor de las fortalezas y debilidades de Alemania, habría bloqueado deliberadamente el único camino practicable por los nazis para conseguir la bomba atómica. Al cortar el paso al grafito, sabiendo de las dificultades relacionadas con el enriquecimiento de uranio y con el agua pesada, cerraba también de hecho la vía del plutonio al Tercer Reich. O al menos se lo ponía muy difícil. Bothe jamás reconoció esta posibilidad, aunque sin duda le habría hecho quedar como un héroe tras la victoria aliada. Lo único que dijo respecto a sus resultados erróneos fue que Heisenberg no había tenido en cuenta los márgenes de error (aunque, como hemos visto en el texto original, eran unos márgenes muy ajustados).

Soldados soviéticos en Berlín, mayo de 1945

Soldados soviéticos en el hotel Adlon de Berlín, frente a la Puerta de Brandemburgo, en mayo de 1945. Algunas de las principales instituciones científicas, situadas en el área de Berlín, caían así en manos de la URSS. Deutsches Bundesarchiv.

En realidad el fallo esencial de la ciencia alemana en el programa nuclear fue no contar con un mecanismo de verificación independiente. Así lo reconocía Heisenberg, en la entrevista mencionada al principio:

Había tan pocos grupos [de investigación] que nunca repetíamos un experimento dos veces. Cada grupo tenía alguna tarea asignada. Nosotros, en Leipzig, hicimos las mediciones para el agua pesada y a partir de ese momento todo el mundo aceptó nuestro resultado; nadie lo comprobó. Y nadie comprobó tampoco las medidas de Bothe.

Si hubiera existido un mecanismo de verificación independiente que comprobara los datos de sus colegas, el error de Bothe se habría tornado evidente en el mismo 1941 y Alemania habría podido usar el grafito como moderador desde el principio. En ausencia de verificaciones independientes, toda afirmación tiene que darse por buena sin garantía alguna, incluso aunque vaya en contra de todo lo que se sabe hasta el momento (como en este caso: la teoría no predecía una longitud de difusión tan corta, ni tampoco las mediciones preliminares anteriores del propio Bothe). Por eso se insiste tantas veces: todo experimento debe ser reproducible y reproducido, todos los resultados deben verificarse independientemente. Esto es esencial para el método científico. Cuando no se respeta, ya vemos las consecuencias, en este o en cualquier otro ámbito.

Pero, ¿habría sido realmente posible?

El error de Bothe no fue, ni con mucho, el único problema que plagó al programa atómico de la Alemania nazi. Uno de los más fundamentales fue el volumen económico total del Tercer Reich, al menos en comparación con el de los Estados Unidos. Durante la mayor parte de la guerra, el producto nacional bruto alemán era superior al británico, el francés o el soviético; pero entre dos y tres veces más pequeño que el estadounidense. Este abismo económico explica por sí solo la relativa facilidad con que la potencia norteamericana pudo desarrollar el proyecto Manhattan. No obstante, los Estados Unidos recorrían simultáneamente la vía del plutonio y la del uranio, mucho más cara. Yendo sólo por la del plutonio, un programa nuclear resulta notablemente menos costoso; puede que incluso hasta el punto de igualar estas diferencias en poderío económico total.

Comparación del volumen económico de los principales contendientes en la Segunda Guerra Mundial

Comparación del volumen económico de los principales contendientes en la Segunda Guerra Mundial. Datos tomados de Mark Harrison (1998), «The economics of World War II: Six great powers in international comparison», Cambridge University Press. Clic para ampliar.

Otro problema notable fue la llamada generación perdida de científicos alemanes. Debido a las persecuciones políticas y raciales, un gran número de científicos europeos y específicamente alemanes huyeron a los Estados Unidos, donde terminarían constituyendo la columna vertebral del proyecto Manhattan. Estupideces racistas como el asunto de la Física aria, junto a las distintas ciencias patrióticas o la depuración política del profesorado, no hicieron nada por mejorar el estado de la ciencia que quedó en la Europa controlada por el nazifascismo y sus aliados. Y sin embargo, como hemos visto, Alemania mantenía un número significativo de científicos destacados pertenecientes a la generación anterior.

Un tercer problema significativo fue la dificultad de acceso a algunos productos esenciales. Europa no es un continente que se caracterice por la abundancia de recursos naturales; incluso conquistando la mayor parte, como había logrado el Tercer Reich a finales de 1940, sigues necesitando un montón de cosas. El mismo uranio –aunque suficiente– hubo que rebuscarlo por varias fuentes distintas, desde las minas de Checoslovaquia a las reservas belgas. No tenían helio. El petróleo y los combustibles fueron un quebradero de cabeza para los nazis durante toda la guerra. Y así, mil cosas. En general, a Alemania todo le salía mucho más caro y trabajoso de obtener, porque debía conseguirlo fuera de Europa. Esto produjo también importantes carencias entre la población. A pesar de ello, no hay ningún motivo claro por el que estas carencias hubieran podido detener o retrasar significativamente la vía del plutonio, si no hubiera sido por ese asunto del agua pesada.

Y, por supuesto, conforme avanzaba la guerra los bombardeos y las derrotas constreñían la economía alemana cada vez más y les iban privando de industrias y recursos fundamentales. Hacia el final del conflicto, algunas instalaciones clave para el programa atómico resultaron destruidas o severamente dislocadas. Pero para cuando eso ocurrió, la guerra ya estaba perdida y el camino al arma nuclear, abandonado tiempo atrás en favor de aquellos últimos reactores de juguete.

El error de Bothe fue el único factor determinante que cerró decisivamente el único camino practicable hacia la bomba atómica para el Tercer Reich. Precisamente por todas estas limitaciones, Alemania debía haber tomado desde el primer momento y sin dudarlo la vía del plutonio producido en reactores de uranio natural-grafito. Así lo consiguieron casi todas las potencias nucleares. Como hemos visto, gozaban de uranio y grafito suficiente para intentarlo, así como de un número de científicos muy destacados que ya habían alcanzado muchos de los conocimientos necesarios en fecha tan temprana como 1941. Quizá no tuvieran gente con la talla de Einstein o Szilárd o Fermi u Oppenheimer, pero los científicos atómicos alemanes eran muy brillantes sin duda alguna. No obstante, al obligarles a ir por el camino del agua pesada, el error de Bothe retrasó y encareció absurdamente el programa nuclear nazi hasta tornarlo impracticable por completo en el escaso tiempo de que disponían.

Walther Bothe en 1954

Walther Bothe en 1954, tras obtener el premio Nobel. Fundación Nobel, Suecia.

Fueron estos retrasos y encarecimientos los que desmotivaron a la dirigencia política y militar del Tercer Reich, así como a los propios científicos. Si en Alemania no hubo una acción política decidida para unificar el proyecto atómico y dotarlo de medios abundantes fue precisamente porque el largo camino del agua pesada lo hacía poco atractivo de cara al desenlace de la guerra. Si hubiera habido una vía rápida –el reactor de grafito–, seguramente se habrían tomado mucho más interés.

Opino que sin el error de Bothe, y con un programa atómico decidido y bien dotado, la Alemania nazi podría haber completado su primer reactor de uranio natural-grafito al mismo tiempo que los estadounidenses o poco después: finales de 1942, principios de 1943. Incluso algo antes, mediando cierta genialidad. Tampoco veo ningún motivo claro por el que no hubieran podido empezar a producir plutonio a escala industrial hacia finales de 1943 o principios de 1944 (los norteamericanos lo lograron a mediados de 1943). Y una bomba primitiva entre 1945 y 1946.

Para ser de utilidad, obviamente, la Segunda Guerra Mundial tendría que haber durado un poco más; pero no debemos olvidar que las decisiones científicas principales se tomaron a principios de 1941, cuando todas las opciones políticas y militares estaban abiertas aún. No era estrictamente preciso invadir la URSS en junio de 1941, sobre todo si piensas que pronto tendrás bombas atómicas para devastarla a tu gusto. Tampoco era totalmente necesario que Japón atacara Pearl Harbor en diciembre de 1941, propiciando así la entrada de Estados Unidos en la guerra y la activación final del Proyecto Manhattan durante 1942. Todo eso era en gran medida inevitable y habría terminado por suceder de una manera u otra, pero no tenía por qué ocurrir tan deprisa como sucedió. Si los nazis hubieran sustentado la convicción íntima de que sus científicos andaban detrás de algo importante, una wunderwaffe como jamás vio la Humanidad, habrían tenido una motivación clara para enfriar la evolución del conflicto en vez de acelerarla como hicieron. Un 1941-1942 de moderada intensidad (parecida a lo que fue el periodo agosto de 1940 – junio de 1941, con enfrentamientos eminentemente periféricos y un reforzamiento de la Defensa del Reich) habrían sido suficientes con alguna probabilidad.

Pues si Alemania hubiera podido seguir la vía del plutonio usando reactores de uranio natural-grafito, creo –creo– que habría bastado con retrasar las cosas catorce o dieciocho meses para asegurarse una bomba atómica como la de Nagasaki antes del final de la guerra. Dado que no había ningún motivo por el que retrasarlas, dado que el programa nuclear alemán se había convertido en poco más que una curiosidad científica irrelevante a partir del error de Bothe en enero de 1941 y sobre todo desde la reunión con Speer de junio de 1942, las cosas sucedieron como sucedieron. El Tercer Reich invadió a la URSS en junio de 1941, Japón atacó Pearl Harbor en diciembre, Estados Unidos y la Unión Soviética entraron en modo overkill, y el resto de la historia resulta sobradamente conocido. Para bien.

Pila atómica nazi B-VIII de Haigerloch

El último intento nazi por alcanzar la criticidad: la pila atómica B-VIII de Haigerloch, capturada por los aliados en abril de 1945. Nunca pudo alcanzar la reacción en cadena autosostenida: debería haber sido un 50% mayor para lograrlo. Réplica en el Museo Atómico de Haigerloch, Alemania.

116 Comentarios Trackbacks / Pingbacks (24)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (75 votos, media: 4,95 de 5)
Loading...
Be Sociable, Share!

« Entradas anteriores Página siguiente » Página siguiente »