Archivo de Historia y cultura

Así le tomamos la medida al tiempo

Estas fechas son muy curiosas.

Termómetro de mercurio

Que el termómetro y su escala sean una invención humana no significa que el calor no exista. Pues con el tiempo pasa igual. Imagen: Wikimedia Commons.

Me sigo encontrando con personas que no captan a la primera la diferencia entre el tiempo y la medida del tiempo. O sea, entre el tiempo como hecho físico y la manera como lo contamos: años, días, segundos, etcétera. En consecuencia, algunas opinan que el tiempo es una invención humana y no existe de verdad.

Bien, pues esto es como confundir el espacio con los kilómetros, o el calor con los grados centígrados. O los números con las cosas que cuentan. Por ejemplo, por mucho que el número 8 con sus dos cabecitas una encima de la otra sea una invención humana, si nos dan ocho bofetones en vez de uno o dos pillaremos enseguida la diferencia entre hecho físico (las bofetadas), medida (8) y la relación entre ambas. :-P Una cosa son los hechos físicos y otra distinta la manera como nosotros los humanos los medimos. Que es de lo que va este post.

El tiempo es un hecho físico real, que Aristóteles definió como la medida del cambio (Física, libro IV, partes 10-13.) Aunque Aristóteles esté bastante superado en estos temas, y aunque hubo otros que defendieron que el tiempo no existe con mejores argumentos, va a ser que sí existe, o algo que se le parece mucho. Si no existiera el tiempo, o algo que se comporta exactamente como el tiempo, este sería un universo estático, congelado en su mismísimo momento inicial. El tiempo y la entropía están estrechamente relacionados. Tanto, que hay quien los considera dos avatares del mismo hecho físico: el que obliga al universo a cambiar constantemente (por ejemplo, creando, desarrollando y destruyendo a cosas como tú o yo o las estrellas) y lo empuja irreversiblemente hacia adelante (o sea, hacia donde apunta la flecha del tiempo) sin parar. La flecha del tiempo, a su vez, quedó determinada por la bajísima entropía del universo inicial. En realidad el tiempo no es sino una de las cuatro dimensiones del espaciotiempo. El doctor Sergéi Krásnikov de Púlkovo tuvo a bien aclararnos un poco todo esto para este blog aquí.

La capacidad de medir el espaciotiempo tuvo que comenzar con la humanidad. Es difícil imaginar que en cuanto surgió una inteligencia intelectiva no comenzáramos a calcular cuántos pasos hay hasta aquella montaña, y si lograremos llegar antes del anochecer. Y si no, ya te enterarás, ya, cuando los tengas que caminar.

Parece que desde el principio nos aclaramos bastante mejor con el espacio que con el tiempo. Probablemente porque, al igual que los demás animales, tenemos una percepción intuitiva de la distancia. Un gato sabe cuánto tiene que saltar para cazar al ratón. Una araña, cuánto debe moverse para tejer su tela. Una abeja, por dónde anda su panal. El tiempo, en cambio, se nos hace un poquito más difícil de aprehender. Intuitivamente sabemos que está ahí, pues tenemos una percepción clara de pasado, presente y futuro; lo que se suele llamar el tiempo psicológico. Pero se presta mal a tocarlo con los dedos, o pasarle los ojos por encima (a decir verdad con el espacio en sí nos pasaría lo mismo, pero como podemos ver y tocar las cosas que se hallan en él, nos parece que lo controlamos mejor.) A medirlo, vamos.

Del sol y la luna, del día y el mes.

Básicamente sólo podemos medir el tiempo observando ciclos, y sólo hay dos ciclos obvios a primera vista para una inteligencia terrestre. El primero es el periodo de luz y oscuridad al que llamamos día. Este ciclo día/noche requiere muy poca inteligencia para captarlo y es incluso posible que algunos animales no humanos tengan alguna clase de consciencia del mismo, más allá de los ritmos circadianos y el mero seguimiento del entorno en general. El segundo es el ciclo lunar (lunación) y para ser exactos su periodo sinódico: el que va de luna llena a luna llena (o de nueva a nueva o como prefieras). Darse cuenta del periodo sinódico lunar ya requiere un poquito más de inteligencia, de memoria y de atención para al menos fijarse y llevar la cuenta.

Rotación terrestre

El eje de rotación terrestre está inclinado con respecto al plano de la Eclíptica (por así decirlo, la “línea Sol-Tierra”, representada en rojo en este gráfico.) Esto hace que tengamos estaciones y que las horas de luz y oscuridad varíen a lo largo del año. No está claro cuándo supimos con certeza que la suma de ambas dura siempre lo mismo. Imagen: 1718.wikispaces.com (Clic para ampliar)

En primera instancia, para medir el tiempo, la luz del sol no es un indicador muy preciso. A menos que estemos cerca del ecuador, las horas de luz (y oscuridad) varían notablemente a lo largo del año. A la latitud de España, por ejemplo, se van más de un 23%, que es muchísimo. En latitudes donde luego surgirían cosas curiosas como los lugares ahora llamados Cairo, Bagdad, Mbabane o Stonehenge, puede oscilar entre el 13,5% y el 36%. Esto es extraño, confunde. Nuestra cueva está siempre a los mismos pasos de distancia del río, pero cuando hace calor llegamos antes de que se haga de noche y cuando hace frío, no. No parece muy confiable, sobre todo si nos va la vida en ello. A un nivel muy primitivo, el día sólo nos sirve para contar ciclos luz-oscuridad, marcar momentos como el amanecer o el anochecer y hacer estimaciones genéricas.

No se sabe cuándo nos dimos cuenta de que la suma de luz y oscuridad dura siempre lo mismo y lo llamamos un día, porque la medida psicológica del tiempo es fuertemente subjetiva: hay ratos que se nos pasan volando y otros que no parecen acabar nunca, por no mencionar que mientras dormimos no nos enteramos. No es evidente por sí mismo. Para asegurarnos de que los días siempre duran lo mismo hace falta un reloj que no sea de sol, y aún faltaban muchos milenios para que tuviéramos esa clase de relojes. Intenta demostrar que un día completo dura lo mismo que el anterior sin un reloj o algo que desempeñe su función y enseguida me comprenderás.

Fases y libración lunar

Las fases de la luna, tal como se ven desde el Hemisferio Norte terrestre. El periodo transcurrido entre dos puntos cualquiera de sus fases siguiente varía relativamente poco, en torno a los 29,53 días. Por cierto, el bamboleo aparente se conoce como “libración”. Imagen: Wikimedia Commons.

La luna, en cambio, es más de fiar. El número de ciclos luz-oscuridad que transcurren entre luna nueva y luna nueva varía poco. Son siempre algo menos de treinta; convencionalmente, veintinueve (la media exacta son 29,5306). Como máximo se va de siete horas, apenas un 1%, en la práctica imperceptible a simple vista. Además, probablemente por mera coincidencia pese a lo mucho que se dice lo contrario, cuadra bastante con otro ciclo natural. Uno que, aunque suele irse bastante más, difícilmente nos pasaría desapercibidos a los humanos y sobre todo a las humanas: la menstruación, con sus 28 días de media pero a menudo 29. Que no en vano se llama también regla en numerosas lenguas latinas (español regla, francés règles, catalán regla, portugués regras, gallego regra, rumano regulă, occitano règla, etc.) e incluso en algunas muy poco latinas, como el ruso: регулы, transcrito reguly.

Sí, como la de medir espacio (es. regla, fr. règle, ca. regle, pt. régua, ro. riglă, etc.) La regla de medir y la regla de sangrar vienen del latín regŭla, o sea, un bastón o palo recto. Por ahí se origina también la palabra regular (del latín regulo, dirigir, guiar, seguramente con el susodicho bastón), que en numerosos idiomas modernos hace referencia a lo que es uniforme, lo que cambia poco, lo que siempre funciona igual. Y resulta que las cosas regulares van extraordinariamente bien para medir. No otra cosa es una regla de medir (distancias) o la dilatación y contracción del mercurio en un termómetro (temperatura) o las marcas de un transportador (ángulos.) Y cada vez que una jovenzuela de las que en el mundo son aprende a llevar la cuenta de su regla de sangrar mientras se le agitan las hormonas, está aprendiendo una nueva manera de medir el tiempo. Para medir cosas necesitamos una referencia regular absoluta, algo que siempre mida lo mismo, o al menos parecido. En el caso del tiempo, nos hacía falta un ciclo regular y Luna vino a regalárnoslo con su periodo sinódico.

Hueso de Lebombo y Tianhe-2

Arriba: el hueso de Lebombo (Swazilandia) con sus 29 marcas, de 35.000 años de antigüedad, un palo de cómputo como los que se siguen usando en la zona hasta la actualidad. Eso lo convierte en el primer instrumento matemático y por tanto científico conocido de toda la historia de la humanidad. Si además se usó para contar el ciclo sinódico lunar de 29 días, también sería el primer calendario. Abajo: el superordenador Tianhe-2 (Vía Láctea-2) del Centro Nacional de Supercomputación en Cantón, China. En el momento en que escribo esto, aparece en el Top500 como el más potente del mundo con 3.120.000 núcleos, 33,82 Pflops/s de Rmax (Linpack) y 54,9 Pflops/s de Rpeak teórica. Pese al abismo de tiempo, conocimiento, ciencia y tecnología entre ambos, en su esencia son lo mismo: instrumentos para computar.

Puede que por todo esto, los primeros calendarios de la humanidad fueron lunares. Los más antiguos se remontan a la prehistoria. Tenemos, por ejemplo, el calendario de Aberdeenshire, hallado en ese concejo de Escocia, con unos 10.000 años de edad. Sin embargo, hay algún otro objeto muy, muy anterior que resulta de lo más intrigante. Por ejemplo, el hueso de Lebombo (entre Sudáfrica y Swazilandia), un peroné de babuino con 35.000 años de antigüedad usado como palo de cómputo; los bosquimanos de la región siguen usando objetos similares para contar y calcular hasta la actualidad. Eso lo convierte en el instrumento científico más antiguo que se conserva, porque el hecho de contar es un acto matemático y por tanto científico. No hay ninguna diferencia obvia entre la lógica de fondo subyacente al hueso de Lebombo y al superordenador Tianhe-2 de los chinos, el más potente del mundo en estos momentos. Esencialmente, ambos sirven para lo mismo: para computar.

Y el hueso de Lebombo tiene… veintinueve marcas. Naturalmente, existen muchos motivos distintos por los que un ser humano quisiera contar veintinueve unidades de algo. Muchísimos. Pero igual de naturalmente, entre esos motivos se incluye la posibilidad de que alguien estuviese contando los días del ciclo lunar, o los de su ciclo menstrual, o ambos. En este caso, ese sería además el primer calendario conocido de la humanidad. Permíteme ensoñar por un instante: nuestro primer matemático, nuestro primer científico, al menos el primero que nos dejó una anotación, pudo ser una muchacha curiosa contando los días de su regla y comparándolos con las fases de la luna y maravillándose ante semejante prodigio hace treinta y cinco milenios tal noche como hoy, en plena Edad de Piedra. Lo que también la convertiría en el primer astrónomo, el primer astrofísico y el primer biólogo conocido. Por qué demonios no. Bajo sus cabellos tenía todo lo necesario para poder.

Bueno, ya. Sea Aberdeenshire o Lebombo o cualquiera de los otros que hay por ahí, no cabe duda: nuestros primeros calendarios fueron lunares, para contar días y meses. A decir verdad, lunisolares, puesto que establecen una relación entre el periodo sinódico lunar y el ciclo de luz-oscuridad al que llamamos “día”, regido por el sol. Y así, la humanidad comenzó a medir el tiempo por fin.

Del año, las estaciones y las horas.

Hay otra observación que tampoco pudo pasarnos desapercibida durante mucho tiempo. El día será poco de fiar a lo largo del año porque las horas de luz y oscuridad cambian mucho, pero ese cambio es en sí mismo regular. Por ejemplo, en Europa, cuando el clima es frío el sol se levanta menos en el cielo y durante menos tiempo que cuando es cálido. Es más: la altura máxima que el sol alcanza en el cielo desde el punto de vista terrestre va aumentando durante algo más de 180 días, desde la temporada fría a la temporada cálida. Luego, se reduce durante otros tantos, de la temporada cálida hasta la fría. Entre ambos, suman trescientos sesenta y pico. Y así una y otra vez. Es una regla.

Además, este hecho viene acompañado por toda otra serie de fenómenos cíclicos de gran importancia para nosotros los humanos desde tiempos prehistóricos: las migraciones de los animales que cazamos o carroñeamos, la maduración de las frutas y bayas que recolectamos, la necesidad o no de preparar pieles o tejidos para abrigarnos, la disponibilidad de agua en ríos y lagos, los vientos, las tormentas y las inundaciones. Mil cosas. Sin embargo, no nos consta que los paleolíticos tuvieran una idea clara de esto, que ahora llamamos año. Sin duda tuvieron que observar estos hechos, pero parece que más bien se dejaban llevar junto con el resto de la naturaleza, probablemente con la ayuda de leyendas y tradiciones ancestrales. Si tenían una concepción intelectual clara del año solar, no nos han dejado ningún rastro.

Pero entonces inventamos el Neolítico, con la agricultura y el pastoreo. Para las sociedades agrícolas y ganaderas, el conocimiento del año y sus estaciones es vital. No es posible la agricultura sin una percepción clara de los tiempos de siembra y cosecha, de las heladas, de la crecida de los ríos, de las épocas de riego, de los propios ciclos anuales de las plantas, de todo. Lo mismo ocurre con la ganadería. Además, el dominio del año facilita las operaciones militares y la organización de sociedades cada vez más y más complejas. El problema, o uno de los problemas, es que el año solar es un proceso más lento y difícil de centrar. Por ejemplo, no hay nada evidente a la primera que delimite el final de un año y el principio de otro, como sí lo hay para el día solar y el mes lunar, que sólo requieren abrir los ojos y fijarse un poco para reconocerlos. Las estaciones tampoco están bien definidas en la experiencia cotidiana: no hay nada que separe claramente el último día del otoño y el primer día del invierno, por decir algo, y además hay un montón de veranillos de San Martín, de San Miguel, de San Juan y demás santoral, que pueden darse o no cada año. Resulta difícil establecer reglas precisas porque no acaba de ser muy regular. Un lío.

Círculo de Goseck (4900 - 4700 AEC), actual Alemania

El Círculo de Goseck (4900 – 4700 aEC), actualmente en Alemania, tal y como ha sido reconstruido por el Depto. de Arqueología Prehistórica de la Universidad Martín Lutero de Halle-Wittenberg y el Gobierno del Estado Federado de Sajonia-Anhalt. Se trata de un lugar arqueoastronómico y un cementerio prehistórico en cuyos alrededores se han hallado huesos descarnados de ganado y humanos colocados cuidadosamente, lo que puede indicar rituales de enterramiento, sacrificios de animales o humanos y/o canibalismo ritual. Dos de sus tres entradas apuntan en la dirección por donde sale y se pone el sol durante el solsticio de invierno, mientras que la tercera está próxima al meridiano astronómico. Otros huecos en la empalizada parecen señalar hacia los mismos puntos para el solsticio de verano y las tradicionales fiestas de primavera. Está “ajustado” para las posiciones del sol de hace 6.800 años, con una precisión de unos 4 días. Dos mil años más antiguo que el popular Stonehenge, manifiesta un notable conocimiento de diversos fenómenos astronómicos como el año, las estaciones y su regularidad. Fotos: E. Schütze vía Wikimedia Commons | © M. Grimm (Clic para ampliar)

Sin embargo, muy poco a poco, comienzan a surgir instrumentos como el círculo de Goseck (hoy en Alemania, 6.900 años de antigüedad), el complejo megalítico de Mnajdra (actual Malta, a partir de hace 5.600 años), el conocidísimo Stonehenge (actual Reino Unido, entre 5.100 y 3.600 años) y puede que algo de la estructura circular de Nabta, Egipto, entre otros. Sobre estas construcciones se han contado tantas tontadas, algunas de ellas magufadas evidentes pero otras con peer review, que resulta muy difícil separar el grano de la paja. Lo que es una pena, porque son creaciones absolutamente fascinantes que habrían merecido mucho mejor trato. A pesar de todo, estas estructuras parecen evidenciar un conocimiento cada vez más profundo de fenómenos anuales y estacionales como los solsticios, los equinoccios, las posiciones del sol y de ciertas estrellas a lo largo de todo el año y quizá algún rudimento sobre ciclos plurianuales más complejos. Si otras culturas lo lograron también en el mismo periodo, no nos lo dejaron saber.

Lamentablemente, ninguno de esos pueblos sabía ni siquiera escribir. Probablemente funcionaban por observación, prueba y error, lo que tiene su mérito, ¿eh? Pero seguir avanzando exige alta tecnología: escritura, geometría, astronomía, matemáticas. Como en aquella época no tenían un CERN ni un DARPA ni nada parecido para agilizar un poco las cosas, hubo que esperar a que fuéramos inventándolo todo. Se duda de si los primeros en lograrlo fueron los astrónomos egipcios o los sumerios, después babilonios, en lo que hoy día es Iraq. Probablemente fueron los dos, durante un largo proceso de aprendizaje que pudo extenderse durante algún que otro millar de años. Allá por los albores de la historia, crearon muy poco a poco los primeros calendarios modernos, muchas de cuyas características seguimos utilizando en la actualidad, como la semana de siete días o los doce meses del año.

Ruinas de Eridu, Sumeria

Lo que queda de la ciudad de Eridu (actual Iraq), convencionalmente considerada la cuna de la cultura sumeria y por tanto de la escritura, la civilización y la ciencia que la caracterizaron. Floreció hace algo más de 6.000 años, llegando a alcanzar una población superior a los 4.000 habitantes (puede que hasta 10.000, una enormidad para su época). Inició su declive hace aproximadamente cuatro milenios pero no quedó abandonada del todo hasta hace unos 2.500 años. Foto: Wikimedia Commons. (Clic para ampliar)

Los sumerios, después babilonios, o más generalmente mesopotámicos, comenzaron con un calendario primordialmente lunar de 354 días dividido en doce meses alternos de 29 y 30 días. Como se les descuadraba debido a la diferencia entre esos 354 días y los 365,25 días que hay aproximadamente en un año solar, cada cierto tiempo intercalaban por decreto un mes adicional para reajustarlo, dando así lugar a los primeros años bisiestos. Los meses empezaban siempre al primer avistamiento de la luna nueva (en la práctica, el inicio del cuarto creciente), con el primero en primavera, originando el día de Año Nuevo. A partir de ahí contaban tres semanas de siete días más una de 8 o 9, con el último día considerado maligno, o sea inhábil para hacer cosas y por tanto de descanso. ¿Te suena de algo esto de los doce meses alternos con en torno a treinta días, la intercalación de bisiestos, y las semanas de siete días con el último sacralizado para descansar? (Puede que a estos respectos también te interese el origen de Dios)

Sin embargo, a los meticulosos escribas sumerios no les gustaba demasiado este año tan irregular y allá por el 2.400 antes de nuestra era ya estaban usando un año con 12 meses de 30 días, que suman 360. Sigue sin ser muy exacto pero es más sencillo de llevar, más regular, y además permite cálculos rápidos y fáciles. Ahí se originan también los 360 grados de un círculo y el sistema sexagesimal en general. Aprendiendo a medir el tiempo, aprendieron y nos enseñaron a medir muchas cosas más.

Hasta aproximadamente el 500 aEC, este calendario era fundamentalmente observacional; esto es, miraban el sol, la luna y lo reajustaban trabajosamente acorde a los mismos. Pero a partir de ahí se percataron del ciclo metónico, que luego Metón el Ateniense les piratearía (o redescubriría) y ahora conocemos bajo su nombre. Y ese fue el primer ciclo combinado complejo de tiempo que descubrió la humanidad. Resulta que 19 años solares suman 6.940 días, al igual que 235 meses (sinódicos) lunares. Sólo se van de unas pocas horas. Desde ese momento fue posible computar los años, los meses y sus bisiestos de manera regular, sin tener que estar mirando a los cielos todo el rato, sino sólo de vez en cuando. Además, el ciclo metónico también sirve para predecir los eclipses. No veas qué poder.

Pirámides de Guiza vistas desde el Nilo

Dos de las Grandes Pirámides de Egipto vistas desde el río Nilo, a las afueras de El Cairo. Foto: © AP. (Clic para ampliar)

Para los egipcios, el dominio del año era absolutamente esencial. Toda la civilización del Antiguo Egipto dependía de las crecidas anuales del Nilo. Parece ser que al principio empezaron con un calendario lunisolar, como todo el mundo. Pero ya vemos lo rápido que se descuadra, y un año descuadrado es un año de cosechas fallidas, hambre y revueltas. Así que enseguida se pusieron a buscar, yo diría que a la desesperada, algo más regular.

Como suele pasarnos a los humanos cuando buscamos cosas verdaderamente importantes, lo encontraron en las estrellas. Para ser exactos, en el orto helíaco (sin coñitas) de la estrella Sirio. Que al estar directamente vinculado a la órbita terrestre alrededor del Sol se produce, claro, coincidiendo con el año real. Y además, se correspondía también con la inundación del Nilo. Así que, al menos desde tiempos del faraón Shepseskaf (c. 2486 – 2479 aEC), los egipcios se saltaron el magreo y pasaron directamente al año moderno de 365 días, con tres estaciones llamadas inundación, siembra y cosecha. Una tablilla vinculada a Dyer podría remontar la fecha hasta el 3.000 aEC o por ahí, aunque esto no es seguro; pero probablemente ya lo usaban cuando hicieron las pirámides (a partir de aprox. 2.670 aEC.)

Los egipcios también dividieron el año en 12 meses de 30 días y al final del año añadían cinco más, llamados epagómenos. En cambio, usaban tres semanas de diez días en vez de las cuatro de siete o siete y pico que nos legaron los ahora iraquís. Pese a tanta brillantez, no estuvieron finos a la hora de intercalar un día bisiesto para corregir la diferencia entre los 365 días del año egipcio y los 365,25 del real. Así que, aunque mucho más lentamente, también se les descuadraba hasta tal punto que las fiestas de verano comenzaban en invierno y cosas así; la reforma de Canopo, en el 238 aEC, fracasó debido a broncas entre clérigos.

Sin embargo, mirando ortos, acabaron por descubrir otro ciclo complejo: el ciclo sótico o sotíaco (Sothis es el nombre en griego de Sirio.) Este es el tiempo que tarda un calendario de 365 días en descuadrarse tanto como para que vuelva a empezar en el mismo momento del año. Este ciclo sotíaco (también llamado canicular) es de aproximadamente 1.460 años (365 x 4). En la práctica, la precesión de los equinoccios y otros fenómenos lo hacen variar un poco. Pero tuvieron que ser ya los griegos y en particular el primer señor que dijo que era la Tierra la que giraba alrededor del Sol, un cierto Aristarco de Samos (c. 310 – 230 aEC), quienes establecieron con claridad la diferencia entre el año aparente de 365 días, el año tropical y el año sideral.

Reloj de sol en los Jardines Botánicos de Singapur.

Reloj de sol en los Jardines Botánicos de Singapur. Dado que Singapur se encuentra casi en el ecuador, su diseño está adaptado para reflejar el hecho de que el sol de mediodía brilla prácticamente desde el Norte en verano y desde el Sur en invierno. Foto: Wikimedia Commons (Clic para ampliar)

Al mismo tiempo, hay otro fenómeno obvio que o bien nos pasó desapercibido, o no le dimos importancia o no se nos ocurrió que sirviera para gran cosa durante mucho tiempo. Y mira que es evidente: el sol se mueve por el cielo a lo largo del día de manera regular y por tanto proyecta sombras que se desplazan sobre la tierra de modo igualmente regular. Por el sencillísimo procedimiento de clavar un palo en el suelo y hacer unas marcas arbitrarias pero también regulares entre la primera sombra de la mañana y la última sombra de la tarde, es posible dividir el día en periodos mucho más exactos y delimitados que el tradicional al amanecer, al atardecer o cuando el sol esté alto en el cielo. Es decir, un reloj solar que dé las horas. Da igual que sean 12, 24 o 60: son horas.

O no se nos ocurrió o no nos hizo gracia la idea de vivir colgados del reloj o yo qué sé, porque los primeros relojes solares –es decir, los primeros relojes, punto– tardaron muchísimo en surgir. Se ha dicho muchas veces que los obeliscos, las escalinatas de los templos y cosas así desempeñaban la función, pero no hay absolutamente ninguna prueba al respecto, como por ejemplo unas marquitas en el suelo. Que algo se pudiera hacer no significa que se hiciera, o incluso que se conociera. Desde luego, si lo hacían, no era algo generalizado. De hecho, algunos de los propios obeliscos prevén en sus grabados que las generaciones futuras se preguntarán para qué fueron levantados, y lo explican: para el culto religioso. Ni una sola mención a la medida del tiempo.

Las mismas civilizaciones que construyeron Stonehenge, las pirámides de Egipto o los ziggurats babilónicos pasaron olímpicamente de las horas o les dieron una importancia mínima hasta fecha tan tardía como el 1.500 aEC, que es cuando empiezan a aparecer los relojes solares propiamente dichos. Llevo años preguntándome el porqué, pero claro, no tengo a nadie de hace cuatro milenios a mano para consultárselo. No es hasta el reinado de Tutmosis III, hace unos 3.500 años, cuando aparece en Egipto el primer reloj solar verdadero: el sechat. Al menos, que conozcamos. En la web de la Asociación de Amigos de los Relojes de Sol tienen un estudio interesante sobre la manera como se usaba (y aquí).

Las horas que da un reloj de sol son desiguales. Me refiero a que su duración va variando a lo largo del año según el día se alarga o se acorta. Pero aún así, lo hacen dentro de una regularidad y permiten un control mucho más sofisticado sobre las actividades diurnas que no tenerlo. En la práctica se siguieron utilizando hasta bien entrada la Edad Media europea, cuando los relojes mecánicos comenzaron a desplazarlos.

Reloj estelar de Ramsés VI

Funcionamiento del reloj estelar de Ramsés VI (1145-1137 aEC), Egipto Antiguo. Imagen: Wikimedia Commons (Clic para ampliar)

Fueron también los egipcios quienes inventaron la manera de contar las horas nocturnas, cuando no hay sol para tu reloj solar. Para ello crearon el merjet o instrumento del saber, básicamente una doble plomada que permite tomar referencias con respecto a las estrellas. Así, marcaron 36 constelaciones decanas (una por cada 10º del círculo de 360º) y las usaron para dividir la noche en diez horas, más otras dos adicionales para el amanecer y el anochecer. En total, doce. Y de este modo, sumando otras tantas para el día, surgió el día de veinticuatro horas, que aún hoy seguimos contando en dos grupos de doce; en lenguaje común (y en los relojes comunes) después de las doce del mediodía viene la una de la tarde, no las trece, que es cosa más de militares, científicos, marinos, aviadores y asimilados.

En realidad, todas estas civilizaciones usaban un mezcladillo de calendarios, cada uno para una cosa distinta. Solía haber un calendario civil común, otro más científico para calcular las efemérides, uno religioso con las festividades, y muchos más, que podían coincidir o no entre sí. Por ejemplo, a mediados del primer milenio anterior a nuestra era, los atenienses utilizaban el sistema de calendarios áticos, con uno lunar de doce meses para las festividades, otro estatal de diez meses arbitrarios y uno agrícola que mayormente contaba estaciones. Un jaleo, vamos, pero es que la idea de establecer unas fechas y tiempos precisos para el conjunto de las actividades humanas tardó en desarrollarse.

De los cumpleaños, la corrupción de los políticos y el calendario unificado.

En la práctica, los años se contaban diciendo aquello de “en el tercer año del reinado del Rey Fulano…”. Ni siquiera los romanos usaban normalmente el famoso ab urbe condita, o sea, “desde la fundación de la ciudad”, muchísimo más común entre quienes luego escribieron sobre ellos. Era mucho más habitual decir (y escribir) “en el año del cónsul Tal” o “en el cuarto año del emperador Cual.” Esto ocurría en todas las culturas de su tiempo, incluyendo a los egipcios, con lo cual aparece el concepto de cumpleaños.

En la Antigüedad, la gente no sabía cuántos años tenía más que de una manera muy aproximada. El concepto de adolescencia era desconocido y se pasaba de niño a hombre, o de niña a mujer, con el inicio de la pubertad. Luego, si llegabas, te convertías en viejo. Y punto. La pregunta “¿cuántos años tienes?” habría desconcertado a la mayoría de la gente antigua. Sin embargo, había una excepción: el monarca, gobernante, o mandamás en general. Por el mero hecho de contar el tiempo desde el año de su acceso al poder, la sociedad en su conjunto estaba contándole cumpleaños, se celebraran o no.

Clepsidra griega

Otro reloj de la antigüedad: la clepsidra o reloj de agua. Esta es griega, del siglo V aEC (la de arriba, la de abajo es una reproducción contemporánea) pero parece ser que los babilonios ya las usaban hace cuatro mil años. La de esta imagen es muy sencilla (es simplemente un chorrito de agua que va escapando a un ritmo determinado), pero sus versiones más sofisticadas podían llegar a ser notablemente precisas y fueron los relojes más comunes y exactos que tuvimos hasta el siglo XVII. En torno a ellas se desarrollaron gran parte de los mecanismos que luego permitirían la aparición de los relojes mecánicos (como el escape relojero, el que hace “tic tac”.) Objeto: Museo de la Antigua Ágora, Atenas, Grecia. Imagen: Wikimedia Commons.

En algún momento del primer milenio antes de nuestra era varias culturas comenzaron a celebrar también los aniversarios de distintos eventos, templos e incluso dioses, como por ejemplo el de la diosa griega Artemisa, a la que le ponían velitas (¿te suena esto también?). Parece ser que fueron los romanos quienes empezaron a celebrar los aniversarios de las personas en sus dies natalis, debido a una combinación de factores culturales, políticos y supersticiosos. Por supuesto, sólo entre las clases altas; al pueblo de a pie ni se le ocurría hacer semejantes gastos (salvo por una casta proporcionalmente muchísimo más reducida que la actual, eran pobres como ratas y bastante tenían con ingeniárselas para comer a diario.) Y sólo se celebraba el de los hombres adultos; para que se celebrase el cumpleaños de las mujeres hay que esperar al siglo XII de nuestra era y el de los niños (y niñas) al XVIII, cuando los críos van dejando de ser una boca inútil que alimentar llevada a palos para convertirse en los reyes y reinas de la casa. Cosas del pasado.

Fueron también los romanos quienes primero vieron la necesidad de tener un calendario único, o al menos dominante. Empezaron con el calendario de Rómulo, lunar y agrícola, que sumaba 304 días divididos en diez meses de 30 y 31 más un periodo invernal que no se asignaba a ningún mes. El año nuevo coincidía con el equinoccio de primavera y a partir de ahí se contaban los diez meses, llamados martius (por el dios Marte, con 31 días), aprilis (origen desconocido, probablemente relacionado con Afrodita/Venus, 30 días), maius (seguramente por Maia, la diosa buena, 31 días), iunius (por Juno, 30 días) y el resto derivado de sus ordinales: quintilis (de quintus, quinto, con 31 días), sextilis (sexto, 30 días), september (séptimo, 30 días), october (octavo, 31 días), november (noveno, 30 días) y december (décimo, 30 días), gran parte de lo cual te sonará también. Sin embargo, las semanas obedecían a un ciclo nundinal (de mercado) de ocho días.

Ya en fechas muy tempranas, allá por el 713 aEC, el rey (probablemente legendario) Numa Pompilio modificó este calendario inicial con criterios supersticiosos (los romanos eran extremadamente supersticiosos). Como pensaban que los números impares daban buena suerte (y los pares, mala), cambiaron el número de días de cada mes a 29 o 31. Ya que estaban, aprovecharon para convertir ese periodo invernal indefinido en dos meses nuevos: ianuarius (seguramente por Jano, con 29 días) y un februarius (vinculado a las februa), necesariamente con 28 días y por tanto de malísimo fario. Tanto era así que en la práctica lo dividían en dos periodos de 23 y 5 días, antes y después de las terminalias, y además se convirtió en un mes de ritos de purificación y demás. Que si no, lagarto, lagarto. Curiosamente, la Cuaresma de purificación de los cristianos también suele empezar en febrero (y su celebración más importante, la Pascua, cae en el primer día sagrado del año pagano tradicional, que comenzaba con la primera luna llena tras el equinoccio de primavera.)

Calendario de la República Romana, c. 60 aEC

Reconstrucción del calendario de la República Romana “Fasti Antiates Maiores” hallado en una villa de Anzio (aprox. 60 aEC). Los nombres abreviados de los doce meses “normales” y el mes intercalar se encuentran en la fila superior. En la fila inferior, podemos leer el número total de días. Los días, mostrados en la primera columna de cada mes, se representan mediante las ocho letras A a H (pues aún usaban la semana nundinal de ocho jornadas de mercado). La segunda columna muestra la K de “kalendas” para el primer día del mes, la N de “nones” para el quinto y la E de “eidus” (idus) para el 13º. El resto de días están indicados por su función: F de “fasti” (“laborables”), N de “nefasti” (“no laborables”), C de “comitiales” (se podían celebrar asambleas públicas), EN de “endotercisi” (mitad fasti y mitad nefasti) y “nefastus publicus” (festividades públicas). Las palabras en letras grandes hacen referencia a festivales importantes y las de letra más pequeña, a otros festejos y deidades menores. Fuente: Universidad de Chicago. (Clic para ampliar)

Esto totalizaba un año de 355 días, bastante menos preciso que el de egipcios y mesopotámicos. Para reajustarlo, el Sumo Pontífice (pontifex maximus) intercalaba un mes bisiesto de 27 días tras los primeros 23 del febrero de mal rollo cada dos o tres años. Al principio lo llevaban relativamente bien pero luego se convirtió en una juerga de corrupción política y clerical. Metían el mes bisiesto cuando les convenía para extender o abreviar el periodo en el poder de sí mismos o sus amiguetes, y también para alargar o acortar el plazo de pago de las deudas según les interesase. Esta no era una práctica exclusiva de los romanos; resultaba bastante común en la Antigüedad. En la comedia Las Nubes del griego Aristófanes (423 aEC), la luna en persona baja a quejarse del cachondeo con los meses, a fuerza de manipularlos. Tres siglos después, las cosas no habían mejorado: los calendarios venían en dos versiones, una “según el dios” (la luna) y otra “según el arconte” (el jerarca de turno).

Pues para el siglo I antes de nuestra era, a los romanos les estaba pasando lo mismo. Y además, por lo visto, de una forma bastante acusada y con notable mala leche, vinculada al desorden y la violencia de los últimos años de la casi cinco veces centenaria República Romana. Vamos, que iban a saco. El caos era tal que fuera de la ciudad de Roma nadie sabía muy bien cuándo empezaban y terminaban los meses y años oficiales; y dentro de Roma, sólo podían predecirlo quienes estaban en el ajo. Entonces uno de los últimos cónsules republicanos, que también desempeñaba las funciones de sumo pontífice, decidió hacer algo  al respecto en el año 46 aEC. Este señor era ni más ni menos que Julio César.

Cayo Julio César

Cayo Julio César (100 – 44 aEC), general, cónsul y sumo pontífice romano, creador del calendario juliano que con unas pocas modificaciones usamos hoy día en todo el mundo. Busto en el Museo dell’Opera del Duomo, Pisa. Imagen: Wikimedia Commons.

El jefazo Julio reunió a sus astrónomos, filósofos y matemáticos. En particular, a un experto greco-egipcio llamado Sosígenes de Alejandría. Y crearon el calendario juliano. Estaba compuesto por 365 días divididos en doce meses de 30 y 31 días, salvo febrero, que siguió siendo de 28. Pero abolió el mes intercalar que se había convertido en un cachondeo para sustituirlo por un único día bisiesto que se añadía al final de febrero cada cuatro años. Es decir, muy parecido a lo que seguimos haciendo ahora. El calendario juliano es ya nuestro calendario moderno, salvo por un par de arreglos que vendrían después. Y con ello, al forzar un calendario unificado de duración regular, solventó el problema de un plumazo. Bien es cierto que, ya que estaba, César aprovechó el ajuste para extender su propio año de consulado hasta un total de 445 días. Casi tres meses por la cara que se arrogó el colega. O sea, como si ahora alguno de nuestros amados líderes saliese diciendo que su mandato de cuatro años en realidad dura cinco.

Poco después, la semana romana pasó a ser de siete días, como la de los griegos y babilónicos, en vez de los ocho tradicionales. Con el calendario juliano, el principio del año quedó también fijado en el 1 de enero. No está claro cuándo el mes de enero pasó a ser el primero del año en la civilización (greco-)romana, sustituyendo así a marzo con su equinoccio de primavera. En todo caso es anterior al año juliano y puede que sea algo muy antiguo. Al menos desde el 153 aEC, el año consular (el año de mandato de los cónsules republicanos) comenzaba el 1 de enero. Pero desde luego, no fue algo generalizado en el mundo (ni siquiera en el mundo occidental) hasta mucho después. En civilizaciones alejadas de la cultura occidental, que tienen sus propios calendarios con su propia historia, sigue sin serlo (como el Año Nuevo Chino.)

En general, casi todo el mundo mantuvo el principio del año en torno al equinoccio de primavera o algo después hasta siglos relativamente recientes (como por ejemplo continúa ocurriendo con el Año Nuevo Persa o el Indio). Es decir, que deberíamos haberlo celebrado esta semana pasada (este año 2014 cayó en 20 de marzo.) Aquí en Valencia tuvimos las Fallas, ¿y en tu casa?

Cremà de una falla valenciana

Cremà (quema) de una falla valenciana, uno de los incontables festivales del fuego celebrados en torno al equinoccio de primavera desde la más remota antigüedad. Foto: Wikimedia Commons.

Voy a detenerme un instante en esto. No es casual en absoluto que tantas civilizaciones distintas hayamos concedido tanta importancia al equinoccio de primavera. Dentro de la arbitrariedad de las maneras humanas de contar el tiempo, el equinoccio de primavera ha demostrado un poder excepcional sobre nuestra imaginación desde antes de la historia. El Año Nuevo de decenas de culturas, la Pascua judeocristiana, el Akitu babilónico, el Shunbun-no-Hi japonés, el Sham-el Nessin egipcio, el Holi hinduista, cientos de festivales del fuego paganos repartidos por todo el mundo y mil cosas más están directamente vinculadas al también llamado equinoccio vernal.

Al menos en el Hemisferio Norte nos gusta este equinoccio vernal, el momento en el que muere el invierno para dejar paso a la primavera. Nos gusta, claro, el instante en que se acaba el frío, la austeridad y el hasta el hambre para permitirnos otra vez cultivar, cazar, jugar a pleno sol. Cautivó nuestro misticismo religioso, nuestra imaginación popular y nuestra curiosidad científica. Muchas de nuestras civilizaciones son hijas, al menos en parte, del equinoccio vernal.

Los calendarios precolombinos.

En otro orden de cosas, las culturas precolombinas de América me resultan especialmente fascinantes porque se separaron de las Afroeuroasiáticas mucho antes del Neolítico. Por ello, aunque partían de unas “bases comunes mínimas”, crearon modelos de civilización humana alternativos sin conexión alguna con la de los viejos continentes durante más de 15.000 años. Un poco como si fuesen alienígenas, o nosotros para ellos, o viceversa, ya me entiendes.

Detalle de la estela C de Tres Zapotes, Veracruz, México.

Detalle de la estela C de Tres Zapotes, Veracruz, México, una de las anotaciones en Cuenta Larga (el mal llamado “calendario de los mayas”) más antigua que se conserva. De arriba abajo, indica la fecha 7(hallada después).16(fragmentaria).6.16.18, correspondiente al día 5 de septiembre del 32 aEC según nuestro calendario moderno. Objeto: Museo Nacional de Arqueología, México.

Así, hicieron cosas fascinantemente diferentes y otras sobrecogedoramente idénticas, pues humanos somos todos. Por ejemplo, las estructuras sociales piramidales. Y las propias pirámides, de las que tanto se ha hablado. No es que vinieran los extraterrestres a hacérselas, sino que para todo humano es la manera más sencilla de construir un edificio grande, la que menos arquitectura exige: apilar piedras más o menos bien cortadas hasta levantar una montañita con algunas grutas interiores (pasadizos) y tal. Y al contrario: también hicieron cosas misteriosamente marcianas que aún hoy en día no entendemos bien. Algunos de sus secretos se los llevaron las tinieblas de la jungla, el tiempo y la viruela y no los sabremos jamás.

Los calendarios precolombinos se encuentran un poco a caballo entre ambos extremos. Cuando el último cazador-recolector siberiano quedó aislado al lado americano del estrecho de Bering, es dudoso que llevara más ciencia encima que uno de esos palos de computar. A partir de ahí, tuvieron que crearlo todo prácticamente de cero. La escritura, la astronomía, las matemáticas, todo. Algunas de sus elecciones son bastante obvias: por ejemplo, tomaron la base 20 para sus números, igual que muchos otros pueblos del mundo, como los vascos antiguos. Claro, esto no tiene nada de raro: salvo amputaciones y tal, todos tenemos veinte dedos aptos para contar. Sin embargo, su calendario más común, para usos tanto civiles como religiosos, tenía años de 260 días desde tiempos de los olmecas y así siguió siendo con los aztecas, los mayas y demás.

No es obvio por qué eligieron esa cifra. Aunque hay quien lo ha querido vincular con el cultivo del maíz o el periodo de gestación humana, no acaba de cuadrar muy bien. Y no es que ignorasen que el año solar tiene en torno a 365 días. Lo sabían y lo utilizaban (aztecas: xiuhpohualli; mayas: haab’, en ambos casos de 18 x 20 días más otros cinco que se consideraban maléficos). Pero no le daban mucha importancia. Les gustaba mucho más el de 260, que en el caso azteca se ha bautizado posteriormente como tonalpohualli y para el maya, tzolkin. 260 es el producto de 20 x 13 y por lo visto el 13 era un número importante en la numerología mística mesoamericana. A lo mejor sólo se trata de eso. Hablamos de calendarios con unas implicaciones religiosas muy fuertes, que se extendían a cada detalle de sus culturas. El calendario de 260 días sigue usándose en algunos lugares hasta la actualidad para practicar la adivinación, la magia popular y otras cosas por el estilo. Ambos calendarios coinciden cada 52 años solares de 365 días o 73 de esos raros de 260 (18.980 días). A esto se le suele llamar el “ciclo redondo” o “completo.”

Y sin embargo, sobre esas bases crearon auténticos monstruos matemáticos con pocos parangones en ningún otro lugar. El más impresionante y conocido, o desconocido de todos ellos es la Cuenta Larga. Conocido, porque hace poco tuvimos una de esas tontadas milenaristas en torno a ella: sí, es el famoso calendario maya que ni siquiera es propiamente maya, sino de toda la Mesoamérica precolombina. Desconocido, porque ninguno de quienes hablaban de fines del mundo o cambios de era o cosas de esas tenía más que una vaga idea sobre él y el público en general, pues todavía menos. Impresionante, porque hasta tiempos muy recientes a pocos más se les había ocurrido o habían sido capaces de desarrollar semejante cosa. Hace falta un notable ejercicio de imaginación, de astronomía y de matemáticas para crear un calendario capaz de contar “automáticamente” largos periodos de tiempo sin repetir un solo día. Parece más propio de la ciencia moderna que de algo que pudo empezar antes de nuestra era.

Funcionamiento de la Cuenta Larga mesoamericana.

Funcionamiento de la Cuenta Larga mesoamericana (el mal llamado “calendario de los mayas”). Fuente: Wikimedia Commons. (Clic para ampliar)

Matemáticamente, la Cuenta Larga funciona de manera muy parecida al odómetro de un coche. No es un calendario lunar ni estrictamente solar, sino que va sumando días, uno detrás de otro, y en principio podría seguir haciéndolo hasta el infinito. Comienzas contando los primeros veinte días en la posición más a la derecha (k’in), numerados del 0 al 19 (por cierto, uno de los primeros usos del número cero propiamente dicho.) Cuando has llegado al 19 y quieres contar otro más, subes un uno a la segunda posición de la derecha (uinal) y vuelves al cero en la primera. Así, te queda 1.0, lo que significa “veinte”. Pero con el uinal sólo puedes contar hasta 18 (es decir, de 0 a 17). En 360 días (20 x 18), o sea un año haab’ sin sus cinco “días maléficos”, tienes un 17.19: esto es, 17 en la posición uinal y 19 en la posición k’in.

Si quieres añadir otro día más (el primero del segundo año haab’), tienes que poner de nuevo un cero en ambas posiciones de la derecha (uinal y k’in) y un uno en la tercera (tun), que también es de base 20. Vamos, que se te queda: 1.0.0. A partir de ahí, vuelves a sumar k’in (en base 20) y uinal (en base 18) hasta llegar al 19.17.19 que, como contamos empezando por el cero, equivale a 20 x 18 x 20 días. Eso son 20 años “mesoamericanos” de 360 días.

Y así sucesivamente, ya siempre en base 20 excepto con los uinal, donde mantenemos la base 18. Se sigue por los katun (lo que permite contar hasta 400 años mesoamericanos) y luego por los baktun (hasta 8.000 años mesoamericanos). Para aumentar otro día más, tendríamos que poner un 1 en la sexta posición (pictun) y un cero en todas las demás. Lo que pasa es que la posición pictun y las de orden superior son ya invenciones de los mayanistas modernos. Los mesoamericanos antiguos sólo usaban cinco posiciones. Es decir, que la Cuenta Larga original habría dado para un máximo de 8.000 años de los suyos. Teniendo en cuenta que comenzaban a contar desde una fecha mítica de la creación establecida en el año 3.114 aEC, aún queda Cuenta Larga para más de dos mil años a partir de hoy. Lo único que ocurría el famoso 21 de diciembre de 2012 es que pasábamos del baktun 12 al baktun 13. Sólo con eso, algunos se inventaron sus historias. Puedes ver qué día es hoy en Cuenta Larga aquí.

Por supuesto, si las civilizaciones mesoamericanas hubiesen seguido existiendo y utilizando la Cuenta Larga (en realidad, ya estaba olvidada cuando llegó el colonizador europeo), nada les habría impedido seguir añadiendo posiciones a la izquierda cuando se les acabasen los baktun, tal como hacen los mayanistas modernos con el pictun y demás. Así, la Cuenta Larga tiene el potencial para contar cualquier periodo del tiempo, hasta el infinito. ¡Hey, un momento! Eso es exactamente lo que hacemos con nuestros números, sólo que en base 10 pura: del 9 pasamos al 10. Del 99, al 100. Del 999, al 1.000. Y así una y otra vez, hasta el infinito. La gracia de la Cuenta Larga es que los mesoamericanos antiguos se dieron cuenta muy pronto de que podían usar eso para contar días, y derivar a partir de ahí las fechas “normales” (como las del tzolkin). Bueno, y su rollo jeroglífico, que impresiona un montón.

De los meses modernos y los días de la semana.

Volvamos al calendario romano de Julio César, porque es el que ha acabado imponiéndose como referencia común en todo el mundo, con algunas pequeñas variaciones. La primera es que a la muerte de César se le honró cambiando el nombre del mes quintilis por iulius, o sea Julio (había nacido el 12 o 13 de julio del 100 aEC.) Después, el primer emperador del Imperio Romano, César Augusto, llamó al mes sextilis… pues cómo lo iba a llamar, augustus, o sea agosto, en honor a sí mismo.

Estatua del dios romano Jano

Estatua del dios Jano, una deidad romana sin equivalente griego, caracterizada por sus dos caras mirando eternamente en sentidos contrarios. Como era el dios del mes de enero (ianuarius), se cree que éste pasó progresivamente a ser el primero del año por asociación a su figura, que miraría así al año pasado y al futuro. Estatua: Museos Vaticanos, Roma.

Así ya tuvimos todos los meses del calendario moderno: enero (ianuarius, por Jano, 31 días), febrero (por las februa, 28 días o 29 cuando carga el bisiesto), marzo (por Marte, 31 días, antiguamente el primero del año), abril (seguramente por Afrodita/Venus, 30 días), mayo (por la diosa buena, 31 días), junio (por Juno, 30 días), julio (por Julio César, 31 días), agosto (por Augusto, 31 días, no iba a ser menos el hombre…) y el resto siguiendo su antiquísimo ordinal romano, de cuando sólo tenían diez: septiembre (“el séptimo” después de marzo, 30 días), octubre (“octavo”, 31), noviembre (“noveno”, 30) y diciembre (“décimo”, 31).

El nombre de nuestros días de la semana merece párrafo aparte. La idea es también mesopotámica (jodó con los iraquís), pero su origen moderno es griego, correspondiente a los siete dioses / astros mayores del sistema solar conocidos en aquellos tiempos: hêméra Hêlíou (día de Helios / Sol), Selénês (de Selene / Luna), Áreôs (de Ares / Marte), Hermoú (de Hermes / Mercurio), Diós (del padre de los dioses Zeus / Júpiter), Aphrodítês (de Afrodita / Venus) y Krónou (de Cronos / Saturno). Los romanos, que eran unos multiculturetas de postín (en eso radica gran parte del éxito de la civilización romana: absorbían, asimilaban y asumían todo lo que les molaba), simplemente los tradujeron: dies Sōlis, Lūnae, Martis, Mercuriī, Iovis, Veneris y Saturnī. Seguro que al menos cinco de ellos los conoces: lunes, martes, miércoles, jueves (la letra J es una variación de la I inventada en el siglo XVI) y viernes.

En muchos idiomas, como el inglés, el sábado sigue siendo también el día de Saturno (Saturday – Saturn day) y el domingo, el día de Sol (Sunday – Sun day). Monday continúa siendo el día de Luna (Moon day) y los demás se corresponden con las versiones locales de los mismos dioses: Tuesday de Tiw/Týr, Wednesday de Wōden, Thursday de Thor y Friday de Frigg. En cambio, por estos lares del Sur, adoptamos ya en tiempos de la Cristiandad las versiones judeocristianas sabbat (sábado) y dies dominicus (día del Señor, domingo.)

¿Antes y después de Cristo? Va a ser que no…

San Dionisio el Exiguo

(San) Dionisio el Exiguo (c. 470 – c. 544 aEC) en un icono ortodoxo rumano. Quiso determinar la fecha de nacimiento de Cristo para contar los años a partir de ahí como Anno Domini, y la estableció en el 754 desde la fundación de Roma. Esto daría lugar posteriormente a la conocida fórmula “antes de Cristo / después de Cristo”. Pero se equivocó. Dando por buenos los Evangelios, Jesús no pudo nacer en ese año, y si no se dan por buenos, pues no sabemos cuándo fue, si fue.

En torno al año 525 de nuestra era, un monje llamado Dionisio el Exiguo sentó las bases para cristianizar el calendario. Su logro más notable y conocido fue la creación del Año del Señor (Anno Domini, AD), según el cual los años empiezan a contarse a partir del nacimiento de Cristo: la fórmula tradicional actual. A todos los que peinamos ya alguna cana y a algunos de quienes aún sólo tienen pelo en la cabeza nos enseñaron y les enseñan que ahora mismo contamos los años desde el nacimiento del Nazareno y dividimos la historia en antes de Cristo (aC) y después de Cristo (dC). Según esto, hoy viviríamos en el año 2014 después de Cristo, como todos sabemos, ¿no?

Pues no. Y no es una cuestión de fe religiosa o lo contrario. El problema es que el buen Dionisio metió la pata. Tras muchos cálculos, hizo coincidir el año 1 de nuestra era, el primer año del Señor, con el 754 ab urbe condita (AUC, desde la fundación de Roma.) Esta forma de contar los años se generalizó a partir del siglo IX europeo: la historia se dividía en ab urbe condita para los años anteriores al 1 y Anno Domini para el 1 y siguientes (en ambos casos contando hacia adelante). Pero en el siglo XVII se extendió la fórmula “antes de Cristo” (contando hacia atrás a partir del Anno Domini -1) y “después de Cristo” (contando hacia adelante a partir del Anno Domini +1). Esa es la que seguimos oyendo hoy.

Está mal. La fecha dada por Dionisio el Exiguo es imposible. Los propios académicos cristianos de hoy en día lo aceptan: si existió Jesus de Nazaret tal como lo cuentan en la Biblia, o de manera parecida, no hay forma ninguna de que pudiese nacer en el 754 ab urbe condita. En primer lugar: para que el Rey Herodes el Grande pudiese instigar la famosa matanza de los Santos Inocentes tal como afirmó el evangelista Mateo (Mt 2:16-18), tuvo que ser antes del 750 AUC porque ese es el año en el que Herodes murió. (En el 754 reinaba en Judea otro Herodes distinto, Herodes Arquelao, al que nadie ha atribuido jamás la autoría de lo de los Santos Inocentes ni nada de eso.)

El Emperador romano César Augusto

Tal como afirma el evangelista Lucas, el emperador César Augusto (en la imagen) ordenó un censo en los territorios romanos durante los albores de nuestra era. Lucas dice que Jesús de Nazaret nació durante el mismo, y de ahí la historia del Portal de Belén. Pero en Judea este censo, realizado por el gobernador Publio Sulpicio Quirinio, se llevó a cabo en el año 6 “después de Cristo”. Con lo que, para que cuadre la Biblia, el año 1 de Dionisio el Exiguo no pudo ser el de nacimiento de Jesús. Si decimos “antes o después de Cristo” para referirnos a los años modernos, estamos contando mal. Estatua: Museos Vaticanos, Roma.

En segundo lugar, y aún más contuntente: si Jesús nació durante el censo realizado por el gobernador romano de Siria y Judea llamado Publio Sulpicio Quirinio, como asegura el evangelista Lucas (Lc 2:1-2), y de ahí toda la temática sobre el Portal de Belén… bien, pues tal censo existió, pero se realizó seis o siete años después del Anno Domini 1 (según Flavio Josefo, fue “37 años después de que Octavio derrotó a Antonio en la batalla naval de Accio“, lo que se correspondería con el año 6 “después de Cristo”.) No hubo ningún otro censo en la región en ese periodo.

Existen otras posibilidades que alejan aún más la fecha de nacimiento de Jesús del “año 1″, y ninguna a favor. Pero estas dos son las más aplastantes: por esa época Herodes I el Grande ya estaba muerto y no hubo censo alguno en Judea hasta seis años después. O sea: el problema no es que decir “antes de Cristo” y “después de Cristo” sea algo religioso o deje de serlo. El problema es que es erróneo. Aceptando los Evangelios, Cristo no pudo nacer en el 754 ab urbe condita convertido en el Año del Señor nº 1 por Dionisio el Exiguo. No cuadra. O fue antes del 4 “antes de Cristo” (muerte de Herodes el Grande) o fue en el 6 “después de Cristo” (censo de Quirinio, también conocido como Quirino o Cirino.) Y si no damos por buenos los Evangelios, pues entonces, claro, no hay referencia alguna. Por un lado o por el otro, estamos contando mal.

Por este motivo (y también porque el calendario occidental ha sido asimilado por culturas que tienen muy poca relación con el cristianismo), en todos los ámbitos mínimamente rigurosos utilizamos ahora las expresiones “Era Común” (EC) y “antes de la Era Común” (aEC) en lugar de “antes de Cristo” y “después de Cristo”. En contra de lo que parecen creer algunos, no es una conspiración anticristiana, sino la mera corrección del error histórico cometido por Dionisio el Exiguo y un resultado del éxito global del calendario occidental.

De los relojes, el minuto, el segundo y más allá.

Papa Gregorio XIII

El Papa Gregorio XIII (1502 – 1585) promulgó la bula Inter gravissimas (1582) para dar los últimos retoques al calendario juliano, convirtiéndolo así en el calendario moderno. Por eso lo conocemos como “calendario gregoriano.” En muchos lugares del mundo no fue adoptado hasta el siglo XX. Retrato realizado por Lavinia Fontana (1552 – 1614).

Durante los siguientes siglos, fue volviéndose evidente que el calendario juliano se descuadraba también. Esto se debe a que la duración real del año trópico no es exactamente 365,25 días, sino más bien 365,242, con una pequeña variación interanual. En el año 1582, se había ido unos diez días desde los tiempos de Julio César. Entonces el Papa Gregorio XIII ordenó el último cambio notable: saltaron esos diez días y los años bisiestos dejaron de ser uno de cada cuatro. En su lugar, lo fueron aquellos que son divisibles por cuatro, excepto los que también son divisibles por cien, pero no por cuatrocientos.

Esto crea un año efectivo de 365,2425 días, mucho más parecido al real, que es el que seguimos usando ahora: el calendario gregoriano, hoy en día ya más conocido como el calendario occidental o el calendario internacional (pues sólo quedan cinco países que no lo usen de manera oficial: Afganistán, Arabia Saudita, Etiopía, Irán y Nepal, e incluso éstos lo utilizan en sus relaciones con el exterior y la gran mayoría de sus aplicaciones tecnológicas e industriales. Hay algunos otros que lo simultanean con algún calendario local, pero lógicamente éstos se van viendo cada vez más desplazados por la pujanza global del internacional.)

Es más o menos en la época de este Papa Gregorio XIII cuando empiezan a aparecer los primeros relojes con precisión suficiente para contar segundos. La idea del minuto como sesentava parte de la hora es bastante antigua (seguramente se origina también en los babilonios), y la del segundo como sesentava parte del minuto ya fue utilizada por científico persa Al Biruni en torno al año 1.000 de la Era Común. Pero no había ninguna manera práctica de medir tiempos tan precisos hasta el siglo XVI y de hacerlo con exactitud, hasta el XVII. Ni relojes solares, ni clepsidras ni los primeros relojes mecánicos eran capaces. Hubo que esperar al reloj de péndulo inventado por el matemático, astrónomo y físico holandés Christiaan Huygens en 1656 para que esto fuese posible.

Esquema para un reloj de péndulo de Christiaan Huygens (1673)

Ilustración en el libro “Horologium Oscillatorium sive de motu pendulorum” publicado por Christiaan Huygens en 1673, donde se define el primer reloj de péndulo realmente funcional. Los relojes de péndulo fueron por fin capaces de medir segundos, dándonos un control mucho más avanzado sobre la medida del tiempo.

La gracia del reloj de péndulo es que está construido en torno a un oscilador armónico: el péndulo en cuestión. Esto significa que siempre oscila en un periodo exacto de tiempo (o tan exacto como permitan las imperfecciones del mecanismo), dependiendo de su longitud. Es decir, que sus movimientos son isócronos. O sea, una de esas reglas lo más regulares posible que nos gustan tanto para medir cosas.

Y el péndulo resultó ser notablemente regular. Tanto que pasó a ser la clave del tiempo durante los siguientes 270 años, hasta bien entrado el siglo XX. Sólo la invención del reloj electrónico de cuarzo en 1927 comenzaría a desplazarlo, pero no del todo hasta después de la Segunda Guerra Mundial. En el reloj de cuarzo, el péndulo queda reemplazado por un oscilador piezoeléctrico de cristal mucho más pequeño y preciso. Y veloz, lo que permite medir fracciones mucho más breves de tiempo, a millones de ciclos por segundo. Poco después llegó el reloj atómico, más exacto todavía. De pronto, resultó que nuestros relojes comenzaban a ser enormemente más regulares que la inmensa mayor parte de los fenómenos naturales que medían, como la órbita de la Tierra alrededor del Sol, la de la Luna alrededor de la Tierra o casi cualquier otra cosa que antes constituyese la referencia mejor de tiempo. Y ya sabes, lo regular, la regla, es lo que mola para medir.

Entonces hicimos algo nuevo: invertimos la referencia. Es decir, el sol y la luna y las estrellas dejaron de ser la referencia última para nuestros relojes y fueron nuestros relojes, cada vez más precisos y prácticos, los que nos sirvieron para medir el resto de fenómenos naturales. Incluyendo al sol, la luna y las estrellas. Hoy en día la referencia absoluta de tiempo ya no está en los cielos, sino en la tierra, en nuestros relojes atómicos (bueno, algunos hay en el espacio…). Ahora decimos que la unidad básica de tiempo en el sistema internacional es el segundo, y en estos momentos lo definimos así, en el lenguaje cuántico de estos relojes atómicos:

“El segundo es la duración de 9.192.631.770 periodos de la radiación correspondiente a la transición entre los dos niveles hiperfinos del estado fundamental del átomo de cesio-133.” [A una temperatura de 0 K]

Reloj atómico de estroncio del JILA, 2014

El reloj más preciso del mundo en la actualidad: el atómico de estroncio del Joint Institute for Laboratory Astrophysics (JILA), formado por la Universidad de Colorado y el Instituto Nacional de Estándares y Tecnología de los Estados Unidos (NIST). Necesitaría por encima de cinco mil millones de años, más que la edad del sistema solar, para “irse” un solo segundo. Foto: Ye group and Baxley/JILA

…lo que es una regla exacta como el demonio y además muy práctica, porque no tenemos que andar dando tantas vueltas a que si el sol, la luna o las estrellas cada vez que queremos contar el tiempo con precisión, ni depender de sus imperfecciones cósmicas. Cosa que hoy en día es totalmente necesaria en todas partes. Toda nuestra ciencia y tecnología modernas, las claves de nuestro nivel y calidad de vida, dependen por completo de la regularidad de nuestros relojes.

Me he saltado necesariamente muchas cosas, porque esta fue una historia muy larga y compleja, llena de acelerones y paradas y marchas adelante y atrás. Pero quiero añadir que nuestra historia, la historia de la humanidad, está indisolublemente vinculada a las maneras como aprendimos a medir el tiempo. Exigió lo mejor y lo más brillante de nosotros. A cambio, nos premió con una clase de dominio sobre nuestro mundo que de otro modo jamás habríamos podido soñar. La agricultura, la navegación oceánica, la electrónica moderna o la astronomía, entre otro millón de cosas más, son en parte hijas de nuestro afán por medir el tiempo de manera cada vez más y más precisa. Sin ese afán, sin esa capacidad, seguiríamos anclados allá por el Epipaleolítico. Y, te lo aseguro, eso no te iba a gustar.

(Quizá te interese también: La computadora de Anticitera, en este mismo blog.)

58 Comentarios Trackback / Pingback (1)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (32 votos, media: 4,81 de 5)
Loading ... Loading ...
Be Sociable, Share!

Mi caso OVNI favorito

Uno tiene sus debilidades. :-D

Portada de uno de los comics basados en los libros de Von Däniken

¡Pues anda que no machacaría yo estos tebeos cuando sólo tenía pelo en la cabeza...! :-D

Lo confieso: de muy jovencito, un servidor de ustedes hacía polvo los tebeos, libros y apariciones televisivas de Erich von Däniken, Charles Berlitz y Jiménez del Oso. Pasé de creer en los Reyes Magos y los cuatro angelitos en las cuatro esquinitas a los arqueoastronautas y los visitantes extraterrestres sin solución de continuidad. (Bueno, sonaba bastante más lógico, ¿no?). Sólo después vinieron Isaac Asimov, Iván Yefrémov, Yaroslav Golovanov y Carl Sagan. Fue a través de estos últimos que, finalmente, llegué a adquirir algún aprecio por los rancios libros de texto, los papers formales y el siempre inquietante método científico, con su desagradable costumbre de llevarte la contraria en tus credulidades más íntimas. Nadie nace enseñado, oiga.

Con semejante historial, no te extrañará que me queden algunas secuelas. Una de ellas es que siempre estoy dispuesto a escuchar una buena historia de OVNIs.  Pero una chula, tú. No me fastidies con que una vez viste unas lucecitas en el cielo, porque yo también y algunas sé lo que eran y otras no. Como tú, o cualquier otro. El cielo está lleno de cosas que hacen cosas. Tampoco pretendas convencerme sin pruebas muy fehacientes de que unos hombrecillos verdes o grises se pusieron en contacto contigo, especialmente si aprovecharon la ocasión para transmitirte un mensaje beatífico dirigido a la humanidad pero a ti personalmente, en vez de a la Asamblea General de las Naciones Unidas: casos de apariciones marianas y de esquizos en estado delirante también conozco un montón. Y si vas a contarme que los verdes, los grises, los marrones o los azules te metieron no sé qué por no sé dónde, opino que cada cual es muy libre de calentarse con la fantasía erótica que más le plazca, pero es que a mí el fetish policial no me acaba de poner. O sea que gracias, pero no, gracias.

(Nota al margen: Me pregunto –es un decir– por qué estos contactos suelen ser tan antropocéntricos, dándonos la brasa con iluminaciones para la humanidad y demás, en vez de ser un poco más xenocéntricos y aportar algún detalle sobre su ciencia y tecnología; lo que nos sería mucho más útil, además de una buena demostración de su veracidad.)

Nube lenticular

Una bonita nube lenticular. Imagina lo que puede llegar a parecer en condiciones atmosféricas distintas, sobre todo si está reflejando alguna luz o hay algún otro fenómeno luminoso en el aire. Existen muchas más cosas en el cielo capaces de provocar fenómenos del tipo de los OVNIs.

Entonces, ¿qué es para mí una buena historia de OVNIs? Bueno, pues para empezar, una que esté bien documentada. Me parece de coña que, en un mundo plagado de cámaras de altas prestaciones por todas partes, con tanto millón de avistamientos, contactos y penetraciones sólo se nos ofrezcan como prueba imágenes y testimonios que no valdrían ni para demostrar la existencia de la Luna. También es importante que haya un registro instrumental; a poder ser, de distintos instrumentos. Los ojos humanos son muy dados a ver caras en las nubes, por no mencionar nuestra considerable capacidad para autosugestionarnos y convencernos de cualquier cosa mediante una infinidad de sesgos cognitivos. A los instrumentos les cuesta más seguirnos la broma, pero cuando están manejados por un humano decidido a demostrar lo que ve, lo que cree, pueden llegar a hacer cosas asombrosas. Por eso es bueno que haya un registro instrumental variado, a poder ser con sistemas lo más automáticos posible.

Por otra parte, la historia no tiene que presentar indicios obvios de mala fe. Es decir, de ser un montaje más o menos hábilmente orquestado para ganar dinero, promover objetivos políticos o montar una sectita (sin tampoco caer en la conspiranoia). Y si además es interesante y se lee como un buen relato, miel sobre hojuelas. Que al menos se pueda decir aquello de se non é vero, é ben trovato, demonios.

Hay muy pocas historias de OVNIs que reúnan todas estas cualidades, pero según mi opinión una de ellas destaca sobre todas las demás: el incidente de Teherán de 1976. Si no es auténtico, es lo que más se le parece y además la leche en bote, con radares e instrumentos detectando anomalías coherentes, cazas de combate enzarzándose con objetos luminosos que les lanzan cosas y numerosos testigos expertos en el cielo y en la tierra, incluyendo a pilotos y generales de la fuerza aérea. De todas las historias de OVNIs que en el mundo son, no hay ninguna que me sugiera más presunción de veracidad. Y te lo dice uno de Valencia, donde el caso Manises. A decir verdad, parece una versión corregida y mejorada del caso Manises, sólo que ocurrida tres años y pico antes: poco después de la medianoche del 19 de septiembre de 1976.

Mapa de la región en 1976.

Mapa de la región en 1976.

Teherán, 1976.

Mohammad Reza Pahlevi, último shá de Irán

Mohammad Reza Pahlevi, último shá de Irán: un tiranuelo pro-occidental armado hasta los dientes por los Estados Unidos.

Lo primero, el contexto. El contexto es la Guerra Fría, en una dictadura pro-occidental fronteriza con la URSS: la Persia del Shá, o sea Irán, con la que luego se harían los barbudos de ojos saltones. Este Shá (o Sah, o Shah) Mohammed Reza Palevi era el rey de una monarquía en decadencia reactivado como déspota poderoso mediante un golpe de estado promovido por los Estados Unidos y el Reino Unido, derrocando así al Dr. Mohammad Mosaddeq, el Primer Ministro elegido democráticamente pero que tuvo la mala idea de nacionalizar el petróleo iraní. Ya sabes, somos los defensores de la libertad y la democracia mientras no votes cosas raras y todo ese rollo.

El Irán del Shá fue una tiranía infame, al menos tan chunga como la de los ayatolás que vendrían después, con una policía política temible llamada SAVAK –totalmente indistinguible de la estación local de la CIA–, exterminio de la oposición y toda clase de torturas y crímenes. Probablemente no era tan mala como la Arabia Saudí de hoy en día, otro lugar sobre el que todos los defensores de la democracia pasan de puntillas, pero en materia represiva no tenía nada que envidiar a –por ejemplo– el Chile o la Rumania del mismo periodo.

Sin embargo, cabe romper una lanza en su favor: mediante un programa político denominado la Revolución Blanca, trató de modernizar el país e introducir un grado de justicia social. Para los criterios de su época, el Irán del Shá era un país moderadamente secular, moderno y tecnificado. En cierta manera, parecido a la España del franquismo tardío, y de hecho hubo una relación bastante buena entre ambas dictaduras. El Shá y su esposa Farah Diba, que hacía las delicias de la prensa del corazón cañí y llegó a convertirse en un icono popular, se contaron entre los pocos dirigentes extranjeros que visitaban la España de Franco. Salvando las distancias culturales, la Teherán del Shá no era tan distinta del Madrid de la misma época. Y en Teherán había mucha más pasta, por el petróleo, aunque la Revolución Blanca fracasó en el reparto de la riqueza (o quiso fracasar) y se encontraba concentrada en unas pocas manos.

Farah Diba, esposa del Shá de Irán, se convirtió en un icono pop a través de la prensa del corazón. En la imagen, el Hola nº 1100.

Farah Diba, esposa del Shá de Irán, se convirtió en un icono popular a través de la prensa del corazón. En la imagen, el Hola nº 1100.

Basta con mirar el mapa de más arriba para comprender el interés de los Estados Unidos por Irán, y no sólo debido al petróleo. Turquía e Irán estaban situados junto al vientre blando de la URSS, sin ningún colchón ni estado satélite de por medio, así que en términos geoestratégicos tenían una relevancia extraordinaria. Aunque Churchill y Stalin se agarraron de la manita para invadir Irán y derrocar al padre del Shá durante la Segunda Guerra Mundial, porque parecía inclinarse hacia el Eje, ahora las cosas habían cambiado y la dinastía Pahlevi era la mejor garantía de estabilidad, etcétera. Así que ambos primos anglosajones invistieron de poder al Shá y los suyos, los armaron, los formaron, los equiparon con todo y se olvidaron de buenismos políticamente correctos como los derechos humanos, el imperio de la ley o las libertades democráticas, qué vulgaridad.

Un F-14 Tomcat de la Fuerza Áerea Iraní dispara un misil Phoenix. Foto: Northrop Grumman / AP

Un F-14 Tomcat de la Fuerza Áerea Iraní dispara un misil AIM-54 Phoenix. Este tipo de cazas y misiles, extremadamente avanzados en su época, sólo se exportaron al Irán del Shá y después fueron heredados por los ayatolás. Foto: Northrop Grumman / AP

Fuera de Estados Unidos, Irán fue el único país que recibió interceptores F-14 Tomcat (79 unidades), que por aquel entonces eran lo último y lo más plus, un supercaza sólo comparable en aquel mundo con el MiG-25. También recibió 225 cazabombarderos F-4 Phantom II y fue el segundo país al que llegaron (después del Reino Unido). También les suministraron cientos de tanques Chieftain y helicópteros, miles de blindados y decenas de miles de misiles TOW, Dragon, Sidewinder, Sparrow, Harpoon, Standard o Hawk, en sus variantes más sofisticadas, así como el supermisil aire-aire Phoenix. Y aviones Boeing-747 Jumbo para transportar todo eso, uno de los cuales se estrelló haciendo escala en Madrid poco antes del suceso. Cualquiera que recuerde cómo era (por ejemplo) el Ejército Español por aquel entonces comprenderá fácilmente la enormidad de lo que estamos hablando. El Irán del Shá se convirtió en uno de los países mejor armados del mundo, incluso por encima de muchos miembros de la OTAN o el Pacto de Varsovia.

Los estadounidenses y británicos les suministraron también diversos radares de gran capacidad para el periodo. Entre ellos se contaban cinco Marconi S-330/S-404 Green Ginger, con casi 400 km de alcance, tan potentes que a veces saturaban la red eléctrica iraní y producían apagones. Junto a estos, operaban decenas de (entonces) modernos radares como los tridimensionales AN/TPS-43 (450 km de alcance) o los AN/FPS-88, entre otros. Vamos, que los iraníes no estaban exactamente ciegos.  Y puesto que todo este material no sirve de nada si no sabes usarlo, los Estados Unidos dedicaron decenas de millones de dólares e incontables horas-hombre a formar y entrenar miles de especialistas militares. O sea, que los iraníes tampoco eran exactamente una pandilla de moros ignorantes, como diría alguno que yo me sé. Junto a ellos, trabajaba también un cierto número de asesores militares norteamericanos.

Y fue exactamente en la zona más vigilada y equipada, Teherán, donde ocurrió el incidente de septiembre de 1976. Para no caer en el sensacionalismo, me limitaré a traducir el informe de la Junta de Jefes de Estado Mayor de los Estados Unidos, que se tomó mucho interés en el asunto:

Luces en la madrugada.

[Directivas, fechas, destinatarios, confidencialidad - desclasificado con posterioridad. El relato de los hechos se inicia en las dos últimas líneas de la primera página]

En torno a las 12:30 AM [00:30], [clasificado] recibió cuatro llamadas telefónicas de ciudadanos residentes en el área de Shemiran de Teherán, diciendo que habían visto objetos extraños en el cielo. Algunos informaron de un objeto con aspecto de pájaro mientras que otros notificaron la presencia de un helicóptero con una luz encendida. No había helicópteros volando en ese momento.

F-4 Phantom II iraní en 1974.

Un F-4 Phantom II iraní como los que se vieron implicados en el incidente OVNI de Teherán. Foto de 1974.

[Clasificado], después de decir al ciudadano que era sólo [el planeta] Marte y que había hablado con la torre [de control] de Mehrabad, decidió mirar por sí mismo. Observó un objeto en el cielo similar a una estrella pero más grande y brillante. Decidió enviar un F-4 [Phantom II] de la báse aérea de Shahrokhi para investigar.

A las 01:30 horas del día 19 el [Phantom] despegó y se dirigió hacia un punto unas 40 millas náuticas al norte de Teherán. Debido a su brillo, el objeto era visible rápidamente desde 70 millas de distancia. Conforme el [Phantom] se aproximó a una distancia de 25 millas, perdió toda la instrumentación y las comunicaciones (UHF e interfono). Rompió el contacto y se dirigió de vuelta a Shahrokhi. Cuando el [Phantom] viró alejándose del objeto y aparentemente ya no constituía una amenaza para el mismo, la aeronave recuperó toda la instrumentación y las comunicaciones.

A las 01:40 se despachó un segundo [Phantom]. El [oficial de armas a bordo] adquirió un blocaje radar a 27 millas náuticas, en la posición 12 en punto, arriba, [aproximándose a una velocidad relativa de] 150 millas náuticas por hora. Cuando la distancia descendió a 25 millas náuticas, el objeto se alejó a una velocidad que era visible en la pantalla del radar y se mantuvo a 25 millas náuticas. El tamaño [del objeto en el radar] era comparable al de un avión de reaprovisionamiento en vuelo Boeing-707 [un KC-135].

El tamaño visual del objeto fue difícil de discernir debido a su brillo. La luz que despedía era [similar a] la de lámparas estroboscópicas intermitentes dispuestas en un patrón rectangular y de colores alternantes azul, verde, rojo y naranja. La secuencia de luces era tan rápida que podían verse todos los colores a la vez.

Parviz Jafari, el piloto de la Fuerza Aérea Iraní que intentó entrar en combate con un objeto no identificado, junto a su avión.

Parviz Jafari, el piloto de la Fuerza Aérea Iraní que intentó entrar en combate con el objeto no identificado, junto a su avión.

El objeto y el [Phantom] que le perseguía continuaron con curso al sur de Teherán cuando otro objeto brillantemente iluminado, de un tamaño estimado como un tercio del tamaño aparente de la luna, se desprendió del objeto original. Este segundo objeto se dirigió directamente hacia el [Phantom] con una velocidad muy elevada.

El piloto intentó disparar un misil AIM-9 [Sidewinder] al objeto pero en ese instante su panel de control de armamento se desactivó y perdió todas las comunicaciones (UHF e interfono). En este punto, el piloto inició un un viraje y un descenso con g negativa para apartarse. Mientras viraba el objeto le siguió en su estela a lo que parecían ser unas 4 millas náuticas.

Mientras [el piloto del Phantom] continuaba virando para apartarse del objeto primario, el segundo objeto se desplazó por el interior de su viraje y volvió al objeto primario para reunirse perfectamente con él.

Poco después de que el segundo objeto se reuniese con el primario, otro objeto pareció salir del lado opuesto del primario, dirigiéndose directamente hacia abajo. La tripulación del [Phantom] había recuperado las comunicaciones, así como el panel de control de armamento, y observó cómo el objeto se aproximaba al suelo anticipando [que se produciría] una gran explosión. Este objeto pareció posarse suavemente sobre el suelo y proyectar una luz muy brillante sobre un área de 2-3 km. La tripulación [del Phantom] descendió desde su altitud de [26.000 pies] a [15.000 pies] y prosiguió observando y marcando la posición del objeto.

Tuvieron algunos problemas para ajustar su visión nocturna [debido al efecto del brillo del objeto en sus ojos], así que tras orbitar Mehrabad varias veces procedieron a un aterrizaje directo. Había muchas interferencias en la banda de UHF y cada vez que pasaban por el rumbo magnético 150º desde Mehrabad perdían sus comunicaciones (UHF e interfono) y el INS [sistema de navegación inercial] fluctuaba entre 30 y 50º. El único avión civil de pasajeros que se aproximaba a Mehrabad en los mismos momentos sufrió fallos de comunicaciones en la misma zona (KZ) pero no informó que avistara nada.

La torre de control del aeropuerto internacional de Teherán-Mehrabad en 1958.

La torre de control del aeropuerto internacional de Teherán-Mehrabad en 1958.

Cuando el [Phantom] se encontraba en larga final [aproximación a pista], su tripulación observó otro objeto de forma cilíndrica (con el tamaño aproximado de un T-bird a 10 millas náuticas de distancia) con luces brillantes estáticas a cada extremo y una destelleante en el centro. Al preguntar a [la torre de control], les comunicaron que no había ningún otro tráfico conocido en el área. Cuando el objeto pasó sobre el [Phantom], torre no podía verlo, pero lo captaron después de que el piloto les dijera que mirasen entre las montañas y la refinería.

Al hacerse de día, la tripulación del [Phantom] fue transportada al área donde el objeto había aterrizado aparentemente. No se observó nada en el punto donde pensaban que se posó (un lago seco), pero al dirigirse al oeste del área captaron una señal de localizador muy notoria. En el punto donde la señal era más fuerte había una casa pequeña con jardín. Aterrizaron y preguntaron a sus ocupantes si habían notado algo extraño la noche anterior. Aquellas personas hablaron de un ruido fuerte y una luz muy brillante, como la del relámpago. El avión y el área donde se cree que aterrizó el objeto están siendo comprobadas en busca de posible radiación.

Se remitirá más información cuando esté disponible.

El tiempo en Teherán-Mehrabad el día 19 de septiembre de 1976 era: temperatura = 25,4 ºC (mín 17 ºC, máx 31 ºC); visibilidad = 6,7 millas; viento = 3,2 nudos; precipitación = 0 mm. Al otro lado de la frontera soviética, en Astara (Azerbaiyán), las condiciones atmosféricas fueron al día siguiente: temperatura = 22,5 ºC (mín 18 ºC, máx 27 ºC); punto de rocío = 19,7 ºC; presión atmosférica = 1007,8 mb; viento = 2,5 nudos (máx 3,9 nudos); precipitación = 0 mm.

Existe otro documento muy parecido, redactado para la DIA por un capitán del Cuartel General de la Fuerza Aérea de los Estados Unidos en Europa, con un estilo un poquito más “literario” pero que esencialmente reproduce punto por punto el informe que te he traducido aquí. Al principio de este otro documento, el oficial en cuestión temía que el incidente fuese “archivado y probablemente olvidado”. No obstante, quizá debido a su excepcionalidad, parece que el asunto tuvo algún seguimiento posterior.

Dibujo realizado por el piloto militar Parviz Jafari de su encuentro con el OVNI sobre Teherán, pasada la medianoche del 19 de septiembre de 1976.

Dibujo realizado por el piloto militar Parviz Jafari de su encuentro con el OVNI sobre Teherán, pasada la medianoche del 19 de septiembre de 1976.

Este caso llama poderosamente la atención por varios elementos que ya identificó la DIA en su época. Por un lado, hay numerosos testigos, en varios lugares y de varios tipos distintos: civiles en tierra, personal aeroportuario, pilotos militares, etc. Algunos de ellos entran perfectamente en la categoría de “personal cualificado”. Por otra parte, hubo detección visual e instrumental. Los instrumentos, además, son de varios tipos y en distintas circunstancias: hay una “detección activa” por parte de los radares de los cazas, y una “detección pasiva” por la vía del fallo instrumental al aproximarse al objeto, pero también al sufrir perturbaciones a mayor distancia (desde Mehrabad). Estas perturbaciones a mayor distancia resultan especialmente interesantes, dado que fueron registradas por los instrumentos a bordo de dos tipos distintos de aeronaves (los cazas y el avión de pasajeros) en una misma posición coherente (rumbo 150º desde Mehrabad). Esa es la clase de cosas que hacen los objetos reales.

Los protagonistas terrestres del incidente están identificados. El controlador de torre que recibió los avisos de los ciudadanos y vio el objeto con unos prismáticos se llamaba Hussain Perouzi. La persona que dio las órdenes para que despegaran los Phantom fue el brigadier-general Nader Yousefi, que también lo había visto desde tierra. El piloto del primer Phantom era el capitán Mohammad Reza Azizkhani y el del segundo, el teniente Parviz Jafari. Muchas de estas personas han sido localizadas por distintos autores y programas de televisión, y se han ratificado repetidamente en sus declaraciones. Algunos han dado conferencias en el extranjero.


El teniente (ahora general retirado) Parviz Jafari explica su encuentro con el OVNI de 1976.

El aeropuerto internacional de Teherán-Mehrabad, en la actualidad.

El aeropuerto internacional de Teherán-Mehrabad, en la actualidad.

Se ha dicho que un satélite DSP, cuyo propósito es detectar los lanzamientos de misiles y las explosiones nucleares, detectó una anomalía infrarroja en el sector durante una hora. No he podido confirmar este dato y muchos autores dudan de que sea real. Tampoco existe ninguna información relativa a posibles observaciones desde la Unión Soviética, justo enfrente del lugar de los hechos. Si detectaron algo, se ha mantenido oculto hasta la actualidad.

No parece existir una explicación convencional del incidente que sea evidente por sí misma. A lo más que se ha llegado es a relacionar vagamente el suceso con la identificación errónea de los planetas Marte o Júpiter. Esto no es descabellado: en todas las guerras, todas las fuerzas aéreas han realizado centenares de salidas contra la luna y otros astros, que parecen otras cosas al observarlos en condiciones anómalas. Sin embargo, las identificaciones erróneas de un astro no producen imágenes en el radar ni interferencias electrónicas.

Este incidente en Irán presenta analogías notables con el caso Manises. Tantas, que uno se pregunta si no estarán íntimamente relacionados. Sin embargo, en el caso iraní las observaciones instrumentales directas (radar) parecen más variadas y sólidas, hay dos cazas interviniendo en vez de uno (y ambos notifican una experiencia similar), hay testigos más variados en más puntos diferentes, hay una interacción más directa con el objeto, el objeto reacciona de manera más sofisticada y la naturaleza del mismo parece más coherente, menos dispersa.


Entrevista en Cuarto Milenio con el piloto de la Fuerza Aérea española Fernando Cámara, que se las vio con el objeto del “caso Manises”. Lo interesante (o menos conocido) comienza a partir del minuto 07:35 de este primer video, en el segundo video y a partir del 2:30 del tercer video.

Cabina del piloto (arriba) y el operador de armas (abajo) de un cazabombardero F-4 Phantom II.

Cabina del piloto (arriba) y el operador de armas (abajo) de un cazabombardero F-4 Phantom II.

En ambos casos, se han vinculado las anomalías electrónicas observadas con la presencia en el área de fuerzas más avanzadas tecnológicamente. En el caso valenciano, con la Sexta Flota norteamericana en el Mediterráneo. En el caso iraní, también con los estadounidenses que abundaban por allí o con equipos soviéticos análogos operando desde el otro lado de la frontera. No obstante, esto no pasa de ser una afirmación tan falta de pruebas como la que supone sin duda que estamos ante naves extraterrestres haciendo sun, sea, sex por la Tierra.

Existen muchos avistamientos OVNI, incluso algunos muy famosos, que uno puede descartar tranquilamente sin miedo de estar perdiéndose nada. Sin embargo, hay un minúsculo número de casos que invitan a la reflexión. El caso de Teherán de 1976 (y con él, el de Manises de 1979) pertenece, sin duda, a este último grupo. ¿Significa esto que los extraterrestres o los intraterrestres o los viajeros del tiempo o los atlantes o los seres de luz nos están visitando? No. Lo más normal, lo más probable, es que tuvieran una explicación convencional que simplemente no pudo establecerse en su momento y a estas alturas ya no se puede establecer. Con muchísima probabilidad, hasta el mejor de estos casos –según mi parecer, este que te estoy contando– tuvo una razón de ser convencional. Y si fue algo distinto, nadie lo sabe. Ni tú, ni yo ni el gurú de turno.

¿Que me moje un poco más, dices? :-D Bueno, veamos. Para empezar, dejémonos de jueguecitos verbales: objetos volantes no identificados los hay todos los días, hasta que alguien les pone un helicóptero de la Guardia Civil encima y resulta que son dos payos en avioneta subiéndose del moro un cargamento de polen. De hecho, los másmejores casos OVNI serían aquellos en los que el objeto llega a ser identificado… y entonces, siempre, siempre resulta ser un objeto de naturaleza convencional, con lo que no entra en los registros ufológicos. Pero cuando hablamos de OVNIs, lo que a todos nos evoca instantáneamente no es un mero objeto-volante-no-identificado-ñá-ñá-ñá, sino presencias de naturaleza extraordinaria en la atmósfera terrestre o sus aledaños. O sea: extraterrestres o cosa parecida. Hay otras posibilidades (armas o aeronaves terrestres anómalas, experimentos sofisticados deliberadamente diseñados para confundir, etc), pero esto es a lo que nos referimos normalmente. No mareemos la perdiz.

En 2009 despertó gran interés esta luz espiral avistada sobre Noruega. Resultó ser una prueba fallida de un SLBM ruso RSM-56 Bulava.

En diciembre de 2009 despertó gran interés esta luz espiral avistada sobre Noruega. Resultó ser una prueba fallida de un SLBM ruso RSM-56 Bulava. La tercera etapa fracasó, imprimiendo al misil un movimiento rotacional incontrolado que fue dejando una estela de gases incandescentes con forma de espiral. Si la prueba no se hubiera dado a conocer, este avistamiento continuaría siendo un "objeto volante no identificado".

Según mi particular opinión, no es totalmente imposible que alguno de estos casos pudiera corresponderse con una visita extraterrestre. Pero no es totalmente imposible sólo por la sencilla razón de que es posible que existan civilizaciones extraterrestres y es posible que se puedan realizar viajes interestelares prácticos por medios que a nosotros aún se nos escapan. En ese caso, algún avistamiento podría ser alguna de estas visitas (y algo me dice que se parecería muy poco a lo que estamos acostumbrados a pensar). Eso es todo.

Como dije al principio, el cielo está lleno de cosas naturales y artificiales que hacen un montón de cosas. Y la atmósfera terrestre no es un cristal perfecto, sino un lugar bastante turbulento capaz de provocar fenómenos ópticos espectaculares a poco que las condiciones meteorológicas sean un poquito bordes (los espejismos superiores son especialmente interesantes al respecto del tema que nos ocupa, entre ellos el Fata Morgana… pero, de nuevo, esto no produce efectos electromagnéticos). En general, la probabilidad de que todos los casos OVNI constituyan fenómenos convencionales que no se pudieron identificar en su momento es altísima.

El hecho de que, después de tantos años de ufología, nadie haya sido capaz de aportar ni la más mínima prueba fehaciente de que alguno de ellos sea de naturaleza más extraordinaria constituye en sí mismo un argumento poderoso a favor del escepticismo, incluso del escepticismo radical. Algunos optan por explicar esta falta de pruebas mediante conspiranoias varias como los hombres de negro y demás (es increíble, tú, siempre eficaces al 100% hasta en el más inhóspito rincón del mundo, con la cantidad de patanes y metepatas que suele haber en esta clase de servicios). Por otra parte, la presencia de tanto estafador y espabilado en el mundillo obliga a exigir pruebas contundentes de cualquier afirmación. Y en general, afirmaciones extraordinarias requieren pruebas extraordinarias. Pero, a diferencia de otras creencias, no es imposible por completo. No, no lo es. Sólo altamente improbable. Y nadie tiene la respuesta: sólo el tiempo lo dirá. Eso sí, hace tiempo que albergo una opinión, y es que un contacto auténtico sería el fin de la ufología. Más que nada, porque la realidad siempre termina superando al más descabellado ejercicio de imaginación.

119 Comentarios Trackbacks / Pingbacks (4)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (73 votos, media: 4,81 de 5)
Loading ... Loading ...
Be Sociable, Share!

La computadora de Anticitera

Hace más de dos mil años, alguien creó un objeto absolutamente extraordinario.
Pasarían catorce siglos de oscuridad hasta que volviera a verse algo parecido sobre la faz de la Tierra.

La costa frente a la que se produjo el naufragio de Antikitera.

La costa frente a la que se produjo el naufragio de Anticitera hace unos 2.100 años, en la actualidad. Foto: Mellis (Clic para ampliar)

Agradecimiento: Escrito con la inestimable cooperación del Dr. Tony Freeth,
secretario del Antikythera Mechanism Research Project.
Donde se indique, las imágenes son propiedad del AMRP o de Images First.
Thank you very much again, Dr. Freeth!

Faltaban unas seis u ocho décadas para el año cero que no fue cuando un buque de tecnología romana y unas trescientas toneladas de desplazamiento se hizo a la mar en el Mediterráneo Oriental. No sabemos realmente quién era su armador, ni el puerto de donde partió, ni a dónde se dirigía, ni en qué fecha exacta lo hizo, ni quiénes navegaban en él. Pero se hundió en la posición 35° 53′ norte 23° 18′ este, a poca distancia de un cabo septentrional de la isla de Anticitera (o Antiquitera), entonces llamada Aigilia u Ogylos y hoy en día parte de la Grecia contemporánea. Esta isla, donde se encuentra el antiguo puerto de Pótamos Aigilii, era por aquel entonces un refugio de piratas a quienes hacía la guerra la Rodas aliada de Roma; quizá el mercante había sido capturado. Otra posibilidad es que simplemente, sobrecargado como iba, se hundiera de viejo: la madera de olmo con que fue construido ha sido datada mediante radiocarbono entre el 177 y el 263 aC, o sea que el barco (o su maderamen, que se solía reutilizar) contaba al menos noventa años de antigüedad y puede que hasta dos siglos. O cualquier otra cosa. Han pasado dos mil y pico años; vete tú a saber qué viento se lo llevó.

Restos del naufragio de Anticitera.

Restos del naufragio de Anticitera: un fragmento del casco, construido en madera de olmo con tecnología romana, y diversos trozos de cerámica entre los que se distingue el cuello de un ánfora del siglo I a.C. Imagen obtenida a 52 m. de profundidad por miembros del Instituto Egeo, operando desde el barco Calypso del comandante Cousteau, en 1975. Foto: Aegean Institute (Clic para ampliar)

En octubre de 1900, casi veinte siglos después, un grupo de recolectores de esponjas al mando del capitán Dimitrios Kondos andaba faenando en el lugar mientras esperaban a que se disipara una fuerte tormenta que se interponía en su regreso a casa. Uno de los buceadores, Elías Stadiatos, regresó de su inmersión hablando despavorido sobre cuerpos de hombres y animales pudriéndose en el fondo. Pensando que Elías deliraba por sufrir borrachera de las profundidades, el capitán Kondos bajó a comprobarlo. Así hallaron el pecio, o lo que quedaba de él, a unos sesenta metros de profundidad. Contenía ánforas, estatuas de mármol y cobre, cerámica grecorromana y una diversidad de utensilios corrientes en los buques del último siglo antes de nuestra era. Basándose en los restos encontrados, incluyendo algunas monedas pergamenses del 86 – 67 y efesias atribuidas al periodo 70 – 60, los arqueólogos concluyen que el naufragio tuvo que suceder entre el 85 y el 60 aC. Si fuera anterior, estas monedas no deberían estar presentes; si fuera posterior, habría objetos más tardíos con toda probabilidad.

Algunos historiadores creen que pudo tratarse de uno de los barcos que transportaban a Roma el botín obtenido por Sila durante la Primera Guerra Mitridática; al parecer hay un texto de Luciano de Samosata, dos siglos y medio posterior, que menciona la pérdida de uno de estos navíos. Obviamente, esto no pasa de ser un tiro lejano. No es sólo el tiempo transcurrido entre el suceso y el comentario de Luciano: es que el Mediterráneo Oriental es uno de los primeros mares de la civilización y el paso entre Citera, Anticitera y Creta ha sido surcado por incontables navíos desde tiempos muy antiguos. Antes de que llegaran las tecnologías de navegación modernas, muchos de ellos naufragaban por mil motivos diferentes; aún sigue ocurriendo de vez en cuando, aunque muchísimo menos. Pero durante milenios, las costas mediterráneas han estado plagadas de viudas espectrales mirando eternamente al mar, a la espera de sus incontables esposos e hijos perdidos que no volvieron jamás.

El extraño cargamento.

Mapa del naufragio de Anticitera.

Mapa clásico del naufragio de Anticitera, sucedido alrededor del 85 - 60 aC en los pasos entre el mar Crético y el Jónico. Se encuentra en el corazón de las rutas marítimas entre el mundo griego y el romano, muy frecuentadas entonces y ahora. Se supone que el buque, viejo y sobrecargado, podría haber estado haciendo el recorrido de Atenas o Pérgamo a Roma; en realidad, no se sabe a ciencia cierta. (Clic para ampliar)

La carga del barco hundido estaba fundamentalmente compuesta por copias de estatuas y otras que parecen ser más originales, entre las que se encuentra la cabeza del filósofo, la representación de un niño, el efebo de Anticitera, un lanzador de disco, un Hércules, un toro de mármol y una lira de bronce. Eran artículos probablemente valiosos (también) en su tiempo, por lo que muchos piensan que se trataba de una especie de barco del tesoro; choca entonces que eligieran un navío tan viejuno para el transporte. Otros sugieren que podía tratarse de una carga comercial relativamente corriente en un periodo de gran esplendor, desplazada en uno más de los barcos que surcaban aquellos mares, aunque la carga parece más importante que eso. E incluso un buque capturado por los piratas donde se hubiese reunido el botín obtenido en varios navíos. De nuevo, todo es posible, o cualquier otra cosa; simplemente hace demasiado tiempo y la memoria se ha perdido.

Sin embargo, entre los restos sumergidos se encontró también algo distinto. Algo francamente extraño. Estaba tan deteriorado por tanto tiempo bajo el mar que al principio no hizo más que levantar alguna ceja, empezando por la de su descubridor, el arqueólogo Valerios Stais (1902). Lo que Valerios recuperó del fondo, murmurando aquello de “¡qué curioso…!”, era una especie de mecanismo construido en bronce y compuesto por treinta engranajes. El bronce fue el primer gran metal de la civilización, una aleación de cobre con estaño menos dura pero también menos quebradiza que el hierro; al quedar expuesto a la intemperie sólo se oxida en una capa de su superficie y así es capaz de resistir la corrosión (incluyendo la marina) incluso mejor que los aceros sencillos. Si hubiera sido fabricado con hierro, se habría desvanecido en las sombras del Mediterráneo y de la historia mucho tiempo atrás.

Astrolabio de ocho engranajes de Al-Biruni (996 dC)

Esquema de Al-Biruni para un calendario lunisolar de ocho engranajes (996 dC). El mecanismo de Antiquitera, casi once siglos antes, presenta treinta, contaba con al menos 35 y puede que hasta 72. Imagen: Wikimedia Commons.

Durante las siguientes décadas, se recuperaron un total de ochenta y tres fragmentos correspondientes a este objeto (82 según otras fuentes). Cabe dividirlos en una pieza central o mecanismo principal, cinco o seis secundarias y el resto terciarias, muchas de ellas poco más que esquirlas. Si quisieras verlo en persona, se conserva actualmente en la Colección del Bronce del Museo Arqueológico Nacional de Atenas. El conjunto mide treinta centímetros de alto, quince de largo y siete y medio de profundidad. Estaba dispuesto originalmente en una caja de madera de unos 34 x 18 x 9 cm, con puertas o tapas delanteras y traseras, así como inscripciones cubriendo la mayor parte del mecanismo. La caja y los paneles anterior y posterior quedaron aplastados por los restos del naufragio que tenían encima, y probablemente el mecanismo en sí se rompió también por este motivo, pero las inserciones calcáreas protegieron los restos durante todo este tiempo.

La pieza que suele concentrar todo el interés, lógicamente, es el mecanismo principal que conserva veintisiete de los treinta engranajes; pero todas resultan esenciales para comprenderlo. De manera muy notable, en algunas de las secundarias se hallan inscritos unos tres mil caracteres griegos habitualmente denominados el manual de instrucciones; se estima que en el objeto completo había de diez a veinte mil.

En otros fragmentos se observan finísimas marcaciones angulares milimétricas correspondientes a alguna clase de instrumento geométrico. Y todas ellas son testigos enigmáticos de un instante asombroso de la Antigüedad en el que alguien fue capaz de crear una sofisticada máquina cuyo grado de complejidad y perfección mecánica no surgiría otra vez hasta el siglo XIV europeo, mil cuatrocientos puñeteros años después. Su grado de miniaturización es aún más asombroso: pocas veces se vuelve a ver hasta la Edad Moderna. Observa esta belleza y recuerda que estamos hablando de un objeto anterior a nuestra era:

Microescalas angulares múltiples en el fragmento C, vista frontal del mecanismo de Anticitera. Imagen: Wikimedia Commons.

Microescalas angulares múltiples en el fragmento C, vista frontal del mecanismo de Anticitera, tal como se encuentra expuesto en el Museo Arqueológico Nacional de Atenas. Imagen: Wikimedia Commons.

Así, no es extraño –y hasta se me antoja disculpable, aunque sólo sea por una vez– que los magufillos le añadan su dosis habitual de exageraciones y lo consideren un oopart creado por extraterrestres o atlantes o viajeros en el tiempo o cosas así. Nosotros, en cambio, intentaremos una aproximación más científica e histórica: no es preciso irse al mundillo de los enigmas a saldo para valorar en su justa medida un objeto verdaderamente enigmático, verdaderamente asombroso y verdaderamente extraordinario como el mecanismo de Anticitera. En la opinión de este que te escribe, nos encontramos ante el objeto más portentoso de la Antigüedad, una manifestación suprema del conocimiento perdido con la destrucción de las grandes bibliotecas del pasado. Como, por ejemplo, la Biblioteca de Alejandría.

Mecanismo de Anticitera, fragmento A (mecanismo principal), vista frontal. Wikimedia Commons. (Clic para ampliar)

Mecanismo de Anticitera, fragmento A (mecanismo principal), vista frontal, tal como se encuentra expuesto en el Museo Arqueológico Nacional de Atenas. Imagen:. Wikimedia Commons. (Clic para ampliar)

La verdad es que visto así y después de tirarse dos mil años bajo el agua, no parece gran cosa. Es raro, ¿verdad? Ahora, vamos a hacerle una radiografía para empezar a comprender lo que se oculta en su interior:

Radiografía del fragmento A del mecanismo de Anticitera. © 2005 Antikythera Mechanism Research Project

Radiografía del fragmento A del mecanismo de Anticitera. © 2005 Antikythera Mechanism Research Project. (Clic para ampliar)

O mejor aún, un escáner de rayos X:

El interior del mecanismo de Anticitera (fragmento A) por CT de rayos-X.

Cuatro "cortes" o "lonchas" del interior del mecanismo de Anticitera (fragmento A) obtenidos mediante tomografía computerizada de rayos X para el AMRP. © 2005 Antikythera Mechanism Research Project. (Clic para ampliar)

Sí. Es lo que parece: un complejo mecanismo de relojería, creado 1.200 años antes de que se desarrollaran los primeros relojes puramente mecánicos en Al-Ándalus. Sólo hay un pequeño problema: el mecanismo de Anticitera es mucho, muchísimo más que un simple reloj. Vamos allá.

El objeto.

Aunque el mecanismo de Anticitera conserva treinta de sus engranajes (27 en el mecanismo principal del fragmento A y tres en los fragmentos B, C y D), los especialistas coinciden en que para tener sentido mecánico debía contar al menos treinta y cuatro y posiblemente treinta y cinco; los últimos cuatro o cinco se habrían perdido a consecuencia del naufragio y el tiempo. Algunos autores elevan la cifra, proponiendo mecanismos más complejos aún, hasta un máximo de setenta y dos. Están dispuestos en trenes compuestos; durante un tiempo se pensó incluso que podía contener engranajes diferenciales (como en los analizadores diferenciales) para calcular las fases de la luna, aunque parece que esta hipótesis ha sido descartada por innecesaria y actualmente se considera incorrecta. Todos los dientes de los engranajes son triángulos equiláteros.

Esquema del mecanismo de Anticitera.

Estructura del mecanismo de Anticitera en vista lateral (sección). Las partes indicadas en color rojo no se han encontrado y son por tanto hipotéticas. © 2008 Tony Freeth, Images First Ltd; traducción de La Pizarra de Yuri.

Reconstrucción por ordenador, en vista anterior y posterior, del mecanismo de Anticitera.© 2008 Tony Freeth, Images First Ltd. (Clic para ampliar)

Reconstrucción por ordenador, en vista anterior y posterior, del mecanismo de Anticitera.© 2008 Tony Freeth, Images First Ltd. (Clic para ampliar)

Reconstrucción por ordenador, en vista anterior y posterior, del mecanismo de Anticitera completo en su caja, sin las puertas que lo cerraban y sólo con los textos recuperados.© 2008 Tony Freeth, Images First Ltd. (Clic para ampliar)

Reconstrucción por ordenador, en vista anterior y posterior, del mecanismo de Anticitera completo en su caja, sin las puertas que lo cerraban y sólo con los textos recuperados.© 2008 Tony Freeth, Images First Ltd. (Clic para ampliar)

Esquema general del mecanismo de Anticitera en vista superior. © 2008 Tony Freeth, Images First Ltd. (Clic para ampliar)

Esquema general del mecanismo de Anticitera en vista superior. © 2008 Tony Freeth, Images First Ltd. (Clic para ampliar)

El propósito primario del mecanismo era mostrar diversos datos de índole astronómica en una serie de diales circulares o esferas (en el sentido relojero) situadas en la cara frontal y posterior, referidos a una fecha. Esta fecha se indicaba haciendo girar una manivela lateral, hoy perdida; la pieza con el orificio para introducirla se conserva. Había una esfera principal en la parte delantera y dos en la trasera, con otras más pequeñas en su interior.

La esfera frontal presenta dos escalas concéntricas. La exterior está indicada con los 365 días del calendario egipcio, basado en el ciclo sótico, que podía moverse para compensar el día bisiesto cada cuatro años. Cabe reseñar que el primer calendario grecorromano con años bisiestos, el juliano, no se instituyó hasta el 46 aC (aunque hubo un intento previo en Egipto, con el Decreto de Canopus, en el 238 aC; pero no tuvo éxito). El mecanismo de Anticitera precedería, pues, a este adelanto en varias décadas y puede que hasta un siglo.

Dentro de esta primera escala en la esfera frontal, hay otra marcada con los signos griegos del zodíaco clásico y dividida en grados. En esta esfera frontal había al menos tres agujas, una para indicar la fecha seleccionada y otra para indicar la posición del Sol y la Luna respecto a los signos zodiacales helénicos. El indicador lunar está compensado para reflejar las irregularidades conocidas de la órbita de nuestro satélite; se supone que el solar tendría algún sistema parecido, pero si existió, ha desaparecido. En esta misma esfera frontal hay un indicador más para mostrar las fases de la Luna.

En las inscripciones en griego se hallan varias referencias sobre Venus y Marte, lo que ha conducido a algunos autores a afirmar que el mecanismo contendría una sección adicional –hoy perdida– para indicar la posición de estos astros e incluso de todos los cinco planetas que conocían los griegos mediante trenes sucesivos hasta un total de 72 engranajes. Conservarse, sólo se conserva un engranaje adicional de utilidad desconocida, desconectado de los demás; por ello, cabe considerar especulativa esta posibilidad.

La esfera frontal contiene también un parapegma, precursor de los almanaques modernos, que indicaba la salida y el ocultamiento de varias estrellas específicas indicadas mediante iniciales en griego. Parece haber referencias cruzadas a este respecto en las inscripciones grabadas por toda la máquina.

Por la cara posterior tenía dos esferas en vez de una, llamadas “alta” y “baja”. La alta tiene forma de espiral, con 47 marcas en cada vuelta hasta totalizar los 235 meses del ciclo metónico.  El ciclo metónico de 6.940 días, que se estudió en Babilonia y constituye la base del posterior calendario hebreo, es una aproximación bastante exacta al múltiplo común de los ciclos del sol y de la luna: equivale más o menos a 19 años tropicales y 235 meses sinódicos a la vez. Metón el Ateniense observó este fenómeno ya en el siglo V aC –de ahí su nombre– e incluso describió una fórmula correcta para corregir la pequeña diferencia entre ambos, con lo que el mecanismo de Anticitera permite esta corrección. Sobre esta base, se pueden crear y ajustar calendarios lunisolares con gran facilidad. Dicho de otra manera: en un tiempo en que la mayoría del mundo aún estaba prácticamente en el Neolítico, con un mecanismo de Anticitera tú podías llegar a cualquier sitio y levantar un calendario en cuestión de horas.

Trenes de cálculo lunar de la máquina de Anticitera, vista posterior. Imagen base: © 2008 Tony Freeth, Images First Ltd. (Clic para ampliar)

Trenes de cálculo lunar de la máquina de Anticitera, vista posterior. Imagen base: © 2008 Tony Freeth, Images First Ltd (Clic para ampliar)

La esfera posterior baja está también dispuesta en forma espiral, con 223 divisiones para mostrar los meses del ciclo de Saros, originado en la cultura caldea. El ciclo de Saros es excepcionalmente interesante, pues equivale al tiempo transcurrido entre dos momentos en que el Sol y la Luna se encuentran en parecida posición con respecto a la Tierra, y por tanto entre ocurrencias del mismo eclipse. En combinación con el metónico, permite predecir los eclipses con bastante exactitud. Esta esfera posterior baja contiene además una aguja más pequeña que indica el exeligmos o triple Saros de 54 años, para corregir las imprecisiones del ciclo de Saros, dado que éste no es un número entero exacto sino que consta de 6.585 días y un tercio. Recientemente (2008), se ha descubierto también una esfera menor adicional que parece corresponder al ciclo calípico de 76 años, dividida en cuatro secciones con los nombres de los cuatro juegos panhelénicos (incluida la Olimpiada) más otros dos de menor importancia; uno de ellos permanece sin descifrar.

Así, el mecanismo de Anticitera resulta ser un pasmoso computador analógico, un autómata de la Antigüedad, que suma y aplica los conocimientos de toda la media luna donde se originó la civilización occidental (Grecia, Egipto, Levante, Mesopotamia). Esa es la clase de conocimiento desaparecido que se encontraba en lugares como la Biblioteca de Alejandría. Quien llevara consigo un mecanismo de Anticitera, estaba perfectamente ubicado en el tiempo con respecto al Sol, la Luna y las estrellas. Podía predecir las épocas de siembra y cosecha, los eclipses, las estaciones, practicar las formas de adivinación antigua (sí, lo que quieras, pero en aquella época era muy importante), todo. El mecanismo de Anticitera es un instrumento protocientífico avanzado, la herramienta perfecta para un astrólogo, un astrónomo, un astrofísico de la Antigüedad, como no volvió a ser posible hasta milenio y medio después. Con ese nivel de miniaturización, más aún. Y es único en el mundo: no se conoce ninguno más ni nada siquiera parecido. Ciertamente, no resulta nada raro que algunos lo consideren uno de esos oopart.

El contexto.

Pero el mecanismo de Anticitera no es un oopart, por dos motivos. Primero, porque nadie ha encontrado jamás un oopart verdadero (¡ojalá!), y este no es una excepción. El segundo, y más importante, porque cuadra con la ciencia y la tecnología de más alto nivel disponible en el periodo, y además existen escritos de aquella época que se refieren a esta clase de aparatos. Por ejemplo, el contemporáneo Cicerón (106 – 43 aC) habla en su De re publica sobre dos dispositivos creados por por Arquímedes (287 – 212 aC) que parecen alguna especie de planetario de mesa por engranajes capaz de representar posiciones astronómicas y realizar predicciones en base a las mismas. Las máquinas de Ctesibio de Alejandría (285-222 aC) o Filón de Bizancio (280-220 aC) que culminarían en tiempos de Herón de Alejandría (10-70 dC) nos evocan una memoria casi perdida de objetos alimentados por medios mecánicos, neumáticos, hidráulicos e incluso a vapor; sistemas de cálculo analógico basados en el recuento de pasos de engranajes simples y compuestos; y toda una serie de autómatas elementales, entre muchas cosas más.

El indicador de fechas para las festividades deportivas, entre ellas las Olimpiadas, identificado en el mecanismo de Anticitera por tomografía de rayos X. Imagen: © 2005 Antikythera Mechanism Research Project. (Clic para ampliar)

El indicador calípico de fechas para las festividades deportivas, entre ellas las Olimpiadas, identificado en el mecanismo de Anticitera por tomografía de rayos X. Imagen: © 2005 Antikythera Mechanism Research Project. (Clic para ampliar)

Reconstrucción de las inscripciones en el mecanismo de Anticitera, a partir de las imágenes obtenidas por tomografía de rayos X. Imagen: © 2005 Antikythera Mechanism Research Project. (Clic para ampliar)

Reconstrucción de las inscripciones en el mecanismo de Anticitera, a partir de las imágenes obtenidas por tomografía de rayos X. Imagen: © 2005 Antikythera Mechanism Research Project. (Clic para ampliar)

Hizo falta un avanzado nivel teórico para concebir una máquina así. Pero también estaba disponible por aquel entonces, si bien vendría a equivaler al nivel de la física teórica que se encuentra hoy en día detrás de instrumentos como el LHC. Las partes más difíciles y complejas son el ciclo metónico y el calípico que eran bien conocidos en el periodo e incluso antes, procedentes de las culturas mesopotámicas. Se desarrollaron tras los tiempos de Hiparco de Nicea, más de un siglo tras Eratóstenes de Cirene o Aristarco de Samos; y mucho después que Pitágoras y Eudoxo de Cnidos. A principios del siglo I aC, las culturas del Mediterráneo Oriental y la helénica en particular sabían del movimiento cíclico de los astros, incluyendo la precesión de los equinoccios; conocían que era posible calcularlo matemáticamente; y eran capaces de construir mecanismos para hacerlo.

Así pues, el mecanismo de Anticitera está contextualizado en su periodo histórico y no contiene nada ni está sustentado en nada que no supieran los griegos antiguos. Por tanto, no estamos ante el habitual misterio barato de pacotilla, sino ante un instrumento científico de muy alta tecnología y extrema precisión, el equivalente clásico a una nave de espacio profundo en un tiempo donde tales preocupaciones eran aún más raras que en la actualidad. De hecho, por el momento no se ha encontrado ninguno más. Existen indicios muy fuertes para pensar que hubo más, aunque sólo sea porque su grado de desarrollo y acabado hace muy difícil pensar que se tratara del primer intento de construir un dispositivo así. Pero, muy lamentablemente, estos otros objetos se han disuelto en el tiempo. Los tristes restos del mecanismo de Anticitera parecen ser el superviviente único de un tiempo perdido, cuya singularidad va a la par con su sofisticación y extrañeza.

Reloj de De'Dondi (ca 1364 dC)

Parte inferior del reloj-planetario de De'Dondi, en un grabado de la época (ca 1364 dC). Hasta entonces, no había vuelto a aparecer otra máquina computadora tan compleja como el mecanismo de Anticitera. Más de 1.400 años de tinieblas les separan. Imagen: Wikimedia Commons.

Alguien, viéndolo, podría decir: “¡pero si es sólo como un reloj viejo!”. Y sí, pero es algo muy parecido a un reloj mecánico moderno creado un milenio y medio antes de que aprendiéramos a hacer relojes mecánicos modernos. Ni el astrolabio mecánico de Al Biruni (aprox. 1000 dC), ni el reloj automático programable de Al Jazarí (también inventor del cigüeñal, aprox. 1200 dC), ni el reloj medieval de Wallingford fueron tan complejos y ni remotamente tan compactos. Hay que irse al reloj de De’Dondi (siglo XIV dC) para encontrar mecanismos tan complejos y prácticamente a la Edad Moderna para que sean al mismo tan pequeños y compactos. Es casi como si detectáramos ahora mismo, en una órbita alrededor del Sol, una nave espacial lanzada por los sinosudistas o alguien así el año en que nació Mahoma.

La interpretación.

La interpretación práctica del mecanismo de Anticitera es extrema, extrema, extremadamente difícil porque, para empezar, ni sabemos de dónde salió, ni quién lo utilizaba, y no existe ninguna otra pieza ni remotamente parecida en el mundo entero para comparar. El hecho de haberlo hallado en un naufragio, perdido en tránsito, complica aún más las cosas porque no permite conocer el lugar en que se usaba habitualmente; a menos que se empleara como parte del equipo de navegación de a bordo (cosa poco probable: difícilmente un marino de su tiempo le habría hallado alguna utilidad inmediata) o fuera transportado por un pasajero en alguna clase de viaje de investigación (ve y pregunta a qué se dedicaban los ocupantes de un oscuro navío hundido dos mil cien años atrás…).

El llamado manual de instrucciones, grabado por todas partes en griego con pintas de koiné, no acaba de aportar luz al respecto. No es un verdadero manual de instrucciones en el sentido actual del término, sino más bien unos apéndices de referencia, dando por sentado que el usuario sabe para qué sirve la máquina y cómo utilizarla. Tiene toda la lógica: este objeto sólo tiene sentido en manos de un científico que lo entendiera o, como rareza, en el tesoro de un rey. El idioma en el que está escrito, más allá de vincularlo genéricamente a la cultura helénica, tampoco proporciona ningún dato en particular: el griego koiné era el “inglés” de su tiempo, una lingua franca de uso en todo el Mediterráneo, que aparece en objetos tan dispares como la piedra de Rosetta (Egipto, 196 aC) o el Nuevo Testamento (Asia Menor, aprox. 125 – 250 dC).

En todo caso, sin duda, se trata de un instumento científico-técnico portátil para la realización de cálculos astronómicos o astrofísicos elementales desarrollado en el contexto de la civilización grecorromana oriental en torno a principios del siglo I aC. Es un autómata, seguramente no-programable de ninguna manera práctica, construido en bronce y madera, con sistemas de cálculo, representación y alimentación basados en la ingeniería mecánica. Incluye tablas de operación y referencia. Entendido como máquina calculadora o computadora, estamos ante un ordenador analógico de la Antigüedad, creado a partir de los conocimientos teóricos más avanzados disponibles en el periodo.

Desde las profundidades del tiempo y el mar, silencioso en sus expositores del Museo Arqueológico Nacional de Atenas, el mecanismo de Anticitera aún guarda muchos misterios de los de verdad y un mensaje inquietante para nosotros. Contiene una advertencia. Nos dice que el progreso no está garantizado. Nos recuerda que las sociedades pueden retroceder, como sucedió: mil años largos, oiga, hasta que alguien volviera a hacer algo parecido. Las sociedades que dejan de aspirar a la libertad de pensamiento, que renuncian al avance de la ciencia, de las artes y de las ideas, que se acomodan o refugian en sus valores tradicionales (que a menudo no lo son tanto) y en los cantos de sirena de la superstición… se estancan, retroceden y retrocederán. Entre el mecanismo de Anticitera y el reloj de De’Dondi, su inmediato sucesor, hubo 1.400 años de tinieblas. Si el modelo de civilización que creó esta computadora de la Antigüedad hubiera podido seguir adelante, ¿por dónde andaríamos hoy, ya?

PD: Se había comentado que la palabra “ISPANIA” aparecía en el mecanismo de Anticitera. El Dr. Freeth, del Antikythera Mechanism Research Project, me confirma que se trató de un error de interpretación y este nombre no se halla en el dispositivo.

166 Comentarios Trackbacks / Pingbacks (24)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (163 votos, media: 4,90 de 5)
Loading ... Loading ...
Be Sociable, Share!

Así te persigue un misil.

¿Cómo lo hace una máquina para perseguirte con la furia gélida de los robots?


Un UAV georgiano Hermes 450 de fabricación israelí graba el instante en que fue derribado por un caza ruso MiG-29,
el 20 de abril de 2008, durante los prolegómenos de la última guerra entre ambos países.
El derribo, probablemente con un misil R-73 “Arquero”, se produjo frente a la costa de la disputada Abjasia.
Ministerio del Interior de Georgia, Reuters

El bífaz Excalibur, hallado en la sima de Atapuerca.

El bífaz Excalibur, un hacha de 400.000 años de antigüedad hallada en Atapuerca. ¿Una ofrenda, un utensilio, un arma...? En todo caso, una herramienta.

A ojos extraterrestres, probablemente el rasgo más distintivo de la especie humana con respecto a los demás animales sería nuestra capacidad para construir herramientas. Somos mucho más capaces de construir herramientas –materiales e intelectuales– que cualquier otro de los terrestres, y encima sabemos utilizarlas para crear herramientas aún más complejas, en una carrera sin fin llamada tecnología. La historia de la humanidad es, sobre todo, la historia de su tecnología y del conocimiento acertado o equivocado que hay detrás: la filosofía, la religión, la ciencia.

Desde el principio, aplicamos esta capacidad a la construcción de armamento. Como cualquier otra especie biológica, la gente humana necesitamos cazar, defendernos, atacar. En esto no nos diferenciamos en absoluto de los demás vivientes: la violencia forma parte sustancial de nuestra naturaleza. Eso no es ni bueno ni malo; simplemente, es. Toda la historia de la civilización es la historia de cómo aprendimos a ir contra natura; a limitar, articular e incluso suprimir nuestra naturaleza en favor de un bien percibido mayor –la colectividad, el progreso, la justicia, la ley, el orden social, la prosperidad–, que a su vez forman parte de estas herramientas intelectuales con las que sabemos dotarnos.

Así, los actos de violencia adquieren en las sociedades humanas una dualidad extraña. Matar por razones individuales, egoístas, se convierte en un crimen: el homicidio, el asesinato. Matar por razones colectivas –la tribu, la nación, la religión, la clase, la política, la ley– pasa a ser un acto de heroísmo. El mismo individuo al que las turbas gritan “¡asesino!” durante su camino al juzgado para ser condenado por matar a veinte personas es llamado “héroe” durante el desfile de la victoria, por esas mismas masas, si sus veinte víctimas pertenecían al enemigo. Por lo que hoy es un espantoso crimen, mañana dan medallas. En ausencia de una ética universal, los actos humanos carecen de sentido y de valor moral por sí mismos: todo depende del contexto, de la ética local, de la narrativa, de la propaganda.

De este modo los creadores de armas nuevas –herramientas nuevas para la violencia– se suelen considerar geniales y magníficos cuando son de los nuestros o pérfidos y diabólicos cuando son de los ellos. Esto se observa desde que existen registros escritos, y sigue viéndose en la actualidad sin cambio alguno; por ejemplo, en las condenas a los países que intentan crear armas de destrucción masiva… por parte de países que poseen decenas de miles de armas de destrucción masiva. El argumento es siempre igual: lo nuestro está justificado (por nuestro contexto, nuestra ética local, nuestra narrativa, nuestra propaganda); lo de ellos no. Y viceversa, claro.

Siendo un poco más eclécticos, se comprende que el afán de crear armas nuevas capaces de aportarnos una ventaja decisiva contra ellos ha sido una constante en todas las sociedades humanas. Con alguna perspectiva histórica, la verdad es que a estas alturas nos importan bien poco los valores que defendía el bífaz Excalibur de Atapuerca, suponiendo que defendiese alguno. Los viejos lamentos de que la reintroducción de la ballesta en Occidente iba a acabar con la nobleza medieval, al permitir al plebeyo infante perforar la coraza del caballero montado, se nos antojan hoy anticuados y hasta risibles; entre otras cosas, porque los valores de la aristocracia feudal –que la ballesta, en efecto, contribuyó a destruir– ya no nos parecen dignos de mantener. Y qué decir de la pólvora. O la dinamita. O la industrialización de la guerra, que nos llevó al concepto moderno de guerra total. La historia de las armas es la historia de la tecnología, de la ciencia y del pensamiento de las sociedades que las crearon.

La literatura está llena de referencias a toda clase de anheladas armas mágicas a caballo entre la religión, la ciencia, la filosofía y la leyenda. Por ejemplo, las distintas espadas con nombre propio capaces de derrotar a incontables ellos: Tizona, Colada, Zulfiqar, Durandarte, Kladenets, Taming Sari, Kusanagi, la Excalibur artúrica. O las defensas mitológicas: Égida, Svalinn, los escudos de Ajax y Lancelot, el baño de Aquiles en el río Estigia. Y, por supuesto, lanzas y flechas que jamás fallaban su blanco: Gungnir, Gandiva, Gáe Bulga, el arco de Hércules. Inevitablemente fue la ciencia, y su hija la tecnología, quienes terminaron por crearlas. O al menos, cosas parecidas.

Soldados alemanes preparan un misil de crucero V-1 para su lanzamiento. Deutsches Bundesarchiv.

Soldados alemanes preparan una "bomba volante" o misil de crucero V-1 para su lanzamiento. Probablemente la V-1 nazi fue el primer misil operacional verdadero de la historia. Deutsches Bundesarchiv.

La flecha que nunca falla. O eso se pretende.

La idea de crear una especie de flecha capaz de perseguir a su blanco por sí sola habría puesto sin duda los ojos como platos a cualquier guerrero antiguo. Si además le hubiéramos contado que esa flecha se propulsaría a sí misma y destruiría el más grande de los barcos, la más resistente de las murallas y la más impresionante máquina bélica de ellos en un destello de fuego deslumbrador, o nos habría tomado por locos o nos habría pedido que siguiéramos contándole esa leyenda tan chula. Durante milenios, lo más parecido que tuvo la humanidad a un arma autoguiada fueron los perros de caza y combate y otros animales de uso militar.

Las primeras armas capaces de guiarse a sí mismas aparecieron durante la Primera Guerra Mundial. Se trataba, básicamente, de complicados mecanismos de relojería capaces de hacer que un avión o torpedo describiese una trayectoria prefijada antes de precipitarse sobre su blanco. Entre estos intentos primitivos se cuentan el torpedo volante del inventor estadounidense del piloto automático Lawrence Sperry, el Kettering Bug de este mismo país –a caballo entre lo que hoy en día llamaríamos un misil de crucero y un UAV– o los blancos aéreos británicos guiados por radio. Parece que los alemanes también intentaron alguna clase de torpedo guiado para su lanzamiento desde zepelines.

Durante el periodo de entreguerras fueron surgiendo conceptos cada vez más sofisticados, pero aún insuficientes para ser tomados seriamente en consideración por los militares. Entre estos se encuentran el Larynx británico y el GIRD-06 soviético de Sergei Korolev, que además de un autopiloto giroscópico incorporaba ya un pequeño cohete como impulsor. Pero no fue hasta mediados de la Segunda Guerra Mundial cuando las armas autopropulsadas y autoguiadas encontraron definitivamente su camino al frente de batalla. Sucedió en 1943, de modo casi simultáneo, con el torpedo alemán G7e/T4 Falke y el Mark 24 FIDO estadounidense. Ambos seguían el ruido subacuático emitido por sus blancos –buques y submarinos– y se demostraron tan eficaces que ya no hubo marcha atrás. Al año siguiente, 1944, la Alemania nazi ponía en servicio el primer misil de crucero real: la V-1. Y en septiembre de ese mismo año, el primer misil balístico eficaz: la V-2.

Tanto la V-1 como la V-2 utilizaban pilotos automáticos para alcanzar un punto determinado del territorio enemigo, por lo que no seguían al blanco, sino que atacaban objetivos estáticos (los misiles de crucero y los ICBM actuales siguen haciendo exactamente lo mismo, si bien con ayudas mejoradas a la navegación y mucha mayor precisión y eficacia). Su enorme visibilidad hizo que otros inventos alemanes capaces de perseguir a su blanco pasaran bastante desapercibidos en el imaginario colectivo. Así, pocos recuerdan al Fritz X, que hundió al acorazado Roma –buque insignia de la flota italiana– cuando ya se estaba pasando a los aliados; sin embargo, el Fritz X era un arma de telecomando, que seguía a su blanco gracias a las acciones de un operador humano, no de un sistema de guía autónomo.

Corbeta Komar disparando un misil P-15 Termit (SS-N-2 Styx).

Durante la Guerra de los Seis Días, el 21 de octubre de 1967, la Armada Egipcia hundió al destructor israelí Eilat con tres misiles P-15 Termit (SS-N-2 Styx). El lanzamiento fue realizado por dos corbetas Komar, sin salir del puerto de Port Said, a 17 millas de distancia. Fue la primera vez en que un buque resultaba hundido por misiles completamente autopropulsados y autoguiados, cambiando así la historia de la guerra naval. En la imagen, una corbeta Komar lanza un misil P-15 Termit. (Mały okręt rakietowy, Wydawnictwo MON, Varsovia, 1974)

El Ruhrstal X-4, que no llegó a entrar en servicio, pretendía derribar bombarderos también bajo el comando de un ser humano. Lo mismo cabe decir del Hs 293, que consiguió algunos éxitos antes de que los aliados aprendieran a interferir la señal de telecomando. Los antiaéreos Wasserfall y Feuerlilie también eran teleguiados, no autoguiados; ninguno de los dos estaba terminado cuando acabó la guerra. Más interesante resulta el Enzian. Aunque aún telecomandado, iba provisto con una guía final infrarroja denominada Madrid que dependía igualmente de la acción humana pero ya empezaba a apuntar hacia el futuro. Ninguno de todos estos conceptos llegó a tiempo para tener una influencia significativa en la Segunda Guerra Mundial.

Resulta difícil decir cuál fue el primer misil moderno verdadero, pues fueron el resultado de una evolución progresiva durante la Guerra Fría. También depende del tipo de misil del que hablemos. Se puede afirmar que la V-2 alemana ya era un misil balístico moderno verdadero; aunque le faltaban algunas características de los actuales (etapas y cabezas múltiples, guía astroinercial…), ya “hacía lo que tenía que hacer” y era dispara-y-olvida por completo. En sentido estricto, la V-1 también entraría en esta clasificación, como misil de crucero. Entre los misiles aire-aire, probablemente el honor corresponda a alguna versión del estadounidense AIM-9 Sidewinder.

Los tierra-aire, en cambio, tardaron más en desprenderse del telecomando humano; sistemas legendarios de la Guerra Fría como el SA-2 soviético o los Nike norteamericanos dependían por completo de sus operadores. Incluso las primeras versiones del S-300 y el Patriot utilizaban teleguiado parcial, que sigue usándose actualmente en algunos modos de operación. La mayor parte de misiles genéricamente llamados antitanque, contra blancos móviles terrestres, siguen dependiendo de algún sistema de puntería manejado por una persona. Los antibuque, en cambio, se independizaron desde por lo menos el P-15 Termit soviético (SS-N-2 Styx, en denominación OTAN). Y entre los aire-superficie hubo y hay una diversidad de soluciones, dependiendo de su función exacta. Veámoslo.

Misilística básica.

En sus idiomas originales –francés e inglés– la palabra missile viene del latín missilis (“lanzable”) y puede referirse a cualquier proyectil, incluso una piedra, arrojado deliberadamente o no. Sin embargo, hoy en día decimos que un misil es un tipo de arma aeroespacial autopropulsada y autoguiada. Así, se distinguen de los torpedos guiados (que no son aeroespaciales, sino submarinos), de las bombas guiadas o inteligentes (que carecen de propulsión autónoma), de los cohetes no guiados (artillería de cohetes, cohetes sin guía como los RPG, los LAW, los Zuni o las series S rusas) y de los lanzadores espaciales (aeroespaciales, autopropulsados y autoguiados, pero no armas en sí mismos).

Por centrar el post, vamos a estudiar los misiles que son capaces de seguir autónomamente a un blanco. Es decir, eso de las pelis: apuntas a algo, le lanzas un misil y te olvidas mientras el otro tipo hace lo que puede por evitarlo. ¿De qué manera puede una máquina perseguir a su oponente cual Terminator con trastorno obsesivo-compulsivo? Bien: todas ellas lo hacen husmeando sus emisiones.

Todo lo que existe, emite. Y además, emite radiación electromagnética. Tu cuerpo, por ejemplo, emite calor debido a sus procesos metabólicos; es decir, radiación térmica, en la banda del infrarrojo. También refleja la luz visible procedente del sol, la luna, las estrellas o cualquier fuente de iluminación artificial. Por eso se nos puede ver: los ojos son receptores de radiación electromagnética en la banda de la luz visible. Esta es, de hecho, la manera más antigua de localizar al enemigo utilizada por la humanidad: verlo.

Guía Avtomatika L-112E para el misil anti-radiación ruso Kh-31P (MAKS 2009).

Guía Avtomatika L-112E para el misil anti-radiación ruso Kh-31P de 1988. Actualmente han sido reemplazadas por las L-130. (MAKS 2009)

Empecemos con uno de los conceptos más fáciles: el misil anti-radiación. Los misiles anti-radiación se usan para atacar objetivos que están emitiendo voluntariamente, como los radares o los transmisores de radio y radiotelefonía. Los ejércitos modernos y las sociedades modernas en general dependen de una montaña de emisiones, desde los grandes radares de alerta temprana hasta los teléfonos móviles. Y todo lo que emite se delata a sí mismo. Usando tecnología similar a la de tu oponente, tú puedes detectar una emisora enemiga como mínimo al doble de distancia a la que esa emisora es eficaz, y por lo tanto atacarla desde el doble de distancia si tienes un arma con ese alcance. ¿Cómo puede ser esto?

Veámoslo con un ejemplo sencillo. Supongamos que tú vienes en un avión a atacarme a mí y yo quiero detectarte con un radar; ambos tenemos un nivel tecnológico similar. Yo enciendo mi radar, tú vienes hacia mí. Como las señales de radio (el radar usa señales de radio) reducen su intensidad con el cuadrado de la distancia, al principio estamos demasiado lejos y la señal pierde potencia hasta el punto en que no puede excitar un receptor a ninguno de los dos lados: ninguno detecta al otro. Tú sigues acercándote. A una distancia dada, mi señal mantiene intensidad suficiente para excitar los receptores que llevas a bordo: tú acabas de detectarme a mí. Pero la señal aún tiene que rebotar sobre ti y hacer el viaje de vuelta hasta mi radar, con lo que pierde demasiada intensidad durante el retorno y sigo sin detectarte: tú me estás detectando a mí, yo no te estoy detectando a ti. Me estoy delatando yo solito y tú puedes utilizar técnicas de radiogoniometría para ubicarme con gran precisión, y yo aún no te veo. Tendrás que acercarte mucho más, al menos a la mitad de distancia, para que mi señal rebote sobre ti y vuelva a mi radar con la intensidad suficiente para excitar mis receptores: sólo entonces te detectaré. Mientras te mantengas en la “segunda mitad” de la distancia que nos separaba en el momento en que me detectaste por primera vez, estás a salvo por completo salvo que mis receptores fueran mucho más sensibles que los tuyos.

Con receptores iguales, un blanco puede detectar al radar antes de que el radar lo detecte a él.

El cazador cazado: con receptores iguales, un blanco puede descubrir al radar antes de que el radar lo descubra a él. Teóricamente, aplicando la ley del inverso del cuadrado, al doble de distancia exacta. El blanco puede aprovechar esa diferencia para atacar al radar desde una distancia de seguridad donde no está siendo detectado. Si el avión encendiera su radar, perdería esta ventaja de inmediato. (Clic para ampliar)

Misil antirradiación estadounidense AGM-88 HARM.

Misil antirradiación estadounidense AGM-88 HARM, aire-superficie. La Fuerza Aérea Española equipa estos proyectiles con los cazabombarderos EF-18.

Evidentemente, desde esa “segunda mitad” de distancia puedes dispararme un arma con toda la tranquilidad del mundo. Y yo seguiré sin detectarte. Lo primero que veré de ti será… tu misil, directamente hacia mi posición. En un caso como este, decimos que mi radar está en modo activo (porque emite y recibe) mientras que tu avión está en modo pasivo (porque sólo recibe); mientras la cosa se mantenga así, tu avión tendrá una ventaja decisiva sobre mi radar.

Para ti, sería idóneo llevar ahora un misil anti-radiación de alcance suficiente para atacar mi radar sin entrar en su zona de detección. Un misil anti-radiación, en sus modelos más básicos, es un cohete con un receptor de radio que tiende a volar hacia el punto en que la radiación electromagnética (o sea, la emisión de radio o radar) es más intensa. Si siempre se dirige hacia el punto donde la radiación es más intensa, pues al final se encontrará… con la antena del radar, lógicamente. Bum.

Hay cosas que yo puedo hacer para evitar que tu misil anti-radiación me alcance. Por ejemplo, cambiar de frecuencia, a alguna que su receptor no logre captar. O simplemente apagar el radar unos minutos, con lo cual ya no podrá seguirme y se perderá. Debido a eso, los misiles anti-radiación modernos llevan receptores mejorados y sistemas de guía adicionales; por ejemplo, una segunda guía de tipo infrarrojo que “se enganche” al calor residual disipado por los equipos electrónicos del radar aún cuando ya esté apagado. E incluso un sencillo navegador inercial que mantenga la dirección de vuelo hacia las coordenadas donde detectó mayor emisión antes de que el radar se apagara.

Pero en términos generales, el ejemplo del misil anti-radiación nos sirve muy bien para entender el principio en el que se sustentan todos los misiles que persiguen al blanco: viajan hacia el punto donde la radiación característica emitida (o reflejada) por su objetivo es más intensa. Por simple teoría de campos, ese punto es el propio objetivo: un radar, una radio, un teléfono celular o satelitario, su estación base, cualquier cosa que emita de manera identificable.

El misil anti-radiación básico es también un buen ejemplo de un sistema de guía completamente pasivo. Esto es: la guía del misil no emite nada para localizar a su objetivo. Es el objetivo quien lo emite todo, delatándose así y ofreciéndole en bandeja una trayectoria al misil.

Misil anti-AWACS ruso R-37.

Misil aire-aire anti-AWACS ruso R-37. Fue desarrollado para destruir aviones-radar AWACS y otros C4ISTAR desde largas distancias (supuestamente hasta 400 km), tras detectar sus emisiones.

Quiero tu calor.

Este es el principio de funcionamiento de todos los misiles (y torpedos) provistos con guías pasivas: aprovechar una emisión inherente al blanco para localizarlo y perseguirlo. Desde el principio, se observó que las emisiones inherentes más interesantes desde el punto de vista militar eran el calor y el sonido. Todo lo que lleva un motor a bordo emite necesariamente calor y sonido; los equipos eléctricos y electrónicos también disipan calor.

Perfil de emisión térmica del MiG-27.

Perfil de emisión térmica de un avión táctico MiG-27 de 1975. La luz solar incidente es reflejada y re-emitida por la estructura y el material de la cabina, con intensidad dependiente de sus acabados. La parte posterior de la estructura, calentada por el motor, hace que el fuselaje trasero emita en banda de 4μ y la tobera en torno a 2μ. La "pluma" del reactor se expande y enfría detrás de la aeronave, absorbiendo algunas de las longitudes de onda más cortas emitidas por la tobera pero emitiendo en banda infrarroja más larga (de 4 a 8μ). La intensidad de la emisión viene generalmente definida por la temperatura, que a veinte metros detrás de la cola viene a ser de unos 100ºC sin posquemador y de 300ºC con posquemador. (Clic para ampliar)

Las ondas sonoras se transmiten mucho mejor en el agua que en el aire, y esa es la razón de que la mayor parte de los torpedos con guía pasiva se apoyen sobre todo en el sonido emitido por el blanco para alcanzarlo. La radiación térmica del calor, una forma de radiación electromagnética, se difunde mucho mejor por el aire que por el agua; y ese es el motivo de que un gran número de misiles aéreos aprovechen las emisiones infrarrojas del objetivo para atacarlo en el cielo o en la superficie. Casi todos los misiles pasivos aire-aire y una parte significativa de los aire-superficie utilizan guías infrarrojas para perseguir a sus blancos.

Las máquinas de volar son grandes emisores de radiación infrarroja. Un motor a reacción militar, por ejemplo, desprende mucho calor durante el vuelo; algunas partes del mismo alcanzan más de 1.000 ºC. A los ojos de una guía infrarroja, esto es un “destello en el cielo” casi tan brillante como el sol. Al igual que ocurre con los misiles anti-radiación en la banda de radio, un misil básico de guía infrarroja tiende a volar hacia la fuente de emisión electromagnética en la frecuencia infrarroja más intensa dentro de su cono de detección.

Uno de los trucos más antiguos para despistar a un misil de guía infrarroja fue posicionar tu avión contra el sol, de tal modo que el arma tendiese a buscar el punto más caliente (con más emisión térmica) del cielo: el astro rey. Así, el misil se olvidaba de tus reactores y se iba a perseguir un punto imposible del espacio exterior, quedándose sin energía rápidamente. En buena lógica, una de las primeras mejoras que se aplicaron a las guías infrarrojas de los misiles fue diseñarlas de tal modo que ignoraran al sol como fuente de radiación infrarroja.

Un misil aire-aire moderno de guía infrarroja pasiva está compuesto por cinco secciones principales. La sección de empuje es un motor-cohete de alta aceleración; los más avanzados disponen de tobera vectorizada para multiplicar su maniobrabilidad. La sección aerodinámica está compuesta por diversas aletas, canards y alerones móviles más sus mecanismos de control, encargadas de orientarlo constantemente en la dirección precisa; algunos disponen de desestabilizadores, con el propósito de incrementar la velocidad de reacción en maniobras ultrarrápidas. La cabeza explosiva consta de un cartucho detonante envuelto en metralla, normalmente provista con una espoleta de impacto convencional. También tenemos la espoleta de proximidad, que se encarga de hacer estallar la cabeza explosiva cuando no hay impacto directo, en el instante en que la distancia al blanco deja de reducirse. Y, por supuesto, el sistema de guía, con su sensor infrarrojo y toda la electrónica de control.

Esquema del misil aire-aire ruso R-73 (AA-11 Archer).

Esquema del misil aire-aire ruso con guía infrarroja pasiva todo-aspecto Vympel R-73 (llamado en Occidente AA-11 Arquero). La versión original de 1982 tenía 20 km de alcance, mientras que la más moderna R-73M2 es efectiva hasta a 40 km de distancia, con una velocidad de Mach 2.5; cada unidad cuesta entre 50.000 y 60.000 dólares (por el Sidewinder norteamericano, con 18 km de alcance, cobran $85.000). Este fue, probablemente, el misil empleado en el video que abre este post por el MiG-29 para derribar al UAV georgiano; los UAV, con su minúsculo motor a hélice, dejan una traza infrarroja muy débil y resulta conveniente acercarse para asegurar el tiro.

Buscador infrarrojo de un misil europeo Iris-T.

Buscador infrarrojo de un misil europeo Iris-T de 2005. Puede observarse el montaje en cárdan.

Los sensores infrarrojos modernos suelen ir montados en un cardán (gimbal) para incrementar su capacidad de detección fuera de eje (off-boresight). Así no es preciso que el misil o el avión lanzador estén apuntando en la dirección general del blanco todo el tiempo, sino que pueden desviarse para optimizar la aproximación o atacar desde un lateral o desde altitudes muy distintas. El R-73 original de 1982 tenía una capacidad off-boresight de 60º, el Sidewinder AIM-9X de 2003 la mejora a 90º y el R-73M2 llega hasta 120º. Esto les permite también mejorar su navegación proporcional, aumentando las posibilidades de derribar blancos en alcances extremos o ángulos difíciles.

Las guías infrarrojas del presente son también todo-aspecto. Antiguamente, la guía tenía que apuntar directamente a la fuente de calor para “engancharse” (blocar) adecuadamente al blanco; esto significaba que era preciso lanzar el misil desde un estrecho cono detrás del objetivo, donde la emisión térmica de sus motores resulta más intensa. Las actuales, mucho más sensibles, pueden ver el calor del blanco desde cualquier ángulo; esto permite, por ejemplo, disparos frontales de gran alcance o realizados durante fuertes maniobras donde el ángulo relativo al eje del blanco varía brutalmente. Para lograrlo, han sustituido los tradicionales sensores infrarrojos de sulfuro de plomo (PbS) por otros fabricados con antimoniuro de indio (InSb) o telururo de mercurio-cadmio (HgTeCd, MerCad), refrigerados con nitrógeno líquido u otros gases comprimidos. Junto a una aerodinámica y un cobertor frontal mejorados, que reducen el calentamiento del propio misil al acelerar a velocidades supersónicas, estos nuevos sensores les permiten ver señales más tenues y/o a mayor distancia.

La mejor manera de engañar a un misil de guía infrarroja es enfrentándolo a otras fuentes de calor que se confundan con las del blanco. Además del truco solar mencionado más arriba, la más clásica era instalar una rejilla desprendible en la tobera, que se separaba durante la aproximación de un misil mientras el avión realizaba un brusco viraje para salirse de su campo de búsqueda. Así, el misil tendía a seguir persiguiendo la rejilla caliente, en vez de al avión. Poco después llegaron las bengalas, que arden a miles de grados y por tanto ofrecen al buscador una fuente térmica mucho más intensa que el blanco.


Dos cargueros C-130 Hércules de la Fuerza Aérea Estadounidense disparan bengalas durante una exhibición,
con su característica forma de “alas de ángel”.
El propósito de estas bengalas es ofrecer fuentes de calor alternativas a los misiles de guía infrarroja para confundirlos.

Los avances en las cabezas buscadoras infrarrojas han ido convirtiendo progresivamente estas defensas en obsoletas. Por ejemplo: los sensores antiguos eran monocromáticos, esto es, ajustados para ver en una sola frecuencia; típicamente en torno a la longitud de onda de 4,2 μm, correspondiente a la emisión característica del CO2 caliente a la salida de un reactor. Esto era relativamente sencillo de confundir con bengalas que emitían calor en una frecuencia muy parecida. Después aparecieron los sensores bicromáticos, que ven también en la longitud de onda entre 8 y 13 μm, donde la absorción del aire es menor y por tanto la radiación llega más lejos. En la actualidad, claro, ya los hay policromáticos: observan en estas dos bandas y en otras donde las bengalas responden peor, por lo que se distinguen mejor de los gases y el fuselaje caliente del blanco.

Contramedida infrarroja direccional AN/AAQ-24V Nemesis.

Contramedida infrarroja direccional (DRCM) AN/AAQ-24(V) "Nemesis" de Northrop Grumman, para inducir confusión en los misiles con guía infrarroja mediante el uso de señales direccionales láser. Se suele equipar en cargueros, aviones ligeros y helicópteros, especialmente frágiles a esta amenaza.

Otro problema tradicional con estas guías se producía al aproximarse al objetivo. Los buscadores antiguos utilizaban modulación por amplitud para determinar la posición angular del blanco con respecto a la del misil, y por tanto indicar a éste cuánto debía virar para echársele encima. Durante el tramo final, esta técnica daba problemas porque el mayor tamaño percibido del blanco provocaba una señal más fuerte, conduciendo a errores de cálculo que además podían utilizarse para engañar al proyectil con bruscas maniobras que cambiaban el aspecto del objetivo. Este problema se resolvió cambiando a frecuencia modulada, que permite discriminar correctamente la distancia sin dejarse confundir por el tamaño aparente.

En cuanto a la manera como el sensor busca, del barrido por giro se pasó al barrido cónico y hoy en día a la composición digital; en estas guías de última generación, el sensor es una especie de cámara CCD infrarroja-ultravioleta que compone constantemente un mapa tridimensional de la posición del misil y la de su blanco en el ordenador de a bordo del primero. El perfil de vuelo de un avión o un helicóptero es muy distinto al de una bengala, por lo que el misil puede distinguir entre ambos y atacar al correcto.

Más allá de las bengalas, existen perturbadores para inducir errores en el análisis de la señal infrarroja del misil. Estos sistemas, llamados genéricamente contramedidas infrarrojas o IRCM, constan de una fuente de radiación infrarroja modulada con una intensidad mayor que la de los motores y superficies del blanco. Esta señal de modulación alterada introduce confusión en la cabeza buscadora y puede provocar un desblocaje; entonces, es más probable que el misil vuelva a blocarse contra una de las bengalas que se disparan simultáneamente. El problema es que, si este truco no sale bien, la guía del misil tiene una fuente infrarroja inmejorable en la propia contramedida, típicamente fijada al objetivo. Los misiles modernos están diseñados para hacer un blocaje contra el perturbador (lock-on-jam) en cuanto detectan esto, conduciendo a un derribo prácticamente seguro.

DRCM Sukhogruz montada en la cola de un Sukhoi Su-25T.

Otra DRCM: la Sukhogruz, montada en la cola de un Sukhoi Su-25T.

Para mejorar esto se están creando nuevas contramedidas, las DRCM y CRCM, que utilizan a su vez un sensor infrarrojo para detectar el calor del misil en aproximación y un láser para inducirle directamente las señales espurias en el sensor. Y los diseñadores de guías infrarrojas para misiles disponen ya de nuevas técnicas con el propósito de suprimirlas e incluso aprovecharlas. En general, el más mínimo cambio o error puede transformar una de estas contramedidas por emisión (IRCM, DRCM, CRCM) en una estupenda baliza infrarroja que atraiga al misil con mucha más eficacia que si no se estuviera usando; por ello, el uso de estas contramedidas debe medirse cuidadosamente, caso por caso y situación por situación.

Guías activas.

Como hemos visto, las guías pasivas dependen de las emisiones inherentes al blanco para perseguirlo hasta su destrucción. Son extremadamente eficaces y, más importante todavía, no se delatan de ninguna manera hasta que ya están prácticamente encima del objetivo. Sin embargo, tienen sus limitaciones. Aunque resultan óptimas para atacar blancos que emiten intensamente (como un radar terrestre o áereo, tipo AWACS), presentan más problemas a la hora de perseguir objetivos que no emiten tan intensamente de manera natural. Por ello, los misiles infrarrojos más avanzados y de mayor alcance pueden atacar a un máximo de 40 km aproximadamente. A distancias superiores, las emisiones inherentes al blanco se disipan demasiado como para poderse detectar.

La solución resulta obvia: forzar al blanco a emitir con más intensidad o al menos de una manera que se pueda localizar a mayor distancia. Esto se consigue realizando nosotros una emisión que rebote en el blanco y retorne a nuestros receptores: el radar en el aire (aprovechando la mejor difusión aérea de las ondas electromagnéticas), el sonar bajo el agua (aprovechando la mejor difusión submarina de las ondas sonoras). Ya dijimos más arriba que todo lo que emite voluntariamente está en modo activo; y, en el momento en que lo hace, se puede detectar a su vez.

Componentes de un sistema antiaéreo ruso Almaz-Antey S-400.

Componentes de un sistema antiaéreo ruso Almaz-Antey S-400, que entró en servicio en 2007. De izquierda a derecha, vehículo de mando 55K6E, radar móvil de adquisición 96L6, radar móvil de tiro 92N2E y vehículo TEL lanzamisiles 5P85TE2. Además de este "set básico", hay otros componentes adicionales, entre ellos el radar pasivo ucranio Kolchuga. El S-400 podría atacar blancos hasta a 400 km de distancia con el misil hipersónico 40N6.

Los sistemas de telelocalización y seguimiento activos presentan una ventaja sustancial: yo controlo las características de la señal, lo que incrementa enormemente el alcance y precisión a largas distancias. Todas las guías pasivas tienen que pelearse con un montón de incertidumbres sobre la naturaleza del blanco y las señales que emite bajo una multitud de circunstancias distintas; por ello, sólo se aclaran bien a una distancia relativamente corta, donde esas señales llegan ya con mucha nitidez e intensidad. Usando un radar o un sonar, en cambio, obligo al objetivo a reflejar y re-emitir una señal conocida y bien determinada cuyas alteraciones puedo estudiar para mayor información.

Y la desventaja ya mencionada: todo sistema activo se delata a sí mismo al menos al doble de distancia de la que puede detectar y/o atacar. En el campo de batalla moderno, encender un radar (o cualquier otro transmisor) equivale a chillar: “¡estoy aquí!”. En la actualidad existen los llamados radares de baja probabilidad de intercepción (“radares furtivos”), como los que equipan el caza norteamericano F-22 Raptor (el AN/APG-77) o los antiaéreos rusos S-300PMU2 y S-400. Estos “radares furtivos” utilizan una diversidad de técnicas para reducir la posibilidad de que los detecten, localicen o ataquen, como el uso de onda continua con ancho espectral ampliado mediante rápidos saltos de frecuencia, reducir la potencia al mínimo imprescindible, usar un haz muy estrecho con gran control sobre los lóbulos laterales y posteriores o introducir los llamados radares pasivos (que no son un verdadero radar porque no emiten nada, pero pueden detectar señales emitidas por otros a grandes distancias).

Guía por radar activo del R-77 original.

Guía por radar activo del R-77 (RVV-AE, AA-12 Adder) original de 1994 (MAKS 2009).

Existen dos grandes categorías de misiles con guía radar: los activos y los semi-activos. Los misiles activos son del tipo “dispara y olvida” por completo: van provistos de su propio radar y lo usan para localizar y perseguir al blanco. Normalmente van equipados con un sistema adicional de navegación inercial, para recorrer partes de su trayectoria sin delatarse encendiendo el radar. Entre estos se encuentran algunos de los misiles más conocidos: los aire-aire de alcance medio AMRAAM y R-77 o antibuques como el Exocet,  el Harpoon o el Raduga Kh-15.

Estos misiles tan chulos y famosos tienen un problema: son pequeños. Más exactamente: sus antenas son pequeñas para que quepan en ese diámetro, y tampoco pueden cargar una enorme cantidad de electrónica, al menos en comparación con sus blancos. Por ello, cuando el “dispara y olvida” no resulta estrictamente necesario, se utilizan guías semiactivas. En una guía semiactiva, la señal principal es suministrada por un radar grande (un radar terrestre, naval o aéreo; por ejemplo, el radar del avión lanzador o un AWACS) y el misil se limita a captar el rebote y dirigirse hacia él. Así son, por ejemplo, los famosos antiaéreos Patriot y S-300/S-400. Ambos utilizan diversas combinaciones de modos semiactivos y activos; en la más básica, el misil es guiado hacia su blanco por una señal semiactiva emitida por sus potentes emisores terrestres  o áereos y usa su propio radar sólo para la aproximación final (homing).

La contramedida más antigua frente a este tipo de sensores es el chaff, ya utilizado contra los primeros radares, durante la Segunda Guerra Mundial. Sigue siendo sorprendentemente eficaz, y hasta los ICBM más avanzados lo incorporan tal cual o en forma gaseosa. Básicamente, se trata de cintas o hilillos metálicos que producen una miriada de rebotes en el radar, haciendo desaparecer la imagen en una neblina de incertidumbre. O, cuando se usa en un vehículo, generando un “segundo blanco” producido por los reflejos de la nube de chaff detrás del auténtico.

Casi setenta años después, sigue sin existir un método totalmente seguro para contrarrestar la eficacia del chaff. El más básico es medir la velocidad de los blancos detectados: la nube de chaff tiende a decelerar rápidamente detrás del blanco, lo que ayuda a distinguirla. Esto funciona bien con aviones pero mal con objetivos más lentos, como los barcos. Otro método consiste en hacer que el buscador del misil reaccione sólo ante las señales que proceden de un pequeño espacio alrededor del blanco, ignorando así el chaff que queda detrás; pero esto, además de reducir las capacidades todo-aspecto del buscador, se puede confundir utilizando lo que se llama un gate-stealer, que desplaza la señal rebotada por el blanco hacia la nube de chaff.

Este gate-stealer (¡es que no hay forma de traducirlo!) es una de las varias contramedidas posibles contra un misil guiado por radar. Casi todas ellas se basan en inducir señales falsas en el radar atacante y adolecen del mismo problema que ya vimos en los infrarrojos: cuando funcionan bien, funcionan muy bien; pero cuando funcionan mal, constituyen una emisión adicional que regala al misil un blanco perfecto (home-on-jam). Y, claro, no es posible predecir cuándo va a salir bien y cuándo va a salir mal.

En los años ’80 del pasado siglo, el misil francés Exocet se labró una fama curiosa atacando con éxito diversos buques civiles y militares; estos últimos iban equipados, obviamente, con numerosas contramedidas. Durante la Guerra de las Malvinas (1982), el destructor británico HMS Sheffield resultó destruido por uno de estos misiles y el HMS Glamorgan, gravemente dañado a manos de otro. También destruyeron al portacontenedores MV Atlantic Conveyor, cargado hasta las antenas con material militar, y los argentinos juran y perjuran que lograron al menos un impacto parcial en un portaaviones. Sea cierto esto último o no, el Exocet fue la única arma verdaderamente eficaz para la Argentina durante este conflicto. Tanto el Sheffield como el Glamorgan y los portaaviones estaban provistos con lanzadores de chaff, contramedidas electrónicas diversas y primitivos misiles anti-misil Sea Dart.

Durante la Guerra entre Irán e Iraq (1980-1988) Saddam era aún uno de nuestros chicos y estaba provisto con gran cantidad de armamento occidental. Sus misiles Exocet causaron una pesadilla en la navegación del Golfo Pérsico que vino a conocerse como la Guerra de los Petroleros; entre otros, hundieron al buque más grande jamás construido, un superpetrolero ULCC entonces llamado Seawise Giant. El 17 de mayo de 1987, un Mirage F1 iraquí –aparentemente por error– le endiñó dos de estos Exocets a la fragata estadounidense USS Stark, matando a 37 ocupantes. El gringo no se hundió por el sencillo hecho de que le arrearon bastante por encima de la línea de flotación y sus tripulantes lograron hacerse con los incendios y las vías de agua, pero el buque había quedado inutilizado por completo y la chapa y pintura costó 142 millones de dólares. La USS Stark iba provista con un sistema de defensa terminal Phalanx, un módulo de chaff y contramedidas automatizadas SRBOC, así como misiles Standard con posible uso marginal como defensa antimisil. Le sirvieron de lo mismo que al Sheffield y al Glamorgan: de nada.

La fragata estadounidense USS Stark escora tras ser alcanzada por dos misiles Exocet.

La fragata estadounidense USS Stark escora a babor tras ser alcanzada por dos misiles iraquíes Exocet de fabricación francesa, el 17 de mayo de 1987. (US Navy)

¿Cuál fue la clave del éxito del Exocet? Fácil: ninguno de sus blancos lo vio llegar. En todos los casos, el único preaviso fue un marinerito berreando despavorido aquello de “¡misil por babor!”. Bueno, en todos no: el Glamorgan pudo detectarlo por radar en el último momento, lo que le permitió ejecutar un brusco viraje para ponerle la popa. Así, el Exocet sólo le atizó en el hangar de helicópteros, haciendo estallar al Westland Wessex que estaba dentro, provocando un fuerte incendio y matando a trece tripulantes. Pero logró alejarse, renqueando.

¿Cómo es posible que no lo vieran llegar? Bueno, es que el Exocet es un misil rozaolas (sea-skimming). Y, diga lo que diga la propaganda habitual, los misiles rozaolas eran y siguen siendo muy difíciles de detectar con tiempo suficiente para hacer algo. Es que la Tierra es curva, sabeusté. Cuando algo vuela a muy poca altitud, queda por debajo del horizonte según se ve desde su objetivo, y eso vale tanto para los ojos como para el radar. Al aproximarse por debajo del horizonte radar, el Exocet simplemente no es detectado hasta que está ya encima como quien dice. Y si ya está encima, como recitamos en román paladino, te queda el tiempo justo para besarte el trasero y decirle adiós.

Lo que nos conduce a la defensa más eficaz en guerra moderna: que no te vean, ve tú al enemigo antes que el enemigo a ti. Esto ha sido efectivo desde siempre, pero en la actualidad es ley e incumplirla se castiga con la muerte. Atrás quedaron los tiempos de andar buscándose las vueltas con clarines, trompetas y banderones. Si puedes ver al enemigo antes de que el enemigo te vea a ti, puedes dispararle antes de que te disparen a ti. Y si tu arma hace lo que tiene que hacer, es probable que ellos sólo la vean llegar cuando ya estén a punto de comérsela sin patatas ni nada.

Para que no te vean, lo más eficaz es mantenerse disimulado en el ruido de fondo hasta que llegue el momento de atacar. Con las tecnologías de detección contemporáneas, mantenerse oculto por completo resulta casi siempre muy difícil e incluso imposible. Pero un buen camuflaje, una buena maskirovka, puede obrar efectos asombrosos. Disimularse en el ruido suele ser mucho mejor que pretender absurdamente que no estás allí en absoluto. La otra alternativa es, obviamente, mantenerse a distancia suficiente e ir recopilando pacientemente la información necesaria para lanzar un buen ataque por sorpresa desde fuera del alcance del enemigo.

En general, la espada ha demostrado históricamente ser mucho más poderosa que el escudo. La espada elige arma, táctica, espacio y tiempo; el escudo tiene que permanecer ahí todo el rato, gastando energía y recursos, esperando a ver si viene alguien o no, siempre expuesto a discreta observación y análisis para hallar sus puntos débiles. Los misiles, la última evolución de la flecha o la lanza, se acoplan perfectamente a este papel de espada. La única defensa segura es inutilizarlos antes de que lleguen a atacar, o mantenerse lejos de su radio de acción. Una vez en el aire, resultan muy difíciles de detener y su efecto es devastador. Por eso y por lo que decía al principio, los veremos cada vez más, durante mucho tiempo más.


Ejercicios de tiro con antiaéreos S-300 (ca. año 2000).

76 Comentarios Trackbacks / Pingbacks (6)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (63 votos, media: 4,92 de 5)
Loading ... Loading ...
Be Sociable, Share!

El error de un Nobel que condenó el proyecto atómico nazi

Una demostración palmaria de lo importante que resulta la verificación independiente en ciencia.

Los documentos secretos del proyecto atómico nazi.

Para este post contamos con los documentos secretos originales del programa nuclear de la Alemania nazi, que no fueron desclasificados por sus posteriores propietarios hasta muchos años después. En el Deutsches Museum, Munich.

Fueron muchas las razones científicas, políticas, materiales y humanas por las que la Alemania nazi no produjo nunca una bomba atómica. Entre ellas, que no creyeron poder alcanzarla antes del fin de la Segunda Guerra Mundial y por tanto dedicaron sus esfuerzos a otras cosas más perentorias. Vamos, que no llegaron a proponérselo en serio y la historia siguió adelante por los caminos que ya conocemos.

Sin embargo, el asunto tiene aguijón: parte de esta dejadez  en materia atómica obedeció a un error científico crucial, pero fácilmente subsanable con una mera verificación independiente. Tal verificación no se produjo y el error, cometido por un futuro premio Nobel, les hizo creer que la energía nuclear estaba mucho más lejos de lo que quizá podría haber estado. ¿Pudo ser diferente? ¿Existió alguna posibilidad de que el Tercer Reich consiguiese la bomba atómica y con ello cambiara el curso de la historia?

El submarino U-202 de la Kriegsmarine.

El submarino U-202 de la Marina de Guerra nazi. El 12 de junio de 1942, este navío desembarcó con éxito a un equipo de saboteadores en Long Island, Nueva York. Seis días después, el U-584 hizo lo propio cerca de Jacksonville, Florida. Aunque los saboteadores fueron traicionados antes de alcanzar sus objetivos, ambos buques habían cumplido su misión y regresaron sin novedad a su base en Brest. Durante 1942 y 1943 hubo más de veinte submarinos alemanes operando en el Golfo de México hasta la misma boca del Mississippi. Y en fecha tan tardía como el 5 de mayo de 1945, dos días antes de la rendición, el U-853 torpedeó aún a un último mercante norteamericano enfrente de Rhode Island antes de ser hundido a su vez. Cualquiera de ellos podría haber transportado a bordo una primitiva bomba atómica con destino a la Costa Este de los Estados Unidos.

El club del uranio.

Werner Heisenberg, permio Nobel de física 1932, en una fotografía de 1933.

Werner Heisenberg, premio Nobel de física 1932, en una fotografía de 1933. Heisenberg, como director del Instituto de Física Kaiser-Wilhelm de Berlín durante la Segunda Guerra Mundial, fue la cabeza más visible de las investigaciones nucleares en la Alemania nazi.

El 3 de julio de 1967, veintidós años después de que terminara la Segunda Guerra Mundial, el físico teórico alemán Werner Heisenberg concedía una entrevista a un profesor de universidad estadounidense en la que hizo varias declaraciones sorprendentes para muchas mentalidades:

Ya al principio, sospechamos que si era realmente posible hacer explosivos [atómicos], tomaría tanto tiempo y requeriría un esfuerzo tan enorme que había una muy buena probabilidad de que la guerra terminase antes de lograrlo.

Cuando tuvimos éxito en el experimento L-4, cuando supimos que podíamos hacer reactores y, gracias al trabajo de Weizsacker, que así se podía hacer plutonio o algo parecido, supimos que en principio éramos capaces de crear bombas atómicas.

Pero aún así no hicimos ningún esfuerzo serio en ese dirección. Hablemos en serio: si queríamos fabricar el agua pesada necesaria, nos costaría de uno a tres años conseguir suficiente cantidad. Producir plutonio bastante se tomaría otros tres años. Así que, con la mejor conciencia del mundo, le dijimos al gobierno: “no será posible hacer una bomba hasta al menos dentro de cinco años.”

Ya sabíamos que prohibirían cualquier nuevo desarrollo que no pudiera usarse durante el año siguiente o así. Estaba claro que iban a decir: “¡No, no! ¡No dediquemos esfuerzos a la bomba atómica!”. Y eso fue lo que pasó.

El líder más destacado del programa atómico alemán nos está diciendo que, básicamente… no hubo un proyecto atómico alemán digno de tal nombre. Que en la carrera por la bomba, Estados Unidos estuvo esencialmente solo a pesar de todos los temores geniales emigrados allí huyendo del nazifascismo. Y además, apostilla:

La decisión de no hacer bombas [atómicas] tomada por nuestro gobierno fue muy sensata. Habría sido muy sensata incluso para el gobierno de ustedes, porque podrían haber ganado antes la guerra contra Alemania si no se hubieran puesto a hacer bombas. No hay ninguna duda sobre esto: si ustedes hubieran dedicado todo ese esfuerzo a hacer aviones y tanques y demás, la guerra habría terminado antes. Esto puede no ser cierto en el caso de Japón, porque la guerra contra Japón era distinta; pero si hablamos sólo de la guerra contra Alemania, esto es un hecho.

Uno podría pensar que Heisenberg trata de limpiar su biografía con estas palabras. Nosotros no hacíamos nada malo, nosotros no sabíamos nada de lo que pasaba y todo ese rollo. Lo que pasa es que las pruebas hablan fehacientemente en su favor. O, mejor dicho, la ausencia de pruebas. Por toda la Alemania derrotada, tanto la misión Alsos norteamericana como su versión soviética sólo encontraron indicios de unas investigaciones dispersas, poco decididas, apenas dotadas de recursos y orientadas fundamentalmente a la construcción de reactores experimentales… ninguno de los cuales logró alcanzar masa crítica. Los documentos, los testimonios, las pruebas materiales: todo indica que Alemania en ningún momento se planteó seriamente el desarrollo de armamento nuclear. La carrera por la bomba no existió.

¿Cómo puede ser tal cosa? Vamos, en serio, los nazis no eran precisamente unos pacifistas ni gente tiquismiquis ante el derramamiento de sangre ajena. Resulta francamente dudoso que los fundadores de Auschwitz, Treblinka o Sobibor, los autores del Generalplan Ost que quiso exterminar a los infrahombres del este tanto como a los judíos, los gitanos o los comunistas, hubieran dudado mucho a la hora de volar por los aires a algún millón de personas con bombas atómicas. Heisenberg ya nos apuntaba un motivo de los dirigentes nazis para descartar esta opción: la muy dudosa posibilidad de construir un arma nuclear antes del fin de la guerra. Este premio Nobel alemán, en la entrevista mencionada, aún sugiere alguna más:

Había, por supuesto, una intención muy clara por nuestra parte: teníamos que impedir que nos implicaran en un gran esfuerzo para hacer bombas atómicas. Lo que queríamos era conseguir el dinero justo para seguir adelante con nuestro proyecto de reactor, pero nada más. Teníamos mucho miedo de que, en otro caso, alguien dijera: “Ahora, vamos a por la bomba atómica.” [...] Esto salió como esperábamos. Definitivamente, no queríamos que nos metieran en este asunto de la bomba.

No quiero idealizar esta cuestión: lo hicimos también por nuestra seguridad personal. Pensábamos que la probabilidad de que esto condujera al desarrollo de bombas atómicas durante la guerra era casi cero. Si no hubiéramos actuado así, y si se hubiese puesto a trabajar a miles de personas en ello sin resultados… podría haber tenido consecuencias extremadamente desagradables para nosotros.

Equipo con el que se descubrió la fisión en Alemania, 1938.

Experimento con el que Lise Meitner, Otto Hahn y Fritz Strassmann descubrieron la fisión del núcleo atómico en Alemania, 1938. Deutsches Museum, Munich. (Clic para ampliar)

¿Y la dirigencia nazi no se olió nada? Es decir, numerosos científicos y algunos políticos y militares venían hablando ya del advenimiento de la energía nuclear desde antes de la guerra. ¡Pero si Otto Hahn y Lise Meitner habían descubierto la fisión nuclear en la misma Alemania nazi, siendo 1938! El 22 de abril de 1939 Georg Joos y Wilhelm Hanle comunicaron a Abraham Esau –director de la división de física del Consejo de Investigaciones del Reich– las posibles aplicaciones militares de la fisión del átomo. Apenas dos días después Paul Harteck, asesor científico de la Oficina de Municionamiento del Reich, hacía lo propio dirigiéndose al estamento militar. El 29 del mismo mes, un montón de físicos se reunieron en el Ministerio de Educación para considerar todas estas cuestiones, fundando así el primer Uranverein: el club del uranio. Tenían a Hans Geiger, el del contador Geiger. Manfred von Ardenne iba por su cuenta, investigando la separación de isótopos con el apoyo entusiasta del ministro de Correos nazi Wilhelm Ohnesorge. Todo en el más riguroso secreto… pero, en los ámbitos del poder nazi, un secreto a voces. Evidentemente, el Führer y sus lugartenientes tanto políticos como militares tenían que estar al tanto de lo que se cocía en materia atómica; aunque fuera por encima.

Es más. En junio el químico nuclear Nikolaus Reihl, director científico de la empresa Auergesellschaft, se puso también en contacto con la Oficina de Municionamiento del Reich para comunicarles que la compañía estaba en posesión de una respetable cantidad de basura de uranio como resultado de su producción de radio. Y que si estaban interesados, podían ponerse a procesar este uranio, obtenido en las minas de la Checoslovaquia ocupada. Estuvieron interesados y pronto abrían la planta de Oranienburg, al norte de Berlín, que produciría óxido de uranio y otros metales de interés hasta casi el final de la guerra.

El 1 de septiembre de 1939 estalló la Segunda Guerra Mundial, sin pillar por sorpresa a casi nadie: desde años atrás, estaba cantado que se avecinaba algo gordo. Ese mismo día se fundaba el segundo Uranverein bajo los auspicios del Consejo de Investigaciones del Reich, ahora en manos militares. El 19 de este mes, mientras las últimas tropas polacas caían ante la Wehrmacht en la Batalla de Buzra, los científicos atómicos alemanes del segundo club se reunían en secreto por primera vez. Poco después el Instituto de Física Kaiser-Wilhelm y el Instituto Max Planck, las dos instituciones más relevantes de Alemania en asuntos relacionados con la física avanzada, pasaban también a la jurisdicción militar. Sabían que el isótopo uranio-235 era la clave de todo aquel asunto y que había otro aún más prometedor, no presente en la naturaleza pero descubierto igualmente en Alemania: un cierto eka-osmio, al que hoy en día llamamos plutonio.

Werner Heisenberg en 1940.

Werner Heisenberg en 1940, poco antes de descubrir que podía construir un reactor nuclear. Deutsches Bundesarchiv.

En el mes de diciembre, el profesor Heisenberg –por entonces, aún en la Universidad de Leipzig– descubrió con gran emoción que era posible construir un reactor nuclear de uranio-235, que se estabilizaría a sí mismo en torno a 800ºC de temperatura operacional. En los últimos días de 1939, Heisenberg escribía una carta a la Oficina de Guerra del Reich que terminaba así:

Conclusiones: Según las evidencias actuales, el proceso de fisión del uranio descubierto por Hahn y Strassmann puede utilizarse para la producción de energía a gran escala. El método más seguro para construir un reactor capaz de hacer esto sería enriquecer el isótopo uranio-235. Cuanto más alto sea el grado de enriquecimiento, más pequeño se puede hacer el reactor. El enriquecimiento de uranio-235 es la única manera de conseguir que el volumen del reactor sea pequeño, comparado con un metro cúbico.

Es, además, el único método de producir explosivos varios órdenes de magnitud más potentes que los explosivos más poderosos conocidos ahora.

De todos modos, para la generación de energía se puede usar incluso uranio ordinario, sin enriquecer ei isótopo 235, si se utiliza en conjunción con otra sustancia que ralentice los neutrones del uranio sin absorberlos. El agua no es apropiada para esto. Por el contrario, el agua pesada y el grafito muy puro podrían bastar según las evidencias actuales. Las impurezas más minúsculas siempre pueden impedir la generación de energía.

Vaya. Cualquiera diría que en esos momentos de finales de 1939, el buen doctor Heisenberg no tenía tan claro eso de omitir las posibilidades explosivas del invento. Por otra parte, también especifica claramente la necesidad de un moderador neutrónico y las mejores opciones para obtenerlo: el carbono ultrapuro en forma de grafito y el agua pesada. A mediados de 1940 se realizaron varios intentos de construir pequeños reactores en Berlín-Dahlem, demasiado primitivos para funcionar (llegaron a intentar el uso del papel como moderador). En la siguiente carta de Georg Joos a la Oficina de Municionamiento del Reich, fechada en marzo de 1940, ya se plasman las necesidades de pureza del carbono para su uso en reactores nucleares. Pero, ¿qué es esto de un moderador neutrónico?

Carta de Georg Joos sobre el carbono

Carta de Georg Joos a la Oficina de Municionamiento del Reich explicando los detalles de pureza del carbono para constituir grafito de uso nuclear. Se especifican con detalle las proporciones máximas de boro, un poderoso absorbente neutrónico que altera las propiedades de la reacción en cadena. Deutsches Museum, Munich. (Clic para ampliar)

Moderadores neutrónicos.

Reacción en cadena

Reacción en cadena por fisión del núcleo atómico. Para sostenerla con uranio poco enriquecido, hay que reducir la energía de los neutrones rápidos y convertirlos en neutrones térmicos. Esto lo hace el moderador. (Clic para ampliar)

En la reacción en cadena, los neutrones producidos durante la fisión del núcleo atómico provocan nuevas fisiones en los átomos de alrededor. Si hay suficiente masa de material fisible para que estos neutrones se encuentren con algo útil –la masa crítica–, entonces la reacción es capaz de sostenerse a sí misma, generando más energía y más fisiones. En los explosivos nucleares esta reacción es muy rápida, utilizando uranio-235 o plutonio-239 muy enriquecidos sin moderación de ninguna clase, buscando un pico de energía instantánea. Sin embargo, en un reactor nuclear ocurre lo contrario: se desea una reacción en cadena eficiente, económica y progresiva, que funcione con una proporción baja de material fisible y a ser posible usando uranio natural (uranio refinado y concentrado, pero con la misma proporción isotópica que se da en la naturaleza). En aquellos tiempos resultaba aún más importante: la cantidad de uranio disponible era baja y las posibilidades de enriquecerlo, endiabladamente difíciles y costosas usando la tecnología de la época.

Resulta que durante la fisión la mayor parte de los neutrones se emiten en forma de neutrones rápidos, muy energéticos. Se podría pensar que esto es estupendo para provocar nuevas fisiones que aseguren la reacción en cadena, pero… resulta que no va así. La fisión del núcleo atómico se produce mejor cuando es alcanzado por neutrones térmicos, menos energéticos. Dicho en términos sencillos, los neutrones rápidos “pasan demasiado deprisa” para producir una reacción eficaz, mientras que los térmicos lo hacen a la velocidad adecuada. Por tanto, la construcción de un reactor nuclear eficiente exige decelerar estos neutrones rápidos; la sustancia encargada de tal cosa es el moderador. Entre los mejores moderadores neutrónicos se encuentran, como predijeron Heisenberg y otros, el grafito y el agua pesada.

Sin embargo, esta sustancia no debe ser tan efectiva que tienda a frenarlos por completo, porque en ese caso ya no tenemos un moderador sino un absorbente neutrónico que captura los neutrones e interrumpe la reacción. Entre estos tenemos, por ejemplo, al cadmio o el boro. Esta “resistencia al paso de los neutrones” se puede medir de varias maneras. Una de ellas es la longitud de absorción, difusión o atenuación, que indica la probabilidad de que una partícula no sea absorbida durante su paso por estas sustancias. Para construir un reactor con uranio natural, sin enriquecimiento alguno, la longitud de difusión en el moderador debe estar aproximadamente entre cuarenta centimetros y un metro y pico. Si es mayor, no provocará la atenuación necesaria y la reacción en cadena no llegará a producirse. Si es menor, la sustancia actuará como absorbente neutrónico y la detendrá por completo. La longitud de difusión mínima para un moderador básico de uranio natural está en 37 cm.

Agua pesada de Norsk Hydro

Agua pesada de Norsk Hydro al 99,6%. En toda Europa no había ninguna otra instalación donde se produjera en las cantidades industriales precisas. (Clic para ampliar)

El agua pesada es H2O con los átomos de hidrógeno corriente sustituidos por átomos de deuterio; es decir, 2H2O (o D2O, óxido de deuterio). Con una longitud de difusión de 116 cm, constituye un excelente moderador neutrónico. Pero presenta varios problemas de orden práctico. Fundamentalmente es difícil, costosa y complicada de producir; y no te digo ya con el grado de pureza necesario (más del 99%), por lo que en último término sale cara de narices y llega con cuentagotas. Tanto, que en tiempos de los nazis sólo había una fábrica en Europa que la produjese, y eso gracias a un acúmulo de casualidades y rarezas: la planta de Norsk Hydro en Vemork, Noruega. Desde 1927 Norsk Hydro mantenía una sociedad con el inmenso consorcio químico alemán IG Farben y además Noruega fue invadida por los nazis en abril de 1940, con lo que gozaban de libre acceso a este recurso. Pero eso no hacía que el agua pesada resultase más económica, fácil o rápida de producir. Además, había que transportarla en un complicado viaje hasta los laboratorios atómicos alemanes.

El grafito, en cambio, es básicamente carbono y hay por todas partes. Al principio cuesta un poco de producir con el grado de pureza exigido, que es puñetero, pero después sale por toneladas en forma de bloques económicos fáciles de manejar, transportar y utilizar. Por ello, todos los primeros reactores construidos por todas las potencias nucleares fueron de uranio natural moderado por grafito. Cuando partes de cero, ese es el camino más rápido, barato y directo para obtener energía nuclear y armas atómicas.

¿Y el reactor, para qué?

A todo esto, ¿para qué necesitamos un reactor si queremos hacer bombas? Pues por dos motivos fundamentales. El primero es que sin un reactor operativo hay una serie de detalles sobre el funcionamiento íntimo del núcleo atómico que no se pueden aprender; y sin esos detalles, tendrás que construir tu arma nuclear a ciegas en una montaña de consideraciones técnicas importantes. Y el segundo, para producir plutonio en cantidad fácil y rápidamente.

Hay, esencialmente, dos aproximaciones para fabricar tu primera bomba atómica. Una es pillar mineral de uranio y enriquecerlo una y otra vez hasta que obtienes decenas de kilos del preciado isótopo uranio-235 para hacer una bomba del tipo de la de Hiroshima. Esto es un lío, cuesta una fortuna y encima ese tipo de bomba es un rollo, un arma muy limitada. Hubo un momento en que, para realizar este proceso, la planta norteamericana de Oak Ridge consumía la sexta parte de toda la energía eléctrica producida en los Estados Unidos. La Alemania nazi no podía permitirse semejante cosa ni por casualidad, ni en Oranienburg ni en ninguna otra parte.

El reactor B de Hanford.

El reactor B de Hanford, donde se produjo el plutonio estadounidense para Trinity, Nagasaki y numerosas armas de posguerra, era de uranio natural moderado por grafito.

Ni falta que hace. Los americanos es que fueron por las dos vías a la vez, pero la gente que sabe lo que quiere y cómo conseguirlo a un precio justo opta siempre por el plutonio. El plutonio resulta enormemente más práctico como arma que el uranio; cuesta mucho menos de producir y separar; permite más fácilmente el diseño de armas más avanzadas; y no necesitas instalaciones tan grandes, caras y conspicuas. Por eso la primera bomba atómica fue de plutonio, la de Nagasaki fue de plutonio, la primera de los soviéticos fue de plutonio  y hoy en día todas son de plutonio total o parcialmente. Hágame caso, joven: para jugar a los soldaditos atómicos, uranio kk, plutonio mola. Y de buen grado o a la fuerza, a Alemania no le quedaba otra que ir por la vía del plutonio.

El plutonio sólo tiene un par de pejiguerías, y una de ellas es que no se da en la naturaleza. Estamos ante un elemento sintético que hay que producir por completo. Sólo hay una manera de hacerlo a escala industrial: con un reactor nuclear. Es muy sencillo. Bueno, bastante sencillo. Metes uranio natural, que está compuesto fundamentalmente por uranio-238 con una pequeña proporción de uranio-235. El uranio-235 es fisible, el -238 no (en condiciones normales). Entonces le das mecha al reactor. El -235 empieza a fisionar en cadena y una parte de sus neutrones alcanzan al -238. Pero ya hemos dicho que el -238 no puede fisionar, así que los va absorbiendo y al hacerlo se convierte en uranio-239. El uranio-239 es virulentamente inestable y en cuestión de minutos decae a neptunio-239, que tampoco está muy p’acá y transmuta en… ¡tachán! ¡Nuestro deseado plutonio-239! Todo esto ocurre en cadena, sin ningún esfuerzo adicional. De lo único que tienes que llevar cuidado es de que no se te desmande el reactor (por la acumulación de un nuevo material fisible, el propio plutonio-239) y de no acumular mucho plutonio-240, que a este nivel sólo sirve para tocar las narices. Yendo por el camino del plutonio consigues una bomba mejor, antes y con más posibilidades. Todo son ventajas.

Pero necesitas un reactor. Aunque sea un reactor experimental del año de la picor. Sin reactor no hay plutonio (ni electricidad, en las aplicaciones civiles de la energía nuclear). A todos los efectos prácticos de la Alemania nazi, sin reactor no hay bomba, ni programa nuclear ni nada.

Así pues, no quedaba otra que construir un reactor. Tenían los conocimientos, tenían los especialistas, tenían las materias primas (no muchas, pero tenían) y dos opciones para el moderador: el agua pesada, difícil, remota y cara; y el grafito, fácil, cercano y barato (¡será por carbón en Alemania!). ¿Con cuál te quedarías tú? Exacto: a diferencia de todos los demás, eligieron el agua pesada. Pero, ¿por qué?

Opciones tecnológicas para el desarrollo de las primeras armas nucleares

Opciones tecnológicas para el desarrollo de las primeras armas nucleares 1940-1960. (Clic para ampliar)

Walther Bothe en Stuttgart, 1935.

Walther Bothe durante una reunión de físicos en Stuttgart, 1935.

Un pequeño error para un hombre, un gran golpe para el proyecto atómico nazi.

Aunque Heisenberg estaba convencido por motivos teóricos de que tanto el grafito como el agua pesada valían de moderador neutrónico, resultaba preciso verificarlo experimentalmente y determinar cuánto con absoluta precisión. Con exactitud germánica, como si dijéramos. Del agua pesada se encargó él mismo, en colaboración con el matrimonio Robert y Klara Döpel. Debido a la importancia de este estudio, el grafito lo estudiaría otro físico prestigiosísimo distinto, con quien Heisenberg sustentaba alguna rivalidad: el doctor Walther Bothe de Heidelberg, director de la unidad de física del Centro de Investigaciones Médicas Kaiser-Wilhelm, padre del primer acelerador de partículas alemán digno de tal nombre y futuro premio Nobel. Si te crees más capaz que él, siempre puedes levantar la mano y ofrecerte voluntario, kamerad.

Esfera de Bothe para medir la longitud de difusión neutrónica en el electrografito.

La esfera de Bothe para medir la longitud de difusión neutrónica en el electrografito, a finales de 1940. En Walther Bothe, "La Longitud de difusión de los neutrones térmicos en el electrografito", fechado el 20 de enero de 1941, Kernphysikalische Forschungsberichte (G-71). Deutsches Museum, Munich.

Además, el doctor Bothe tenía experiencia en la materia. Entre otros trabajos relativos al uranio como combustible para obtener energía nuclear, el 5 de junio de 1940 ya había realizado el correspondiente estudio sobre una muestra de carbono común, concluyendo que su longitud de difusión ascendía a 61 cm. Esto es: bien por encima del límite mínimo de 37 cm y más de la mitad que el agua pesada, situada convencionalmente entre 100 y 116 cm. Pensaba que esa cifra de 61 cm aún podía mejorarse, porque su muestra de carbono estaba bastante contaminada con calcio, magnesio y otras cosas que alteran el resultado; según sus estimaciones, al usar grafito ultrapuro podría llegarse a 70 cm. Así lo plasmó en sus conclusiones:

…siguiendo [el dato] G1.(3) la absorción es del 6% con una longitud de difusión de 61 cm. Esto se acerca bien al valor de 70 cm, donde Heisenberg ha demostrado que es posible la Máquina [el reactor] [...]. Con el límite de error estimado, queda determinada en el límite mínimo de la longitud de difusión (37 cm). [...] Usando carbono puro, la longitud de difusión podría ser mayor que 70 cm, con una sección eficaz de captura inferior a 0,003 x 10-24.

En todo caso, se precisan más experimentos con el carbono. Parece que la idea es ensamblar inmediatamente una Máquina juntando Preparado 38 [uranio] y carbono. El carbono puro podría obtenerse, por ejemplo, mediante las vías propuestas por Joos, para después llevarlo al método del electrografito hasta una densidad de 1,5.

–Walther Bothe, “La Longitud de difusión de los neutrones térmicos en el carbono”. Fechado el 5 de junio de 1940, Kernphysikalische Forschungsberichte (G-12).

Así pues, durante las últimas semanas de 1940 el doctor Bothe de Heidelberg se puso a la labor junto con Peter Jensen y algunos estudiantes universitarios de confianza reclutados como ayudantes. Con el máximo secreto, montaron en un sótano del Centro de Investigaciones Médicas un apparat para realizar la medición usando electrografito de la máxima calidad suministrado por Siemens-Plania: el mejor grafito que se podía conseguir en la Alemania del periodo.

Este dispositivo era básicamente una esfera de 110 cm de diámetro formada por bloques de este electrografito con una funda exterior de caucho, que se sumergía en un tanque de agua. La esfera estaba provista con una estructura de aluminio en la parte inferior, montada sobre una base de hierro y madera encerada, pero por lo demás era autoportante; en la parte exterior había cintas de cadmio. Por arriba dejaron un canal libre para introducir las sondas y la fuente neutrónica, un preparado de radón-berilio con una actividad de setenta milicurios; este canal se cerraba a continuación introduciendo más grafito en bloques cilíndricos. En un determinado momento del informe que escribiría con posterioridad, Bothe se queja de no tener medios para hacer un montaje más elaborado.

El 20 de enero de 1941, el futuro premio Nobel da a conocer sus resultados entre los miembros del segundo club del uranio con un informe ultrasecreto titulado La longitud de difusión de los neutrones térmicos en el electrografito (W. Bothe y P. Jensen, Die Absorption thermischer Neutronen in Elektrographit, en Kernphysikalische Forschungsberichte G-71). Las mediciones obtenidas hacen empalidecer a más de uno:

[...] se calcula la longitud de difusión:

L = 36 ±2 cm.

El error de Bothe que condenó al programa atómico alemán

El error de Bothe que condenó al programa atómico alemán en su documento secreto original "La Longitud de difusión de los neutrones térmicos en el electrografito", fechado el 20 de enero de 1941. Kernphysikalische Forschungsberichte (G-71), Deutsches Museum, Munich. La verdadera longitud de difusión neutrónica para el grafito son 54,4 cm, no 36 cm.

Así, destacadito, porque el resultado es de lo más sorprendente, contrario a la teoría y un verdadero jarro de agua helada para el programa atómico alemán. Treinta y seis centímetros resultaban radicalmente insuficientes, uno por debajo del mínimo absoluto de 37. Y un gravísimo error: la verdadera longitud de difusión neutrónica en el grafito es de 54,4 cm, muy correcta para un moderador, cosa que en los Estados Unidos midió Szilárd con éxito. Inmediatamente a continuación, Bothe afirma:

Con los [valores] sobre los que se basan los cálculos de Heisenberg se esperaría una longitud de difusión L0 = 61 cm. La longitud de difusión medida es mucho menor y la absorción mucho más fuerte, por lo que el carbono estudiado aquí difícilmente debería tomarse en consideración como un material moderador para la Máquina [el reactor].

La conclusión derivada del error de Bothe

La conclusión derivada del error de Bothe: el grafito no sirve como moderador para un reactor nuclear. Esta creencia errónea no desaparecería hasta los últimos meses de la guerra.

Con todas las letras. Por cierto, que el buen doctor Bothe se nos antoja un poco listillo a la hora de quitarse marrones de encima: cabría recordar que esos “valores sobre los que se basan los cálculos de Heisenberg” son los mismos que él dedujo siete meses antes. Pero da igual: es una catástrofe de todos modos. Tras un cuidadoso análisis de impurezas obtenido quemando una cantidad del carbono para estudiar sus cenizas, determina en las conclusiones:

En todo caso, se puede juzgar a partir del estado presente de la teoría que el carbono [grafito], aunque haya sido manufacturado con los mejores métodos técnicos conocidos y esté libre de impurezas, probablemente no sirve como material moderador para la Máquina en cuestión a menos que se acumule [enriquezca] el isótopo 235.

Conclusión de Bothe

La conclusión final de Bothe, en el mismo documento: el grafito sólo serviría como moderador neutrónico si se usara uranio enriquecido, que Alemania no podía producir en cantidades suficientes y de hecho ningún país utilizó en sus primeros intentos.

Cénit y ocaso del proyecto atómico alemán.

Estas conclusiones fueron devastadoras. Si para Alemania el grafito no servía como moderador y enriquecer uranio resultaba inviable económicamente, entonces la vía del plutonio debía discurrir necesariamente por el camino del agua pesada, largo, caro y complicado. A partir de este momento, el pesimismo comienza a instalarse poco a poco en la comunidad de los científicos atómicos nazis, lo que se va traduciendo en un progresivo desinterés por parte de los dirigentes políticos. Siguiendo a Werner Heisenberg:

[No hubo más interés en el grafito, a pesar de saber que el agua pesada era muy escasa] debido a que el experimento de Bothe no era correcto. Bothe había hecho esta medida del coeficiente de absorción del carbono puro y se le deslizó un error en el experimento. Sus valores eran demasiado altos [en absorción; bajos en difusión] pero asumimos que eran correctos y no creíamos que el grafito se pudiera usar.

Atención de nuevo a las fechas. Las fechas son muy importantes:

Fecha y firma del documento erróneo de Bothe.

Fecha y firma del documento erróneo de Bothe "La Longitud de difusión de los neutrones térmicos en el electrografito". Kernphysikalische Forschungsberichte (G-71), Deutsches Museum, Munich.

Adolf Hitler en París con Albert Speer y Arno Breker.

Adolf Hitler en París con Albert Speer (izda.) y Arno Breker (dcha.), 23 de junio de 1940; Francia se había rendido el día anterior. A principios de 1941, casi toda Europa estaba controlada directa o indirectamente por los nazis. Las grandes batallas contra los Estados Unidos y la Unión Soviética no habían comenzado aún. Todas las opciones políticas y militares permanecían abiertas en esas fechas.

Estamos todavía en enero de 1941. La Europa continental entera, desde el Vístula y el Danubio hasta el Atlántico, está en manos nazis o de amigos de los nazis a excepción de un par de países neutrales: una buena posición para atrincherarse. Aún no han invadido la Unión Soviética, con la que mantienen una paz precaria. Pearl Harbor no ha ocurrido tampoco todavía: los Estados Unidos siguen fuera del conflicto. En estos momentos, sólo el tropezón de la Batalla de Inglaterra empaña los éxitos alemanes. La guerra se lucha ahora mismo en África, lejos de la Fortaleza Europa. Los grandes bombardeos que más adelante aniquilarían las ciudades e industrias alemanas caen de momento principalmente sobre el Reino Unido, a manos de la Luftwaffe. Faltaba más de un año para que el Proyecto Manhattan se pusiera en marcha en serio. Von Braun y los suyos seguían en Alemania. Todas las posibilidades estaban abiertas aún.

¿Qué habría sucedido si Bothe no se hubiera equivocado y alguien hubiese dicho a la dirigencia nazi durante la primavera de 1941: “podemos construir un reactor de grafito y fabricar plutonio, podemos hacer bombas atómicas, consígannos algo de tiempo y uranio; es cosa de cuatro o cinco años, puede que menos si nos dotan con la mitad de los medios que harían falta para invadir la URSS el próximo verano”?

Por supuesto, resulta imposible saberlo. Sí conocemos, en cambio, lo que sucedió en realidad. En estas mismas fechas de 1941, la empresa Auergesellschaft que mencioné más arriba ya había fabricado varias decenas de toneladas de óxido de uranio y Degussa de Fráncfort, los primeros 280 kg de uranio metálico para el reactor de Heisenberg (en parte con mineral capturado durante la conquista de Bélgica). Los norteamericanos no empezarían a disponer de este material hasta 1942, cuando los científicos alemanes ya contaban con siete toneladas y media. En diciembre de 1942, la Pila Chicago-1 de Fermi y Szilárd necesitó 6 toneladas de uranio puro y 34 de óxido de uranio para convertirse en el primer reactor operativo de la historia. Pero no estamos en 1942: estamos aún en 1941, y el Tercer Reich tiene ya casi todo el uranio necesario.

En Alemania había (y hay) grandes minas de carbón; con él, compañías como Siemens-Plania, IG Farben, Degussa y otras podrían haber producido grafito de calidad nuclear a poco que sus científicos atómicos les hubieran dicho cómo hacerlo. Esto, evidentemente, no sucedió. En vez de eso, el agua pesada se convirtió en un recurso estratégico de primer orden, la única posibilidad. A partir de estas fechas, se realizaron numerosas actuaciones para asegurar el agua pesada noruega de Norsk Hydro, y también para empezar a producirla en Alemania, esto último con reducido éxito. Hacia finales del verano de 1941, encargaban a Norsk Hydro 1.500 kilos de agua pesada. Para fin de año, ya habían recibido los primeros 361.

Durante el mismo 1941 hubo diversos intentos para enriquecer uranio de manera más eficiente, lo que habría despertado un interés renovado en el grafito (posiblemente sacándoles de su error). Pero a pesar de que alguno tuvo éxito, no se vieron capaces de continuar por ese camino debido a las limitaciones económicas. Así, les quedó definitivamente vedada la vía del uranio. Sólo era posible la vía del plutonio, como concluyera el singular Fritz Houtermans en agosto de este año, lo que exigía construir un reactor sí o sí. A partir de finales de 1941, todos los intentos de los científicos atómicos alemanes estuvieron orientados a crear este reactor de uranio natural-agua pesada. En palabras de Heisenberg, fue en septiembre de 1941 cuando vimos ante nosotros un camino abierto que conducía a la bomba atómica.

En octubre, un atribulado Heisenberg se reunía en Dinamarca con Niels Bohr para conversar sobre la moralidad de que los científicos contribuyeran a esta clase de invenciones terribles; Bohr malinterpretó la conversación por completo y transmitió que Alemania estaba cerca de conseguir la bomba atómica a los norteamericanos (adonde Bohr huiría también poco después). Puede imaginarse la alarma que despertaron estas palabras, reforzando la reciente decisión de Roosevelt de iniciar el desarrollo de esta nueva clase de arma (en esos momentos y durante unos meses más, el proyecto Manhattan aún se compondría de investigaciones aisladas).

Operación Barbarroja

El 22 de junio de 1941, Alemania invadió la Unión Soviética. Comenzaba así la mayor batalla de la historia de la Humanidad, que se cobraría decenas de millones de víctimas civiles y militares y culminó con el colapso total del régimen nazi. Esto provocó enormes tensiones en la economía alemana desde el invierno de 1941, obligándoles a concentrarse en aquellos proyectos que pudieran ofrecer resultados militares de manera más inmediata. Deutsches Bundesarchiv.

En diciembre de 1941, con las fuerzas alemanas detenidas a las puertas de Moscú, el ministro de Armamento y Municiones Fritz Todt comunicaba a Hitler que la economía de guerra alemana estaba próxima a su punto de ruptura. Desde ese momento, cualquier incremento de gasto en un ámbito debía conducir necesariamente a una reducción en otros o el país colapsaría. Así pues, se cursaron órdenes para evaluar todos los programas armamentísticos y concentrar los recursos en aquellos que pudieran obtener resultados antes de que acabase la guerra. El profesor Schumann, director de investigaciones militares, escribió a los distintos institutos del uranio transmitiéndoles estas instrucciones.

Hubo una primera reunión evaluadora a principios de 1942. Durante esa reunión se vio que sus expectativas militares eran demasiado remotas: pasaría un largo tiempo antes de que se pudiera construir un reactor de uranio natural – agua pesada capaz de producir plutonio en cantidad. No habría bomba atómica en breve. Así pues, se decidió sacar este proyecto del ámbito militar y devolverlo al civil, bajo control del Ministerio de Educación. En ese momento, el cénit del programa atómico nazi, apenas había un total de setenta personas implicadas directamente en el mismo.

El 26 y 27 de febrero de 1942 se convocaron dos reuniones simultáneas para tratar el asunto en mayor profundidad, con la participación de todos los científicos nucleares principales. Se invitó a  Himmler y Keitel pero, debido a una equivocación administrativa, ambos declinaron su asistencia (les mandaron el programa de conferencias científicas por error, en vez de los encuentros de interés político-militar, lo que les hizo pensar “¿qué demonios pintamos nosotros en unas jornadas de físicos?”). A pesar de esto las reuniones resultaron satisfactorias y se aceleró la construcción de una planta de agua pesada en Leuna por cuenta de IG Farben. Pero seguían dependiendo de Norsk Hydro, que ahora producía unos 140 kg de calidad superior al 99% cada mes; la planta de Leuna no estaría lista hasta finales de la guerra… fabricando agua pesada a apenas el 1%. De todos modos, el programa atómico no regresó al ámbito militar.

Pila atómica alemana L-IV de Leipzig.

La pila atómica L-IV de Leipzig, el primer intento serio de construir un reactor nuclear en la Alemania nazi. Fue activada en mayo de 1942 y produjo más neutrones de los que gastaba, un 13%, aún lejos de lo necesario para sostener una reacción en cadena.

En mayo, Degussa había manufacturado ya tres toneladas y media de uranio para la pila atómica de Heisenberg. Hacia finales de mayo realizaron el primer intento en Leipzig: el reactor L-IV, con 750 kilos de uranio puro y 140 de agua pesada. Produjo neutrones, un 13% más de los que consumía, pero aún estaba muy lejos de sostener una reacción en cadena. Sin embargo, era un éxito: simplemente aumentando su tamaño, conseguirían un reactor nuclear efectivo. Heisenberg calculó que con diez toneladas de uranio metálico y cinco de agua pesada bastaría. El 28 de mayo, Degussa enviaba la primera tonelada a sus talleres de Fráncfort para cortarla en piezas del tamaño adecuado. Pero el agua pesada seguía llegando desde Noruega a un ritmo exasperantemente lento. ¡Si hubiera algo para sustituirla…! Alrededor, las fábricas germanas producían constantemente miles de toneladas de carbono purificado y grafitos elaborados con buen carbón alemán, para múltiples usos civiles y militares, ignorando que tenían en sus manos la clave de la bomba atómica.

El 4 de junio llegó el momento más decisivo del programa atómico alemán. Heisenberg viajó a Berlín para entrevistarse con el poderoso ministro del Reich Albert Speer, íntimo de Hitler. En la reunión, celebrada en el Instituto Kaiser-Wilhelm de Berlín-Dahlem, estaban también presentes otros pesos pesados de la ciencia, la política y el ejército. Heisenberg les explicó que era posible construir una bomba del tamaño de una piña capaz de aniquilar una ciudad. Pero, a continuación, anunció que Alemania no podría construirla en muchos meses; y, de hecho, representaba una imposibilidad económica con las tecnologías disponibles. Los asistentes, que se habían excitado mucho con la primera afirmación, quedaron decepcionados tras la segunda.

El día 23, Speer se reunía con Hitler. En el transcurso de una larga conversación sobre múltiples temas, apenas mencionó el asunto de la bomba atómica, y de manera poco entusiasta. Así, el programa nuclear nazi perdió definitivamente el interés de los políticos y los soldados. A pesar de ello siguieron financiándolo y prestándole asistencia hasta el final de la guerra, aunque como un proyecto civil de orden secundario para la futura producción de energía eléctrica.

En torno a esas fechas, los aliados identificaron el interés nazi en el deuterio noruego y pusieron en marcha una campaña de sabotajes y bombardeos contra la instalación de Norsk Hydro en Vemork, conocida por la historia como la batalla del agua pesada. Hubo grandes actos de heroísmo y famosas películas… pero en realidad, a esas alturas, Alemania ya estaba fuera de la carrera por la bomba atómica. Lo único que lograron estas acciones bélicas fue retrasar aún más la investigación civil. En torno a 1944, la instalación estaba tan dañada que ya sólo producía agua pesada al 1%.

Aún así, siguieron avanzando. Cada vez más despacio, conforme la guerra en el Este demandaba más y más de la sociedad alemana, los bombarderos del Oeste aniquilaban sus ciudades e industrias, el agua pesada llegaba cada vez más despacio y más impura. Varias instalaciones esenciales resultaron destruídas durante los bombardeos de alfombra. El suministro de corriente eléctrica era a cada día más azaroso, los recursos más raros y caros. Hacia el otoño de 1944 los cohetes balísticos V-2 de Von Braun comenzaron a atacar las ciudades enemigas… con componentes realizados en un grafito de alta calidad muy similar al que habría salvado el programa atómico tres años y medio antes.

También fue en esa época cuando, por el propio avance de la ciencia, los científicos alemanes adquirieron consciencia de que habían estado equivocados todo ese tiempo. De que las mediciones de Bothe estaban mal: el grafito era un extraordinario moderador neutrónico que habría permitido a la Alemania nazi crear rápidamente reactores generadores de plutonio. Pero a esas alturas ya no tenía arreglo. Aún llegaron a construir un último reactor en marzo de 1945, el B-VIII de Haigerloch, utilizando una solución mixta de agua pesada y grafito. Tenía las características tecnológicas para alcanzar la reacción en cadena autosostenida, pero aún resultaba demasiado pequeño debido a las carencias de agua pesada. A esas alturas, los Estados Unidos ya estaban produciendo plutonio industrialmente en Hanford. Con uranio natural y grafito, por supuesto.

Soldados norteamericanos y británicos desmontan el reactor B-VIII de Haigerloch.

Soldados norteamericanos y británicos desmontan el reactor nuclear nazi B-VIII de Haigerloch tras su captura. Archivo Gubernamental del Reino Unido.

A finales de abril de 1945, las tropas anglonorteamericanas conquistaban Haigerloch y otras instalaciones esenciales para el programa nuclear alemán, mientras el Ejército Rojo hacía lo propio por el este. El día 30, Hitler se suicidaba en su búnker. El 2 de mayo, el comandante de Berlín rendía la capital del Tercer Reich al general soviético Vasily Chuikov. Cinco días después, los restos de la Alemania nazi se rendían incondicionalmente a los aliados. Las misiones Alsos norteamericana y soviética hicieron su particular agosto. La historia aún tuvo un último coletazo: el 14 de mayo, un buque estadounidense capturaba al submarino U-234. Iba cargado con materiales nucleares y otros componentes tecnológicos avanzados, en dirección a Japón. Algunos de estos productos llegarían a su destino tres meses después… como parte de las bombas de Hiroshima y Nagasaki.

¿Qué fue lo que falló?

Aún hoy se discute por qué un físico tan extraordinario como Walther Bothe, que ganaría el premio Nobel en 1954, cometió ese error fatal en sus mediciones del grafito. Algunos creen que el electrografito purísimo suministrado por Siemens-Plania para el experimento estaba contaminado con boro, un poderoso absorbente neutrónico capaz de alterar los resultados: un solo gramo de boro captura tantos neutrones como cien kilos de carbono. En aquella época era común que el proceso de elaboración industrial del grafito incorporase carburo de boro, un hecho que Szilárd sabía y tuvo en cuenta durante sus experimentos análogos en los Estados Unidos. Pero Bothe, aparentemente, no estaba al tanto de este detalle. A pesar del cuidadoso análisis de la pureza del grafito realizado por este último, incluso cantidades minúsculas de boro bastarían para reducir la longitud de absorción de la muestra por debajo del mínimo exigible en un moderador neutrónico. Otros deducen que los bloques de grafito utilizados no encajaban perfectamente entre sí y, al sumergirlos en el agua, mantuvieron burbujas de aire en su interior. En este caso, el nitrógeno del aire podría haber producido un efecto parecido. Esta era la opinión del propio Werner Heisenberg.

Hay incluso quien piensa que Bothe saboteó los resultados. Walther Bothe despreciaba profundamente a los nazis por el asunto de la física aria, estaba casado con una rusa y –a diferencia de lo ocurrido con sus colegas– los vencedores no le molestaron tras el fin de la Segunda Guerra Mundial. En este caso Bothe, perfecto conocedor de las fortalezas y debilidades de Alemania, habría bloqueado deliberadamente el único camino practicable por los nazis para conseguir la bomba atómica. Al cortar el paso al grafito, sabiendo de las dificultades relacionadas con el enriquecimiento de uranio y con el agua pesada, cerraba también de hecho la vía del plutonio al Tercer Reich. O al menos se lo ponía muy difícil. Bothe jamás reconoció esta posibilidad, aunque sin duda le habría hecho quedar como un héroe tras la victoria aliada. Lo único que dijo respecto a sus resultados erróneos fue que Heisenberg no había tenido en cuenta los márgenes de error (aunque, como hemos visto en el texto original, eran unos márgenes muy ajustados).

Soldados soviéticos en Berlín, mayo de 1945

Soldados soviéticos en el hotel Adlon de Berlín, frente a la Puerta de Brandemburgo, en mayo de 1945. Algunas de las principales instituciones científicas, situadas en el área de Berlín, caían así en manos de la URSS. Deutsches Bundesarchiv.

En realidad el fallo esencial de la ciencia alemana en el programa nuclear fue no contar con un mecanismo de verificación independiente. Así lo reconocía Heisenberg, en la entrevista mencionada al principio:

Había tan pocos grupos [de investigación] que nunca repetíamos un experimento dos veces. Cada grupo tenía alguna tarea asignada. Nosotros, en Leipzig, hicimos las mediciones para el agua pesada y a partir de ese momento todo el mundo aceptó nuestro resultado; nadie lo comprobó. Y nadie comprobó tampoco las medidas de Bothe.

Si hubiera existido un mecanismo de verificación independiente que comprobara los datos de sus colegas, el error de Bothe se habría tornado evidente en el mismo 1941 y Alemania habría podido usar el grafito como moderador desde el principio. En ausencia de verificaciones independientes, toda afirmación tiene que darse por buena sin garantía alguna, incluso aunque vaya en contra de todo lo que se sabe hasta el momento (como en este caso: la teoría no predecía una longitud de difusión tan corta, ni tampoco las mediciones preliminares anteriores del propio Bothe). Por eso se insiste tantas veces: todo experimento debe ser reproducible y reproducido, todos los resultados deben verificarse independientemente. Esto es esencial para el método científico. Cuando no se respeta, ya vemos las consecuencias, en este o en cualquier otro ámbito.

Pero, ¿habría sido realmente posible?

El error de Bothe no fue, ni con mucho, el único problema que plagó al programa atómico de la Alemania nazi. Uno de los más fundamentales fue el volumen económico total del Tercer Reich, al menos en comparación con el de los Estados Unidos. Durante la mayor parte de la guerra, el producto nacional bruto alemán era superior al británico, el francés o el soviético; pero entre dos y tres veces más pequeño que el estadounidense. Este abismo económico explica por sí solo la relativa facilidad con que la potencia norteamericana pudo desarrollar el proyecto Manhattan. No obstante, los Estados Unidos recorrían simultáneamente la vía del plutonio y la del uranio, mucho más cara. Yendo sólo por la del plutonio, un programa nuclear resulta notablemente menos costoso; puede que incluso hasta el punto de igualar estas diferencias en poderío económico total.

Comparación del volumen económico de los principales contendientes en la Segunda Guerra Mundial

Comparación del volumen económico de los principales contendientes en la Segunda Guerra Mundial. Datos tomados de Mark Harrison (1998), "The economics of World War II: Six great powers in international comparison", Cambridge University Press. Clic para ampliar.

Otro problema notable fue la llamada generación perdida de científicos alemanes. Debido a las persecuciones políticas y raciales, un gran número de científicos europeos y específicamente alemanes huyeron a los Estados Unidos, donde terminarían constituyendo la columna vertebral del proyecto Manhattan. Estupideces racistas como el asunto de la Física aria, junto a las distintas ciencias patrióticas o la depuración política del profesorado, no hicieron nada por mejorar el estado de la ciencia que quedó en la Europa controlada por el nazifascismo y sus aliados. Y sin embargo, como hemos visto, Alemania mantenía un número significativo de científicos destacados pertenecientes a la generación anterior.

Un tercer problema significativo fue la dificultad de acceso a algunos productos esenciales. Europa no es un continente que se caracterice por la abundancia de recursos naturales; incluso conquistando la mayor parte, como había logrado el Tercer Reich a finales de 1940, sigues necesitando un montón de cosas. El mismo uranio –aunque suficiente– hubo que rebuscarlo por varias fuentes distintas, desde las minas de Checoslovaquia a las reservas belgas. No tenían helio. El petróleo y los combustibles fueron un quebradero de cabeza para los nazis durante toda la guerra. Y así, mil cosas. En general, a Alemania todo le salía mucho más caro y trabajoso de obtener, porque debía conseguirlo fuera de Europa. Esto produjo también importantes carencias entre la población. A pesar de ello, no hay ningún motivo claro por el que estas carencias hubieran podido detener o retrasar significativamente la vía del plutonio, si no hubiera sido por ese asunto del agua pesada.

Y, por supuesto, conforme avanzaba la guerra los bombardeos y las derrotas constreñían la economía alemana cada vez más y les iban privando de industrias y recursos fundamentales. Hacia el final del conflicto, algunas instalaciones clave para el programa atómico resultaron destruidas o severamente dislocadas. Pero para cuando eso ocurrió, la guerra ya estaba perdida y el camino al arma nuclear, abandonado tiempo atrás en favor de aquellos últimos reactores de juguete.

El error de Bothe fue el único factor determinante que cerró decisivamente el único camino practicable hacia la bomba atómica para el Tercer Reich. Precisamente por todas estas limitaciones, Alemania debía haber tomado desde el primer momento y sin dudarlo la vía del plutonio producido en reactores de uranio natural-grafito. Así lo consiguieron casi todas las potencias nucleares. Como hemos visto, gozaban de uranio y grafito suficiente para intentarlo, así como de un número de científicos muy destacados que ya habían alcanzado muchos de los conocimientos necesarios en fecha tan temprana como 1941. Quizá no tuvieran gente con la talla de Einstein o Szilárd o Fermi u Oppenheimer, pero los científicos atómicos alemanes eran muy brillantes sin duda alguna. No obstante, al obligarles a ir por el camino del agua pesada, el error de Bothe retrasó y encareció absurdamente el programa nuclear nazi hasta tornarlo impracticable por completo en el escaso tiempo de que disponían.

Walther Bothe en 1954

Walther Bothe en 1954, tras obtener el premio Nobel. Fundación Nobel, Suecia.

Fueron estos retrasos y encarecimientos los que desmotivaron a la dirigencia política y militar del Tercer Reich, así como a los propios científicos. Si en Alemania no hubo una acción política decidida para unificar el proyecto atómico y dotarlo de medios abundantes fue precisamente porque el largo camino del agua pesada lo hacía poco atractivo de cara al desenlace de la guerra. Si hubiera habido una vía rápida –el reactor de grafito–, seguramente se habrían tomado mucho más interés.

Opino que sin el error de Bothe, y con un programa atómico decidido y bien dotado, la Alemania nazi podría haber completado su primer reactor de uranio natural-grafito al mismo tiempo que los estadounidenses o poco después: finales de 1942, principios de 1943. Incluso algo antes, mediando cierta genialidad. Tampoco veo ningún motivo claro por el que no hubieran podido empezar a producir plutonio a escala industrial hacia finales de 1943 o principios de 1944 (los norteamericanos lo lograron a mediados de 1943). Y una bomba primitiva entre 1945 y 1946.

Para ser de utilidad, obviamente, la Segunda Guerra Mundial tendría que haber durado un poco más; pero no debemos olvidar que las decisiones científicas principales se tomaron a principios de 1941, cuando todas las opciones políticas y militares estaban abiertas aún. No era estrictamente preciso invadir la URSS en junio de 1941, sobre todo si piensas que pronto tendrás bombas atómicas para devastarla a tu gusto. Tampoco era totalmente necesario que Japón atacara Pearl Harbor en diciembre de 1941, propiciando así la entrada de Estados Unidos en la guerra y la activación final del Proyecto Manhattan durante 1942. Todo eso era en gran medida inevitable y habría terminado por suceder de una manera u otra, pero no tenía por qué ocurrir tan deprisa como sucedió. Si los nazis hubieran sustentado la convicción íntima de que sus científicos andaban detrás de algo importante, una wunderwaffe como jamás vio la Humanidad, habrían tenido una motivación clara para enfriar la evolución del conflicto en vez de acelerarla como hicieron. Un 1941-1942 de moderada intensidad (parecida a lo que fue el periodo agosto de 1940 – junio de 1941, con enfrentamientos eminentemente periféricos y un reforzamiento de la Defensa del Reich) habrían sido suficientes con alguna probabilidad.

Pues si Alemania hubiera podido seguir la vía del plutonio usando reactores de uranio natural-grafito, creo –creo– que habría bastado con retrasar las cosas catorce o dieciocho meses para asegurarse una bomba atómica como la de Nagasaki antes del final de la guerra. Dado que no había ningún motivo por el que retrasarlas, dado que el programa nuclear alemán se había convertido en poco más que una curiosidad científica irrelevante a partir del error de Bothe en enero de 1941 y sobre todo desde la reunión con Speer de junio de 1942, las cosas sucedieron como sucedieron. El Tercer Reich invadió a la URSS en junio de 1941, Japón atacó Pearl Harbor en diciembre, Estados Unidos y la Unión Soviética entraron en modo overkill, y el resto de la historia resulta sobradamente conocido. Para bien.

Pila atómica nazi B-VIII de Haigerloch

El último intento nazi por alcanzar la criticidad: la pila atómica B-VIII de Haigerloch, capturada por los aliados en abril de 1945. Nunca pudo alcanzar la reacción en cadena autosostenida: debería haber sido un 50% mayor para lograrlo. Réplica en el Museo Atómico de Haigerloch, Alemania.

119 Comentarios Trackbacks / Pingbacks (7)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (69 votos, media: 4,94 de 5)
Loading ... Loading ...
Be Sociable, Share!

Ibéricos extraterrestres.

Ciencia hispánica (III)

Niña mirando por un telescopio.

Una niña mira por un telescopio durante una actividad cultural. Este tipo de telescopio, hoy en día considerado "amateur", es un instrumento muchas veces más potente y preciso que los utilizados por los grandes astrónomos que vamos a mencionar más abajo.

En el post anterior, dije que en ese momento sólo recordaba a un nacido en la Península Ibérica que diera nombre a un lugar extraterrestre: el del sabio andalusí y precursor de la aeronáutica Abbás ibn Firnás. Pero me quedé con el runrún y cuando un amable lector llamó mi atención sobre otro posible nombre (aunque al final no resultara ser oficial), decidí dejarme de recuerdos y hacer la búsqueda que debería haber hecho desde el principio: por supuesto, en el Diccionario Geográfico de Nomenclatura Planetaria de la Unión Astronómica Internacional, disponible en Internet gracias a un acuerdo con el Estudio Geológico de los Estados Unidos y la NASA. Y… bueno, no son muchos, pero algunos más hay. Menos da una piedra. Aunque sólo sea por vergüenza torera, intentaremos aprender algo sobre ellos.

¿Cómo se bautiza a los objetos astronómicos?

Además de sus designaciones sistemáticas (Bayer, Messier, NGC, etc), a las cosas notables del cielo les ponemos nombre. Más allá de los grandes objetos, que suelen bautizarse con denominaciones universales originadas en la mitología, quien descubre algo nuevo en los cielos tiene una especie de derecho consuetudinario a proponerle un nombre. Como es de esperar, a menudo estos nombres son el del descubridor o el de alguna persona, lugar o hecho que desee honrar y perpetuar en la memoria colectiva de la Humanidad.

En ambos casos, se produce un sesgo cultural inevitable: los nombres que tienen en mente esas personas suelen ser representativos de la cultura donde se encuentran. A veces hay un elemento de chauvinismo, pero ni siquiera resulta necesario: cada uno se ha criado donde se ha criado y tiene los referentes intelectuales y emocionales que tiene. Cuando escribí el post sobre lo que ocurriría si un agujero negro se acercara al sistema solar, prácticamente sin pensar bauticé a este objeto imaginario como Abaddón. ¿Por qué? Pues porque Abaddón es el puñetero ángel exterminador de la cultura cristiana occidental, donde surgió la sociedad en la que vivo. También podría haberlo llamado Tánatos, de la cultura helénica donde ambas se originaron, pero estaba muy visto y no reflejaba el concepto igual de bien. Incluso podría haber buscado alguna keres chula. Sin embargo, debido a mi contexto cultural, ni se me pasó por la cabeza bautizarlo Yama; y eso que resultaría de lo más apropiado. Por la misma razón tampoco se me ocurrió llamarlo Azrael, el arcángel de la muerte en el Islam. O Hine-nui-te-pō, de la mitología maorí.

Rigel Kentaurus

La estrella más próxima al Sol es el sistema triple conocido como Alfa o Proxima Centauri, con el nombre propio Rigil Kentaurus ("el pie del centauro", en árabe). Observatorio Europeo del Sur. (Clic para ampliar)

Incluso los nombres aceptados internacionalmente para los grandes objetos mencionados proceden de las culturas abrahámicas occidentales, por la sencilla razón de que éstas eran dominantes en materia científica conforme tales denominaciones se iban normalizando. Los nombres de todos los planetas solares, por ejemplo, vienen de la mitología romana: Mercurio, Venus, Marte, Júpiter, etcétera. Los de las lunas, de la griega, como Ganímedes, Ío, Europa, Fobos, Titán, Mimas, Encélado y demás. Y una buena parte de las estrellas más conocidas se conocen por su denominación árabe: Rigil Kentaurus (Rijl al-Qantūris, “el pie del centauro”), Altair (de an-nasr aṭ-ṭā’ir, “el águila voladora”), Fomalhaut (fam al-ħūt al-janūbī, “la boca de la ballena del sur”) o Betelgeuse (cuya primera sílaba está disputada, pero “elgueuse” es al-Jauzā‘, “…del centro”). Y, por supuesto, Aldebarán: al-dabarān, “el seguidor” (porque parece seguir a las Pléyades).

Lógicamente, otras culturas otorgan nombres distintos a todos estos astros; no obstante, para su uso internacional y científico, estos son los nombres que han cuajado. Por otra parte, los descubrimientos más recientes se van dando en un mundo cada vez más globalizado e interconectado, con lo que la misma denominación se extiende a todos los países rápidamente. Tanto para los unos como para los otros, el organismo que se encarga de limpiar, fijar y dar esplendor a todos estos apelativos es la Unión Astronómica Internacional.

Con el surgimiento y desarrollo de la revolución científica, el número de objetos extraterrestres a bautizar se ha multiplicado enormemente y cada vez lo hace más. No resulta extraño que cualquier nuevo instrumento (un telescopio, una sonda, lo que sea) produzca una avalancha de cosas nuevas y fascinantes a las que prestar atención. Por ejemplo: las primeras naves que pasaron por detrás de la cara oculta de la Luna revelaron la existencia de un montón de accidentes geográficos selenitas a los que hubo que poner nombre. Con las primeras naves interplanetarias, lo mismo. Cada vez que a un Gran Observatorio le ajustan las gafas, aparecen millones de estrellas y galaxias nuevas. Y así constantemente. Son tantos que muchos se quedan con su designación sistemática, pendiente de que alguien se tome el trabajo de bautizarlos.

La Presidenta de la Unión Astronómica Internacional abre el Año Internacional de la Astronomía en la UNESCO.

La presidenta de la Unión Astronómica Internacional, Catherine Cesarsky, abre el Año Internacional de la Astronomía en la UNESCO (2009).

En la actualidad, cuando se obtienen las primeras imágenes de un nuevo objeto extraterrestre, es normalmente el correspondiente grupo de trabajo de la Unión Astronómica Internacional quien selecciona unas cuantas de las más significativas y sugiere posibles nombres. Conforme se consiguen datos más detallados, los investigadores que estudian el objeto pueden proponer denominaciones adicionales. En general, cualquier persona (incluso del público en general) puede proponer un nombre para un objeto recién descubierto. Ni en un caso ni en el otro, la Unión Astronómica Internacional garantiza que este nombre será reconocido. No se admite pago económico, a pesar de la existencia de listillos que cobran dinero a sus clientes por poner nombre a una estrella (sin reconocimiento oficial alguno, claro). Aquí se detalla el proceso, por ejemplo, para dar nombre oficial válido a los planetas menores (en ingles).

Los nombres aceptados en principio por este grupo de trabajo se remiten a otro dentro de la misma división, que se encarga exclusivamente de realizar estas catalogaciones. Por ejemplo, en el caso de los planetas y lunas, éste es el Grupo de Trabajo para la Nomenclatura de Sistemas Planetarios (WGPSN), de la División III. Si este grupo también valida la propuesta, entonces el nombre queda aceptado y entra en las bases de datos oficiales de la Unión. A partir de ese momento, este nombre puede ser utilizado válidamente para cualquier aplicación.

En la práctica, vuelve a producirse un inevitable sesgo cultural. Salvo de manera anecdótica, será raro que estos nombres procedan por ejemplo de la cultura aborígen australiana o de la yanomami, básicamente porque no hay muchos aborígenes ni yanomamis en los grandes observatorios terrestres o satelitarios, en los comités de investigación de las sondas espaciales o en los grupos de trabajo de la Unión Astronómica Internacional. A decir verdad, si no fuera porque existe una cierta tendencia en estos ámbitos para intentar que todas las culturas de la Humanidad aparezcan representadas, raro sería que apareciese alguno.

Bueno, pues por estas viejas tierras de Iberia no andamos mucho mejor. Realizada una búsqueda exhaustiva en la base de datos de la Unión Astronómica Internacional, sólo hay catorce que se correspondan con científicos o personajes que tuvieran que ver directamente con la astronomía. Todos excepto dos son anteriores a la Edad Contemporánea. Y la mayor parte, anteriores a la Edad Moderna. No, no es culpa de la Unión Astronómica Internacional. Es culpa nuestra.

La magra cosecha de la astronomía hispánica.

En total, salen 109 nombres relacionados con la cultura ibérica. Pero la mayor parte son designadores sin relación ninguna con la astronomía, la astronáutica o en general las ciencias que condujeron a estos descubrimientos. Al final del post veremos una lista, por ejemplo, de localidades hispánicas extraterrestres cuyo único mérito efectivo para estar ahí es simplemente… su existencia.

Observatorio del Roque de los Muchachos

Observatorio del Roque de los Muchachos, en las Islas Canarias. Tras siglos de tinieblas y atraso secular, durante las últimas décadas han ido surgiendo en España algunas instalaciones científicas dignas de tal nombre. En julio de 2009 entró aquí en servicio el Gran Telescopio Canarias, el más grande y potente del mundo con un espejo de 10,4 m. Casi nadie se enteró.

Más notablemente aparecen en la Luna los nombres de cuatro exploradores (Balboa, Colón, Magallanes y Vasco de Gama), un gran científico de la Edad Contemporánea sin relación con la astronomía (Cajal) y un médico del siglo XVI (Cristóbal Acosta). En Mercurio encontramos algunos pintores y escritores (Camões, Cervantes, Dalí, Echegaray, Goya, March, Mena, Mendes Pinto y Velázquez), porque se decidió nombrar a los cráteres de Mercurio usando una lista de artistas de fama mundial (aunque el premio Nobel de Literatura José Echegaray fue también ingeniero y matemático, su presencia se debe a esta última razón). Más una referencia a la carabela Santa María y al navío Victoria de Magallanes y Elcano.

En Venus, donde por convención se usan nombres femeninos, hallamos a la escritora Rosalía de Castro, la pintora Josefa de Ayala, la cantante Malibrán o la actriz Fernández, tan conocida que ni siquiera he logrado identificarla. Hay también –no faltaba más– un Don Quijote y una Dulcinea en Eros, asteroide cuyos accidentes suelen nombrarse recordando parejas o amantes famosos en la literatura de ficción. Más un cierto número de nombres genéricos como “José” o “Juanita” elegidos más o menos al azar.

Se comprende fácilmente que la mayor parte de estos topónimos extraterrestres con resonancias hispánicas son de cortesía, parte de esta voluntad de lograr que todas las culturas humanas queden representadas en los astros. En serio: por supuesto que se puede llamar Velázquez a un puente, un polideportivo o un avión de pasajeros, pero eso no implica ningún mérito en obra civil, deportes o aeronáutica. De gente que se ganara a pulso con sus aportaciones a la astronomía o la cosmonáutica un lugar en los cielos, únicamente tenemos catorce. A estas alturas, puede que te estés preguntando por qué hablo todo el rato de personajes ibéricos, en vez de hablar de españoles o portugueses. Sencillo: como apunté más arriba, casi todos ellos vivieron antes de que existieran los dos estados modernos con el nombre oficial de España o Portugal. En realidad, la inmensa mayoría se contaron –cómo no– entre los siempre mezquinamente olvidados sabios de Al-Ándalus.

Abenezra, el Doctor Admirable.

Vayamos por orden. El cráter Abenezra de la Luna recibe su denominación gracias al astrónomo, filósofo y escritor sefardita Abrahám ben Meir ibn Ezra; un nombre latinizado como Abenezra, cuyo propietario fue conocido por sus apodos el Sabio, el Grande o el Doctor Grande y Admirable.

Cráter Abenezra, Luna

El cráter Abenezra de la Luna (borde superior), situado en el centro de la cara visible y un poco al sur, llamado así por el astrónomo judeo-andalusí Abrahám ibn Ezra (1092-1167). Imagen tomada a 2.722 km de altitud sobre nuestro satélite.

Abrahám nació en Tudela, entonces perteneciente a la taifa de Zaragoza, en torno a 1092. Cuando los cristianos de Alfonso I el Batallador tomaron su ciudad, huyó hacia el sur junto a muchos otros de sus vecinos andalusíes. Así se convirtió por primera vez en un a modo de refugiado itinerante, viviendo en la Córdoba, Lucena, Granada y Sevilla musulmanas antes de cruzar el estrecho al norte de África. Entonces se encontró con con los almohades, que por aquella época perseguían a los judíos. Huyó de nuevo, ahora en dirección a Roma, y residió en diversos puntos del sur y centro de la Europa cristiana hasta su muerte en 1167. No se sabe exactamente dónde murió, pero al parecer había regresado a la judería de Calahorra, entonces ya bajo dominio cristiano. Por tanto, Abrahám ibn Ezra puede considerarse uno de los máximos exponentes de las tres culturas… y también de sus complejas convivencias y conflictos.

Abenezra escribió fundamentalmente en hebreo, destacándose en una diversidad de disciplinas que van desde la exégesis bíblica hasta la filosofía de la religión, la gramática hebrea e incluso la poesía. Pero lo que le aseguró su lugar en la Luna fueron sus trabajos en matemáticas, astronomía y astrología (en aquellos tiempos aún una ciencia): tablas de posiciones estelares como el Lukhot, estudios sobre el calendario (Sefer ha-’Ibbur) y el astrolabio (Keli ha-Nejoshet), textos aritméticos como el Sefer ha-Ekhad o el Sefer ha-Mispar, las traducciones del astrólogo judeo-persa Mashallah y su obra traducida al latín Fundamentos de las Tablas Astronómicas (1154). Por todo esto y más cosas el judeo-andalusí Abrahám ibn Ezra, el Doctor Admirable, se ganó a pulso un rincón en los cielos; este lugar está ahora situado en las escabrosas serranías inmediatamente al sur del ecuador lunar, casi en el centro de la cara visible de nuestro satélite (21,0°S 11,9°E).

Cráter de Al Bakri, Luna

Cráter de Al-Bakri, en una imagen obtenida desde la nave lunar tripulada estadounidense Apolo 15 en 1971. (NASA)

Abu Abdullah Al-Bakri, el geógrafo.

Abu Abdullah al-Bakri fue un geógrafo hispano-árabe que nació en Huelva alrededor de 1014, estudió en Córdoba con Al-Udri e Ibn Hayyan, trabajó en Almería y Sevilla y murió en esta última ciudad siendo el año 1094. Aunque evidentemente no había salido en toda su vida de Al-Ándalus, creó numerosos trabajos de gran objetividad y precisión sobre la geografía, la botánica y la historia de Europa, el norte de África y la Península Arábiga basándose en lo que le contaba la gente que sí había estado allí.

Uno de estos trabajos, el Libro de los Caminos y los Reinos (Córdoba, 1068), constituye el único estudio completo y de confianza sobre África Occidental durante la Edad Media. Incluye datos únicos sobre el Imperio de Ghana, la Dinastía Almorávide y el comercio transahariano. Junto a su Descripción geográfica del mundo conocido, el Diccionario de los nombres indecisos (uno de los primeros diccionarios geográficos) y la Descripción del África Septentrional, le convierte en un geógrafo clásico de referencia y le dan derecho a su cráter en la cara visible lunar: uno pequeñito pero cuco, en la orilla noroccidental del Mar de la Tranquilidad (14,3°N 20,2°E).

El cráter de Alfonso X el Sabio.

Cráter lunar Alphonsus

Cráter Alphonsus (derecha), en la cara visible de la Luna (NASA). Recibe su nombre por Alfonso X el Sabio, no en tanto que rey sino en tanto que astrónomo.

Uno de los cuatro objetos extraterrestres de nombre hispánico ganado a pulso que no tira de apellido andalusí es el complejo de cráteres Alphonsus. Situado en la cara visible de la Luna, al este del mar Nubio, recibe su nombre por el rey de Castilla Alfonso X el Sabio. Pero no por rey, sino por astrónomo.

La vida de Alfonso X de Castilla (Toledo 1221-Sevilla 1284) resulta fascinante y está llena de éxitos, reveses y legados a las generaciones posteriores. Sobre todo, Alfonso fue un hombre sediento de conocimientos, respetuoso por la cultura y autor intelectual de numerosas obras. Su Escuela de Traductores de Toledo reunió a los mayores sabios cristianos, musulmanes y judíos de aquella Iberia a la que él empezaría a llamar con éxito España.

La parte de su legado que le asegura un lugar en la Luna es, fundamentalmente, las Tablas Alfonsíes (1252-1270). Sobre las observaciones originales del andalusí Al-Zarqali (a quien nos encontraremos a continuación) y bajo la supervisión de los judíos Ben Moshe y Ben Sid, estas Tablas Alfonsíes recogen la posición exacta de los astros vistos desde Toledo desde el año de la coronación de nuestro rey; y permiten calcular la posición del Sol, la Luna y los planetas conocidos en su tiempo según el complicado modelo geocéntrico de Ptolomeo.

La versión original de las Tablas Alfonsíes, escrita en castellano antiguo, se ha perdido. Pero la edición francesa en latín de 1320 sobrevivió, convirtiéndolas en la referencia astronómica más importante de Europa hasta bien entrado el Renacimiento. Sólo se dejaron de utilizar tras la publicación de las Tablas Rodolfinas de Kepler en 1627, casi cuatro siglos después que ya incorporaban el modelo heliocéntrico. Por esta y otras aportaciones como los Libros del saber de astronomía, el Rey Sabio de Castilla se ganó un antiquísimo cráter, muy llano, de respetable tamaño, provisto con doce subcráteres; sus coordenadas son 13,4°S 2,8°W, Luna.

Tablas Alfonsíes

Tablas Alfonsíes de Alfonso X el Sabio (arriba), en una traducción al latín del siglo XIII, basadas en las Tablas Toledanas de Azarquiel (debajo).

Estampilla con la efigie del astrónomo Azarquiel

Estampilla postal de España con la efigie del astrónomo toledano Abú Ishaq Al-Zarqali, Azarquiel.

Azarquiel, el más grande de los astrónomos ibéricos.

El toledano Abū Isḥāq Ibrāhīm ibn Yaḥyā al-Naqqāsh al-Zarqālī (o al-Zarqālluh), latinizado Azarquiel o Arzachel, está considerado por muchos como el más grande de los astrónomos ibéricos y uno de los más importantes de la historia mundial. Ya hable de él en este blog, y hasta comenté lo de su cráter… y se me había olvidado. :-( Nació en la Taifa de Toledo siendo el año 1029, descendiente de una familia visigótica convertida al Islam siglos atrás. Formado como herrero, se dedicaba a elaborar instrumentos de precisión para los astrónomos árabes y judíos que allí residían al servicio del cadí Said al-Andalusí, científico e historiador a su vez: una especie de Alfonso X musulmán.

De esta forma Abú Ishaq entró en contacto con las ciencias de la noche; por su parte, los científicos toledanos de la noche se percataron pronto de que Abú Ishaq poseía una brillantez intelectual fuera de lo común, captando al vuelo sus necesidades e incluso anticipándose a ellas, por lo que comenzaron a protegerle. Tras dos años de formación en las maqtab de la ciudad patrocinadas por Al-Mamún, el joven herrero se convirtió en matemático y astrónomo, pasando a formar rápidamente parte de este reducido círculo de estudiosos. Y, pronto, destacándose sobre todos ellos como astrónomo teórico, geómetra e inventor de sus propios instrumentos.

El cráter Azarquiel, Luna.

El cráter Azarquiel, Luna.

La aportación de Azarquiel al saber humano es difícil de percibir en toda su enormidad. Entre otras muchas cosas, junto a su equipo de extraordinarios colaboradores elaboró las Tablas Toledanas, de las que bebería Alfonso X para crear las Alfonsinas. Pero no sólo el rey de Castilla se inspiró en su trabajo: el mismo Laplace, siete siglos después, seguía utilizando los datos de Abú Ishaq para sus cálculos astronómicos. Y su modelo para explicar los movimientos del Sol y de Mercurio fue aprovechado por Copérnico para desarrollar la teoría heliocéntrica, tal como el propio astrónomo polaco declara en su Sobre el movimiento de las esferas celestiales. Sus obras, al llegar traducidas a la Europa cristiana, permitieron el surgimiento de la astronomía matemática moderna.

La azafea de Azarquiel

La azafea de Azarquiel o astrolabio universal. Sin un instrumento astronómico de estas características, verdadero computador analógico, la navegación oceánica resulta imposible por completo.

Además, creó varios instrumentos nuevos. Uno de ellos, la azafea o astrolabio universal, fue esencial para la navegación durante los siglos siguientes; sin él, difícilmente habría sido posible la Era de los Descubrimientos. Al mismo tiempo, se desplazaba a Córdoba con frecuencia para dar clases, lo que sentó una escuela propia que está en la raíz de la astronomía árabe occidental.

Por todo ello, los nombres de la Luna tendrían menos mérito si no incluyeran al complejo de cráteres Arzachel (18,2°S 1,9°O), situados al sur de Alphonsus, también en la cara visible. Está igualmente compuesto por un cráter principal y once secundarios, con una estructura muy bien definida y un pico en el centro de 1.500 metros de elevación.

Cuando Alfonso VI de León conquistó Toledo en 1085, un casi anciano Azarquiel tuvo que huir junto con otros colegas en dirección a Córdoba. No se sabe si llegó o si pereció en algún campo de refugiados por el camino. Convencionalmente se considera que murió en 1087.

El cráter Catalán, menos mal.

El único que nos salva la cara: aunque chiquitín y no muy relevante, el cráter Catalán del sudoeste lunar (45,7°S 87,3°O) y sus tres subcráteres son los únicos que llevan un nombre ibérico contemporáneo. Este es el del físico-químico maño especializado en espectroscopia Miguel Antonio Catalán Sañudo. Nacido en Zaragoza siendo 1894, se licenció en Ciencias Químicas por la universidad de esta ciudad aragonesa y a continuación desempeñó su profesión durante un tiempo en una fábrica de cementos. De ahí marchó a Madrid, en 1915, para realizar su tesis doctoral con Ángel del Campo. Don Ángel del Campo y Cerdán era el encargado de espectroscopia en el Laboratorio de Investigaciones Físicas de la Junta de Ampliación de Estudios e Investigaciones Científicas; años después, se convertiría en asesor científico de la II República.

Miguel Catalán y su esposa Jimena Menéndez-Pidal

Fotografía del pasaporte y firma de Miguel Catalán, junto a su esposa Jimena Menéndez-Pidal, hija del historiador y filólogo Ramón Menéndez-Pidal.

Bajo la tutela de Del Campo, Catalán se pasó definitivamente a la espectroscopia. Con una beca de la Junta, se mudó a Londres para proseguir sus estudios en el Royal College of Science; allí descubriría los multipletes espectrales, un fenómeno cuántico que le valió el reconocimiento internacional. De ahí viajó a Munich para trabajar con Sommerfeld, uno de los fundadores de la mecánica cuántica. A su regreso a España, ya catedrático, fundó el Instituto Nacional de Física y Química de la Junta de Ampliación de Estudios junto a Blas Cabrera y Enrique Moles.

Tras la Guerra Civil, los franquistas disolvieron la atea y antiespañola Junta para la Ampliación de Estudios e Investigaciones Científicas; muchos de sus miembros fueron fusilados, tuvieron que huir al exilio o resultaron depurados. Miguel Catalán, que había pertenecido a Izquierda Republicana sin señalarse mucho, se contó entre estos últimos. Estuvo siete años en el exilio interior, realizando trabajos menores para la industria química e incluso para Mataderos de Mérida, hasta que gracias a las gestiones del astrofísico estadounidense Henry Russell y otros colegas norteamericanos recuperó su cátedra en 1946 (cuentan que empezó su primera clase con un “decíamos ayer…”, a lo Fray Luis de León).

Como en España casi no quedaban científicos de alto nivel, en 1950 las autoridades franquistas le nombraron jefe del Departamento de Espectros del nuevo Consejo Superior de Investigaciones Científicas, por mediación del Marqués de Hermosilla. Habían pasado once años desde el final de la Guerra Civil. A partir de ese momento, los científicos norteamericanos que le habían protegido desde el otro lado del charco comenzaron a invitarle a toda clase de conferencias y reuniones en los Estados Unidos; en 1952, lo hicieron asesor de la Joint Commission for Spectroscopy. En 1955, la Real Academia de Ciencias de Madrid logró vencer las desconfianzas políticas que generaba aún y le eligieron académico de número. Pero todas estas desventuras le habían afectado a la salud: Miguel Catalán, el único ibérico contemporáneo que da nombre a un objeto extraterrestre por sus méritos científicos, falleció en 1957. Habría que esperar hasta 1970 para que, a propuesta de todos esos amigos estadounidenses, la Unión Astronómica Internacional pusiese su nombre a este cráter lunar.

Cráter Catalán, Luna

El grupo de cráteres Catalán, Luna, en el registro de la Unión Astronómica Internacional. Al hallarse en la zona de ocultamiento por libración, ayuda a observar este fenómeno aunque a veces resulte difícil de distinguir o invisible desde la Tierra por completo.

Cráteres Geber y Abenezra, Luna.

Cráteres Geber y Abenezra, Luna.

Geber, el que corrigió a Ptolomeo.

Como este post se está alargando mucho, lo voy a dividir en dos partes. Así pues terminaremos esta primera hablando del Geber, otro cráter complejo lunar, que recibe su nombre por un cuarto andalusí: el astrónomo y matemático Abū Muḥammad Jābir ibn Aflaḥ. Abú Mohamed Jabir nació, vivió y murió en Sevilla allá por los años 1.100-1.150; su obra maestra, la Corrección del Almagesto (Iṣlāḥ al-Majisṭi), influyó a varias generaciones de estudiosos musulmanes, cristianos y judíos. Tanto, que casi toda la parte de trigonometría esférica en la obra de Johann Regiomontano constituye un plagio del sevillano, tal como mostró Gerolamo Cardano. Este trabajo representa la primera corrección importante a Ptolomeo en Occidente.

Adicionalmente, Abú Mohamed inventó el torquetum, otro computador analógico de observación astronómica que sirve para registrar y convertir medidas tomadas en tres sistemas de coordenadas: el horizontal, el ecuatorial y el eclíptico. Maimónides trasladó sus trabajos al resto del mundo islámico y Gerardo de Cremona los tradujo al latín, dándole ese nombre Geber que designa también al cráter lunar.

El cráter Geber en memoria del sevillano Abú Mohamed se encuentra en las serranías escabrosas centrales de la cara visible de Luna, un poco hacia el sur (19,4°S 13,9°E), y presenta nueve subcráteres. Está justo al noreste del cráter en memoria del judío andalusí Abrahám ibn Ezra que mencionamos al principio.

Próximamente: Ibéricos extraterrestres (y 2).

46 Comentarios Trackbacks / Pingbacks (2)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (31 votos, media: 4,61 de 5)
Loading ... Loading ...
Be Sociable, Share!

¿Por qué ya no tenemos aviones civiles supersónicos?

Hace treinta años, había más de veinte aviones civiles supersónicos surcando los cielos.
Hoy, no queda ninguno y no se prevé que vuelva a suceder pronto. ¿Por qué?

Primer avión civil supersónico

Este Tupolev Tu-144, matrícula CCCP-68001, fue el primer avión civil supersónico del mundo. Todavía un prototipo, realizó su vuelo inaugural el 31 de diciembre de 1968 desde la base aérea de Zhukovsky (URSS), dos meses antes que el prototipo inicial del Concorde F-WTSS. La primera ruta comercial supersónica fue establecida con Tu-144 entre Moscú y Almá-Atá el 26 de diciembre de 1975, seguida por las del Concorde a partir del 21 de enero de 1976.

Último aterrizaje de un avión civil supersónico

Los últimos segundos de la historia del vuelo civil supersónico: el Concorde matrícula G-BOAF de British Airways aterriza en Filton (Reino Unido) a las 14:08 del 26 de noviembre de 2003, completando así el último viaje de este tipo de transporte hasta la actualidad.

Siempre se dice que es por el dinero. Sin embargo, varias líneas supersónicas resultaron ser rentables, al menos marginalmente. British Airways, por ejemplo, le sacaba veinte millones de libras anuales a sus vuelos Londres-Nueva York y Londres-Barbados en Concorde; y se dice que al final recuperaron mil setecientos millones en total frente a una inversión de mil millones. Ya en 1984, algunos medios afirmaban que el avión supersónico anglo-francés había logrado romper la barrera del beneficio (aunque Air France no se enteró mucho).

Pero las ganancias intangibles en forma de prestigio, desarrollo de tecnologías avanzadas y oportunidades empresariales fueron mucho mayores: se puede decir que difícilmente Airbus habría salido adelante si el Concorde no hubiese despegado jamás (sobre todo teniendo en cuenta el fracaso del Mercure y la precaria situación política que rodeaba al A300 en aquellos momentos). Fue el Concorde quien demostró que la cooperación intereuropea podía funcionar y crear grandes innovaciones frente a gigantes como Boeing; su emblemática silueta surcando los cielos fascinó a millones de personas, atrayendo incontables clientes a las compañías que los operaban y elevada reputación a sus países durante muchos años.

El Tu-144, aún más ambicioso (entre otras cosas, volaba significativamente más rápido y podía llevar más carga, aunque con menor alcance), estuvo plagado de problemas que limitaron enormemente su operación comercial y finalmente lo conducirían a una temprana cancelación. Sin embargo, las tecnologías derivadas permitieron a la URSS el desarrollo de grandes aviones supersónicos militares como el bombardero nuclear estratégico Tu-160, así como un número de avances de gran interés para otros aparatos militares, lanzadores espaciales mejorados en su tramo atmosférico y distintos tipos de misiles aéreos. Por no mencionar su reutilización como laboratorio volante para Rusia y la NASA norteamericana.

Por otra parte, los aparatos civiles supersónicos también se cobraron algunas vidas: 113 en el caso del Concorde (el único desastre de toda su carrera) y 16 en los dos accidentes del Tu-144 (los siniestros del Tupolev ocurrieron durante un vuelo de pruebas y otro de exhibición, con lo que el número de víctimas fue reducido).

Cabe reseñar aquí un dato frecuentemente olvidado a la hora de evaluar sus posibilidades: tanto el Concorde como el Tu-144 representaban la primera generación de aviones comerciales supersónicos (y última por el momento). En mi opinión, juzgar al transporte comercial supersónico por los resultados de estas dos aeronaves se parece mucho a juzgar las posibilidades de los aviones a reacción por los resultados del De Havilland Comet o el Avro Jetliner: una tragedia y un fracaso, respectivamente. Si después del Comet y el Avro no hubieran llegado el Tupolev Tu-104 (el primer avión comercial a reacción con éxito) o el Boeing 707, quizá ahora mismo pensaríamos que eso de los aviones a reacción es un fiasco. Y si el Tupolev Tu-124 no hubiera demostrado la eficacia de los turboventiladores frente a los turborreactores para limitar el consumo de combustible, igual hoy estaban también todos retirados del servicio por insostenibles económica y ecológicamente.

Pero detrás del Tu-144 y del Concorde no vino nadie; y por tanto nunca hubo una segunda generación de aviones comerciales supersónicos que superara los problemas y limitaciones de la primera, abriendo así la posibilidad de reducir significativamente los costes operacionales. La URSS retiró del servicio activo al Tu-144 debido a sus deficiencias, mientras British Airways y Air France operaban su reducida flota de Concordes casi como una reliquia de otros tiempos; lo que por supuesto encarecía enormemente el mantenimiento, no permitía reducir el coste por economía de escala y no dejaba beneficios que pudieran ser reinvertidos en I+D para esta segunda generación.

Cabina de pasajeros del Tu-144 y el Concorde

Cabina de pasajeros del Tu-144 (izda.) y el Concorde (dcha.)

Los Estados Unidos, por su parte, ni siquiera lograron construir un transporte civil supersónico de ninguna clase, ni bueno ni malo: tras años de trabajo y unas inversiones económicas que casi acaban con Boeing (junto a otras cancelaciones), el B-2707 fue descartado en 1971 a pesar de que ya tenía 115 pedidos de 25 aerolíneas. Es la época del famoso cartel pagado por los sindicatos que decía “por favor, la última persona en Seattle, que apague la luz”, en referencia a la catástrofe que esta cancelación representaba para el mercado laboral local.

¿Y por qué nunca hubo una segunda generación?

Sólo el Reino Unido, Francia, la URSS y los Estados Unidos (estos últimos en el ámbito exclusivamente militar) han sido capaces de crear aeronaves supersónicas pesadas, lo que ya nos da una idea de la enormidad del problema al que nos enfrentamos. La construcción de esta clase de aviones es una labor extremadamente difícil que exige importantes inversiones económicas y un plazo de tiempo suficiente para cometer errores y corregirlos antes de prometer alguna rentabilidad. En el estancado estado actual de la tecnología necesaria y con un mercado potencial tan inmaduro, por tanto, el riesgo empresarial es muy alto. Demasiado para que se sientan cómodos los accionistas de las empresas privadas, hoy en día dominantes en las actividades creativas y productivas de una mayoría de países. Digamos que ninguna de esas agencias de calificación que fallan más que una escopeta de feria –excepto cuando se dedican al negocio de la profecía autocumplida– concedería a esta inversión alguna “A”.

Tanto el Concorde como el Tu-144 fueron proyectos esencialmente estatales o de financiación estatal, al igual que el vuelo espacial, la energía nuclear o los de exploración y ciencia muy avanzadas, por poner otros ejemplos. Para la empresa privada, es muy difícil –cuando no directamente inviable– realizar semejantes inversiones, correr tales riesgos y además con un plazo indeterminado de rentabilización; a menos, claro, que disponga de acceso extensivo al dinero de todos garantizado por el estado. Conforme los modelos económicos sustentados fundamentalmente en la iniciativa privada, el crédito y la reducción del gasto público fueron ganando terreno a lo largo de las últimas décadas, toda una serie de desarrollos científico-técnicos entre los que se encuentra el transporte civil supersónico fueron alejándose cada vez más. No es sólo una cuestión de capitalización, sino también de riesgo, expectativas de los mercados y plazos de rentabilización.

Para ser justos, lo cierto es que las dificultades a las que se enfrenta quien pretenda desarrollar un transporte comercial supersónico son varias, y complejas; si yo fuera uno de esos inversores, no creo que me metiese sin ponderar mucho la cuestión. Pero mucho. La primera de estas dificultades está, por supuesto, en los motores. Desarrollar un motor para velocidades supersónicas que sea ecológicamente sostenible y económicamente competitivo (resumiendo mucho: que sea de moderado mantenimiento, gaste poco combustible y así de paso contamine poco) representa un desafío formidable. Adicionalmente, el diseño de un motor supersónico varía notablemente con respecto al de uno subsónico, con lo que una parte sustancial de la experiencia existente para mejorar la eficiencia en motores de aviación civil no resulta aplicable.

Cabinas de pilotaje del Tu-144 y el Concorde

Cabinas de pilotaje del Tu-144 (izda.) y el Concorde (dcha.)

No obstante, hay aproximaciones posibles. Una característica poco conocida de los motores supersónicos es que, aunque su consumo específico de combustible es mayor cuando operan a altas velocidades, en realidad son más eficientes que los motores subsónicos por kilómetro recorrido. Esto se debe a un hecho sencillo: sin tener en cuenta los demás condicionantes, podrían recorrer más distancia en menos tiempo, con lo que la cifra de litros por kilómetro debería ser mejor que en los subsónicos hasta bastante por encima de Mach 2. Dicho de una manera simplificada: aunque gastan más combustible por segundo, tienen que estar muchos menos segundos en el aire para completar el mismo viaje.

Sin embargo, en la práctica esto no ocurre así: las aeronaves supersónicas son enormemente tragonas en comparación con las subsónicas. El Concorde, por ejemplo, consumía hasta 166 mililitros de combustible por pasajero y kilómetro recorrido. Esta es una cifra sólo levemente superior a la de un jet privado subsónico de largo alcance como el G-550 (148 ml por pasajero y kilómetro), pero se halla a enorme distancia de los grandes jetliners intercontinentales: entre 26 y 44 ml, según las distintas fuentes, para modelos como el Airbus A330, el Boeing-747 o el Airbus A380. El abismo competitivo resulta, a todas luces, importante. Y sin embargo, el problema principal no está en los motores. El problema radica en lo que tienen que mover esos motores. Más técnicamente: en la aerodinámica general, en la resistencia aerodinámica en particular, en el rendimiento aerodinámico máximo (“lift-to-drag ratio”), el peso en vacío por pasajero, el coste extra de I+D y el coste de los materiales y procesos productivos especiales para la construcción del aparato, junto a otros asuntos menos técnicos pero también relevantes. Veámoslo.


Despegue del Tupolev Tu-144 con sus característicos
canards desplegados.

Fuerzas aerodinámicas básicas a velocidad subsónica y supersónica

Las fuerzas aerodinámicas básicas: peso, sustentación, empuje y resistencia. A velocidades supersónicas se reduce la sustentación y aumenta la resistencia, con lo que el empuje debe ser mucho mayor para mantener la altitud y velocidad.

Los desafíos de construir un avión supersónico.

El comportamiento aerodinámico de una nave supersónica resulta radicalmente distinto al de un aparato subsónico. En todo objeto que se mueva por dentro del aire, la fuerza de resistencia aerodinámica (que se opone al avance del aparato) es directamente proporcional al coeficiente de resistencia aerodinámica Cd, a la densidad del aire y al cuadrado de la velocidad. Esto significa que en cuanto la velocidad aumenta, la resistencia aerodinámica aumenta mucho más, lo que tiene el efecto de frenar el aparato (y, con ello, reducir la sustentación). Como esto es una ley física inevitable, los diseñadores de aviones muy rápidos tienen que jugar con los otros dos factores: la densidad del aire y el coeficiente de resistencia aerodinámica. Es decir, hay que crear un avión que vuele lo más alto posible (para reducir la densidad del aire circundante) y que tenga un coeficiente de resistencia aerodinámica lo más bajo posible. Esto obliga a darle una forma muy determinada y unas características muy específicas, que limitan el resto del diseño.

Lamentablemente, cuando el aparato se aproxima a la velocidad del sonido, surge otro fenómeno: la resistencia de onda. Entre Mach 0.8 y Mach 1.2, el coeficiente de resistencia aerodinámica Cd llega a multiplicarse por cuatro. Después, a velocidades claramente supersónicas, esta resistencia de onda desaparece y Cd es ya sólo un 30% a 50% más elevado que durante el vuelo subsónico. Sin embargo, este paso por la región transónica obliga a diseñar la aeronave con la potencia motriz y las características aerodinámicas necesarias para vencerla, aunque ambas sólo se vayan a usar durante unos momentos: de lo contrario, nunca lograría superarla. Tal exigencia constriñe aún más el diseño del aparato y sus motores.

A velocidades supersónicas, el rendimiento aerodinámico (lift to drag ratio) cae muy significativamente y con él la sustentación generada por las alas. Típicamente, a Mach 2 se reduce a la mitad: el Concorde, por ejemplo, presentaba un rendimiento aerodinámico de 7,14 mientras que el Boeing 747 lo tiene de 17. Esto obliga a diseñar unas alas muy especiales, con características muy distintas a las alas corrientes en los aviones subsónicos, que se comportan peor durante el vuelo a baja velocidad (sobre todo, en los despegues y aterrizajes); y, al mismo tiempo, hay que dotar al aparato de mayor empuje para que logre mantener su velocidad y altitud cuando está supersónico. O sea: más limitaciones al diseño y más potencia (y consumo) en los motores. Además, debido a todas estas razones el alcance queda reducido.

El vuelo a esas velocidades produce otro problema adicional: un enorme incremento de temperatura en las superficies y bordes de ataque por rozamiento y debido a la compresión adiabática del aire frente a la aeronave. Cuando volaba a Mach 2, el pico del Concorde se ponía a 127 ºC y el borde de ataque de las alas, a unos 105 ºC. En este rango de temperaturas, algunos materiales comúnmente usados en aviación por su coste y conveniencia como el aluminio comienzan a perder su templado y debilitarse. No ocurre de inmediato, pero sí con el uso. Por encima de estas temperaturas, hay que recurrir necesariamente a otros metales como el titanio, más pesados y con un coste mucho mayor. Como el Concorde estaba hecho con duraluminio, usando aleaciones de acero al titanio únicamente en algunos puntos, su velocidad efectiva quedaba limitada a Mach 2.02. El Tu-144, equipado con componentes de titanio en todas las zonas críticas, llegó a alcanzar Mach 2.26. Una curiosidad bastante famosa es que, debido a estas temperaturas, el Concorde se alargaba por dilatación hasta veinticinco centímetros; cosa que también hay que tener en cuenta durante el diseño.

Temperaturas estructurales del Concorde a Mach 2

Temperaturas estructurales del Concorde a Mach 2.

Otra peculiaridad menos conocida es que el color predominantemente blanco del Concorde y el Tu-144 no obedecía a una razón caprichosa: era para evitar el sobrecalentamiento adicional de la estructura en unos 10 ºC. Es decir, la misma razón por la que las casas suelen ser blancas en las regiones cálidas. Los aviones supersónicos pintados de negro por razones militares (como el SR-71 Blackbird) lo hacen a cambio de pagar una penalización térmica.

Estos regímenes térmicos obligan a una refrigeración adicional del avión y sus sistemas. El Concorde lo hacía utilizando el combustible almacenado en los depósitos y el Tu-144 mediante un sistema específico. Además, fuerzan a proteger las áreas interiores frontales –como la cabina de mandos– contra el calor. Como consecuencia de todo esto, las aeronaves supersónicas exigen diseños más afilados y estrechos, motores más potentes, sistemas adicionales de refrigeración y otras peculiaridades de diseño, lo que en su conjunto eleva el peso en vacío por asiento, antes incluso de considerar la carga de combustible. Es decir: hay que mover más avión para desplazar a un pasajero. En el Concorde, el peso en vacío por asiento era de 655 kg y en el Tu-144, de 607 (lo que daba al avión soviético una mejor capacidad de carga). Pero en aviones subsónicos, esta masa por asiento es muy inferior: 341 kg para el Boeing 747-400, 296 para el Airbus A380 y apenas 220 para el Airbus A321-200. Esto es: para transportar a un pasajero en Concorde hay que mover casi el triple de avión que para hacerlo en un Airbus A321. Eso, de manera prácticamente automática, significa que el coste va a ser como mínimo tres veces más caro.

En la práctica, un billete en Concorde de ida y vuelta para el vuelo Londres-Nueva York a finales de los años ’90 venía a estar en torno a los diez mil dólares, aunque a veces había ofertas y promociones (y en otras ocasiones te clavaban algo más). Eso equivale a unos trece o catorce mil dólares de hoy. En estos momentos, British Airways cobra exactamente eso mismo por un billete de primera clase en Boeing 747. Air France pide más de diez mil euros por el mismo viaje desde París en la première: casi quince mil dólares. Y se venden, al menos algunos, a pesar de que ahora cada vuelo dure siete u ocho horas en vez de tres. (Como curiosidad, el vuelo I/V Moscú-Almá Atá en business –no hay imperial para esa ruta– cuesta hoy unos 1.300 euros.)

Torpedo-cohete ruso VA-111 Shkval

Torpedo-cohete ruso VA-111 Shkval. Provisto con un sistema de supercavitación, que genera una capa de burbujas de aire a su alrededor y lo convierte en una especie de "avión submarino", puede alcanzar más de 370 km/h bajo el agua. Un sistema análogo para su uso en el aire, posiblemente usando tecnologías magnetohidrodinámicas, convertiría a un avión o un misil en una "nave espacial aérea" capaz de volar a velocidades hipersónicas.

Las dos soluciones hipotéticas para liberarse radicalmente de un buen número de estos problemas son un nuevo tipo de motor y/o combustible junto a una nueva aproximación aerodinámica. En este segundo caso, hay diversos estudios en curso en torno a la magnetohidrodinámica (que podría producir en el aire un fenómeno análogo a la supercavitación utilizada en el agua por el torpedo-cohete VA-111 Shkval); entre las instituciones que estudian esta cuestión se encuentran el Centro Marshall de la NASA (Estados Unidos), MBDA-France (antes Aerospatiale Matra Missiles, Francia), el Instituto de Investigación de Sistemas Hipersónicos (San Petersburgo, Rusia) y el Instituto de Investigación de Hidrodinámica Aplicada (NII-PGM, Rusia).

En Rusia, además, existe un proyecto de testbed tecnológico llamado Ayaks (Ajax), dependiente del Instituto de Investigación de Sistemas Hipersónicos y construido por Leninets. Se cree que saben cómo crear el efecto de “supercavitación aérea”, mediante el uso de unos inyectores de spray catalítico sobre un sistema de generación de ondas termohidrodinámicas (¡yeah!), pero aún no han logrado solventar el problema de control de flujo del mismo. El aparato iría propulsado por un cohete o un estatorreactor scramjet y alcanzaría el rango de Mach 6 a 10 en la primera fase y de 12 a 20 en la segunda sin necesidad de abandonar la estratosfera. Como ocurriera con el Shkval, es muy probable que su primera aplicación sea misilística.

El proyecto francés se llama PROMETHEE, y su sistema de propulsión PREPHA (un ramjet avanzado de modo doble y geometría variable). Está a cargo de MBDA-France (Chatillôn) y ONERA (Palaiseau), con fondos del Ministerio de Defensa. Públicamente, empezaron en 1999 y muy probablemente tengan estrechas relaciones con el proyecto ruso: se sabe que utilizan el concepto Ayaks. Su pimer objetivo es el Mach 12. Pratt&Whitney (EEUU) y Snecma (Francia) colaboran en tecnología de materiales. La fase de propulsión está muy avanzada, pero no se sabe cómo andan en el control de flujo magnetohidrodinámico que parece traer locos a los rusos (si es que no dependen de ellos para resolverlo).

En cuanto a los norteamericanos, es posible que se haya estado trabajando en un concepto del que el X-41, el X-43, el X-51 y el recientemente fallido HTV serían prototipos tecnológicos diseñados para operar a velocidades entre Mach 6 y 20. Su sistema de propulsión estaría constituido por diversos tipos de scramjet o cohetes y no parece utilizar el efecto magnetohidrodinámico inducido activamente del Ayaks o el PROMETHEE, sino aprovechar eficientemente el efecto que se produce de manera natural a velocidades superiores a Mach 7. Esto limitaría el concepto tecnológico a velocidades máximas en torno a Mach 15 o lo obligaría a permanecer fuera de la estratosfera. Los australianos tienen un proyecto llamado HyShot, conceptualmente similar al norteamericano. Vamos, que aproximaciones aerodinámicas revolucionarias no faltan… aunque, de momento, todas ellas están orientadas al uso militar.

Otro problema notorio de las aeronaves supersónicas (e hipersónicas, vaya) es el estampido sónico, que obligaba al Concorde a acelerar únicamente cuando ya se hallaba sobre el océano (con la consiguiente ralentización de las operaciones y también su encarecimiento, pues como ya hemos dicho los aviones supersónicos vuelan poco eficientemente por debajo de la velocidad del sonido). Este es asunto de mucha enjundia para las organizaciones ciudadanas y ecologistas, lo que se traduce en fuertes presiones políticas y termina convirtiéndose en otra cuestión técnica a resolver. La NASA ya ha logrado reducir este problema a la mitad, y se sabe que ciertas formas del fuselaje producen ondas sonoras que tienden a cancelarse entre sí, con el resultado de ocasionar un estampido mucho más leve o ninguno en absoluto. Finalmente, cabe considerar que los aviones supersónicos –por su propia sofisticación y singularidad tecnológica– son más costosos en general de desarrollar, construir, mantener y operar.


Concorde volando a velocidad supersónica y gran altitud sobre el mar.
Se puede distinguir el característico estampido doble.

¿Y entonces…?

Seguramente, tras leer todo este post estarás pensando –como he hecho yo muchas veces– que, eh, bueno… pues después de todo, esas empresas y estados tienen buenos motivos para no invertir en una segunda generación de transporte comercial supersónico. Ya te lo dije más arriba: así es, los tienen. Bajo la lógica económica actual, yo mismo pondría de patitas en la calle a quien se le ocurriera meter mi dinero en aventuras semejantes.

El problema es que, bajo esa lógica económica, nada tiene sentido a menos que proporcione un beneficio a corto plazo y venza los miedos de los siempre temerosos inversores. Si se hubiera trabajado pensando en la cuenta de resultados del próximo trimestre, seguiríamos anclados a principios del siglo XX y aparatos como un TAC serían pura ciencia-ficción. A ver si nos entendemos: yo no estoy proponiendo meter dinero público o privado a lo loco en la primera chaladura que se nos pase por la cabeza. Pero el extremo contrario, que es donde estamos ahora y además con visos de profundizarse, nos estanca. Si todo ha de ser rentable a pocos meses o años vista y razonablemente seguro, mientras al mismo tiempo se siguen recortando los presupuestos públicos en I+D, entonces los avances revolucionarios nos están vedados porque éstos son intrínsecamente impredecibles, inseguros y arriesgados. Y, a menudo, caros.

Sukhoi Gulfstream S21

Diseño conjunto de Sukhoi y Gulfstream para un jet privado supersónico totalmente exclusivo: el S-21.

Estoy tratando de imaginarme ahora mismo a Enrico Fermi y Léo Szilárd intentando convencer a un banco de inversiones de que es posible crear una cosa llamada reactor nuclear que producirá grandes cantidades de energía y puede que algún día llegue a ser rentable (cosa que sigue siendo dudosa). O a Sergei Korolev explicando a una empresa de capital-riesgo que necesita una montaña de dinero para –no se rían, señores, por favor– poner a un hombre en el espacio, mandar varias naves a Venus y quizás –en algún indeterminado futuro– lograr que todo eso tenga algún sentido económico. Tampoco parece muy probable que los inversores hagan cola en la puerta para financiar Grandes Observatorios, aceleradores de partículas, reactores de fusión, estaciones espaciales o en general ninguna de las ciencias y desarrollos de donde luego emergen las tecnologías que las empresas usarán. Ni tampoco aviones supersónicos de segunda generación. Y sin embargo, si no fuera por todo esto –que fue sentando y decantando las bases de la tecnología actual– a buenas horas estarías tú ahora leyéndome por Internet o gozando de medicina avanzada en los hospitales, entre otras mil cosas. La verdad, cada día tengo más la sensación de que este siglo XXI vive de las rentas del siglo XX… y que estas rentas se están agotando a toda velocidad.

Pero no será por falta de propuestas. En el tema que nos ocupa, ahí están –o estuvieron– prototipos experimentales como el Sukhoi-Gulfstream S-21, el Tupolev Tu-444, el Aerion SBJ o el QSST; todos ellos concebidos como jets privados (más que nada porque algunas personas muy ricas podrían estar dispuestas a pagar por esta clase extraordinaria de exclusividad) pero también con una función evidente como bancos de pruebas tecnológicos. Con dinero público, la NASA mantiene un pequeño programa de investigación llamado Quiet Spike, dirigido a reducir el estampido sónico; y antes de eso, mantuvo otro que equipaba Tu-144, pero fue cancelado en 1999. Hay incluso algunos proyectos más ambiciosos como el hipersónico A2 de Reaction Engines.

Aquí ya no estamos hablando de construir naves interplanetarias tripuladas ni nada por el estilo, sino de actualizar un tipo más rápido de avión que ya poseíamos hace cuarenta puñeteros años. Tampoco tengo claro que, en un mundo cada vez más globalizado, no exista un mercado (a medio plazo, eso sí) para reducir la duración de todos esos larguísimos viajes Londres-Nueva York, Nueva York-Tokyo, Los Angeles-Seúl, San Francisco-Tokio o Hongkong-Seúl, por no mencionar cosas como Nueva York-Singapur (el famoso vuelo SQ-21, actualmente operado mediante Airbus A340), Dubai-Los Angeles, Atlanta-Johannesburgo o Vancouver-Sydney. Estas son, respectivamente, algunas de las rutas intercontinentales más transitadas y más largas del mundo; que podrían ser mejoradas y abreviadas mediante una nueva generación de aviones supersónicos con alcance extendido (¡hasta haciendo escalas sería mucho más rápido!). ¿Realmente no hay público al que le vendría bien hacer Nueva York-Singapur en menos de ocho horas, en vez de las casi diecinueve actuales? (Sobre todo si tenemos en cuenta que este vuelo, por ejemplo, ya es íntegramente premium: sólo hay business, no dispone de asientos en clase económica). El chiste de todo esto es que aquí ni siquiera se propone una aventura revolucionaria, sino meramente actualizar, rentabilizar y hacer económica y ecológicamente sostenible algo que ya existe hace décadas, que operó durante largos años y que se usa con normalidad en el ámbito militar. Pues ni por esas, oiga.

Aeropuerto de "París-Disney".

Aeropuerto de "París-Disney". ¿Dónde está París? ¿Y Eurodisney? Yo te lo diré: a 150 y 176 km, respectivamente. Estamos en medio del campo, entre Reims y Troyes.

Es que el mantra en el mundo de la aviación, ahora mismo, es low cost. Pero low cost a saco matraco, al centimeo mezquino y navajero. Desde bastante antes de que llegara la crisis, se viene diciendo que el público lo que quiere es pagar menos aunque vuele más incómodo, más despacio y entre aeropuertos remotos con nombres que dan risa como Londres-Stansted (que podría llamarse Cambridge-Sur: está más cerca), París-Disney (más exactamente, Reims-Sur o Troyes-Norte), Fráncfort-Hahn (que también podríamos denominar Luxemburgo-Este) y el cachondísimo Düsseldorf-Weeze (más bien Eindhoven-Weeze o Arnhem-Weeze, ¿por qué no?). Si tal cosa es cierta aunque sea sin llegar a esos extremos, y según algunos números parece que sí, desde luego no queda espacio ninguno para fomentar avances revolucionarios desde el ámbito privado. (Por cierto: en último término, ¿hasta dónde se puede seguir abaratando costes?)

Otra afirmación común es que los trenes de alta velocidad asfixian al sector aéreo. Pero esto sólo vale para las rutas regionales, por debajo de quinientos o como mucho mil kilómetros (y, por cierto, demuestra que la gente paga dinero por viajar más rápido mientras la diferencia no sea desmesurada). Las propuestas de transporte supersónico se ven tan afectadas por estos ferrocarriles como el superjumbo A380: nada en absoluto. Estos tipos de aeronaves son para largas distancias, no para vuelo regional.

Finalmente, podríamos citar como desmotivador definitivo la crisis generalizada del sector aéreo, que no está para aventuras de ninguna clase. Si el colapso de Pan Am en 1991 y la lenta agonía de TWA entre 1992 y 2001 ya representaron un cambio radical de modelo (mis lectores con alguna veteranía recordarán que esas compañías eran enormes, “las alas de los Estados Unidos”), a lo largo de la última década han quebrado aerolíneas emblemáticas a porrillo: Sabena (2001); Swissair (conocida como “el banco volante” por su tradicional fortaleza financiera, en 2002); United Airlines (2002, fusionada posterioremente con Continental); US Airways (2004, fusionada con la también quebrada America West); Alitalia (2009); Mexicana de Aviación (2010); Japan Airlines (2010) o la compleja doble bancarrota y fusión de Northwest y Delta (2005-2010). Todo esto sin mencionar a cientos de compañías pequeñas y medianas. El mal no acaba ahí: actualmente, varios monstruos de la industria aérea anuncian grandes pérdidas. Por ejemplo: British Airways (casi 13.000 millones de euros de pérdidas en 2009-2010), Air France-KLM (1.550 millones de euros) o Delta (1.240 millones de dólares).

Más allá de la crisis económica occidental, los factores que afectan a esta crisis de la industria aérea son complejos y profundos. Muchas veces se achaca la culpa a los atentados del 11-S, pero eso es una simpleza: tuvo su influencia, y su influencia ya pasó. Los problemas de este sector vienen de antes y se han ido ahondando con el paso de los años, en forma de ciclos de expansión y contracción que se remontan a los inicios de la desregulación.

Tabla de horarios y precios para el Concorde en torno a 1980

Tabla de horarios y precios para el Concorde, en torno a 1980.

El incremento de los precios del combustible a partir de la crisis de 1973 y sobre todo en el periodo 2003-2008 suele citarse como el elemento de mayor importancia. Veámoslo. En 1970, un barril de petróleo costaba 3,18 dólares, que en dólares ajustados a la inflación para 2010 equivale a $8,43. Ayer sábado, el Brent Spot se cotizaba a $82,35. Bien, ciertamente es un incremento enorme: unas diez veces más. El incremento del precio del petróleo no es algo que vaya a detenerse con facilidad, por lo que cabría plantearse el problema desde el otro lado: desarrollar sistemas de propulsión que consuman mucho menos. Sin embargo, el consumo específico de los motores de aviación apenas ha descendido en estos treinta años. Uno de los primeros turboventiladores de alto índice de derivación, el CF6-6D fabricado en 1971 por General Electric para el DC-10 original, tenía un consumo específico de 0,624 lb/lbf h en vuelo de crucero . Del mismo fabricante, el GE90-85B de 1995 para el Boeing 777 presenta un consumo específico en crucero de 0,52 lb/lbf h: apenas un 20% mejor, casi un cuarto de siglo después. Motores de reciente desarrollo como el GEnx o el Trent 1000 aseguran mejorar el consumo en “un 15%” sobre la generación precedente. Evidentemente, ninguna de estas cifras se acerca ni remotamente a compensar el incremento de los costes de combustible en este mismo periodo. La industria aérea necesita con urgencia un avance revolucionario en sistemas de propulsión si quiere regresar a algo siquiera remotamente parecido a los “buenos tiempos”.

Ya dijimos que existe otra forma de combatir contra estos costes del combustible: las mejoras aerodinámicas. Como vimos más arriba, cuanto mejor sea la aerodinámica de una aeronave, menor es su resistencia al avance y menor será su consumo total. Por ejemplo: determinadas formas de las wingtips (esas aletitas que hay en la punta de las alas) reducen el consumo total entre en un 3,5 y un 5,5%. Ciertas modificaciones en las góndolas de los motores hacen lo propio, y así con todo. Sin embargo, de nuevo, las cifras son enormemente inferiores a lo necesario para compensar el incremento de los precios del combustible. Sin avances revolucionarios en aerodinámica, como los explicados para el desarrollo del vuelo hipersónico u otros análogos, la industria aérea tampoco hallará ninguna forma de minimizar el impacto de estos precios.

El conjunto de los costes operacionales, y no sólo el del combustible, se mencionan como otros factores coadyuvantes a la crisis del sector aeronáutico. Sin embargo, estos costes ya están extremadamente estirados a la baja, con las conocidas consecuencias laborales y sociales. Preguntaba arriba cuánto más se pueden rebajar. El de Ryanair habla de quitar al copiloto y no hace mucho sugerían la posibilidad de embutir pasajeros de pie como en un autobús en hora punta. Sin llegar a estos extremos, toda la industria del aire trabaja en un estrechísimo margen que cualquier novedad desafortunada puede tirar por tierra. Para disponer de márgenes más amplios, se necesitan más avances revolucionarios en automatización, economía de materiales y nuevos materiales para la construcción de piezas y repuestos, mil cosas.

En el contexto presente de crisis internacional, con la consiguiente reducción de la demanda (especialmente de la demanda premium) y una fuerte presión para bajar precios, las únicas soluciones que se proponen a las compañías aéreas son la reducción de costes y la reducción de capacidad. Es decir: hacerse más pequeñas y baratas, menos potentes. Esto es muy realista en la lógica económica presente, pero también un circulo vicioso. En ausencia de milagritos del tipo de un repentino periodo de expansión económica unido a un descenso radical del precio de los combustibles (una combinación extremadamente improbable: si la economía se recuperara con fuerza, es de suponer que el precio de los combustibles lo haría también), se trata de una senda que conduce a la decadencia.

Avión hipersónico Reaction Engines A2

Proyecto de avión hipersónico A2 de Reaction Engines.

Y sin embargo, todas estas cosas –avances radicales en la propulsión, en la aerodinámica, en materiales, en procesos fabriles, en mantenimiento, en automatización, en tecnologías aeroportuarias y de control de tráfico aéreo– son exactamente las mismas cosas que permitirían una segunda generación de aviones supersónicos. La posibilidad de construir nuevos aviones supersónicos y el despegue del sector aeronáutico más allá del estancamiento presente constituyen dos caras de la misma moneda, con los evidentes beneficios –también– para la clientela. Tiendo a pensar que un programa Apolo para la creación de nuevas aeronaves comerciales más rápidas que el sonido constituye una de las pocas posibilidades que permitirían el desarrollo rápido de estas tecnologías aunque fracasara.

Sin un revulsivo de ese o similar alcance, algo parecido al surgimiento del reactor, me cuesta imaginarme a la aviación saliendo de su estancamiento actual. Esta es la situación exacta en que o una industria encuentra la manera de reinventarse a sí misma, o está condenada a languidecer lentamente entre miserias y estrecheces cada vez mayores hasta su reducción a unos nichos irrelevantes. O el sector aeronáutico halla maneras de desarrollar tecnologías radicalmente nuevas con recursos públicos o privados como hacía en el pasado, que le permitan recuperar un amplio margen de acción, o ahí se queda y ya nunca volverá a despegar por mucho coste y capacidad que reduzca. Así, al menos, opino yo; el tiempo me dará o me quitará la razón.

Tu-144 y Concorde en Simshein

Un Tu-144 (CCCP-77112) y un Concorde (F-BVFE) en el Auto & Technik Museum Sinsheim, Alemania. Hubo un tiempo, cada vez más remoto, en que estas dos naves supersónicas surcaban los cielos a la vez.

135 Comentarios Trackbacks / Pingbacks (13)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (99 votos, media: 4,88 de 5)
Loading ... Loading ...
Be Sociable, Share!

« Entradas anteriores Página siguiente » Página siguiente »