Archivo de Historia y cultura

Tina en el bosque de Charnia, la vida que no podía existir

El enigma del Bosque de Charnwood.

Soto de Swithland, Bosque de Charnwood (Leicestershire, UK.)

El soto de Swithland, parte del bosque de Charnwood (Leicestershire, Reino Unido.) Fue en una cantera situada en este bosque donde primero Tina Negus y luego Roger Mason, ambos de 15 años, se encontraron con algo que según el mundo entero no podía existir. Imagen: Wikimedia Commons.

Cuando era niña, Tina Negus (Reino Unido, 1941) le tomó gusto a eso de los fósiles. Es que en aquella época no había videojuegos, ni móviles, y ni siquiera muchas teles. Así que los críos salían a la calle a jugar y hacían sus travesuras, como meterse en sitios que a sus padres no les gustaban. Según sus propias palabras, Tina se aficionó jugando “ilícitamente” (vamos, que si en casa se llegan a enterar, seguramente se habría llevado una buena azotaina como era corriente por aquella época) en una cantera abandonada próxima a su domicilio en Gratham, Lincolnshire. Ahí había un montón de fósiles de amonites, belemnites y cosas así fijados a sus calizas azules del entonces llamado Liásico Superior, que desde chiquitaja cautivaron su imaginación.

Tina Negus buscando fósiles, cuando era adolescente.

Una Tina Negus adolescente buscando fósiles cerca de su casa allá por la primera mitad de los años ’50 del pasado siglo. Foto: Propiedad de Tina Negus vía trowelblazers.com

Puesto que también faltaba bastante para que inventasen Internet, y Tina era muy curiosa, su afición le llevó a la biblioteca pública local. Ahí leyó un montón de cosas sobre geología, biología, paleontología y esos rollos de científicos. El caso es que conforme se adentraba en la adolescencia, acabó bastante enterada de estos temas. Y a principios del verano de sus quince años, Tina pidió a sus padres que la llevaran al cercano Bosque de Charnwood. Ya habían estado varias veces, pero esta vez Tina no deseaba simplemente hacer picnic en un lugar hermoso como ese. En la biblioteca había leído un ensayo sobre su geología y le llamó la atención que existiese una cantera con depósitos de ceniza volcánica surgida bajo el mar, cuando aquello fue un mar. Eso era algo que Tina nunca había visto y, como además conocía muchos de los lugares mencionados gracias a las excursiones anteriores, se motivó. Así que copió todos los mapas del ensayo a mano –tampoco había fotocopiadoras– y con la excusa de ir a recolectar arándanos, convenció a sus sufridos padres de que la llevasen otra vez en junio o principios de julio de 1956; no recuerda bien la fecha exacta. Pero tuvo que ser por ahí, porque los arándanos todavía no estaban maduros.

Y para el Bosque de Charnwood marcharon. En cuanto pudo, Tina se metió por el camino de cabras que conducía a la cantera en cuestión. Durante un buen rato, se quedó flipada con aquellas rocas de color gris oscuro y tono verdeazulado, como era su gusto. Entonces sus ojos cayeron sobre algo más: uno de sus amados fósiles. Parecía una especie de hoja de helecho fosilizada, sin nervio central, sino con sus foliolos dispuestos como en zigzag. Pero había un pequeño problema. Según sus mapas y notas copiados tan cuidadosamente, la piedra donde se hallaba el fósil era precámbrica. Y todos los libros gordos y los grandes sabios y sus profesores y el mundo entero afirmaban taxativamente que la vida compleja apareció en el Cámbrico, o sea después. Aquel fósil que tenía ante sus ojos no tenía el menor derecho a existir. Faltaría más. Una forma de vida compleja antes del Cámbrico, y encima con aspecto de planta terrestre, ¡menuda idiotez!

Fósil índice de Charnia Masoni en el New Walk Museum & Art Gallery de Leicester, UK.

El fósil índice de Charnia en su roca precámbrica que observó Tina, con unos 580 millones de años de antigüedad, actualmente expuesto en el New Walk Museum & Art Gallery de Leicester, Inglaterra. Cuando Tina reparó en él, todo el mundo daba por sentado que la vida pluricelular compleja se originó en el Cámbrico, decenas de millones de años después, y esto simplemente no podía existir. Imagen: Wikimedia Commons. (Clic para ampliar)

Sólo que aquella especie de fronda estaba allí, casi mirando desafiantemente a Tina desde la profundidad del tiempo. Mucho, mucho tiempo: bastante más de medio millar de millones de años. Cuando aquel ser estuvo vivo, los días sólo duraban 22 horas y los años tenían 400 días divididos en 13 meses. El Sol y la Tierra estaban en otro lugar de la galaxia y las estrellas nocturnas eran completamente distintas de las actuales. El oxígeno todavía estaba acumulándose en el aire. Aquel bosque y aquella cantera estaban muy cerquita del Polo Sur, en el fondo de un superocéano al que ahora llamamos Panthalassa, que bañaba las costas extrañas de un único supercontinente hoy denominado Pannotia. Y dijeran lo que dijesen los libros gordos, los grandes sabios, sus profes y el mundo entero, el fósil imposible de Tina llevaba ahí desde entonces.

Tina hizo lo que hacen los buenos científicos. Como faltaban muchas décadas para que una chavala de 15 años pudiera tener un móvil con su cámara de nosecuántos megapíxeles, primero se limitó a no tocar nada. Al día siguiente, en el colegio, se acercó a su profesora de geografía para contarle que había encontrado un fósil en una roca precámbrica. La profe contestó al instante: “No hay fósiles en las rocas precámbricas.” Tina le dijo que ya lo sabía, pero ella lo había visto con sus propios ojos. Sin ni siquiera mirarla, la profe replicó: “¡Pues entonces no será una roca precámbrica!” Tina insistió: ese fósil estaba en una roca precámbrica. Su profe repitió: “Ya te he dicho que no hay fósiles en las rocas precámbricas.” Y completado así el círculo, se marchó dejándola con la palabra en la boca.

Pero Tina, a fuer de curiosa, era cabezona. Pidió una vez más a sus padres que la llevaran de nuevo al lugar. Y esta vez, un poquito obcecada, no tuvo una idea tan buena: se llevó el martillo de minero de papá. Contaremos en su defensa que seguía teniendo quince años y necesitaba saber qué era aquella cosa. Y también que tuvo el buen juicio de no dar un solo golpe cerca del fósil. Lo que intentaba era sacar el trozo de roca entero, fósil incluido, pero intacto. Por fortuna, al poco rato descubrió que aquella piedra era demasiado dura y sus martillazos apenas tenían algún efecto. Ya a la desesperada, la buena científica volvió a su sesera adolescente. Ese día les acompañaba su abuelo, que siempre llevaba encima un bloc de notas con su correspondiente lapicero. Tina le pidió un par de hojas, el lápiz, y sacó un calco del fósil como los científicos verdaderos. Con él se fue al museo local, para intentar compararlo con las piezas que tenían allí, sin ningún éxito. Repasó todos los libros de geología y paleontología a los que pudo poner las manos encima. Nada. Finalmente se cansó y, desilusionada, guardó el calco en su carpeta.

Aún intentó un último viaje al Bosque de Charnwood hacia finales del año siguiente, 1957. Entonces descubrió, para su horror, que su fósil ya no estaba. Ni el fósil ni la roca. En su lugar había marcas de agujeros de perforación y las herramientas que habían usado para extraerla. Lo único que la consoló fue que, a juicio de sus familiares, parecía un trabajo profesional y no la barbarie de algún vándalo. Supusieron que el fósil de Tina habría pasado a formar parte de la colección de alguien. Así quedó la cosa.

Aunque Tina no se olvidó de él. En 1961 se graduó en zoología, botánica y geografía en la Universidad de Reading, especializándose en zoología. Luego estuvo dos años investigando la ecología de los mejillones de agua dulce. En ese periodo, la universidad organizó un viaje al famoso Museo de Historia Natural de Londres, con sus casi 80 millones de especímenes. Tina pensó que quizá ahí encontraría la respuesta a aquel misterio de su adolescencia. Se lo repasó entero, sala por sala y era geológica por era geológica, buscando alguna pieza que coincidiera con su fósil… sin encontrar nada. Cabezota, escribió a casa para que le mandaran aquellos calcos que tomó con el bloc y el lápiz del abuelo. En cuanto los recibió, se presentó en el Departamento de Geología de su universidad a preguntar si alguien tenía alguna idea de qué demonios podía ser aquello. Al principio la miraron raro, pero entonces alguien recordó algo y le mostró un paper recién publicado por un cierto doctor Trevor Ford, de la Universidad de Leicester.

El título era, ni más ni menos, Fósiles precámbricos del bosque de Charnwood. ¡Y allí estaba el suyo! Se trataba de un descubrimiento revolucionario: ni más ni menos que uno de los dos primeros ejemplares confirmados de la biota ediacárica, formas de vida complejas decenas de millones de años más antiguas que lo asegurado por los libros gordos, los grandes sabios, los profesores y el mundo en general hasta entonces. Tina siempre tuvo razón: su fósil era un ser complejo anterior al Cámbrico y ahora se llamaba Charnia masoni, con unos 580 millones de años de antigüedad.

Molde e impresión artística de Charnia masoni.

Arriba: Molde del holotipo de Charnia masoni. Abajo: Impresión artística de cómo pudo ser cuando vivía fijada a los fondos del superocéano Panthalassa precámbrico. Imágenes: Wikimedia Commons / Andy Kerr (Clic para ampliar)

Roger Mason, descubridor oficial de Charnia masoni, a los 15 años.

Roger Mason, también de 15 años, con el primitivo equipo de escalada que usaba cuando observó a Charnia en la cantera del Bosque de Charnwood. A diferencia de la familia de Tina, su padre conocía al Dr. Trevor D. Ford del Departamento de Geología de la Universidad de Leicester y llamó su atención sobre el descubrimiento. A partir de ahí se confirmó que lo imposible era posible. Foto: © Leicester Mercury, 1957. (Clic para ampliar)

Lo de masoni era por otro chaval de 15 años, Roger Mason, igualmente aficionado a los fósiles. Un año después de que Tina lo observara por primera vez, Roger fue a practicar escalada con sus colegas a la cantera en cuestión y reparó en su extrañeza igual que Tina. Pero a diferencia de Tina, la familia de Roger tenía vinculación con el mundo académico y así su redescubrimiento llegó rápidamente a oídos del Dr. Trevor D. Ford.

El Dr. Ford se mostró escéptico al principio, pero accedió a ir a echar un vistazo y quedó atónito. E inmediatamente pasó a la acción. Así pues, el fósil no había sido retirado de la cantera por ningún coleccionista, sino por un equipo de la Universidad de Leicester dirigido por el Dr. Ford. De ahí que el trabajo fuese tan profesional. Y además del Charnia masoni también habían extraído otro fósil precámbrico, el Charniodiscus concentricus, con una forma circular que también había llamado la atención de Tina pero no le dio mayor importancia. Actualmente se encuentran en el New Walk Museum & Art Gallery de Leicester como los primeros especímenes confirmados de que la vida compleja fue posible antes de que fuese posible la vida compleja. Tina y Roger acababan de descubrir –o demostrar, como ahora veremos– un ámbito completo de la vida que existió durante decenas de millones de años, llamado la biota ediacárica.  Moraleja: mientras sigas el método científico –y eso vale para todo o casi todo en esta vida, no sólo para las “cosas científicas”– nunca te fíes excesivamente de los libros gordos, los grandes sabios, los profesores, el mundo en general y los adultos en particular. Ser más viejos no nos hace ni más inteligentes ni necesariamente más sabios y a veces somos unos cretinos bastante soberbios. Unos idiotas, vamos.

La biota ediacárica.

Charnia masoni y Charniodiscus concentricus sólo son dos ejemplos de una vasta vida marina compuesta por seres pluricelulares complejos que aparecieron poco después de la descongelación del periodo Criogénico (sobre todo a partir de la llamada explosión de Avalon) y comenzaron a difuminarse poco antes de principios del Cámbrico; es decir, coincidiendo a grandes rasgos con el periodo ediacárico (hace entre 635 y 542 millones de años.) Con alguna excepción que luego veremos, fueron los primeros seres complejos que aparecieron y perduraron largo tiempo sobre la faz de este planeta. Algún autor objeta al uso de la expresión biota ediacárica como si fuesen seres aparte del proceso evolutivo global de la vida terrestre y prefiere restringir el término a la mera datación estratigráfica. Sea como fuere, muchos de estos seres presentan características que los distinguen de la vida que seguimos adelante a partir de la explosión cámbrica.

Hay que reseñar que Tina, Roger y el Dr. Ford no fueron los primeros en darse cuenta de que algo raro pasaba con la supuestamente imposible vida compleja precámbrica. De hecho, el Ediacárico toma su nombre de las colinas de Ediacara, al Sur de Australia. Ahí fue donde en 1946 el geólogo Reg Sprigg encontró unas ciertas “medusas” en un yacimiento que parecía muy anterior al Cámbrico. Tampoco él había sido el primero. Ya en 1868, el escocés Alexander Murray había hallado fósiles de Aspidella terranovica en eso, Terranova, por debajo del entonces denominado “estrato primordial.” En 1933, el alemán Georg Gürich se topó con fósiles de Rangea schneiderhoehoni en la Formación Nama de la actual Namibia, donde también han aparecido restos de Ausia fenestrata. Pero como la creencia en que la vida compleja surgió a partir del Cámbrico estaba tan firmemente establecida, estos hallazgos se disputaron por todas las vías: que si la datación de los estratos no estaba clara, que si había habido contaminación de las muestras, que si en realidad no eran fósiles sino formaciones minerales curiosas, etcétera. Lo habitual en estos casos.

Fondo marino de Ediacara en el Precámbrico.

Impresión artística del fondo marino precámbrico que hoy en día son las colinas de Ediacara, Australia, que dan nombre al periodo ediacárico. Imagen: Wikimedia Commons. (Clic para ampliar)

La importancia del descubrimiento de Tina, Roger y el Dr. Ford radica en que fue un auténtico manotazo que tiró todas estas objeciones por la borda. La geología de las Midlands británicas está extremadamente bien documentada y datada, el fósil permanecía prístino en su roca precámbrica y claramente Charnia masoni fue alguna clase de ser vivo, se ponga como se ponga quien se ponga. Qué clase de ser vivo es cuestión aparte. La biota ediacárica es tan distinta de lo habitualmente conocido y tan diversa –se han encontrado muchísimos seres más, a cuál más peculiar– que se sigue discutiendo qué son exactamente. Para ser más rigurosos, cuál es su clasificación taxonómica. Distintos especialistas han intentado encuadrarla prácticamente en todas las categorías, desde los cnidarios (o sea, animales) y los metazoos basales hasta las algas, los hongos, los líquenes, los protistas gigantes (al estilo de los Xenophyophorea), los organismos coloniales e incluso en su propio filo o reino aparte. Actualmente se tiende a pensar que fueron alguna clase de metazoos, o sea animales, pero sumamente difíciles de emparentar con quienes vinimos después.

Dendrogramma enigmatica.

Dendrogramma enigmatica. La muestra fue recogida en 1986 a entre 400 y 1.000 metros de profundidad en el talud continental del Estrecho de Bass que separa Australia de Tasmania. En 2014 fue identificada, o más bien “no-identificada”, como una especie animal sin relación taxonómica aparente alguna con ninguna otra conocida pero presentando similitudes con algunos medusoides ediacáricos. (Just, J.; Kristensen, R. M.; Olesen, J.: “Dendrogramma, New Genus, with Two New Non-Bilaterian Species from the Marine Bathyal of Southeastern Australia (Animalia, Metazoa incertae sedis) – with Similarities to Some Medusoids from the Precambrian Ediacara.” PLoS One, 3 de septiembre de 2014; 9(9):e102976. doi: 10.1371/journal.pone.0102976. eCollection 2014.) (Clic para ampliar.)

En suma, que ni puñetera idea. Para acabar de arreglarlo, en 2014 se identificaron unos bichitos marinos en forma de seta llamados Dendrogramma que parecen compartir algunas características con seres ediacáricos como Albumares brunsae, Anfesta stankovskii y Rugoconites. Aunque se les ha ubicado en el reino animal, tampoco saben muy bien dónde más colocarlos en el “árbol de la vida.” El nombre se les puso por la disposición de sus canales digestivos, que recuerdan a un dendrograma… y punto. Así que por el momento son los únicos miembros de la familia… eso, Dendrogrammatidae. Para todo lo demás, son incertae sedis, o sea que quién sabe. Van a intentar secuenciarles el ADN, a ver si nos enteramos de algo más. Encuentro de lo más acertado el “apellido” que le han adjudicado a uno de ellos: Dendrogramma enigmatica, porque representan un auténtico enigma. Y eso que estamos hablando de seres perfectamente existentes hoy en día y que podemos estudiar (y están estudiando) con todo detalle. Ahora imagínate la pesadilla de catalogar a unos seres todavía más enigmáticos, quizá emparentados con estos o quizá no, que desaparecieron hace como medio millar de millones de años dejándonos sólo un puñado de fósiles.

Como te decía, la biota ediacárica parece presentar una serie de características distintivas comunes, o eso nos parece con el material que ha quedado para trabajar. Para empezar, fueron todos seres marinos, entre otras cosas porque –con permiso de estas personas– en la tierra y el aire no había aún ningún ser vivo complejo. Pero no, no es sólo por eso: todos los fósiles han aparecido en estratos que permanecieron sumergidos durante el Ediacárico, aunque exista alguna opinión divergente. Y además bastante sumergidos, por debajo de la zona fótica (o sea, la capa del mar que puede atravesar la luz solar), así que no pudieron usar la fotosíntesis. Pueden presentar casi cualquier clase de simetría, incluyendo simetría bilateral como nosotros, o ninguna.

Algunos como Funisia dorothea pudieron reproducirse sexualmente. Dado que en su época los depredadores macroscópicos aún no existían, la respetable agencia Reuters calificó su existencia como muy agradable, imaginando que hubiesen dispuesto de un sistema nervioso capaz de apreciarlo: ningún depredador, mucho sexo. Pero creemos que la mayor parte eran asexuados; a cambio, algunos de estos últimos se reproducían de maneras francamente sofisticadas. También se ganaban la vida con gran facilidad: en su mayor parte debían ser seres sésiles, o sea que se fijaban al fondo para alimentarse del tapete microbiano subyacente o, mediante filtración, de cualquier cosa alimenticia que les pasara a través. Un lugar tranquilo para vivir, esos mares precámbricos. No obstante, Guy Narbonne opina que diversas características propias de los animales modernos fueron apareciendo en esta biota a lo largo del Ediacárico, como la movilidad (hace más de 555 millones de años), la calcificación (550 millones de años) y finalmente el comportamiento depredador (hace menos de 549 millones de años, ya aproximándose al Cámbrico.)

Cloudina carinata, fósil ediacárico terminal hallado en Extremadura.

Cloudina carinata del Ediacárico terminal (hace unos 540 millones de años) con exoesqueleto mineralizado, hallada en las dolomías del anticlinal del Ibor-Guadalupe, Extremadura. Foto: Geoparque Villuercas-Ibores-Jara.

La misma extinción de la biota ediacárica es objeto de debate. No estamos seguros de cuándo y como se marcharon estos seres exactamente. Parece que aunque la inmensa mayoría ya se habían esfumado antes de que comenzara el Cámbrico, algunas comunidades pudieron pervivir hasta el Cámbrico Medio. Y no tenemos claro si fue una extinción rápida por sus propias razones, una sustitución al ser desplazados por los seres cámbricos o lo que llaman un modelo del gato de Cheshire, en el que la progresiva desaparición de los tapices microbianos del fondo marino precámbrico los habría ido haciendo desaparecer hasta que finalmente no quedó ninguno. Se discute también hasta qué punto constituyeron un verdadero ecosistema en el sentido moderno del término; es decir, si interactuaban más o menos entre sí o cada uno estaba ahí fijado a su trocito de tapiz microbiano cual percebe a la roca ignorando por completo lo que hubiera a su alrededor. Si como dice Narbonne desarrollaron comportamientos como el movimiento y la depredación, algo de ecosistema tuvieron que tener.

Por cierto que estos seres no han aparecido únicamente en esos países donde hablan raro. Cerca de Villarta de los Montes (Badajoz)  científicos de la Facultad de Ciencias de la Universidad de Extremadura han hallado una estupenda colección de fósiles ediacáricos terminales que incluyen Cloudinas –el primer metazoo conocido con un esqueleto externo–, Sinotubulites, Namacalathus y algo que se parece a las Protolagena. Si te interesa el tema, puedes preguntar en el Geoparque de Villuercas – Ibores – Jara. Por su parte, Rusia, Ucrania, Canadá y China están plagadas. Esa vida que no podía existir estuvo repartida por todas partes durante millones de años, ahora ya sólo esperando a que un par de quinceañeros curiosos con la mirada limpia y la cabeza despejada se fijasen bien.

Cada vez más vida, cada vez más pronto.

Y es que como creo que ya te he contado varias veces, cuanto más sabemos, vemos que antes apareció la vida en la Tierra. Y la vida pluricelular también, como apunté en este otro excelente sitio.

Fósil francevillense

Uno de los fósiles francevillenses con 2.100 millones de años de antigüedad. Literalmente, no sabemos lo que fue. Pero fue. Imagen: Wikimedia Commons. (Clic para ampliar)

Pero es que incluso todo esto comienza a quedarse algo obsoleto. Ahora mismo vamos teniendo dudas de que la biota ediacárica represente la primera vez que surgieron seres complejos en este planeta. Hoy tengo el gusto de presentarte también a la biota francevillense, con… ¡2.100 millones de años de antigüedad! A ver si nos entendemos tú y yo, compi: dos mil cien millones de años es más de la séptima parte de la edad del universo. Hace 2.100 megas de años, el Sol brillaba casi un 20% menos que ahora, los años tenían 465 días divididos en 14 meses y medio y apenas comenzaba a haber oxígeno libre. El maldito uranio todavía era lo bastante rico como para encender un reactor nuclear natural con agua corriente 400 millones de años después (los materiales radiactivos van decayendo con el paso del tiempo.) Y de hecho lo hizo muy cerca de ahí, en Oklo (Gabón), a pocos kilómetros de Franceville. Por eso a la biota francevillense también se le llama gaboniontes: tanto Oklo como Franceville están en Gabón. Francia extrae uranio para sus reactores nucleares en el sector.

Sabemos todavía muy, muy poco de estos gaboniontes. Pero, al igual que pasó con Charnia, ahí están: fósiles circulares y elipsoidales de hasta doce centímetros, muy probablemente pluricelulares. En realidad, la vida pluricelular ha evolucionado al menos 25 veces independientemente en la historia de la Tierra, desapareciendo a continuación en la mayoría de las ocasiones. Lo que ya no es tan normal es que evolucione hasta crear seres macroscópicos tridimensionales de 12 centímetros. Y sin embargo, en el delta de un olvidado río paleoproterozoico, seguramente bajo una columna de agua con algo de oxígeno disuelto, estos bichos –no hay ninguna otra condenada manera de clasificarlos hoy por hoy– medraron durante una larga temporada antes de dejarnos sus fósiles en la pirita del lugar. Así que la biota ediacárica pudo no ser la primera vez que aparecieron seres complejos macroscópicos en este planeta. La biota francevillense, aunque seguramente mucho más simple, pudo adelantárseles en un millar y medio de millones de años o así.

Tina Negus y Roger Mason

Tina Negus y Roger Mason en la actualidad. Ahora ya no son ningunos quinceañeros, pero siguen haciendo lo que siempre amaron: Tina fotografiando aves y Roger con un yacimiento precámbrico a la espalda. Fotos: Birdnote Team / The Thought Stash

¿Y qué pasó al final con los protas humanos de esta historia? Bueno, pues como ya sabemos Tina se hizo zoóloga, y además poetisa, fotógrafa y pintora; ahora, ya jubilada, sigue dedicándose a esto último. Roger, el otro quinceañero que redescubrió definitivamente a Charnia, acabó siendo profesor universitario de geología y aunque jubilado también, continúa colaborando con la Universidad China de Geociencias en Wuhan.  El Dr. Trevor D. Ford, nombrado miembro de la Orden del Imperio Británico y esas cosas de los isleños, está jubiladísimo pero hace poco aún seguía organizando charlas y seminarios sobre estos temas en su Leicester natal. En 2007, Roger y el Dr. Ford invitaron a Tina a participar en uno de estos seminarios como predescubridora de ese fósil que demostró la existencia de la vida que no podía existir.

El otro protagonista, la ciencia, salió ganando como hace siempre. Los científicos, como humanos que son, pueden resultar a veces más duros de mollera. :-P Pero el poder y la grandeza de la ciencia radica precisamente en que siempre es capaz de cambiarse a sí misma y corregir sus propios errores, siguiendo el método científico, para perfeccionarse cada vez más y más y así darnos todo lo que nos ha dado, y nos dará. Y en la misma raíz de la ciencia está la curiosidad, ese observar algo que quizá muchos hayan visto pero nadie había observado antes –como seguramente muchos habrían visto el fósil del Bosque de Charnwood, empezando por quienes trabajaron en la cantera durante muchos años, pero nadie lo había observado–, pensar aquello de “¡qué curioso!” y no parar hasta descubrir lo que es y cómo funciona. La misma curiosidad que nos ha llevado a lo largo de los milenios desde preguntarnos qué demonios serían aquellas lucecitas que brillan en el cielo por la noche hasta pasear nuestras naves-robot por las proximidades de Plutón. Desde preguntarnos por qué la gente caía enferma hasta tener la mayor esperanza de vida y las menores tasas de mortalidad infantil de toda la historia de la humanidad. Desde preguntarnos qué sería el rayo y esas chispitas de las prendas de lana hasta construir los dispositivos electrónicos que estamos usando ahora mismo tú y yo. La misma curiosidad que, si no cometemos ninguna estupidez monumental por el camino, nos llevará adonde ahora mismo ni siquiera podemos imaginar.

Bibliografía:

43 Comentarios
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (8 votos, media: 5,00 de 5)
Loading...Loading...
Be Sociable, Share!

Las ciudades que se salvaron y las gentes que no

Hace hoy 70 años, Hiroshima fue aniquilada.
El día 9, le tocó a Nagasaki.
Y para el 15, había otra bomba en camino.

Portada del memorando secreto de la 2ª reunión del Comité de Objetivos para la bomba atómica, 10-11/05/1945

Para esta entrada contamos con los documentos secretos originales del Comité de Objetivos y otra información de la época desclasificada décadas después. Imagen: Archivos de Seguridad Nacional de los Estados Unidos de América.

Nagasaki antes y después del ataque atómico

Fotografías aéreas del valle de Urakami, Nagasaki, antes y después del bombardeo atómico del 9 de agosto de 1945. Imágenes: Archivos Nacionales de los Estados Unidos. (Clic para ampliar)

Los historiadores siguen discutiendo si Japón se rindió por los bombazos atómicos de Hiroshima y Nagasaki, por la declaración de guerra soviética acordada en Yalta con los EEUU y el Reino Unido, o por una combinación de estos y otros factores. No obstante, lo que quedaría nítidamente impreso en la memoria humana para las generaciones futuras fue el abrumador poder del núcleo atómico liberado sobre esas dos ciudades hace 70 años. Pero es menos sabido que cuando Japón capituló, el día 15, había una tercera bomba en camino para lanzarla “no más tarde de mediados o finales de agosto”, dependiendo de la meteorología. Bueno, en realidad lo que estaba en camino era el núcleo de plutonio, porque el resto de componentes para ensamblar varias bombas más ya estaban esperando en la Base Aérea de Tinian (Islas Marianas), desde donde operaba el Grupo Combinado 509 de la USAAF, encargado de los ataques atómicos.

Decidiendo qué ciudades aniquilamos.

Es preciso detenerse primero en la peculiar manera como el llamado Comité de Objetivos (Target Committee) decidió los blancos para esta nueva arma. Hasta bien entrada la primavera de 1945, con la guerra en Europa ya terminando y el Proyecto Manhattan para construir la bomba atómica muy avanzado, los Estados Unidos no tenían muy claro dónde y cómo iban a utilizarla si es que todo aquel invento funcionaba. Uno de sus problemas fundamentales radicaba en que los blancos más jugosos ya estaban reducidos a cenizas por los grandes bombardeos incendiarios de los meses anteriores. Media Tokio, por ejemplo, había desaparecido. Hasta 67 ciudades japonesas estaban destruidas en mayor o menor grado, junto a un enorme número de otros objetivos. Remover ruinas con un petardazo fenomenal no tendría el mismo impacto psicológico, ni causaría el mismo daño, que desintegrar una ciudad intacta con toda su población. Además, los investigadores estadounidenses querían estudiar los efectos de un arma nuclear sobre un blanco real previamente virgen o casi. En palabras del asesor de Defensa John J. McCloy (un cargo parecido a lo que ahora sería el consejero de Seguridad Nacional), “no nos quedaban más ciudades que bombardear, más portaaviones que hundir o más acorazados que cañonear; teníamos problemas para encontrar objetivos.”

Así pues, el 27 de abril de 1945, tres días antes de que Hitler se suicidase en su búnker berlinés, este Comité de Objetivos se reunió por primera vez en el Pentágono. Presidía el general Leslie Groves, director del Proyecto Manhattan, aunque la voz cantante la llevó su asistente Thomas Farrell. Estaban también el general de brigada Lauris Norstad de la USAAF (predecesora de la actual Fuerza Aérea de los Estados Unidos) y científicos nucleares como John von Neumann o William Penney. Curiosamente, Robert Oppenheimer –director científico del Proyecto– no fue invitado y menos curiosamente, tampoco Leó Szilárd –el inventor original de la bomba atómica y otras cosas muy destructivas, pero totalmente contrario a su uso contra zonas habitadas–. En la práctica, esta reunión inicial se limitó a definir unos criterios generales y una lista provisional de objetivos, donde ya aparece Hiroshima como primera opción y Nagasaki entre las alternativas:

Lista inicial de blancos del Comité de Objetivos de los EEUU para la bomba atómica

Fragmento del memorando original de la primera reunión del Comité de Objetivos, tomado por el general de brigada Lauris Norstad de la USAAF (antecesora de la actual USAF) el 28 de abril de 1945, con la lista inicial de objetivos. Puede observarse que ya aparece Hiroshima con un “1” manuscrito al lado y Nagasaki como posible alternativa. Nótese que hay varias erratas, como “Kamasaki” por Kawasaki, “Yokahama” por Yokohama, “Osake” por Osaka o posiblemente “Shimosenka”, que no he logrado identificar. Imagen: Archivos Nacionales de los Estados Unidos.

Los criterios son todavía más interesantes, pues revelan claramente la política de selección de blancos:

  1. Deben tomarse en consideración las grandes áreas urbanas, con no menos de 3 millas de diámetro, en las zonas más pobladas.
  2. Los objetivos deben estar entre las ciudades japonesas de Tokio y Nagasaki.
  3. El objetivo debe tener un alto valor estratégico.
  4. Se considera apropiado estudiar las siguientes áreas: Bahía de Tokio, Kawasaki, Yokohama, Nagoya, Osaka, Kobe, Kioto, Hiroshima, Kure, Yawata, Kokura, Shimosenka [?], Yamaguchi, Kumamoto, Fukuoka, Nagasaki, Sasebo.
  5. El Grupo de Objetivos conjunto de la Armada y la Fuerza Aérea descartará cualquiera de estas 17 áreas que ya hayan sido destruidas.

–De las notas de la reunión inicial del Comité de Objetivos,
Archivo de Seguridad Nacional de los EEUU.

Alcance de un B-29 cargado con una bomba atómica (1.500 millas náuticas) desde la base aérea de Tinian-Norte

Alcance de un B-29 cargado con una bomba atómica (1.500 millas náuticas) desde la base aérea de Tinian-Norte, según las Notas de la reunión inicial del Comité de Blancos de 27 de abril de 1945 celebrada en el Pentágono, Washington DC (pág. 1.) La posición de Hiroshima y Nagasaki está indicada con puntos rojos. Este alcance dejaba a los bombarderos cierto margen de combustible para localizar el objetivo, realizar varios intentos o, en su caso, dirigirse al blanco alternativo. Mapa base: © Google Maps / Mapping and Distance Tools.

Es decir, desde el principio iban a por grandes áreas urbanas con mucha población, situadas entre Tokio y Nagasaki (por el alcance de los bombarderos B-29, añadiendo cierto margen), que no hubiesen sido ya abrasadas. Lo del “alto valor estratégico” es un poco más discutible; evidentemente, en tiempos de guerra, toda ciudad grande y muy poblada va a tener algo con valor estratégico (industria, un puerto, un nudo de comunicaciones, cualquier cosa), lo que a todos los efectos convierte a este tercer punto en una carta blanca para atacar cualquier localidad de buen tamaño. El hecho de que el punto de mira fuese en todos los casos el centro urbano en vez de las áreas donde pudieran estar esas instalaciones de alto valor estratégico y que buscaran el máximo impacto psicológico, como veremos más adelante, refuerza esta idea (en Hiroshima le dieron casi de lleno, en Nagasaki se les desvió debido a la nubosidad.)

La segunda reunión del Comité de Objetivos, mucho más decisiva, se celebró dos semanas escasas después, con la guerra en Europa recién terminada: el 10 y 11 de mayo de 1945. Esta vez Oppenheimer sí estaba presente; tanto, que la hicieron en su despacho de Los Álamos (el “sitio Y.”) Con él se encontraban el general Farrell (el asistente del director Groves), el coronel Seeman, el capitán Parsons, el mayor Derry y varios científicos e ingenieros, incluyendo de nuevo a Von Neumann y Penney. En el memorando de esta reunión, donde se contemplan numerosos aspectos técnicos y operacionales, ya queda claro que buscan el máximo efecto psicológico tanto en Japón como en el mundo entero y que no desean apuntar a un objetivo militar aislado:

7. Factores psicológicos en la selección del objetivo.

A. Hubo acuerdo en que los factores psicológicos de la selección del objetivo son de gran importancia. Dos aspectos de esto son:

1. Conseguir el mayor efecto psicológico en Japón y
2. Hacer que el uso inicial sea lo bastante espectacular como para que la importancia del arma se reconozca internacionalmente cuando se le dé publicidad.

B. Con respecto a esto, Kioto tiene la ventaja de que su población es más inteligente y por tanto más capaz de apreciar el significado del arma. Hiroshima tiene la ventaja de que su tamaño y la posible focalización [ocasionada por] las montañas cercanas [favorecerán que] una gran parte de la ciudad resulte destruida. El Palacio del Emperador en Tokio tiene una fama mayor pero es de menor valor estratégico.

8. Uso contra objetivos “militares.”

A. Hubo acuerdo en que para el uso inicial del arma cualquier objetivo pequeño y estrictamente militar debe hallarse en un área mucho mayor sujeta a daños [ocasionados por] la explosión, para evitar el riesgo de que el arma se pierda debido a [un mal lanzamiento.]

–Del memorando de la segunda reunión del Comité de Objetivos,
Archivo de Seguridad Nacional de los EEUU.

Fragmento de las notas de la 2ª reunión del Comité de Blancos (pág. 6), especificando que se desea el máximo impacto psicológico, que no se deben atacar pequeños blancos militares a menos que se encuentren en "un área más extensa" donde los efectos de la bomba se evidencien, y que los bombarderos deben hallarse al menos a 2,5 millas náuticas de la explosión para reducir los efectos de la radiactividad.

Fragmento del memorando de la 2ª reunión del Comité de Blancos (pág. 6), especificando que se desea el máximo impacto psicológico, que no se deben atacar pequeños blancos militares a menos que se encuentren en “un área más extensa” donde los efectos de la bomba se evidencien, y que los bombarderos deben alejarse al menos 2,5 millas náuticas de la explosión para reducir los efectos de la radiactividad. Imagen: “The atomic bomb and the end of World War II: a collection of primary sources. National Security Archive electronic Briefing Book,” nº 162 (2005-2007). Universidad George Washington, Washington D.C (Clic para ampliar)

También se evidencia que conocen sobradamente los efectos perniciosos de la radiactividad:

9. Efecto radiológico.

A. El Dr. Oppenheimer presentó un memorándum que había preparado sobre los efectos radiológicos del dispositivo. Este memorándum no se reproducirá en este resumen pero se le envía al general Groves como un documento separado. Sus recomendaciones básicas son:

1. Por razones radiológicas, ninguna aeronave debe hallarse a menos de 2,5 millas del punto de detonación (por la explosión, esta distancia debería ser mayor) y
2. Las aeronaves deben evitar la nube de materiales radiactivos. Si otras aeronaves realizan misiones poco después de la detonación, un avión de monitorización debería determinar las áreas a evitar.

10. Operaciones aéreas coordinadas.

A. Se discutió la posibilidad de proseguir el ataque con una misión de bombardeo incendiario. Esto presenta la gran ventaja de que la capacidad de lucha contra incendios del enemigo habrá sido probablemente paralizada por el dispositivo, de tal modo que podría producirse una conflagración muy severa. No obstante, hasta que se sepa más sobre los fenómenos asociados a la detonación del dispositivo, como hasta qué punto habrá nubes radiactivas, debe evitarse ninguna misión de bombardeo incendiario inmediatamente [posterior.] (…)

–Del memorando de la segunda reunión del Comité de Objetivos,
Archivo de Seguridad Nacional de los EEUU.

Finalmente, en este segundo encuentro la anterior lista de 17 objetivos queda reducida al estudio de 6, de los que al final recomiendan 4:

6. Estado de los objetivos.

El Dr. Stearns describe el trabajo que ha realizado sobre la selección de objetivos. Ha estudiado posibles blancos con las siguientes características: (1) Son objetivos importantes en una gran área urbana con más de 3 millas de diámetro; (2) Pueden ser dañados efectivamente por una detonación; y (3), es improbable que sean atacados antes del proximo agosto. El Dr. Stearns tenía una lista de 5 blancos que la Fuerza Aérea podría reservar para nuestro uso a menos que aparezcan circunstancias imprevistas. Son los siguientes:

  1. Kioto – Este objetivo es un área urbana industrial con un millón de habitantes. Es la antigua capital de Japón y mucha gente e industrias se están trasladando ahí ahora tras la destrucción de otras áreas. Desde el punto de vista psicológico tiene la ventaja de que Kioto es un centro intelectual de Japón y su población es más capaz de apreciar el significado de un arma como el dispositivo. (Calificado como objetivo AA.)
  2. Hiroshima – Este es un importante almacén del ejército con un puerto de embarque en medio de un área urbana industrial. Constituye un buen objetivo por radar y tiene unas dimensiones que podrían hacer que una gran parte de la ciudad resulte extensamente dañada. Hay unas colinas adyacentes que probablemente producirán un efecto de focalización que puede incrementar de modo significativo los daños causados por la explosión. Debido a sus ríos no es un buen objetivo incendiario. (Calificado como un objetivo AA.)
  3. Yokohama – Este objetivo es una importante área urbana industrial que hasta ahora no ha sido atacada. Sus actividades industriales incluyen la fabricación de aviones, máquinas herramienta, puertos, equipo eléctrico y refinerías de petróleo. Conforme los daños a Tokio han aumentado, más industrias se han mudado a Yokohama. Tiene la desventaja de que las áreas más importantes están separadas por una gran extensión de agua y ahí se encuentra la mayor concentración de fuerzas antiaéreas de Japón. Para nosotros tiene ventajas como un blanco alternativo para uso en caso de mal tiempo, dado que se encuentra bastante lejos de los otros objetivos considerados. (Calificado como un objetivo A.)
  4. Arsenal de Kokura – Este es uno de los mayores arsenales de Japón y está rodeado por estructuras urbanas industriales. El arsenal es importante por [contener] artillería ligera, armamento antiaéreo y materiales defensivos para cabezas de playa. Sus dimensiones son 4.100 x 2.000 pies [1.250 x 610 metros.] Debido a sus dimensiones, si la bomba fuese correctamente lanzada se obtendría la máxima ventaja de las altas presiones inmediatamente debajo para destruir las estructuras más sólidas y al mismo tiempo habría daños considerables a las estructuras más débiles situadas a mayor distancia. (Clasificado como un objetivo A.)
  5. Niigata – Este es un puerto de embarque en la costa Noroeste de Honshu. Su importancia está creciendo conforme otros puertos resultan dañados. Cuenta con industria de máquinas herramienta y es un centro potencial de dispersión industrial. Tiene refinerías de petróleo y almacenes. (Calificado como un objetivo B.)
  6. Se debatió la posibilidad de bombardear el Palacio Imperial. Hubo acuerdo en que no debíamos recomendarlo, sino que cualquier acción para este bombardeo debe proceder de las autoridades que hacen la política militar. Acordamos que deberíamos obtener información para determinar la efectividad de nuestra arma contra este objetivo.

B. Los presentes en la reunión recomendaron que la primera elección de objetivos para nuestra arma debería ser la siguiente:

a. Kioto.
b. Hiroshima.
c. Yokohama.
d. Arsenal de Kokura.

–Del memorando de la segunda reunión del Comité de Objetivos,
Archivo de Seguridad Nacional de los EEUU.

Blancos primarios iniciales para la bomba atómica establecidos por la 2ª reunión del Comité de Objetivos.

Blancos primarios iniciales establecidos por la 2ª reunión del Comité de Objetivos (pág. 5 del acta.) De izquierda a derecha: arsenal de Kokura, en la periferia Este de Kitakyushu (calificado “A”); Hiroshima (“AA”); Kioto (“AA”) y Yokohama (“A”). Puede observarse la posición de Tokio en el extremo superior derecho. Otras 67 ciudades, incluyendo Tokio, habían quedado excluidas porque ya estaban demasiado arrasadas por los grandes bombardeos incendiarios de los meses anteriores. Mapa base: © Google Maps. (Clic para ampliar)

Podemos observar así que Nagasaki ha salido de la lista primaria de blancos y ahora está encabezada por Kioto, seguida de Hiroshima (ambas con la máxima calificación: “AA.”) Un enorme punto de mira acababa de aparecer sobre la milenaria capital imperial construida en el año 793 CE, con su millón de habitantes, su centralidad cultural y su relevancia simbólica y religiosa en el sistema tradicional de creencias japonesas. Un punto de mira situado exactamente sobre su playa ferroviaria principal, justo encima de donde hoy en día se encuentra el Museo de Locomotoras de Vapor. Durante las siguientes semanas, esta fue la zona cero para el primer ataque nuclear de la historia de la humanidad:

La "zona cero" del ataque nuclear contra Kioto que nunca llegó a producirse, según un mapa de la USAAF de junio de 1945.

La “zona cero” del ataque nuclear contra Kioto que nunca llegó a producirse, según un mapa de la USAAF de junio de 1945. Puede observarse que en este caso no apuntaban directamente al centro urbano como sucedería con Hiroshima y Nagasaki, sino al nudo ferroviario principal situado en los barrios del Sur. No obstante, gran parte de la ciudad habría resultado incendiada y destruida. En todo caso, a partir de la tercera reunión se decidió abandonar esta política de apuntar a zonas específicas para dirigir el ataque directamente contra el centro urbano, con lo que las áreas históricas y de importancia religiosa y cultural de Kioto habrían sido muy probablemente aniquiladas. Imagen: Archivo de Seguridad Nacional de los EEUU. (Clic para ampliar.)

Salvando a Kioto, condenando a Hiroshima.

Henry L. Stimson

El Secretario (Ministro) de la Guerra Henry L. Stimson (1867-1950), que se emperró en que Kioto no fuese bombardeada, condenando así a Hiroshima. Imagen: Wikimedia Commons.

Entonces ocurrió algo singular: el Secretario (Ministro) de la Guerra Henry L. Stimson dijo que ni en broma. Que Kioto tenía que salir de la lista del Comité de Objetivos. Sus razones nunca han quedado claras. Suele contarse que cuando era embajador en las Filipinas, se casó y pasó la luna de miel en esta ciudad, con lo que le tenía un cariño especial; a veces la historia se escribe con letra pequeña. Obviamente sus argumentos, con los que presionó al presidente Truman una y otra vez, no fueron esos. Afirmó que un ataque nuclear contra la emblemática Kioto, en vez de empujar a los japoneses a la rendición, los electrizaría para seguir peleando hasta el fin o al menos buscar una paz separada con los soviéticos. Que en realidad no constituía un blanco estratégico tan importante. Y de hecho, llegó a convencer a Truman de que constituía un blanco “civil” por oposición a Hiroshima, que le vendió como un blanco “militar.” Incluso se negó a que entrara en la lista para los bombardeos convencionales. Puede que también pesara el precedente de Dresde, pues ya en aquellos tiempos había levantado publicidad negativa para la causa aliada como una atrocidad sin sentido. El caso es que se abrió una batalla interna entre el general Groves, partidario de mantener a Kioto como objetivo nº 1, y Stimson, decidido a sacarla por completo de la lista.

Como hemos visto en la imagen de más arriba, Kioto seguía siendo un objetivo durante el mes de junio, con los militares determinando el mejor punto para arrojarle la bomba atómica. Aunque éste quedara establecido sobre las playas ferroviarias de los distritos industriales del Sur, probablemente la ciudad entera habría quedado arrasada por una tormenta ígnea debido a los materiales de construcción típicos en el Japón del período, la cercanía de varias fábricas con abundantes materiales inflamables y los extensos parques y bosquecillos que la caracterizan (como ocurriría en amplias zonas de Hiroshima.) No obstante, el acta de la tercera reunión del Comité de Objetivos (30 de mayo) se centra en Kioto, Hiroshima y Niigata como objetivos primarios, y recomendaba un punto de mira menos selectivo:

  1. No especificar lugares [precisos] para hacer puntería; esto se determinará posteriormente en la base [de los bombarderos] cuando se conozcan las condiciones meteorológicas.
  2. Ignorar la ubicación de las áreas industriales como un blanco preciso, dado que en estos tres objetivos tales áreas son pequeñas, extendidas por los límites de las ciudades y bastante dispersas.
  3. Intentar ubicar el primer dispositivo en el centro de la ciudad seleccionada; esto es, que no sea necesario [utilizar] los siguientes 1 o 2 dispositivos para destruirla completamente. (…)

–Del memorando de la tercera reunión del Comité de Objetivos (pág. 3),
Archivo de Seguridad Nacional de los EEUU.

Fragmento del memorando de la 3ª reunión del Comité de Objetivos para la bomba atómica, donde ya se recomienda apuntar directamente a los centros urbanos.

Fragmento del memorando de la 3ª reunión del Comité de Objetivos (pág. 3), donde ya se recomienda ignorar blancos precisos de interés industrial o militar y apuntar directamente a los centros urbanos. Imagen: “The atomic bomb and the end of World War II: a collection of primary sources. National Security Archive electronic Briefing Book,” nº 162 (2005-2007). Universidad George Washington, Washington D.C.

Observamos así que, como te conté al principio, la idea de lanzar las armas nucleares contra objetivos militares o estratégicos exactos (típicamente situados en áreas más periféricas) va perdiendo fuerza en favor de aniquilar la ciudad entera atacando directamente el centro urbano; como al final se hizo en Hiroshima y se intentó en Nagasaki. En este caso, Kioto no habría recibido el bombazo en los barrios industriales y ferroviarios del Sur, sino sobre el área del antiguo palacio imperial, con el grueso de la población de un millón de habitantes concentrada alrededor. El 27 de junio, todavía aparece en la lista de ciudades que no deben ser bombardeadas por medios convencionales para que estén prístinas cuando llegue la bomba nuclear y poder así estudiar sus efectos con todo detalle.

La prueba Trinity, 16 milisegundos después de la detonación.

La prueba Trinity, 16 milisegundos después de la detonación. En ese instante, la “cúpula” tiene unos 200 metros de altura. Esta bomba, muy parecida a la utilizada después en Nagasaki, estalló a las 05:29:21 hora local del 16 de julio de 1945 en el Desierto Jornada del Muerto de Nuevo México (EEUU), con una potencia de unos 20 kilotones. Fue la primera explosión nuclear producida por el ser humano y su éxito abrió paso inmediatamente a los bombardeos atómicos contra Japón. Imagen: Gobierno de los EEUU / Wikimedia Commons. (Clic para ampliar)

Pero al final se impuso el criterio de Stimson, un político poderoso y bastante próximo al presidente Truman: Kioto salió de la lista, tanto para bombardeos nucleares como convencionales. El nombre de la antigua capital imperial va desapareciendo a lo largo de los siguientes documentos para no volver a mencionarse desde mediados de julio. Así, Kioto fue la primera ciudad que se salvó. Pero, automáticamente, el otro objetivo clasificado como “AA” pasó a ocupar la pole position para la aniquilación nuclear: Hiroshima. Población: 350.000 personas, parecida a la de las actuales Bilbao o Alicante, y civiles en su inmensa mayoría. Sobre todo, en torno al centro urbano. Y Nagasaki, con su cuarto de millón de habitantes (como Coruña o Vitoria), regresó a la lista extendida de blancos alternativos para el caso de que la meteorología impidiese bombardear los objetivos ahora primarios: Hiroshima, Kokura, Niigata.

La siguiente parte de la historia es bastante conocida, al menos a grandes rasgos, así que no nos extenderemos demasiado. Mientras Leó Szilárd y otros científicos atómicos intentan desesperadamente que la nueva arma no se use contra lugares habitados(1, 2, 3, 4, 5, 6, 7…), la dirigencia política y militar de los Estados Unidos, junto a otro buen número de científicos e ingenieros atómicos, deciden que conviene emplearla en cuanto esté disponible del modo más destructivo posible, causando así el máximo impacto sobre Japón y el mundo entero. De hecho ya un mes antes, el 15 de junio, una carta firmada por Oppenheimer, Fermi, Compton y Lawrence recomendaba su “empleo inmediato”, afirmando que “no podían proponer ninguna demostración técnica que pudiera terminar la guerra y no veían ninguna alternativa a su uso militar directo.” El impresionante éxito de la Prueba Trinity del 16 de julio –la primera detonación nuclear de la historia de la humanidad– probablemente terminó de firmar la sentencia de muerte para los blancos del Comité de Objetivos.

Iósif Stalin, Harry Truman y Winston Churchill en la Conferencia de Potsdam, 17 de julio de 1945.

Iósif Stalin, Harry Truman y Winston Churchill al inicio de la Conferencia de Potsdam, 17 de julio de 1945. Fue ahí donde el día 24 Truman comunicó a Stalin, de modo algo ambiguo, que los EEUU habían desarrollado “una nueva arma con una potencia destructiva inusual.” Stalin no mostró ninguna reacción en particular y tan solo contestó que “esperaba que hicieran buen uso de ella contra los japoneses.” Resultó que estaba totalmente al tanto del Proyecto Manhattan desde sus orígenes gracias a su extensa red de espionaje y la URSS ya había comenzado su propio programa nuclear en 1943, tras la filtración del Informe MAUD británico al NKVD. Foto: United States Army Signal Corps, Harry S. Truman Library & Museum, Administración Nacional de Archivos y Registros de los EEUU. (Clic para ampliar)

El día 24, en Potsdam, Truman comunica oblicuamente a Stalin que los Estados Unidos disponen ahora de “una nueva arma con una potencia destructiva inusual.” Según el propio Truman, Stalin no se muestra ni impresionado (ni intimidado) en absoluto, y sólo contesta que “espera que hagan buen uso de ella contra los japoneses.” En aquel momento Churchill, Truman y otros presentes se limitaron a pensar que Stalin ignoraba el verdadero poder de esa nueva arma. El hecho es que Stalin estaba perfectamente al tanto del Proyecto Manhattan, por duplicado, o más. Mucho más. Su nombre en clave para los servicios de inteligencia soviéticos fue ENORMOZ (ЭНОРМОЗ, “enorme”) desde al menos finales de 1941 o principios de 1942, cuando todavía era un estudio británico. El programa soviético para hacer su propia bomba atómica se había originado en 1940 y arrancó como muy tarde en 1943, tras obtener una copia del Informe MAUD, al amparo del laboratorio nº2 de la Academia de Ciencias de la URSS (ahora conocido como el Instituto Kurchátov). Sólo había quedado ralentizado por las brutales exigencias de la guerra en Europa y sobre todo por la ausencia de minas de uranio conocidas en la Unión Soviética (luego, cuando se pusieron a ello, encontraron un montón.) Y para cuando Truman le contó el secretito a Stalin, muy posiblemente la inteligencia soviética ya tenía en su poder los planos básicos de la bomba por implosión de plutonio utilizada en Trinity y Nagasaki, así como de los reactores para producir plutonio en Hanford y la tecnología de enriquecimiento del uranio por difusión gaseosa empleada en Oak Ridge, junto a incontables detalles científico-técnicos más.

El Proyecto Manhattan y sus trabajos precedentes estuvieron plagados de espías soviéticos desde el primer momento; incluso se cree que algunos de ellos jamás fueron descubiertos y, a estas alturas, seguramente permanecerán en la oscuridad para los restos. Así que Stalin, sus servicios secretos y sus científicos atómicos no tenían ningún motivo para impresionarse. De hecho, estaban ya construyendo lo suyo y en cuanto Stalin comentó el asunto con sus asistentes en privado, el Ministro de Asuntos Exteriores soviético Mólotov (según Zhukov) propuso: “Dejémosles. Pero hay que hablar con Kurchátov y decirle que acelere las cosas.”

El coronel Paul W. Tibbets saluda desde su bombardero B-29 "Enola Gay"  poco antes de despegar de Tinian-Norte con la bomba atómica "Little Boy" hacia Hiroshima.

El entonces coronel Paul W. Tibbets (1915-2007) saluda desde su bombardero B-29 “Enola Gay” (llamado así por el nombre de su madre), poco antes de despegar de Tinian-Norte con la bomba por disparo de uranio “Little Boy” en dirección a Hiroshima. Foto: Gobierno de los EEUU / Wikimedia Commons. (Clic para ampliar)

El caso es que los Estados Unidos, tal como sugería la carta de Oppenheimer, Fermi, Compton y Lawrence mencionada antes, no tardaron ni tres semanas en emplear esta nueva arma. Inmediatamente tras la Prueba Trinity, los componentes para montar las dos primeras bombas salieron hacia la Base Aérea de Tinian: una por disparo de uranio altamente enriquecido llamada Little Boy, y otra por implosión de plutonio que bautizaron como Fat Man, muy parecida a la de Trinity. Allí ya esperaban los técnicos, ingenieros y aviadores del Grupo Combinado 509º, comandado por el entonces coronel Paul W. Tibbets Jr., para ensamblarlas y cargarlas en los bombarderos B-29. Fue este mismo coronel Paul Tibbets quien despegó muy de madrugada el 6 de agosto de 1945 en su bombardero Enola Gay, con once tripulantes más y la bomba Little Boy a bordo en dirección a Hiroshima, según lo indicado en la orden operacional nº 35 del día anterior. Les acompañaban otros dos B-29, uno con instrumentación para tomar mediciones y otro con cámaras para grabar el ataque para la posteridad. Sus blancos alternativos eran Kokura y Nagasaki.

Pero salió una mañana muy buena y los tres aviones alcanzaron Hiroshima poco después de las ocho, tal como estaba previsto, con la ciudad perfectamente visible bajo el sol matutino. Unas condiciones ideales, porque debido a las limitaciones tecnológicas de la época preferían evitar el bombardeo por radar, optando por el visual. A sus pies, 350.000 personas terminaban de desayunar o se dirigían ya a sus escuelas y trabajos, si es que no habían llegado y se disponían a comenzar el lunes (luego veremos por qué los niños seguían yendo a clase durante las vacaciones veraniegas.) Sobre las 08:09, Tibbets inició el ataque y su especialista en bombardeo Thomas Ferebee lanzó a Little Boy a las 08:15, apuntando al Puente de Aioi, justo en el centro urbano y fácil de reconocer desde sus 9.470 metros de altitud. A continuación echaron a correr a toda velocidad, para alejarse tanto como fuera posible. Un suave viento cruzado desvió la bomba unos 240 metros hasta que estalló 44,4 segundos después, a 580 metros sobre el Hospital Shima. La potencia calculada fueron unos 15 o 16 kilotones.

El centro urbano de Hiroshima aniquilado tras el ataque nuclear.

El centro urbano de Hiroshima aniquilado tras el ataque nuclear. El “Enola Gay” apuntó al puente de Aioi con su característica forma de T (en el recuadro amarillo), pero el viento desvió la bomba atómica hasta la vertical del Hospital Shima (en la cruz central.) Cada círculo tiene un radio de 1.000 pies (aprox. 305 metros.) Foto: Gobierno del Japón / Wikimedia Commons.

Fuera de Hiroshima, el primero en darse cuenta de que algo malo pasaba fue el controlador en Tokio de la radio pública japonesa NHK al constatar que la conexión con esta ciudad se había cortado súbitamente. Intentó comunicar por otra línea, pero tampoco hubo manera: la central telefónica de Hiroshima estaba totalmente offline. Unos minutos después, los servicios telegráficos ferroviarios constataron igualmente que sus líneas se habían cortado en algún punto al Norte de la ciudad. Pero desde algunas estaciones y apeaderos situadas a más distancia comenzaron a llegar informes histéricos de que había ocurrido alguna clase de enorme explosión. Entonces el Ejército intentó ponerse en contacto con su cuartel en Hiroshima, sin obtener más que el silencio por respuesta. Esto les extrañó mucho, porque todavía no les constaba que se hubiese producido ningún bombardeo importante en el sector y tampoco había ninguna gran cantidad de explosivos almacenada en la ciudad o sus cercanías. Un buen rato después mandaron un avión de reconocimiento desde Tokio para ver qué había pasado, pensando todavía que se trataba de algún tipo de accidente envuelto en los rumores habituales de los tiempos de guerra.

Cuando el avión llegó a 160 km de Hiroshima, su piloto apenas pudo dar crédito a sus ojos. Desde esa distancia podía ver perfectamente la enorme nube de humo que se alzaba de la ciudad incinerada. Al acercarse más, observó que todo el centro urbano había resultado aniquilado y numerosas áreas periféricas ardían como teas. Los supervivientes se arrastraban como podían hacia las colinas circundantes, heridos, quemados y enfermos de síndrome radiactivo agudo, en busca de precaria ayuda; la mayoría de hospitales y personal médico se encontraban en el centro o cerca del centro y habían desaparecido igualmente con la explosión (más del 90% de los médicos y el 93% del personal de enfermería perecieron o sufrieron graves lesiones.) Luego se supo que entre 60.000 y 80.000 personas murieron al momento, y al menos otras tantas durante los siguientes meses debido a sus heridas y a las enfermedades asociadas a la radiación. La dificultad para establecer la cifra inicial de víctimas con mayor precisión es que muchas, incluyendo a familias enteras, simplemente desaparecieron y no quedó nadie para preguntar por ellas.

Dieciséis horas más tarde, sobre el mediodía hora de Washington D.C., el presidente Truman informaba a los Estados Unidos y al mundo de que “una bomba atómica” “con más potencia que 20.000 toneladas de TNT” había sido lanzada sobre Hiroshima, “destruyendo su utilidad para el enemigo.” Añadió: “es un uso de la fuerza básica del universo; la misma fuerza de la que el sol obtiene su poder ha sido liberada contra quienes empezaron la guerra” (en realidad no lo era; para eso habría que esperar a las armas termonucleares.) Advirtió que “estas bombas están ahora en producción y otras más poderosas, en desarrollo.” Y amenazó: “Si [la dirigencia japonesa] no acepta ahora nuestros términos, deben esperar una lluvia de ruina (rain of ruin) desde el aire como jamás ha visto esta Tierra.”

Korechika Anami

El Ministro de la Guerra japonés y general Korechika Anami (1887-1945) fue uno de los más firmes oponentes a la rendición incondicional exigida por los aliados de Potsdam, bloqueando así durante varios días la capitulación. Sólo la aceptó cuando el emperador se la ordenó formalmente; el mismo día 15, cometió suicidio mediante seppuku (“harakiri”.) Foto: Gobierno del Japón / Wikimedia Commons.

Sin embargo, desde Japón sólo contestaron con el silencio. La razón fundamental fue que ya desde algún tiempo atrás, había en el Gobierno una lucha más o menos abierta entre partidarios de buscar la paz en distintos términos y partidarios de seguir peleando hasta el final. La aniquilación de Hiroshima no hizo más que recrudecer esta pelea, provocando un bloqueo político, con el emperador Shōwa (Hirohito) inclinado hacia el bando de la paz pero de forma un tanto dubitativa, dado que una rendición incondicional podía suponer el final del kokutai (incluyendo a la dinastía imperial.) Los científicos atómicos japoneses, que no ignoraban la posibilidad de construir armas nucleares e incluso tuvieron algún pequeño proyecto, sabían de su enorme coste y dificultad hasta el punto de que algunos dijeron que los Estados Unidos no podían tener más bombas que la ya utilizada contra Hiroshima. Esto dio argumentos al almirante Soemo Toyoda, que se radicalizó junto al duro jefe del Estado Mayor Yoshijirō Umezu y el Ministro de Defensa Korechika Anami para rechazar la rendición exigida desde la Conferencia de Potsdam. Ni siquiera la notificación soviética de que la URSS se disponía a denunciar el Pacto de Neutralidad de 1941 y declararles la guerra, tal como se habían comprometido con Estados Unidos y el Reino Unido, les hizo cambiar de opinión.

Unos por otros, no lograron alcanzar ningún acuerdo y por tanto no pudieron emitir ningún comunicado. Mientras, en Tinian, el 509º Grupo Combinado terminaba de ensamblar una segunda bomba, esta vez por implosión de plutonio, similar a la de la Prueba Trinity. Por su forma regordeta, se llamaba Fat Man.

Fat Man despegó a las 03:47 del 9 de agosto de 1945 en el bombardero Bockscar comandado por el mayor Charles W. Sweeney con Kokura como blanco primario. Si recuerdas, Kokura ocupaba el tercer lugar en la lista de blancos del Comité de Objetivos, detrás de la excluida Kioto y la devastada Hiroshima. Pero a diferencia de lo ocurrido el lunes, este jueves la meteorología no acompañó. Cuando llegaron, se la encontraron cubierta de nubes y de humo procedente del bombardeo incendiario de Yawata, atacada la noche anterior por 224 B-29. Como ya te dije, no se fiaban mucho del bombardeo por radar y las condiciones en Kokura les impidieron localizar visualmente el área del blanco. Tras varias pasadas, con la defensa antiaérea japonesa activándose y empezando a hacer cortos de combustible, decidieron alejarse hacia el blanco secundario: Nagasaki. De este modo Kokura, que había sido blanco nuclear dos veces (como objetivo secundario en el ataque del 6 de agosto y primario en este del día 9) fue la segunda ciudad condenada en salvarse.

Nagasaki también estuvo a punto de salvarse, pero al final no tuvo tanta suerte. Al llegar los bombarderos, había igualmente mucha nubosidad, tanto que tuvieron que hacer la aproximación final orientados por radar. Estaban a punto de intentar también el bombardeo por radar, del que como te dije no se fiaban mucho, cuando el capitán Kermit K. Beahan divisó Nagasaki a través de un hueco en las nubes. Pero sin poder avistar los puntos característicos del centro urbano, lanzaron al bulto, en la dirección general de la ciudad, a las 10:58 AM. Así pues, la bomba estalló con 21 kilotones de potencia a unos 2,5 kilómetros del centro, sobre el valle y distrito industrial de Urakami, cerca de la mayor catedral católica de Asia Oriental, donde se realizaba una celebración multitudinaria en ese momento por la proximidad de la Virgen de Agosto. Murieron todos los presentes junto a otras 39.000 personas en el momento, en su mayoría obreros industriales con sus familias, y 40.000 más durante los siguientes meses. No obstante, las colinas que rodeaban el valle del Urakami desviaron una parte significativa de la energía de la explosión, con lo que “sólo” resultó destruido el 44% de la ciudad. Algunas zonas situadas “a espaldas” de las colinas salieron casi intactas pese a su proximidad a la vertical de la detonación. Eso sí, donde dio, no quedó mucho que ver:

Nagasaki a la mañana siguiente del bombardeo atómico

Nagasaki a la mañana siguiente del bombardeo atómico, aproximadamente a 800 metros de la vertical de la detonación. Pueden distinguirse cadáveres calcinados entre los restos de las casas. Foto: Yosuke Yamahata vía Universidad de California en Los Angeles.

El tercer objetivo.

Ofensiva soviética a través la Manchuria ocupada por los japoneses entre el 9 y el 20 de agosto de 1945

Ofensiva soviética a través la Manchuria ocupada por los japoneses entre el 9 y el 20 de agosto de 1945, tal como habían pactado con los Estados Unidos y el Reino Unido. En menos de 3 semanas, ocuparon un área mayor que Europa Occidental donde se concentraba la mayor parte de la industria japonesa que no estaba en el propio Japón, llegando a avanzar 150 km en algunos puntos durante el primer día. Se discute si la “puntilla final” para la rendición nipona fueron las bombas de Hiroshima y Nagasaki o este desastre militar que les dejaba definitivamente aislados internacionalmente y sin recursos exteriores. Imagen: Archivos de la Federación Rusa. (Clic para ampliar)

Para acabar de estropearle el día a los japoneses, esa misma madrugada, un minuto después de medianoche, la URSS había cumplido su promesa a Estados Unidos y el Reino Unido: cuando estalló la bomba de Nagasaki, el Ejército Rojo ya estaba atacando la Manchuria japonesa por tres frentes distintos (donde, por su parte, las fuerzas japonesas habían hecho una especie de maratón para cometer tantos crímenes de guerra y contra la humanidad como fuese posible.) Calentitos y bien entrenados y equipados como venían después de ganar la guerra en Europa, los soviéticos arrasaron velozmente a las fuerzas japonesas en el continente, llegando a avanzar hasta 150 km en un solo día. El antes prestigiosísimo Ejército de Kwantung, donde se habían labrado la carrera militares del calibre del general Tōjō, se derrumbaba por horas ante las 80 divisiones del mariscal Vasilevsky. Comenzaron a correr rumores (posiblemente falsos) de que la URSS incluso pretendía desembarcar en Japón por Hokkaido, adelantándose así a la planeada Operación Downfall de los aliados occidentales.

Todo esto comenzó a poner nerviosos a los estadounidenses: el avasallador éxito de las fuerzas soviéticas en el continente (que terminarían ocupando un territorio mayor que Europa Occidental entre el 9 y el 20 de agosto), el rumor sobre su posible desembarco en Hokkaido y el hecho de que el Gobierno japonés continuara sin decir ni mú a pesar de estas rápidas derrotas y los dos bombazos atómicos empezaba a sugerir un desenlace imprevisto para la Guerra en el Pacífico. Entonces el general Curtis LeMay llamó por teléfono al coronel Paul Tibbets, el comandante del 509º Grupo Combinado que había lanzado la bomba sobre Hiroshima, para preguntarle:

Curtis LeMay

El general Curtis LeMay (1906-1990), comandante de la campaña de bombardeos estratégicos sobre Japón, incluyendo Hiroshima y Nagasaki. Posteriormente, durante la Guerra Fría, dirigiría el Mando Aéreo Estratégico de los EEUU. Imagen: Fuerza Aérea de los EEUU / Wikimedia Commons.

–¿Tienen otra de esas malditas cosas?
–Sí, señor –contestó Tibbets.
–¿Dónde está?
–Ahí en Utah.
–Tráigala aquí. Usted y su tripulación van a lanzarla.
–Sí, señor.

En efecto, los Estados Unidos contaban ya con un tercer núcleo de plutonio para ensamblar otra bomba como la de Nagasaki con los componentes disponibles en Tinian. Bueno, lo cierto es que tenían la capacidad de producir 3 núcleos al mes con los reactores de Hanford, o incluso 4 si forzaban la máquina. Estados Unidos no había desarrollado un programita experimental de armas nucleares como el que manejó sin éxito la Alemania Nazi, sino un auténtico programa industrial-militar para producirlas en serie, análogo al que después montaría también la URSS. Durante una conversación secreta entre el general Hull y el coronel Seeman (asistente del director del Proyecto Manhattan Leslie Groves) del día 13 de agosto, este último dice a Hull que puede disponer de otras siete bombas para usarlas antes del 31 de octubre, y una cada 10 días a partir de noviembre. El arma nuclear había dejado de ser un experimento de científicos. Ahora ya era un producto industrial a gran escala.

Cumpliendo las órdenes del general LeMay, el coronel Tibbets viaja a Utah en avión para recoger el tercer núcleo ya listo. Pero cuando llega a California con él dispuesto a salir hacia Tinian, el día 15, Japón anuncia que ha decidido rendirse tras un intento de golpe de estado fallido por parte de los partidarios de seguir peleando hasta el final. Así, este tercer núcleo no llegó a abandonar los Estados Unidos y nunca ha quedado claro cuál era la siguiente ciudad en la lista. Unos dicen que habrían vuelto a intentarlo contra Kokura, o quizá Yokohama. Pero el historiador Richard B. Frank, en su reconocida obra Downfall: The end of the Imperial Japanese Empire (pág. 303), menciona que los blancos originales del Comité de Objetivos habían quedado ya desfasados y habla de una nueva lista elaborada bajo el mando del general Twining, dado que “los resultados habían superado las expectativas más optimistas”:

Los siguientes 6 blancos para los bombardeos atómicos entre mediados de agosto y finales de octubre de 1945 si Japón no se hubiese rendido

Los siguientes 6 blancos para los bombardeos atómicos entre mediados de agosto y finales de octubre de 1945 si Japón no se hubiese rendido, según Richard B. Frank (1999): “Downfall: The end of the Imperial Japanese Empire.” Hiroshima y Nagasaki, ya destruidas, están marcadas con una “X”. Mapa base: © Google Maps.

  1. Sapporo.
  2. Hakodate.
  3. Oyabu (?) [posiblemente en la Prefectura de Kagawa.]
  4. Yokosuka.
  5. Osaka.
  6. Nagoya.

Llaman la atención Sapporo y Hakodate, situadas en la isla norteña de Hokkaido, porque están fuera del alcance de 1.500 millas náuticas (2.778 km) establecido en documentos previos para que el B-29 pudiese ir cargando una bomba atómica y regresar con un margen de seguridad. O bien estaban ya tan confiados como para forzar un poco las cosas (son unas 200 millas más), o consideraban la posibilidad de que los aviones, después de lanzar la bomba (y por tanto sin nada especialmente secreto a bordo), aterrizasen a repostar en territorio soviético como hicieron durante la Operación Frantic de 1944. En todo caso estás seis ciudades, más quizás Kokura, fueron las que se salvaron de las siete bombas que los Estados Unidos habrían podido producir entre mediados de agosto y finales de octubre si la guerra no hubiese terminado y hubieran tenido que desembarcar en noviembre como estaba planeado. (Otra posibilidad que se contempló fue fabricar 20 y reservarlas para abrirse paso a lo largo de la invasión, como armas tácticas en vez de estratégicas, pero esto no pasó del nivel de conversaciones privadas.)

Efectos.

Una niña de Nagasaki que perdió el cabello a causa de la radiactividad.

Una niña de Nagasaki que perdió el cabello a causa de la radiactividad. Muchas personas enfermaron y murieron durante las dos décadas siguientes debido a la radiación; no obstante, estos males no pasaron a las siguientes generaciones como se temía. Esta foto estuvo censurada hasta 1952. Imagen: Gobierno del Japón.

Tan pronto como los Estados Unidos ocuparon Japón, empezaron a realizar esos estudios sobre los efectos de la nueva arma. Serían secretos durante muchos años, pero actualmente está casi todo desclasificado. Uno de los primeros hechos que pudieron observarse claramente tras los bombardeos de Hiroshima y Nagasaki fue la enorme eficacia de las armas nucleares para causar la máxima muerte y destrucción en áreas urbanas, comparadas con los bombardeos convencionales realizados hasta entonces. Por ejemplo, los grandes bombardeos convencionales de Dresde mataron a unas 25.000 personas de 350.000 habitantes más un número indeterminado de refugiados, que podrían elevar la cifra a medio millón de personas presentes en el área; es decir, un 5% – 7% de mortalidad. La Operación Gomorra que incineró Hamburgo exigió 3.000 aviones y 9.000 toneladas de bombas para matar a unas 43.000 personas de aproximadamente 1.700.000 habitantes (según el censo de 1939): poco más del 2,5% de mortalidad. Y los apoteósicos bombardeos incendiarios de Tokio mataron a entre 75.000 y 200.000 personas del millón y medio que se encontraban en las zonas afectadas: del 5% al 13% de mortalidad, una exageración.

Por el contrario, la única bomba de Hiroshima mató instantáneamente a 60.000 – 80.000 personas de 350.000: una mortalidad del 17% – 23% y pocos meses después habían fallecido unas 166.000, elevándola al 47%. En cuanto a Nagasaki, pese a marrar el centro urbano por dos kilómetros y medio y estallar entre las colinas de Urakami que protegieron al resto de la ciudad, murieron 39.000 personas de 250.000 habitantes totales en los primeros momentos (el 15,6%) y unas 80.000 para finales de año, sumando el 32%. Esto es: incluso aquellas bombas primitivas de potencia ridícula en comparación con lo que vendría después duplicaron e incluso triplicaron las tasas de mortalidad ocasionadas por los peores bombardeos convencionales urbanos de la historia de la humanidad.

Niña cegada en Hiroshima

Esta otra niña, de Hiroshima, llegó a ver “la luz que brilla como mil soles”… y después ya no volvió a ver nada más, nunca jamás. Imagen: Gobierno del Japón.

Uno de los estudios más escalofriantes que hicieron –lógico, pero escalofriante– analizó la mortalidad entre escolares en colegios a distintas distancias del punto de detonación. Aunque en principio estaban de vacaciones veraniegas, en tiempos de guerra, y con la miseria y rápida pérdida de recursos humanos a que se enfrentaba Japón, eso de las vacaciones era muy relativo. Numerosas escuelas permanecían abiertas. El alumnado de primaria o estaba en sus casas –típicamente próximas al cole– o acudía al centro para recuperar clases perdidas durante el año. El de secundaria, a partir de los 12 o 13 años, participaba en “tareas patrióticas” relacionadas con el esfuerzo de guerra (gakuto giyutai) como abrir cortafuegos (al aire libre) o trabajar en industrias (a cubierto), todo ello cerca de sus colegios o en lugares conocidos por los profesores y directivos de los centros, que lo llevaban muy controlado. Tras los bombardeos, muchos de los profesores y directivos que habían sobrevivido hicieron grandes esfuerzos por localizar a sus alumnos o al menos, sus familias. Así que existía un registro exhaustivo de la posición de toda esta chavalería cuando estallaron las bombas, y lo que les pasó.

Como consecuencia, el volumen 6 del informe de la Comisión Conjunta para el estudio de los efectos de la bomba atómica en Japón (“efectos médicos”), elaborado por el Ejército y la Comisión de Energía Atómica de los EEUU, dedica al menos 32 de sus 256 páginas a investigar el destino del alumnado de las escuelas de Hiroshima (donde, al estallar la bomba tan cerca del centro urbano, había muchas.)  En un radio de 900 metros alrededor del eje del ataque, sólo hay supervivientes entre quienes se hallaban fuera de ese radio de 900 metros dedicándose a estas “tareas patrióticas.” Por ejemplo, en el colegio de primaria Motokawa (a 500 metros), sus 192 alumnos “en la escuela o en casa” resultaron muertos. En la 1ª Escuela Prefectural para Niñas (a 800 metros), las 174 que había dentro perecieron también. Sin embargo, entre el 1º y 2º cursos del instituto de secundaria de Koamicho, que estaban abriendo cortafuegos a distancias de entre 800 y 1.100 metros de la explosión, sobrevivieron 174 de sus 497 alumnos (es de suponer que quienes estaban a mayor distancia y “a la sombra” de edificios resistentes.) Con estos y otros datos, el área de aniquilación para esta bomba primitiva de 15 kilotones escasos quedó establecida en un radio de un kilómetro alrededor del eje del ataque.

Fragmento del listado de los colegios de Hiroshima indicando la distancia a la vertical de la detonación, la ubicación de su alumnado y el número de víctimas.

Fragmento del listado de los colegios de Hiroshima indicando la distancia a la vertical de la detonación, la ubicación de su alumnado y el número de víctimas. Imagen: U.S. Army Institute of Pathology (6 de julio de 1951): “The Report of the Joint Commission for the Investigation of the Effects of the Atomic Bomb in Japan, vol. 6. – Medical effects of atomic bombs”, pág. 26. United States Atomic Energy Commission, Technical Information Service, Oak Ridge, Tennessee.

Los investigadores estadounidenses prestaron particular atención a las alumnas del instituto femenino privado de Yasuda, porque se encontraban repartidas entre el colegio (a 1.200 metros de la explosión) y distintas “tareas patrióticas” que se extendían desde abrir cortafuegos cerca del edificio prefectural (a 900 metros) hasta trabajar en varias fábricas situadas a una distancia de entre 1.400 y 2.000 metros. O sea, dispuestas a lo largo de las zonas límite. Entre las 300 alumnas que hacían cortafuegos a la intemperie a menos de 1 km de la detonación, sólo hubo 8 supervivientes confirmadas (5 heridas graves.) En el propio instituto (1,2 km) se salvaron 30 de 75 (con 14 de ellas gravemente heridas.) Pero de las 9 que había en el dormitorio (1,6 km), sobrevivieron todas (2 heridas graves.) Y en las fábricas (1,4 a 2 km y además protegidas por la estructura de los edificios) salieron con vida 515 de las 555 que trabajaban en ellas (con 30 heridas graves y 4 sufriendo radiotoxicidad.)

Gráfica general de bajas totales y mortalidad para Hiroshima, en función de la distancia a la vertical de la detonación.

Gráfica general de bajas totales y mortalidad para Hiroshima, en función de la distancia a la vertical de la detonación. Recordemos que se trataba de una bomba primitiva de escasamente 15 o 16 kilotones. Imagen: U.S. Army Institute of Pathology (6 de julio de 1951): “The Report of the Joint Commission for the Investigation of the Effects of the Atomic Bomb in Japan, vol. 6. – Medical effects of atomic bombs”, pág. 70. United States Atomic Energy Commission, Technical Information Service, Oak Ridge, Tennessee. (Clic para ampliar)

Lógicamente, la resistencia de los edificios y la situación de las personas dentro de los mismos jugó un papel relevante para la supervivencia. Hubo un puñado de supervivientes incluso bien dentro del área de aniquilación. El caso más extremo es el de Eizo Nomura, a apenas 170 metros de la vertical de la detonación. Eizo, de 47 años, trabajaba en la unidad de racionamiento de combustibles, situada en un edificio de hormigón armado; y él, personalmente, se encontraba en el sótano buscando unos documentos. Ni en el edificio ni en sus alrededores sobrevivió nadie, pero Eizo salió básicamente ileso. Las múltiples paredes y suelos de hormigón y la tierra a su alrededor le protegieron como si fuesen una especie de refugio antiatómico casual. En sus memorias relataba cómo al escapar del edificio entre las llamas, el humo y un paraje de absoluta devastación, pudo oír el llanto de un bebé que “calló poco después.” Eizo sufrió síndrome radiactivo agudo durante los días siguientes, pero se recuperó y vivió hasta los 84 años, muriendo en 1982.

Hablando de radiación, como ya te supondrás, ha habido un intenso debate sobre los efectos a medio y largo plazo de la radiactividad sobre las poblaciones afectadas. Hiroshima y Nagasaki son los casos en los que más gente quedó expuesta a mayores cantidades de irradiación directa, de forma incontrolada y brutal, a lo largo de toda la historia (en Chernóbil, por ejemplo, las personas que absorbieron grandes dosis fueron muchas menos y todas ellas en la central accidentada o sus inmediaciones más próximas; a cambio, la cantidad de deposición secundaria fue mayor.) Como consecuencia, se han hecho cientos de estudios sobre la salud de quienes sobrevivieron a las heridas y quemaduras ocasionadas por las bombas y a la radiotoxemia aguda subsiguiente.

Exceso de muertes por leucemia atribuíbles a las dosis de radiación recibidas para supervivientes de Hiroshima y Nagasaki con respecto a la población general, 1950-2002

Exceso de muertes por leucemia atribuibles a las dosis de radiación recibidas para supervivientes de Hiroshima y Nagasaki con respecto a la población general, 1950-2002 (indicado en tono violeta más claro.) Sin embargo, teniendo en cuenta que la cohorte total de individuos estudiados ascendió a 120.000 personas situadas en áreas próximas a las explosiones (y en otros estudios llega a 200.000 personas), puede observarse que el número de muertes por esta causa es relativamente bajo (219 fallecimientos.) Gráfica: Douple, Evan B. et al (2011): “Long-term radiation-related health effects in a unique human population: Lessons learned from the atomic bomb survivors of Hiroshima and Nagasaki.” Disaster Med Public Health Prep. Marzo 2011; 5(0 1): S122–S133. DOI: 10.1001/dmp.2011.21 (Clic para ampliar)

Los resultados, aunque relevantes, no son tan catastróficos como muchos temen. Hubo un claro incremento de los casos de leucemia unos 6-8 años después de los ataques, y de cataratas y tumores sólidos durante las dos a tres décadas siguientes (incluso entre quienes habían recibido dosis muy bajas), pero no tanto como para meterle una dentellada importante a la población. No se produjo un aumento de las malformaciones congénitas ni del riesgo de sufrir cánceres entre la descendencia de los supervivientes, salvo en el caso de las embarazadas de 8 a 15 semanas en el momento de los ataques que recibieron altas dosis de irradiación directa. Puede que influyera el hecho de que ambas explosiones fueran aéreas, para aumentar el área de destrucción, pero generando por tanto mucha menos contaminación secundaria que las detonaciones en superficie (las cuales proyectan grandes cantidades de material activado a la atmósfera.) Hoy en día Hiroshima y Nagasaki, lejos de ser eriales radiactivos, son dos ciudades perfectamente habitables donde los niveles de radiación apenas se distinguen de la radiactividad natural y sus habitantes presentan un estado de salud similar al del resto de Japón. Por fortuna, los peores temores no se cumplieron, al menos en el largo plazo.

Una coletilla poco conocida es que la Academia de Ciencias de la URSS desplegó un equipo en el área de Vladivostok, a unos mil kilómetros de distancia, para tomar mediciones radioisotópicas del aire que llegaba desde las ciudades japonesas bombardeadas. Aunque registraron unas cifras muy bajas, al analizar su composición, pudieron confirmar que las bombas reales coincidían con los datos de inteligencia que habían ido recibiendo durante todos esos años. Así, los bombardeos de Hiroshima y Nagasaki, en vez de intimidar a la URSS, terminaron de afianzarla en el camino para crear sus propias armas nucleares apenas cuatro años después. A insistencia de Lavrenti Beria, priorizaron una bomba que era prácticamente una copia de la de Nagasaki (llamada RDS-1) pese a que tenían en marcha diseños autóctonos más avanzados (RDS-2 y RDS-3); Beria quería confirmar que toda la información que habían recibido era correcta, que podían desarrollar una copia casi idéntica de la bomba americana (y estudiar sus efectos con todo detalle) y, de paso, lograrlo lo antes posible, convirtiendo así rápidamente a la URSS en la otra superpotencia nuclear.

La “maldición” del tercer núcleo (y del USS Indianapolis).

USS Indianapolis

El crucero pesado USS Indianapolis frente a Mare Island, California, el 10 de julio de 1945. A partir del día 16, sería utilizado para trasladar los componentes de la bomba de Hiroshima a la base de Tinian. Y el 30 de julio fue torpedeado por el submarino japonés I-58, con gran parte de su tripulación pereciendo de modo bastante atroz. Imagen: Armada de los Estados Unidos / Wikimedia Commons. (Clic para ampliar)

Tres incidentes casuales contribuyeron a incrementar el “aura maldita” que rodeó a todo este asunto de lo nuclear desde el principio (como si la aniquilación de dos ciudades en plan “presentación en sociedad” no fuese suficiente…) El primero fue lo sucedido al crucero pesado USS Indianapolis, encargado de transportar los componentes para ensamblar la bomba de Hiroshima en Tinian. Tras entregar el material, el día 26 de julio, se hizo de nuevo a la mar con rumbo a Leyte.

A las 00:14 del día 30, fue avistado y torpedeado por el submarino japonés I-58. El Indianapolis se hundió en apenas 12 minutos, dando la vuelta de campana por completo antes de sumergirse en unas aguas plagadas de tiburones y sin tiempo para agarrar muchos chalecos ni botes salvavidas. Trescientos de sus 1.196 tripulantes se fueron a fondo con el buque, pero la pesadilla sólo acababa de comenzar. Al Indianapolis no le había dado tiempo de transmitir nada antes de hundirse y el Alto Mando estadounidense no pensó que pasara nada de particular. Sólo cuando un avión de reconocimiento avistó casualmente a algunos náufragos tres días y medio después se percataron de lo sucedido. Para entonces sólo quedaban 321 supervivientes, de los que se salvaron 317. El resto habían muerto de sed, envenenados por beber agua del mar, comidos por los tiburones o simplemente ahogados. Fue la última pérdida de un gran buque de superficie estadounidense en la II Guerra Mundial y, como puede verse, de manera especialmente desagradable. (El último de todos fue el submarino USS Bullhead, hundido por aviones japoneses el mismo día del bombardeo de Hiroshima.)

Haroutune Krikor Daghlian, Jr.

El físico Harry K. Daghlian Jr. (1921-1945), primera persona muerta en un accidente de criticidad, mientras trabajaba con el “tercer núcleo” que estuvo a punto de ser utilizado contra Japón. Imagen: Wikimedia Commons.

Por su parte, el tercer núcleo también hizo de las suyas. Dos veces, hasta tal punto que llegaron a apodarlo el núcleo del demonio. Como te conté antes, al rendirse Japón, este núcleo se encontraba en California de camino a Tinian y no llegó a abandonar los Estados Unidos. En vez de eso, lo llevaron a Los Alamos para experimentar con él. Y el primer accidente ocurrió menos de una semana más tarde. El físico Harry Daghlian, de 24 años de edad, estaba trabajando en reflectores neutrónicos con el propósito de reducir la masa crítica necesaria para hacer una bomba atómica (una característica de todas las armas nucleares modernas.) Así pues, empezó a envolverlo con bloques de carburo de wolframio, uno de estos reflectores neutrónicos, para ir tomando medidas de criticidad. A mano, como se hacían las cosas en la época. Richard Feynman dijo de estos experimentos que eran como “hacerle cosquillas a la cola de un dragón dormido” por su extremo peligro, dado que cualquier error podía provocar un grave accidente de criticidad.

Cuando Daghlian iba a tapar el conjunto con el último bloque, los detectores neutrónicos le indicaron que aquello estaba a punto de tornarse supercrítico. Vamos, que iba a empezar la reacción en cadena. Fue a apartarlo… y se le resbaló de la mano, cayendo directamente sobre el núcleo. Al instante, éste se volvió casi-crítico, iniciando así un accidente de criticidad con fuerte emisión de radiación neutrónica. En vez de echar a correr, Daghlian intentó quitar el bloque de un manotazo, pero no pudo y se puso a desensamblar el montaje hasta que consiguió detener la reacción. Para entonces, había absorbido varios sieverts de radiación gamma y neutrónica, además de sufrir quemaduras beta. Murió el 15 de septiembre, 25 días después, víctima del síndrome radiactivo agudo. Un vigilante del laboratorio recibió también su dosis, mucho más baja, y pereció 33 años después (a los 62) de leucemia mieloide aguda. Esta es una enfermedad asociada a la radiación, que también sufrieron no pocos supervivientes de Hiroshima y Nagasaki; pero con 33 años por medio, vaya usted a saber si fue a consecuencia del accidente o porque le tocaba.

Accidente de Louis Slotin

A la izquierda, el físico Louis Slotin (1910-1946), segunda víctima de un accidente de criticidad trabajando con el “tercer núcleo.” A la derecha, reconstrucción de cómo “le hacía cosquillas a la cola del dragón dormido” cuando se le resbaló el destornillador y el dragón tosió. Imágenes: Gobierno de los EEUU / Wikimedia Commons. (Clic para ampliar)

Tras este suceso se establecieron numerosos protocolos de seguridad para trabajar con estos primitivos núcleos apenas subcríticos (tan solo “5 centavos” por debajo del punto de criticidad.) Sin embargo, había otro físico más conocido, llamado Louis Slotin, que era muy bueno en lo suyo pero tenía sus peculiaridades, el hombre. Por un lado parece ser que era pelín chulo y vacilón, con cierto gusto por epatar a quien se le pusiera por medio. Un poco notas, vamos. Por otro lado, una vez terminada la guerra, estaba hasta los mismísimos del Proyecto Manhattan (como muchos otros de sus científicos) y quería volverse a sus estudios en Biofísica. Según sus propias palabras, seguía en el tajo porque “soy uno de los pocos que quedan aquí con experiencia en ensamblar bombas.” Y lo cierto es que había ensamblado Trinity y se le conocía como “el Armero en Jefe de los Estados Unidos”; el tipo tenía su valía y su prestigio. Así que estaba enseñando a otros a montar las bombas atómicas antes de largarse, si bien, por lo visto, con una cierta actitud de “para lo que me queda en el convento…”

Y así estaban las cosas el 21 de mayo de 1946, cuando Slotin estaba explicando el tema a otros siete técnicos y científicos… utilizando el mismo núcleo del demonio que nunca llegó a salir hacia Japón pero ya había matado a un hombre. Y estaba también contándoles lo de la criticidad, ahora ya con dos semiesferas de berilio (que fue el reflector neutrónico definitivo para las siguientes generaciones de armas nucleares.) Sólo que Slotin, con ese carácter y esa actitud, les hizo la demo manteniendo separadas las semiesferas de berilio… a mano, con la punta de un destornillador de cabeza plana, en contra de las nuevas normativas de seguridad y de la sensatez en general. Según dicen, no era la primera vez que le hacía cosquillas a la cola del dragón con el destornillador de marras. Ya te digo que iba un poco de sobrado.

Tanto va el cántaro a la fuente que al final se rompe y aquel día a Slotin se le resbaló el destornillador, siendo las 15:20. Las dos semiesferas de berilio se unieron y el núcleo del demonio se volvió supercrítico instantáneamente por segunda vez. Hubo un fuerte destello de luz azul, seguramente debido a la ionización del aire al recibir el violento golpe neutrónico. Slotin notó un sabor agrio en la boca y una intensa quemazón en su mano izquierda. Aún así, de un tirón, lanzó al suelo la semiesfera superior de berilio, deteniendo la reacción casi al momento. Pero era demasiado tarde. En cuanto escaparon del edificio Slotin ya estaba comenzando a vomitar, puede que por los nervios o por el síndrome radiactivo agudo de los 12 grays de radiación gamma y neutrónica que acababa de comerse en seco. O las dos cosas.

Posición de las personas que se encontraban alrededor de Louis Slotin  cuando sufrió el accidente de criticidad.

Posición de las personas que se encontraban alrededor de Louis Slotin (marcado con el cuadrado amarillo) cuando sufrió el accidente de criticidad. Curiosamente, aunque Slotin murió a los pocos días de radiotoxemia aguda, el resto de los presentes vivieron muchos años y algunos llegaron a avanzada edad. Imagen: Gobierno de los EEUU / Wikimedia Commons. (Clic para ampliar)

Louis Slotin murió muy malamente 9 días después, el 30 de mayo de 1946. Sin embargo, el resto de los presentes (con tres de ellos a menos de 2,5 metros de distancia) no sufrió más que episodios de debilidad o ningún síntoma en absoluto. El único que murió joven fue el guardia al otro lado de la puerta… porque era un soldado y lo mataron en la Guerra de Corea, a los 27 años de edad. El siguiente falleció 19 años más tarde, de un infarto (los problemas coronarios han sido vinculados a la radiación, pero durante los 18 años anteriores esta persona había presentado una salud excelente, o sea que pudo deberse a ese o cualquier otro motivo.) En general, el resto de los presentes en el accidente Slotin fueron muriéndose un poco cuando les tocaba; sí, típicamente con enfermedades asociadas a la radiación, pero al menos un par de ellos con más de ochenta años de edad (entre ellos, uno de los que estaban más próximos al núcleo, detrás de Slotin; parece que su cuerpo le protegió.)

De estos y otros hechos por el estilo emana parte del interminable debate de los efectos de la radiactividad sobre la salud humana: está claro que si absorbes una dosis muy alta en un plazo breve va a “freírte” y te morirás de tu síndrome radiactivo agudo, o como mínimo sufrirás lesiones y posiblemente secuelas (los llamados efectos no-estocásticos); pero si absorbes dosis menores o en plazos más prolongados, las consecuencias son mucho más ambiguas y retardadas (los llamados efectos estocásticos.) Si te mueres de una leucemia borde 25 años después de sufrir un accidente radiactivo, ¿es a consecuencia del accidente radiactivo o simplemente porque te dio una leucemia borde como a cualquier otro hijo de vecina? En estos casos, donde la irradiación del personal procede de una emisión primaria con poca o nula contaminación secundaria (fallout) que pueda permanecer en el ambiente y el organismo, el asunto es más confuso todavía. El caso es que el tercer núcleo acabó matando gente. Ya no hicieron más experimentos con él y finalmente lo usaron en la prueba Able, cinco semanas después, donde desapareció liberando 21 kilotones de potencia.

Como comprenderás, me he tenido que saltar un montón de cosas para que esta entrada no se me alargase hasta el infinito… más aún. ;-) Pero a grandes rasgos, esta es la historia de las ciudades que se salvaron y las gentes que no durante la única campaña de bombardeos atómicos que ha presenciado la humanidad, comenzando hace justo ahora 70 años (día 6 de agosto a las 01:15 hora peninsular CEST, 08:15 hora de Japón.) Ojalá nunca volvamos a ver nada igual. O, más probablemente, si llegara a suceder, mucho peor.

Si te ha gustado esta entrada, puede que también te interese:

Bibliografía:

97 Comentarios
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (40 votos, media: 4,90 de 5)
Loading...Loading...
Be Sociable, Share!

La máquina a bobinas magnéticas del joven sargento Lavréntiev

Los reactores de fusión nuclear Tokamak.

Oleg Alexandróvitch Lavréntiev

El joven sargento del Ejército Rojo Oleg Alexandróvitch Lavréntiev (1926-2011), que acabaría siendo doctor en física nuclear y teórica y el “abuelo” de la bomba termonuclear soviética y los reactores de fusión TOKAMAK, sobre los que se basa actualmente el ITER. Foto: © Agencia Federal de Archivos, Ministerio de Cultura de la Federación Rusa.

Imagínate: es 1948, formas parte del poderoso Comité Central del Partido Comunista de la URSS y de algún modo cae en tus manos la carta de un cierto sargento Oleg Lavréntiev, de 22 años, destinado en un remoto agujero del Océano Pacífico. El joven sargento Lavréntiev dice que sólo acabó la secundaria porque se fue a la guerra, pero le gusta mucho la física atómica; incluso se gasta parte de su escasa paga en una suscripción a la revista Avances en Ciencias Físicas. Ah, y que sabe cómo hacer una bomba de hidrógeno y un reactor de fusión nuclear.

No sé tú, pero yo habría pensado que estaba ante el típico charlatán. O, más probablemente, me lo habría tomado a broma. Claro que eran malos tiempos para esa clase de humor, con el padrecito Stalin todavía en plena forma y el camarada Beria encargado de tratar con los bromistas (y también, en el más absoluto secreto, de supervisar el programa soviético para hacer la bomba atómica, que ni eso tenían aún por esas fechas.) Hay que tener en cuenta que Oleg había tenido el cuajo de escribir primero al mismísimo Stalin y, al no recibir respuesta, decidió ponerse en contacto con los segundones del Comité Central, el muchacho. Asombrosamente, ni la carta terminó en una papelera ni el joven sargento Lavréntiev, natural de Pskov, hijo de administrativo y enfermera, obtuvo un nuevo destino un pelín más al interior. Por la parte de Kolymá o así.

En vez de eso, poco después el oficial al mando del sargento Lavréntiev recibió instrucciones estrictas de que le proporcionaran un despacho con escolta y tiempo para plasmar sus ideas de manera más exhaustiva con la máxima discreción. Cosa que debió dejar a todos sus compañeros, empezando por el oficial al mando en cuestión, bastante atónitos. Dos años después, el 29 de julio de 1950, Oleg manda a Moscú un paquete por correo militar secreto donde describe los principios de un arma termonuclear por fusión de deuteruro de litio (“liddy”) y una máquina para producir grandes cantidades de electricidad mediante una “trampa electromagnética” toroidal para confinar reacciones del deuterio y el tritio. Que es, exactamente, el principio de funcionamiento de todas las armas termonucleares del mundo y los reactores de fusión tipo Tokamak, como el ITER que se está construyendo ahora mismo.

El paquete acabó ni más ni menos que en manos de Andréi Sájarov, quien ya trabajaba con Ígor Tamm en esas mismas cuestiones, al amparo del entonces secretísimo Laboratorio nº 2 o Laboratorio de Aparatos de Medida de la Academia de Ciencias de la URSS, hoy en día conocido como el Centro Nacional de Investigación – Instituto Kurchátov. En su evaluación, Sájarov escribió:

“Creo que es necesario discutir detalladamente el proyecto del camarada. Con independencia de los resultados de esta discusión, debe reconocerse la creatividad del autor.”

Mucho tiempo después, en sus memorias, Sájarov se explayaría más a gusto sobre el paquete remitido por el sargento Lavréntiev desde su lejana base del Pacífico:

 “Quedé enormemente impresionado por la originalidad y la audacia de esas ideas producidas independientemente, mucho antes de que comenzaran a aparecer las primeras publicaciones sobre el tema. (…) [Mis] primeras tenues ideas sobre el aislamiento térmico magnético comenzaron a formarse al leer su carta y escribir el informe al respecto. (…) El trabajo de Lavréntiev fue un ímpetu para mejorar la investigación del aislamiento térmico magnético del plasma de alta temperatura que realizábamos Tamm y yo.”

Entrada principal al Instituto Kurchatov en la actualidad.

Entrada principal al Instituto Kurchátov en la actualidad. Imagen: © Google Street View.

 Diseño original de Oleg Lavréntiev para un arma termonuclear.

Diseño original de Oleg Lavréntiev para un arma termonuclear. 1) Detonador temporizado. 2) Carga explosiva [convencional]. 3) Semiesferas de plutonio. 4) Cámara de vacío. 5) Capa de litio-6. 6) Deuteruro de litio-6. Aunque es muy primitivo y requeriría varias modificaciones importantes para hacerlo funcionar, todos los conceptos esenciales de un arma con componente de fusión están ahí: se trata básicamente de un diseño “sloika” con un primario de detonación por disparo (similar a la idea inicial “Thin Man” estadounidense para una bomba de fisión de plutonio, o a la bomba “Little Boy” de Hiroshima si sustituimos el plutonio por uranio) envuelto en un secundario compuesto por una capa de litio y, muy acertadísimamente, deuteruro de litio-6. El deuteruro de litio-6 (“liddy”) fue y sigue siendo el explosivo de fusión idóneo para las armas termonucleares. Hay que tener en cuenta que cuando Lavréntiev ideó esto, todas estas cosas eran altísimo secreto o simplemente ni siquiera estaban inventadas y puede decirse que “se lo sacó todo de su cabeza”. Imagen: © Agencia Federal de Archivos, Ministerio de Cultura de la Federación Rusa.

Apenas un mes después, Lavréntiev es desmovilizado y matriculado en la Facultad de Física de la Universidad Estatal de Moscú, con derecho a habitación y beca. Ahí le piden que desarrolle más su propuesta. Oleg se pone a ello. En octubre del mismo año, Sájarov y Tamm completan el primer análisis de un reactor de fusión nuclear por confinamiento magnético, bajo el auspicio de Ígor Kurchátov, basándose no poco en el documento original del joven sargento. Así, pasaron a la historia como los inventores de este tipo de reactor, el más prometedor y el más utilizado del mundo hoy en día, mientras que Lavréntiev quedaría relegado a una oscuridad que no comenzó a esclarecerse hasta que se desclasificaron los documentos secretos de la época en el año 2000.

Hay que decir que a Oleg no le fue mal. Cuando terminó de desarrollar sus planteamientos en enero de 1951, le invitaron al Kremlin, se entrevistó con Beria en persona, le aumentaron la beca, le proporcionaron una habitación mejor, le dieron acceso a todas las publicaciones científicas que necesitara y le pusieron un tutor personal: el matemático Alexander Samarskiy, prácticamente desconocido en Occidente pero un peso semipesado de la ciencia soviética, experto en análisis numérico y física computacional. Así Oleg se graduó con honores e incluso pasó una temporada por el exclusivísimo Laboratorio de Aparatos de Medida, donde trabajaban Sájarov y Tamm. Pero luego, por razones no demasiado claras fue transferido al Instituto de Física y Tecnología de Járkov (Ucrania, entonces parte de la URSS), otro centro de investigación muy prestigioso. Ahí el antiguo sargento Oleg Lavréntiev, que postuló una bomba termonuclear y un reactor de fusión con sólo su educación secundaria, su suscripción a Avances en Ciencias Físicas, su curiosidad y su pasión, pasó el resto de su carrera profesional haciendo lo que le gustaba. No tuvo una mala vida y en esa ciudad murió el 10 de febrero de 2011, a los 84 años.

Sin embargo, como te digo, su papel en el desarrollo de las armas termonucleares de la URSS y sus reactores de fusión por confinamiento magnético permaneció oculto hasta el año 2000, e incluso hoy en día casi nadie lo conoce fuera del espacio post-soviético. Sájarov y Tamm (e, indirectamente, Kurchátov) se llevaron todos los méritos. Que no digo que no se lo curraran y no los merecieran, que se lo curraron y los merecieron, pero tras ellos estuvo la sombra de Lavréntiev. El caso es que los reactores Tokamak comenzaban a nacer en el sector 44 del Laboratorio de Aparatos de Medida de la Academia de Ciencias de la URSS, situado al Noroeste de Moscú. Vamos, el Instituto Kurchátov.

La toroidalnaya kamera s magnitnymi katushkami.

El primer TOKAMAK, llamado T-1, en el Instituto Kurchatov de Moscú donde fue inventado en 1968. Foto: ITER.

El primer prototipo de reactor de fusión Tokamak, llamado T-1, en el Instituto Kurchatov de Moscú (1958). Foto: © ITER Organization.

Al principio, no se llamaron Tokamak, y no todos creían en ellos. El primer “aparato toroidal” para el control del plasma a alta temperatura construido en el sector 44 se llamaba TMP y era una cámara de porcelana, a la que luego le añadieron unas espirales metálicas por el interior. Después vinieron otros dos dispositivos con paredes de cobre y espacios de aislamiento. No fue hasta finales de 1957 que estos primeros aparatos de medida termonucleares dieron lugar al dispositivo T-1, “montaje experimental nº5” o “disposición de 1958” (por el año en que se puso en marcha.)

Hubo algo de bronca para ponerle nombre. Estuvo a punto de llamarse “Tokomag”, por тороидальная камера магнитная, o sea toroidalnaya kamera magnitnaya, es decir cámara magnética toroidal. E incluso “Tokomak”, porque a algunos oídos les sonaba mejor. Pero al final se impuso la opinión del subdirector del laboratorio, Ígor Golovkin, que era un apasionado del proyecto: sus estrellas contenidas por confinamiento magnético se llamarían Tokamak, de тороидальная камера с магнитными катушками, pronunciado toroidalnaya kamera s magnitnymi katushkami, lo que viene siendo cámara toroidal con bobinas magnéticas. Algún otro dice que podría significar también тороидальная камера с аксиальным магнитным полем (toroidalnaya kamera s aksialnym magnitnym polem, cámara toroidal con campo magnético axial), lo que define al ingenio igualmente bien. Yo me quedaré con lo de cámara toroidal a bobinas magnéticas, que era la idea original de Lavréntiev y suena más sovietpunk y molón. :-P

Como puede suponerse, esto del bautismo no fue la única bronca que rodeó al proyecto, ni mucho menos la más importante. El afamado académico Lev Artsimovich (jefe del Departamento de Investigación del Plasma), quien luego se haría un auténtico converso hasta el punto de que le llaman “el padre del Tokamak”, decía por entonces que “conseguir la fusión con un Tokamak es como intentar crear un cigarrillo a partir del humo.” Muchos opinaban que este extraño aparato de medida jamás podría satisfacer la condición KruskalShafranov y estabilizar el plasma en su interior.

Pero lo logró. En 1958, el llamado montaje experimental nº 5 del Insituto Kurchátov, una sencilla cámara de cobre de 1,34 metros de diámetro con una corriente eléctrica en el plasma de 100.000 amperios y una intensidad del campo magnético toroidal de 1,5 teslas, demostró que podía contener el plasma estabilizado y sería posible fusionar deuterio con él en una boscosa periferia de Moscú. Exactamente, aquí. Así, el montaje experimental nº 5 paso definitivamente a la historia como el Tokamak T-1. Una de las grandes puertas a la energía nuclear de fusión, la energía de las estrellas traída a la Tierra, se acababa de abrir sobre la idea original de un joven sargento que sólo contaba con su educación secundaria pero tenía mucha, muchísima audacia y curiosidad.

Diseñando estrellas.

Isótopos naturales del hidrógeno

Los tres isótopos naturales del hidrógeno: protio, deuterio y tritio. El deuterio y el tritio pueden fusionar con “relativa” facilidad. Pero obsérvese que la carga total del núcleo es siempre positiva. Esto tiende a separarlos por repulsión electrostática. Para que puedan entrar en contacto y fusionar, hay que “acelerarlos a temperaturas termonucleares.” Esta es también la razón fundamental de que la fusión fría, al menos en su forma convencional, no tenga demasiado sentido.

El problema básico para producir una reacción nuclear de fusión es que los núcleos de los átomos que constituyen toda la “materia normal“, como tú o yo por ejemplo, tienen carga eléctrica positiva. Si recuerdas, en el núcleo atómico están los neutrones, que no tienen carga, y los protones, que la tienen positiva. Pero no hay ninguna carga negativa. Las cargas negativas están en los electrones, situados en los orbitales de alrededor. Como estamos hablando de fenómenos nucleares, nos tenemos que olvidar de los electrones y nos quedamos con los núcleos. Que, al estar compuestos exclusivamente por neutrones (sin carga) y protones (con carga positiva), son positivos, tanto más cuanto más grandes sean y más protones contengan. Pero desde el más básico de todos, el hidrógeno, con un único protón, tienen carga positiva.

¿Y qué? Pues que, como es bien sabido, cargas opuestas se atraen y cargas iguales se repelen. Igual que en los imanes. Dos polos positivos o dos polos negativos se repelen entre sí. Esto es la repulsión electrostática. La única forma de unirlos es aplicando tanta fuerza que logre superar esta repulsión, siquiera sea temporalmente. Pero en condiciones normales, dos objetos con la misma carga (por ejemplo, dos núcleos atómicos) tienden a separarse, no a unirse y fusionar. (Y por eso lo de la fusión fría nos hizo alzar tanto la ceja a tantos desde el principio. Bajo condiciones estándar, no hay ninguna manera obvia mediante la que los núcleos atómicos puedan vencer la repulsión electrostática hasta fusionar.)

Las estrellas, que son gigantescos reactores de fusión nuclear natural, hacen trampa. Resuelven el problema a base de pura fuerza bruta, con la fuerza de la gravedad. Como son tan grandes y tienen tanta masa, la gravedad las hace colapsar sobre sí mismas hasta que la presión y con ella la temperatura aumentan tanto como para alcanzar las a veces denominadas temperaturas termonucleares. Pero nosotros no tenemos semejantes masas a nuestra disposición.

La manera sencilla de resolver el problema, y la única que nos ha ido bien hasta el momento, es explosiva. Esto es: provocar un brutal pico de presión, temperatura y radiación que haga fusionar núcleos atómicos fácilmente fusionables, como el deuterio, el tritio o el litio. Pero el resultado es todavía más explosivo: así es, talmente, como funciona un arma termonuclear. Claro, eso va muy bien para desintegrar a unos cuantos millones de prójimos con un golpe casi instantáneo de energía monumental, pero no tanto para mover suavemente nuestras sociedades. Si queremos energía de fusión civil, tenemos que producirla de una manera más lenta, progresiva, en un “reactor lento” o algo que se comporte como tal. Cosa que parecía sencilla y al alcance de la mano hace unas décadas, pero ha resultado ser uno de los problemas más difíciles a los que se ha enfrentado jamás la humanidad.

Explicado muy a lo sencillo, estas temperaturas termonucleares son muy, pero que muy superiores a lo que puede resistir ningún material. No se puede construir una “vasija” como las que usamos en los reactores de fisión de las centrales nucleares actuales. A las temperaturas propias de la fusión, cualquier vasija de cualquier material existente, imaginable o teorizable en este universo se convierte instantáneamente en plasma y se desintegra. (Y esa es una de las razones por las que las armas termonucleares son tan devastadoras: en las inmediaciones de la detonación, ninguna clase de materia puede pervivir de manera organizada.)

Repulsión y fusión nuclear

Polos opuestos se atraen, polos iguales se repelen. Los núcleos atómicos están compuestos por neutrones (sin carga) y protones (con carga positiva); como resultado, los núcleos en su conjunto son fuertemente positivos y por tanto se repelen con fuerza entre sí. En condiciones normales, esta repulsión los mantiene separados e impide que puedan llegar a fusionar. Sin embargo, a temperaturas termonucleares (millones de grados), los núcleos vibran violentamente y la inercia de estos movimientos es capaz de vencer a la repulsión electrostática, haciéndolos colisionar y fusionar entre sí con alta liberación de energía. En la imagen, dos núcleos de deuterio (hidrógeno-2) y tritio (hidrógeno-3) colisionan, fusionan y liberan un núcleo de helio-4 y un neutrón altamente energéticos.

En resumen: que sabemos cómo hacer fusionar cosas, pero no cómo ralentizar y contener la reacción para convertirla en esa energía domadita que mueve nuestros hogares, nuestros trabajos y nuestro mundo en general (y luego quienes tú ya sabes nos cobran a precio de oro…). A decir verdad, a estas alturas también sabemos cómo ralentizarla y contenerla… pero sólo en parte, de manera muy limitada, y consumiendo en el proceso total más energía de la que obtenemos. Es decir, que tenemos armas de fusión capaces de aniquilar civilizaciones enteras pero no tenemos más reactor nuclear de fusión eficaz que el sol brillando sobre nuestras cabezas.

Concepto básico para una central eléctrica de fusión nuclear basada en un Tokamak, como el que está desarrollando la cooperación internacional ITER.

Concepto básico para una central eléctrica de fusión nuclear basada en un Tokamak, como el que está desarrollando la cooperación internacional ITER.

Y no es porque no se le haya echado pasta y ganas encima, ¿eh? La energía nuclear de fusión prometía y promete ser tan estupenda que en algunos periodos se le han echado encima ingentes cantidades de dinero y no pocas de las mentes más brillantes del periodo. Pero aún así se resiste, la jodía.

Como te digo, el problema no es fusionar núcleos atómicos. Eso sabemos hacerlo. El problema es todo lo demás, y muy particularmente la producción y confinamiento de esa reacción con un saldo energético favorable. Como ya hemos visto, las estrellas como nuestro sol usan de manera natural el confinamiento gravitacional aprovechando su enorme masa. Vamos, que la gravedad de esa masa mantiene la reacción contenida durante largos periodos de tiempo en esas luminarias que cubren el cielo, como si dijéramos “empujando hacia adentro”. Puesto que como también hemos dicho nosotros no tenemos tales masas para trabajar, nos toca recurrir a trucos distintos. Hoy por hoy, estos son básicamente dos: el confinamiento inercial y el confinamiento magnético. La cámara a bobinas magnéticas que imaginó el joven sargento Lavréntiev, o sea el Tokamak soviético, o sea el ITER internacional, utilizan esta segunda técnica.

En el mismo 1958 los científicos soviéticos presentaron los primeros resultados obtenidos con el dispositivo T-1 en la II Conferencia de Átomos para la Paz, celebrada en Ginebra. Este fue uno de los mayores encuentros científicos de la historia, con más de 5.000 participantes. La URSS presentó un paper titulado “Estabilidad y calentamiento de plasmas en cámaras toroidales.” Se había tomado la decisión de desclasificar la investigación y en este artículo aparecía prácticamente todo, incluso un esquema de la máquina, salvo el nombrecito Tokamak de marras. Pese a ello, la era Tokamak acababa de nacer.

La era Tokamak.

Interior del Tokamak JET detenido y (en la inserción) funcionando, con plasma en su interior.

Interior del Tokamak JET detenido y (en la inserción) funcionando, con plasma en su interior. Foto: Cortesía EFDA-JET. (Clic para ampliar)

Al dispositivo T-1, fundamentalmente experimental, le siguieron el T-2 del año 1960 y el T-3 de 1962. El T-3 era ya un dispositivo funcional por completo. En 1968, el Tokamak T-4 de Novosibirsk demostró la primera fusión nuclear casi-estacionaria. Los resultados del T-3 y el T-4 fueron tan prometedores que pronto comenzaron a construirse también fuera de la URSS. Los primeros fueron los japoneses, que arrancaron en 1969 con los JFT y los NOVA, antecesores del actual JT-60. Les siguieron los estadounidenses con el Alcator A del Instituto de Tecnología de Massachusetts (1972), origen del Alcator C-Mod, y después con el DIII-D. En Francia tampoco quisieron perdérselo y en 1973 ponían en marcha el Tokamak de Fontenay-aux-Roses del que luego saldría el Tore Supra en Cadarache, donde ahora se está construyendo el ITER. Luego vendrían muchos más, en muchos países, desde China, Brasil o Italia a Irán, Portugal o México. Y en España, el Tokamak TJ-I de 1984.

Los soviéticos, por su parte, no se durmieron en los laureles. Siguieron adelante con diseños cada vez más grandes y sofisticados. Vino el T-7, el primer Tokamak con imanes superconductores. Le siguió el T-8, con la característica cámara con sección en forma de “D” que se mantiene en los diseños actuales. Culminarían en el Tokamak T-15 de 1988, sobre el que después se realizarían los estudios preliminares para diseñar el ITER; ahora lo están actualizando. Pero tras el colapso de la URSS se han quedado un poco fuera de juego, aunque anden liados con el Globus-M; más que nada, participan en la cooperación ITER.

Pese al éxito del Tokamak, no todas sus alternativas han quedado aplastadas. El diseño Stellarator, aunque quedó un poco pachucho durante una larga temporada, vuelve a presentar interés (en el Laboratorio Nacional de Fusión del CIEMAT tenemos uno: el TJ-II.) Y por supuesto, la otra gran alternativa, el confinamiento inercial, prosiguió con dispositivos como la National Ignition Facility estadounidense o el Laser Mégajoule francés, de doble uso en investigación civil / militar. En la National Ignition Facility parecieron obtener un resultado muy importante en septiembre de 2013 (producir la misma energía que se consumía para obtener la fusión), pero luego resultó que eso era muy matizable (y aquí.) Tanto, que sólo obtuvieron un 0,78% de la energía consumida. :-/ En el Joint European Torus, el Tokamak más grande del mundo, se llega al 70% y según algunos modelos teóricos del JT-60 japonés, se ha podido llegar al 125% (esto está disputado.) Pero para empezar a generar energía con el conjunto del reactor hay que llegar al 500% y para hacer una central de fusión práctica, superar el 1.000 o el 1.500% y preferiblemente rondar el 2.500%.

Océano Pacífico desde Poronaysk, isla de Sajalín, Rusia.

Una estrella y un mar llenos de hidrógeno con los que soñar: el Océano Pacífico y (algo de) sol matutino vistos desde Poronaysk (Sajalín, Rusia), donde estaba destinado el sargento Oleg A. Lavréntiev cuando tuvo su idea genial. Foto: Alex Nov., 2009.

El caso es que ahora mismo el gran proyecto internacional para obtener energía de fusión es un Tokamak: el conocido y ya muchas veces mencionado ITER, que debería empezar a dar resultados en el periodo 2020-2027. Si consigue sus objetivos, después tendrá que venir DEMO para convertirlo en una central eléctrica práctica allá por 2033-2040. Ya te conté hace algún tiempo que esto de la energía nuclear civil de fusión avanzaba a su ritmo, y por qué. Lo cierto es que sigue avanzando, pero comprendo que haya decepcionado a muchas personas. Hace décadas se crearon expectativas que en su momento se creían realistas… pero no lo eran. El problema resultó mucho más diabólico de lo que parecía. Eso sí, cuando lo consigamos, seguramente habrá que volver a acordarse de aquel sargentillo que con sus estudios de secundaria y su esforzada suscripción a Avances en Ciencias Físicas, mientras miraba al sol naciente sobre las aguas del Pacífico, tuvo una ocurrencia genial.

Bibliografía / Para aprender más:

 

44 Comentarios Trackbacks / Pingbacks (2)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (30 votos, media: 5,00 de 5)
Loading...Loading...
Be Sociable, Share!

De amigos derribados

Por desgracia, ni es el primero ni será el último.

In memoriam vuelo 17 de Malaysian Airlines, derribado el 17 de julio de 2014 sobre la Cuenca del Don.

In memoriam vuelo 17 de Malaysian Airlines, derribado el 17 de julio de 2014 sobre la Cuenca del Donets, con 298 personas a bordo. Foto: © M. Zafriz, planespotters.net (Clic para ampliar)

Una vez más, nos han abatido a un amigo. Bueno, en esta ocasión, a 298 amigos. Eso lo convierte en el peor derribo de la historia, superando en ocho al que hasta ahora encabezaba tan infame lista: el Iran Air 655, destruido por el crucero USS Vincennes de la Armada de los Estados Unidos el 3 de julio de 1988, con 290 ocupantes. En esta ocasión la tragedia se ha cernido otra vez sobre Malaysia Airlines, que menudo añito lleva; como ya sabrás, a menos que hayas andado por la nube de Oort estos últimos días, el vuelo Malaysian 17 de Amsterdam a Kuala Lumpur cayó sobre la disputada cuenca del río Donets sobre las 16:20 (hora local) del pasado jueves. Según todos los indicios, reventado por un misil.

Como te digo, no es el primero, ni mucho menos. Viene ocurriendo desde los tiempos de la Segunda Guerra Mundial, cuando los aviones civiles y militares empezaron a compartir el cielo a menudo. Los primeros fueron dos Junkers Ju-52 de fabricación alemana, el 14 de junio y 26 de octubre de 1940, uno a manos de la Fuerza Aérea Soviética y otro de la Japonesa. Fue bastante lógico –que no bueno– porque los Ju-52 civiles se parecían mucho a sus versiones militares, tanto para transporte como los bombarderos que se estrenaron en la Guerra Civil Española, dando lugar a la expresión armas de destrucción masiva. De hecho, poco antes, el 30 de mayo y el 2 de junio de 1940 los cazas británicos y la defensa antiaérea sueca ya se habían cepillado sendos transportes militares nazis de este mismo modelo. Con una guerra de alcance planetario en marcha nadie miraba mucho el pelo de un Ju-52, a ver si era civil, militar o militarizable, y así comenzó la cosa.

Desde entonces, entre vuelos civiles y aviones de tipo comercial realizando misiones militares, ha ocurrido al menos 325 veces tanto en tiempos de paz, como de guerra, como cualquiera de los tonos de gris que hay en medio. El primero así gordo para los criterios de su época fue el vuelo regular británico BOAC 777-A de Lisboa a Bristol, un DC-3 abatido en el Golfo de Vizcaya por ocho cazabombarderos nazis Junkers Ju-88 el 1 de junio de 1943. Perecieron sus 17 ocupantes, entre ellos el actor Leslie Howard, el destacado sionista Wilfrid B. Israel,  un presunto agente especial inglés y dos niñas de 11 años y 18 meses. Hubo muchas conjeturas sobre los motivos de este derribo, pero los pilotos alemanes que lo ejecutaron declararían después que simplemente nadie les informó de que había un vuelo civil programado en el sector y lo tomaron por un transporte militar. Al igual que ocurriera con los Ju-52, a los DC-3 también se les daba un uso bélico extensivo, por lo que la confusión estaba de nuevo asegurada.

Tupolev Tu-104A

Probablemente, el primer avión de pasajeros derribado por un misil fue un Tupolev 104A como este: el vuelo Aeroflot 902 de Jabárovsk a Moscú con escalas en Irkutsk y Omsk. Según reconocieron bastante más tarde las autoridades soviéticas, fue abatido accidentalmente durante unas maniobras militares en la Marca de Krasnoyark, el 30 de junio de 1962. Murieron sus 84 ocupantes. Imagen: Wikimedia Commons. (Clic para ampliar)

El primero que cayó al sobrevolar una zona conflictiva sin tener nada que ver con el asunto fue un vuelo checo de Praga a Israel vía Roma y Atenas. Aproximándose a Atenas, se perdió en las nubes y lanzó una bengala para dejarse ver. Los griegos, que andaban de guerra civil, lo tomaron por una amenaza y le zumbaron con artillería antiaérea. Perecieron las 24 personas que iban a bordo. Otro muy destacado fue el vuelo israelí El Al 402 de Londres a Tel Aviv con escalas en Viena y Estambul. Se trataba de un Lockheed L-049 Constellation, la versión civil del transporte militar C-69, con 51 pasajeros y 7 tripulantes. Debido a un error de navegación se metió en espacio aéreo búlgaro el 27 de julio de 1955, al otro lado del Telón de Acero, en plena Guerra Fría. Un par de cazas MiG-15 subieron a por él. Como suele suceder en estos casos, hay dos versiones de lo que ocurrió a continuación; pero parece ser que el Constellation no obedeció las órdenes de los cazas, o no lo hizo a plena satisfacción de sus pilotos, y al final acabó derribado con fuego de ametralladora. También fallecieron todos sus ocupantes.

Misiles contra civiles.

Con la aparición de los misiles comenzaron los derribos de aviones comerciales sin comerlo ni beberlo. Los misiles es que son un poco bordes. No les mola eso de suicidarse sin llevarse a alguien por delante. Mientras puedan localizar un blanco, intentarán ir a por su gaznate. Y esto fue lo que le pasó el 30 de junio de 1962 al Aeroflot 902 de Jabárovsk a Moscú (URSS), un Tupolev Tu-104A inconfundiblemente civil. Se estrelló al Este de Krasnoyarsk con 84 personas a bordo, entre ellas 14 menores; no hubo supervivientes. Las Fuerzas Armadas Soviéticas reconocieron después con la boca chiquitina, chiquitina, que ignoraban dónde fue a parar un misil tierra-aire de largo alcance lanzado durante unas maniobras militares en el área.

Cosa parecida se rumorea que le ocurrió el 11 de septiembre de 1968 al vuelo 1611 de Air France, un Caravelle III que cayó al Mediterráneo mientras viajaba de Córcega a Niza. A bordo iba todo un general y héroe de guerra, René Cogny, junto a 94 personas más. Las 95 murieron. El informe final achacó la catástrofe a un incendio de origen desconocido. Sin embargo, a principios de esta década comenzaron a salir informaciones de que pudo ser derribado accidentalmente por un misil en pruebas de las Fuerzas Armadas Francesas. Con gran renuencia París reabrió el caso en 2012, pero sigue en un limbo judicial. No obstante, hoy en día todas las bases de datos de seguridad aérea lo consideran efectivamente abatido por un misil.

Por no extenderme hasta el agobio, nos limitaremos a comentar los derribos estrictamente civiles de los últimos cincuenta años con más de cincuenta ocupantes y una mayoría de ellos muertos. O sea, los gordos. Son los siguientes:

Libyan Arab Airlines 114, derribado por la Fuerza Aérea Israelí en territorio ocupado por Israel.

F-4 Phantom II israelí

El Libyan Arab Airlines 114 fue abatido por cazabombarderos israelíes F-4 Phantom II como el de la foto, actualmente convertido en monumento a la salida de la Escuela de Aviación Militar de Naot Lon, en Beerseba. Debido a la tensa relación entre Israel y los países árabes, sus pilotos decidieron desobedecer a los cazas Phantom, por lo que fueron derribados. Dieciocho años antes el avión de pasajeros israelí El Al 402 había hecho lo mismo sobre Bulgaria y resultó igualmente destruido por cazas MiG-15. Sin embargo, el Libyan 114 fue el último avión comercial derribado “a la antigua”, con fuego de cañón ametrallador. Llegaba la era de los misiles. Imagen: Wikimedia Commons. (Clic para ampliar)

  • Lugar: Península del Sinaí (conquistada por Israel en aquellas fechas.)
  • Fecha/hora: 21 de febrero de 1973, poco después de las 14:00 hora local.
  • Aeronave: Boeing 727-224, matrícula 5A-DAH (Libia).
  • Tipo: Vuelo regular internacional de pasajeros.
  • Ruta: TrípoliCairo vía Bengasi.
  • Contexto: Entre la Guerra de los Seis Días y la Guerra del Yom Kippur, con Israel y Egipto técnicamente en guerra; sin combates en ese momento, pero en alto estado de alerta.
  • Derribado por: 2 cazabombarderos F-4 Phantom II de fabricación estadounidense con sus cañones ametralladores, autorizados por David Elazar, comandante en jefe de las Fuerzas de Defensa de Israel.
  • Detalles: Debido a una fuerte tormenta de arena que les dejó sin visibilidad y un error de navegación, el vuelo 114 de Libyan Arab Airlines penetró en espacio aéreo israelí desde Egipto sobre las 13:54 hora local. Sin saberlo, se dirigió además hacia la Central Nuclear de Dimona, el centro de producción de los materiales especiales para las armas atómicas israelís. Dos cazabombarderos F-4 Phantom II salieron a interceptarlo. Al igual que hiciera el El Al 402 de 1955 en Bulgaria, los pilotos del Libyan 114 decidieron ignorar sus instrucciones e intentar el regreso a Egipto. Los cazabombarderos israelís lo derribaron con fuego de cañón ametrallador. Gracias a un aterrizaje de emergencia in extremis hubo 5 supervivientes, incluyendo al copiloto, quien declaró que no habían obedecido las órdenes debido a la mala relación entre los países árabes e Israel. Fue el último gran derribo civil a la antigua, a balazos.
  • Resultado: Avión destruido, 108 personas muertas, 5 supervivientes. Sin consecuencias negativas para los autores. Finalmente, Israel indemnizó a las familias de las víctimas y Moshé Dayan calificó lo sucedido como “un error de juicio.”

Air Rhodesia 825, derribado por la guerrilla ZIPRA en Rodesia, hoy Zimbabue.

  • Lugar: Al Oeste de Karoi (entonces Rodesia, ahora Zimbabue)
  • Fecha/hora: 3 de septiembre de 1978, sobre las 17:00 hora local.
  • Aeronave: Vickers Viscount 782D, matrícula VP-WAS (colonias del Reino Unido).
  • Tipo: Vuelo regular nacional de pasajeros.
  • Ruta: Victoria FallsSalisbury (hoy Harare) vía Kariba.
  • Contexto: Guerra del Matorral, un conflicto extremadamente brutal entre las mayorías negras y el gobierno y colonos blancos de Rodesia. La aerolínea de bandera Air Rhodesia estaba fuertemente identificada con el estado y la élite blanca.
  • Derribado por: Guerrilleros del ZIPRA con un misil antiaéreo portátil modelo Strela-2 (SA-7), de fabricación soviética.
  • Detalles: Cinco minutos después de despegar de Kariba, durante el ascenso, guerrilleros emboscados en el matorral dispararon un misil portátil de guía infrarroja Strela-2 contra el vuelo 825. Le alcanzó en el ala de estribor, causándole gravísimos daños y obligándole a realizar un aterrizaje forzoso en el que murieron 38 de los 56 ocupantes. Los guerrilleros mataron con armas automáticas a los 10 supervivientes que encontraron al llegar al lugar del impacto. Otros 8 lograron ocultarse o escapar. Fue el primer avión comercial derribado por un misil lanzado desde el hombro (MANPADS.)
  • Resultado: Avión destruido, 48 personas muertas, 8 supervivientes. El gobierno tomó represalias igualmente sangrientas, que condujeron, entre otras consecuencias, al siguiente caso:

Air Rhodesia 827, derribado por la guerrilla ZIPRA en Rodesia, hoy Zimbabue.

9K32 Strela-2 (SA-7) MANPADS

Aunque actualmente obsoleto para la mayoría de situaciones, el MANPADS soviético 9K32 “Strela-2” (en la imagen) ha sido “el Kalashnikov de los antiaéreos” en numerosos conflictos del mundo. Pertenece a la misma generación que los FIM-92 “Stinger” estadounidenses originales. Actualmente existen armas de este tipo mucho más modernas, como la Igla-S rusa, el Starstreak británico, las últimas versiones del Stinger o los nuevos modelos chinos. Todas estas armas se conocen genéricamente como MANPADS (“man-portable air defense systems”). Imagen: Wikimedia Commons. (Clic para ampliar)

  • Lugar: Área de Vuti (entonces Rodesia, ahora Zimbabue)
  • Fecha/hora: 12 de febrero de 1979, sobre las 17:00 hora local.
  • Aeronave: Vickers Viscount 748D, matrícula VP-YND (colonias del Reino Unido).
  • Tipo: Vuelo regular nacional de pasajeros.
  • Ruta: KaribaSalisbury (hoy Harare.)
  • Contexto: Guerra del Matorral, tras feroces represalias a consecuencia del derribo anterior.
  • Derribado por: Guerrilleros del ZIPRA con otro misil antiaéreo portátil modelo Strela-2, de fabricación soviética.
  • Detalles: Era, básicamente, el mismo vuelo con otro avión. Mientras despegaba de Kariba, durante el ascenso, los guerrilleros le lanzaron un segundo misil portátil de guía infrarroja Strela-2. Esta vez, el avión atacado sufrió daños fatales y se estrelló sin más.
  • Resultado: Avión destruido, 59 personas muertas, sin supervivientes. Las guerrillas terminaron ganando el conflicto, así que los autores no sufrieron consecuencias por estos hechos.

Itavia 870, derribado por la OTAN en el Mar Tirreno, Mediterráneo.

  • Lugar: Mar Tirreno, frente a las costas italianas, cerca de Ustica.
  • Fecha/hora: 27 de junio de 1980, sobre las 21:00 hora local.
  • Aeronave: DC-9-15, matrícula I-TIGI (Italia).
  • Tipo: Vuelo regular nacional de pasajeros.
  • Ruta: BoloniaPalermo.
  • Contexto: Unas oscuras operaciones de la OTAN en el Mar Mediterráneo, probablemente relacionadas con Libia.
  • Derribado por: La Armada Francesa, parte del componente naval de la OTAN en el sector, con un misil tiera-aire.
  • Detalles: Los detalles de este caso, cuidadosamente encubiertos durante décadas, son todavía muy turbios. El ex Presidente de Italia Francesco Cossiga (Democracia Cristiana, derecha) ha reconocido que el Itavia 870 fue destruido accidentalmente por un misil lanzado desde un buque de la Armada Francesa en el contexto de una operación de la OTAN destinada a asesinar al coronel Gadaffi (palabras textuales del ex Presidente Cossiga, citado por el Corriere della Sera.) Los tribunales italianos han condenado al estado a indemnizar a las familias por “no garantizar la seguridad del vuelo”, a cargo del contribuyente. El derribo del Itavia 870 se considera relacionado con el incidente del MiG-23 de Castelsilano y con aspectos todavía secretos de la Operación Gladio.
  • Resultado: Avión destruido y sumergido, 81 personas muertas, sin supervivientes. Jamás se ha establecido ninguna responsabilidad particular ni ha habido consecuencias para ninguna persona o entidad específica. El estado italiano terminó indemnizando a las familias de las víctimas décadas después.
Itavia 870.

Lo ocurrido al Itavia 870 fue uno de los grandes misterios de los “años del plomo” de la guerra sucia en Europa. Se estrelló en el Mar Mediterráneo el 27 de junio de 1980, con 81 personas a bordo. No fue hasta bien entrado el siglo XXI que las autoridades y la judicatura italianas reconocieron que había sido derribado por un misil de la Armada Francesa durante unas oscuras operaciones de la OTAN, probablemente contra Libia. El estado italiano terminó asumiendo las indemnizaciones. Nadie ha sido procesado por estos hechos. Imagen: W. Fischdick vía Wikimedia Commons.

Korean Air Lines 007, derribado por la Fuerza Aérea Soviética en aguas probablemente soviéticas.

Derribo soviético del Jumbo sudcoreano KAL 007.

Arriba a la izda.: muchos años después, el teniente coronel (ya retirado) de la Fuerza Aérea Soviética Gennady Osipovich explica cómo derribó al vuelo KAL007 en la madrugada del 1 de septiembre de 1983. En entrevistas posteriores ha afirmado “tener pesadillas” por lo sucedido, pero al mismo tiempo sigue convencido de que el Jumbo surcoreano había sido modificado para actuar como avión espía. Arriba a la dcha.: Un Boeing 747 Jumbo de Korean Air Lines similar al abatido. Abajo: Mapa del sector el 1 de septiembre de 1983. Pueden observarse las zonas sumamente críticas que había sobrevolado y se disponía a sobrevolar. Imágenes: Wikimedia Commons. (Clic para ampliar)

  • Lugar: Cerca de la Isla Moneron, frente a las costas de Sajalín, URSS (actualmente Rusia.) Se discute si ocurrió exactamente dentro o fuera del espacio aeronaval soviético.
  • Fecha/hora: 1 de septiembre de 1983, 05:26 hora local.
  • Aeronave: Boeing 747-230B Jumbo, matrícula HL7442 (Corea del Sur).
  • Tipo: Vuelo regular internacional de pasajeros.
  • Ruta: Nueva YorkSeúl vía Anchorage (Alaska.)
  • Contexto: Momento extremadamente tenso de la Guerra Fría, que llegó a estar muy cerca de la guerra nuclear.
  • Derribado por: Grupo de cazas de combate de la Fuerza Aérea Soviética, y específicamente por un interceptor Sukhoi Su-15, con misiles aire-aire Kaliningrad K-8 (AA-3). El Su-15 estaba pilotado por el mayor (después teniente coronel) Gennady Osipovich, a las órdenes del general Anatoli Korkunov (báse aérea de Sokol), a su vez a las órdenes del general Valeri Kamensky (comandante de la defensa aérea del Distrito Militar del Lejano Este), bajo el mando de los generales Ivan Moiseevich Tretyak (comandante del Distrito Militar del Lejano Este) y Vladimir L. Grovov (comandante del Teatro de Operaciones del Lejano Este.)
  • Detalles: Al partir de Alaska, los pilotos del Jumbo sudcoreano configuraron erróneamente el modo de navegación del autopiloto. Por ello, volando de noche, el avión se desvió más de 300 km de su ruta sin que se diesen cuenta. Desafortunadamente, penetró en la Unión Soviética por un punto muy cercano a una de las dos bases principales de submarinos atómicos SSBN/PLARB. A continuación siguió avanzando hacia la región estratégica de Vladivostok, sede de la Flota del Pacífico. En el contexto de extrema tensión indicado anteriormente, la respuesta de la cadena de mando soviética ante esta “doble penetración” puede calificarse de histérica o cuanto menos paranoica, tremendamente agresiva. Aunque realizaron algunos intentos para identificar al intruso, y el mayor Osipovich asegura haberle hecho al menos dos advertencias distintas (en condiciones de muy mala visibilidad), el estado mental de todos los implicados evolucionó rápidamente hacia la decisión de abrir fuego antes de que abandonara el espacio aéreo de la URSS. Posteriormente, las autoridades soviéticas ocultaron diversos aspectos del derribo, hasta que Yeltsin abrió los archivos en 1993. De la grabación de la caja negra se deduce que los pilotos surcoreanos, entretenidos con una conversación privada, nunca fueron conscientes de nada de lo que ocurría a su alrededor y quedaron totalmente sorprendidos al constatar cómo perdían el control del avión debido al impacto de los misiles.
  • Resultado: Avión destruido y sumergido, 269 personas muertas, sin supervivientes. Tanto el mayor Osipovich como sus superiores fueron premiados por sus acciones y el general Korkunov, en particular, terminaría siendo comandante de la Fuerza Aérea Rusa; falleció el pasado 1 de julio a los 72 años de edad. Korean Air Lines pagó la indemnización a las familias de las víctimas.

Tres derribos con misiles portátiles (1985-1987):

Iran Air 655, derribado por la Armada de los Estados Unidos en aguas iranís.

Centro de Información de Combate (Aegis) del USS Vincennes (CG-49).

El Centro de Información de Combate (Aegis) del USS Vincennes (CG-49), de la clase Ticonderoga, en 1988. Este fue el lugar exacto desde donde se derribó al vuelo Iran Air 655, que con 290 personas muertas fue el peor de la historia hasta el Malaysian 17 de esta semana pasada. Imagen: Armada de los Estados Unidos. (Clic para ampliar)

  • Lugar: Estrecho de Ormuz, Golfo Pérsico, frente a la Isla de Queshm (Irán.)
  • Fecha/hora: 3 de julio de 1988, 10:24 hora local.
  • Aeronave: Airbus A300B2-203, matrícula EP-IBU (Irán).
  • Tipo: Vuelo regular internacional de pasajeros.
  • Ruta: Bandar AbbásDubai.
  • Contexto: Guerra Irán-Iraq, inmediatamente después de la Operación Praying Mantis, con Estados Unidos apoyando poco disimuladamente a Sadam Husein contra el Ayatolá Jomeini. Las fragatas norteamericanas USS Sides y USS Elmer Montgomery se encontraban en la zona, a poca distancia del crucero de misiles USS Vincennes de la clase Ticonderoga (con Aegis). Al menos el USS Vincennes había penetrado ilegalmente en aguas iraníes y acababa de librar un combate a tiros contra lanchas de este país. Por tanto, el estado de ánimo a bordo era de extrema alerta y agresividad.
  • Derribado por: 2 misiles superficie-aire SM-2MR disparados desde el crucero USS Vincennes de la Armada Estadounidense, siguiendo órdenes de su capitán William C. Rogers III, conocido por su elevada belicosidad personal (hasta el punto de que este buque sería luego apodado el Robocrucero, por Robocop.)
  • Detalles: Mientras el Iran Air 655 ascendía normalmente desde Bandar Abbás, fue detectado por el USS Vincennes, que acababa de entrar en combate contra lanchas iraníes. Pese a que el Airbus circulaba por una aerovía internacional establecida (Amber 59) e iba transmitiendo su squawk en modo III como de costumbre, el Centro de Información de Combate del buque lo catalogó como un F-14 Tomcat iraní disponiéndose a atacar. Intentaron ponerse en contacto varias veces con él, pero debido a diferencias en la lecturas de posición y velocidad, a los pilotos del Airbus no les pareció que se dirigieran a ellos y no contestaron. Inmediatamente, y pese a que el Airbus continuaba ascendiendo en línea recta (y no estabilizándose o descendiendo para atacar, ni intentando pasar desapercibido, que sería lo lógico) el capitán Rogers ordenó abatirlo.
  • Resultado: Avión destruido y sumergido, 290 personas muertas, sin supervivientes. Los autores fueron condecorados y ascendidos con posterioridad. Estados Unidos pagó indemnizaciones a las familias de las víctimas, pero sin disculparse. Fue el peor caso de todos, por número de fallecidos, hasta esta semana pasada.

(Omito aquí el derribo del Tu-154 de Orbi Georgian en Abjasia, el 22 de septiembre de 1993, por tratarse en realidad de un transporte de tropas georgianas en avión comercial para la Guerra de Abjasia que se libraba en la región; estamos hablando de derribos de aeronaves estrictamente civiles desempeñando funciones estrictamente civiles. Pero cayeron los 132 que iban a bordo. Dado que la guerrilla abjasia ganó el conflicto, tampoco hubo persecución de los autores.)

Lionair 602, derribado por los Tigres de Liberación del Eelam Tamil en Sri Lanka (dudoso.)

  • Lugar: Frente a las Islas de Iranativu (Sri Lanka.)
  • Fecha: 29 de septiembre de 1998.
  • Aeronave: Antonov An-24RV, matrícula EW-46465 (Bielorrusia, en leasing).
  • Tipo: Vuelo regular nacional de pasajeros.
  • Ruta: JaffnaColombo.
  • Contexto: Guerra civil de Sri Lanka. La guerrilla tamil acusaba a Lionair de cooperar extensivamente con las fuerzas armadas gubernamentales.
  • Derribado por: Dudoso. Probablemente, misiles ligeros de infantería (MANPADS) disparados por los Tigres de Liberación del Eelam Tamil.
  • Detalles: El avión se perdió en el mar diez minutos después de despegar de Jaffna. Los restos no aparecieron hasta 2012. Aparece en las bases de datos de seguridad aérea como abatido con misiles tierra-aire.
  • Resultado: Avión destruido y sumergido, 55 personas muertas, sin supervivientes. Se desconoce la identidad exacta de los autores materiales.

Siberia Airlines 1812, derribado por la Defensa Aérea de Ucrania en el Mar Negro.

Misil de un sistema antiaéreo de largo alcance S-200 Vega, en Chequia.

Misil de un sistema antiaéreo de largo alcance S-200 Vega como el que derribó al Siberian 1812, en el Museo Técnico Militar Lešany (Chequia.) Imagen: Wikimedia Commons. (Clic para ampliar)

  • Lugar: Mar Negro, ZEE de Rusia, 190 km al OSO de Sochi.
  • Fecha/hora: 4 de octubre de 2001, sobre las 13:45 hora local.
  • Aeronave: Tupolev Tu-154M, matrícula RA-85693 (Rusia).
  • Tipo: Vuelo regular internacional de pasajeros.
  • Ruta: Tel AvivNovosibirsk.
  • Contexto: Menos de 1 mes después de los atentados del 11-S. La Defensa Aérea de Ucrania estaba realizando maniobras militares con misiles tierra-aire de medio y largo alcance.
  • Derribado por: Misil de un sistema S-200 de la Defensa Aérea de Ucrania.
  • Detalles: La Defensa Aérea de Ucrania disparó un misil del sistema S-200 contra un blanco de maniobras desde el Cabo Onuk, Crimea. Sin embargo, este blanco había sido previamente abatido por un S-300 de la misma nacionalidad. Al no encontrar un objetivo, en vez de autodestruir el misil, el S-200 se reblocó automáticamente contra lo “siguiente que vio”: el Siberian 1812, alcanzándolo poco después.
  • Resultado: Avión destruido y sumergido, 78 personas muertas, sin supervivientes. Al principio Ucrania negó los hechos y sólo pagó indemnizaciones ex gratia a los familiares. Finalmente lo reconoció, abonando indemnizaciones adicionales. No obstante, los tribunales ucranios siguen negándose a dar la razón a las familias y entidades demandantes. Se ignora si algún militar ucranio tuvo problemas a consecuencia de este suceso.

Entre estos, que son los gordos, ha habido una constante llovizna de otros más pequeños o de “civilidad” dudosa con los que no te voy a saturar, hasta sumar casi 2.000 muertos. Como puede verse, la práctica de derribar aviones de pasajeros cargados de civiles inocentes sin que haya consecuencias negativas para los autores, sino más bien todo lo contrario, está bien extendida y establecida desde mediados del siglo pasado. Y ahora, otro. :-( Que, si tiene alguna consecuencia, sólo será porque esta vez los autores podrían ser unos muertos de hambre.

Me gustaría agrupar todos estos casos en un pequeño esquema sistemático, para aclararnos un poco:

  • Derribos deliberados:
  1. Por voluntad expresa, al considerar a la aerolínea o sus ocupantes parte del enemigo o combatiente de facto: Air Rhodesia 825 (ZIPRA, 1978) y 827 (ZIPRA, 1979); los dos An-26 de Bakhtar Afghan (islamistas antisoviéticos, 1985 y 1987); el Fokker F-27 de Sudan Airways (ELPS, 1986); Lionair 602 (tamiles, 1998).
  2. Por voluntad expresa, al negarse la aeronave civil a obedecer órdenes: El Al 402 (Bulgaria, 1955); Libyan Arab Airlines 114 (Israel, 1973).
  3. Por confusión en la toma de decisiones y/o amenaza percibida del blanco, en un contexto de elevada tensión y hostilidad: Korean Air Lines 007 (URSS, 1983); Iran Air 655 (EEUU, 1988).
  4. Por causas aún secretas o no lo bastante conocidas: en parte, Itavia 870 (OTAN, 1980, en lo que hace a los motivos exactos de que hubiera misiles volando en el área.) Y aparte, está el extraño caso del Malév 240 (1975), que permanece bajo secreto de estado tanto de Hungría como de cualquier otro actor implicado (ver preguntas del eurodiputado Erik Meijer a la Comisión Europea sobre este suceso.)
  • Derribos por error:
  1. Por misiles perdidos que se blocaron o reblocaron contra el avión comercial: Aeroflot 902 (URSS, 1962); Air France 1611 (Francia, 1968); Itavia 870 (OTAN, 1980, en lo que respecta a la causa inmediata del derribo); Siberia Airlines 1812 (Ucrania, 2001).
  2. Por error simple de identificación, confundiéndolo con una aeronave enemiga:  Vuelo checo a Atenas (Grecia, 1948);

Bueno, y este rollo que te acabo de meter, ¿a qué viene? Pues viene a que estoy intentando encontrar algo de racionalidad a través de la asfixiante humareda de propaganda que venimos padeciendo desde que el Malaysian 17 se desplomó de los cielos; y ya que estoy, pues te lo ofrezco a ti también por si te sirve de algo.

Veamos: como es obvio, nadie derriba deliberadamente grandes aviones de pasajeros contra los que no tiene nada en particular por mera maldad o porque se le pone en la horcajadura. Incluso aunque seas muy, muy malo y muy, muy chulo, no lo haces sin un motivo mínimamente racional. La única alternativa es que estés francamente colocado, como la gente sin duda se suele colocar en las guerras, pero eso sólo funciona bien para violar y degollar, no para manejar equipo antiaéreo con éxito. De hecho, ya lo ves: no hemos encontrado ni un solo caso de alguien que abatió un avión comercial simplemente porque le salió de la anatomía habitual. Siempre hay un motivo, una razón, o al menos un método en la locura. En el caso del Malaysian 17, no hay ningún motivo obvio por el que Ucrania, Rusia o los rebeldes del Donetsk quisieran tumbar un avión de la otra punta del mundo, sin nada que ver en sus asuntos.

TELAR Buk M-1 capturado en el Donbass.

Una de las fotos que han circulado de TELAR (“transporter-erector-launcher-radar”) Buk-M1 en manos de las guerrillas de la Cuenca del Donets. Según algunas fuentes, podrían haber sido capturados en la base A1402 del 156º Regimiento de la Defensa Aérea Ucrania, sita junto al aeropuerto de Donetsk. En ausencia del resto de componentes del sistema Buk, un TELAR puede abrir fuego contra aeronaves en vuelo, pero con capacidades muy limitadas de discriminación, identificación y seguimiento. Imagen: supuestamente originada en cuentas de las redes sociales de Internet de los gerrilleros del Donbass.

Lo que nos conduce al derribo por error. Y, en este caso, aquí sí que hay mucho margen. Las armas que son capaces de atacar blancos más allá de lo que ve el ojo humano –eso que los anglos llaman beyond visual range (BVR)– son especialmente proclives a provocar este tipo de tragedias. Porque tú, el humano que tomas las decisiones, no ves realmente, no sabes realmente lo que estás atacando. Dependes de unos medios técnicos que pueden funcionar mejor o peor, que puedes dominar mejor o peor, que puedes interpretar mejor o peor. Y una vez le sueltas el bozal al misil, allá va.

Como consecuencia, los casos de fuego amigo se suceden sin parar. Esto del fuego amigo es como los goles en propia puerta, y viene ocurriendo desde que hay armas lanzables. Pero con la llegada de la artillería, de la aviación y de las armas BVR, se multiplicó hasta extremos de humor negro. En guerras recientes, las fuerzas occidentales –que tiran a saco de beyond visual range en todas sus formas– han tenido muchas más bajas por fuego amigo que por fuego enemigo. Me vienen ahora a la memoria varios casos, pero sobre todo dos que me llamaron especialmente la atención:

  1. El derribo de dos helicópteros Black Hawk sobre Iraq en 1994. Ni identificación amigo-enemigo ni leches en vinagre. Dos F-15 americanos tomaron a esos Black Hawks americanos cargados de tropas y personal por Hinds iraquíes, y les clavaron sendos misiles americanos AMRAAM y Sidewinder bajo la atenta –y lejana– mirada de un AWACS igualmente americano. Fue un día de esos en los que todo sale mal, con numerosas descoordinaciones y confusiones. No hubo un solo superviviente.
  2. Veinte años después, el pasado 9 de junio, un comando de fuerzas especiales estadounidenses pidió cobertura aérea contra unos talibanes que les estaban dando caña. Vino un bombardero supersónico pesado B-1B Lancer y voló estupendamente… al comando americano, pese a que contaban con toda clase de medios avanzados para comunicar su posición y la del enemigo. Me imagino la cara de los talibanes ante semejante espectáculo.

No son, ni muy de lejos, los dos únicos Hay decenas, cientos. Cuando no puedo ver lo que mato, es fácil que me cargue a alguien que no me quiero cargar. Si además hay civiles alrededor, jugando a la pelota en un callejón tercermundista o viendo pelis en sus sistemas de entretenimiento personal a bordo de un avión, es seguro que van a ocurrir tragedias. Ahora imagínate eso mismo en un confuso entorno de guerra irregular, con tropas irregulares de cualificación desconocida, medios técnicos limitados e incluso incompatibles, y ciegos de adrenalina como mínimo. Bueno, no, no necesitas imaginártelo. Es, en mi opinión, lo que acabamos de ver en el Donbass. Creo que, en esencia, estamos ante otro desastre de la guerra como este que ya te conté. Por lo demás, lo de siempre: el miedo, el odio, la codicia, la estupidez. Y sus mercaderes, los que se hacen de oro vendiendo todo eso. >:-(

Ah, sí, otra cosita: por supuesto, quien tiene que saber lo que ha pasado con el Malaysian 17 ya lo sabe. Las señales de estos sistemas se captan desde muy, muy lejos, sobre todo en una región tan exhaustivamente monitorizada por diversas potencias como es ahora esa. Si hoy en día quieres operar lanzamisiles guiados por radar sin que te tomen la matrícula y la talla del cuello, siempre puedes intentarlo por donde se perdió el otro Malaysian, a ver si hay suerte y no te pilla ningún satélite SIGINT. Otra cosa es lo que ya cada órbita de propaganda le quiera contar a su plebe, o sea tú y yo. O, al menos, yo.

Y… ¿se puede impedir?

Northrop Grumman Guardian

Componente del sistema de defensa Guardian contra misiles ligeros para aviones civiles, montado experimentalmente bajo un MD-11. Algunas aerolíneas de alto riesgo y aeronaves VIP utilizan esta clase de equipos, pero tienen muchas limitaciones (ver texto.) Imagen: Wikimedia Commons.

Poderse, se puede… un poco. Existen sistemas de contramedidas para aviones civiles como el Guardian, el CAMPS o el Flight Guard. Algunas VIPs de esas los llevan instalados en sus aviones particulares, así como ciertas compañías de riesgo particularmente alto, como las israelíes. Sin embargo, la mayor parte de estos equipos sólo te defienden de los misiles portátiles con guía infrarroja más básicos. Existen otras cosas de alta gama para auténticas VVIPs que, con suerte, podrían protegerte de algo como un Buk. Pero como tu incidente se parezca al del Iran Air 655, con una superpotencia lanzándote misiles pesados de alta tecnología, o te encuentres con cazas de combate modernos dispuestos a borrarte, todas estas contramedidas civiles hacen un escudo tan bueno como la tapa del retrete frente a una ametralladora.

Los grandes aviones de pasajeros tampoco pueden maniobrar como un caza de combate mientras aplican toda clase de contramedidas pasivas y activas. Ni volar siempre bajo la protección de una cúpula C4ISR, como sí hacen normalmente las fuerzas militares serias. Y resulta que los misiles modernos están concebidos para pelear contra fuerzas militares serias, con sus contramedidas, sus redes C4ISR, su supresión de defensas antiaéreas y demás. Los aviones civiles son eso, civiles, con medios civiles. Enfrentados a esta clase de misiles, es como si un civil cualquiera se ve metido en una pelea callejera con un comando spetsnaz listo para el combate. Las contramedidas diseñadas para aeronaves civiles mejoran tanto la situación como si en la susodicha bronca callejera fueses cinturón negro de algo, frente al mismo grupo spetsnaz con todo su arsenal. O sea, que estás frito igual.

Además son caras, y luego sale más caro aún mantenerlas actualizadas, porque constantemente salen sistemas antiaéreos nuevos, con guías mejores, capacidades distintas y mayor resistencia a las contramedidas. Exigiría que los fabricantes de aviones comerciales y las compañías aéreas se lanzasen a una carrera armamentística análoga a la de los militares, con costes parecidos. Costes que, por supuesto, repercutirían al instante en el precio de los pasajes. Y la aviación comercial, en estos momentos, no está para semejantes trotes.

En realidad, lo que pasa es eso, que somos civiles. Enfrentados a una fuerza militar que se dispone a matarnos, deliberadamente o por error, no tenemos ninguna oportunidad. Como suele decirse, en toda guerra están los buenos, los malos y el paisaje, y el que sale siempre peor parado es el paisaje. Los buenos y los malos son, por supuesto, los que decida tu Ministerio de la Verdad correspondiente y sus medios de comunicación: Eurasia, Eastasia, Oceanía, quien sea. El paisaje somos tú, yo y gente como la que viajaba en el Malaysian 17. O los otros inocentes que estaban/están debajo y que siguen muriendo hoy.

54 Comentarios Trackbacks / Pingbacks (6)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (43 votos, media: 4,88 de 5)
Loading...Loading...
Be Sociable, Share!

BIG’95: El gran tsunami del Mediterráneo español

Hola, ola. :-|

Maremoto de Lisboa del 1 de noviembre de 1755.

El maremoto del 1 de noviembre de 1755 llega a la ciudad de Lisboa, ya gravemente dañada e incendiada por el terremoto precedente. Grabado: G. Hartwig, “Volcanoes and earthquakes”, Longmans, Green & Co., 1887. (En la colección de la Universidad de Wisconsin – Madison)

Tsunami de 2004 en Banda Aceh, Indonesia.

Banda Aceh, Indonesia, después del tsunami de 2004. Indonesia sufrió unos 175.000 muertos sin que el nivel del mar subiera más de diez metros en la práctica totalidad del país. La gran cantidad de población costera viviendo en casitas bajas de poca resistencia situadas en llanuras contribuyó significativamente a la catástrofe. Imagen: Wikimedia Commons. (Clic para ampliar)

Cuando oímos hablar de tsunamis, solemos pensar en Asia, y muy especialmente en el país que nos dio la palabra: Japón. Ciertamente, los maremotos que se dan en algunas costas asiáticas son terribles, debido a una mezcla de factores geológicos, geográficos y superpoblación (y, últimamente, añadiría yo que por ciertas centrales nucleares cuyas defensas contra los mismos resultaron ser ridículas.) Pero no son los únicos. Se da la circunstancia de que la Península Ibérica es otra de las regiones con riesgo maremotriz. Engaña, porque por estos lares no son tan frecuentes y tampoco suelen ser tan intensos. Pero el riesgo existe.

No otra cosa fue el gran terremoto y tsunami de Lisboa del día de Todos los Santos de 1755, que ya te comenté en este blog. Se le suele llamar “de Lisboa” y “de Todos los Santos” porque prácticamente aniquiló la capital portuguesa, matando (entre muchas otras personas) a una montaña de gente que se encontraba en las iglesias celebrando esa festividad, o buscó refugio en ellas. Se calcula que hubo unos 40.000 – 60.000 muertos, sobre una población en la época de 275.000 habitantes. Semejante tragedia alentó notables dudas sobre la divinidad, sus atributos, su bondad y su poder protector, alejando a muchos pensadores influyentes de la teodicea de Leibniz, contribuyendo significativamente a la difusión del racionalismo ilustrado y, de paso, creando la sismología moderna. Fue tan gordo que hubo un antes y un después de la catástrofe “de Lisboa” en la cultura occidental.

Pero yo lo entrecomillo porque no fue sólo Lisboa. El maremoto, originado en la falla Azores-Gibraltar, golpeó con fuerza desde Irlanda al Senegal. Al Sur de la Península Ibérica, causó devastación y mortandad entre el Algarve portugués y la provincia de Cádiz, con olas a las que se les han estimado hasta quince metros de altura. Se llevó por medio Ayamonte, matando a unas mil personas, más un número indeterminado de pequeñas comunidades costeras. Por su parte, el terremoto, estimado en una magnitud de 8,5, causó daños importantes en lugares tan lejanos como Valladolid o Ciudad Real. Algunas fuentes afirman que las víctimas totales rondaron las 90.000.

Animación del tsunami del Atlántico de 1755, según el modelo computacional RIFT.
Puede observarse cómo en media hora ya estaba barriendo todo el Golfo de Cádiz.
Estudio realizado por la NOAA / NWS / Pacific Tsunami Warning Center.

Terremoto y tsunami de Mesina de 1908.

El terremoto y tsunami de Italia del 28 de diciembre de 1908 mató a 123.000 personas y destruyó las ciudades de Mesina y Reggio Calabria en su práctica totalidad. Foto: Wikimedia Commons. (Clic para ampliar)

El Mar Mediterráneo tampoco es inmune a los tsunamis, sobre todo en su parte central y oriental, con fuerte actividad sísmica. El historiador griego Heródoto de Helicarnaso ya nos cuenta que, en el año 479 aEC, durante un asedio a la ciudad de Potidea, los atacantes persas que aprovechaban un repentino y sorprendente descenso del nivel del mar para atravesar el istmo fueron sorprendidos por una gran ola como nunca se había visto antes y perecieron ahogados. Aunque Heródoto era un liante, habitualmente considerado al mismo tiempo el padre de la historia y el padre de la mentira, esto describe el comportamiento de ciertos tsunamis bastante bien y puede que el relato se sustente en un hecho real. Heródoto achacó este maremoto a la ira de Poseidón.

El primero que estableció un vínculo directo entre terremoto y maremoto fue otro historiador griego, Tucídides, cuando nos cuenta de uno sucedido en el Golfo Malíaco durante el verano del año 426 aEC. Al parecer, se llevó por medio a todas las poblaciones costeras. Desde entonces, ha habido muchos más. Quizá el más conocido de todos sea el que ocurrió a primera hora de la mañana del 21 de julio de 365 EC. Un fuerte terremoto submarino con epicentro cerca de Creta arrasó Libia y Egipto, y notablemente las ciudades de Apolonia y Alejandría, matando a mucha gente. Aparecieron barcos tres kilómetros tierra adentro. El fenómeno se repitió menos de un milenio después, en el año 1303. Mucho más recientemente, durante la madrugada del 28 de diciembre de 1908, el terremoto y tsunami de Mesina, al Sur de Italia, se llevó por delante a entre cien y doscientas mil personas.

¿Y en el Mediterráneo Occidental, o sea, más o menos las costas españolas y parte del extranjero? Bien, la actividad sísmica en el Mediterráneo Occidental no es tan intensa, pero también suceden. El más reciente así digno de mención fue el 21 de mayo de 2003, a consecuencia del terremoto de Bumerdés, Argelia. Este seísmo les hizo dos mil y pico muertos en tierra a nuestros queridos proveedores de gas natural, pero también inició un pequeño maremoto que, aunque sin causar otras víctimas, provocó bastantes daños en los puertos baleares. Destrozó numerosos pantalanes y hundió más de cien barcos pequeños, recordándonos así su poder.

Pese a ello, hay quien asegura que en el Mediterráneo Occidental no pueden producirse grandes tsunamis (y aquí). Otros, en cambio, dicen que eso no está claro. De hecho, probablemente ya ocurrió al menos una vez, que sepamos. En términos humanos, fue hace mucho tiempo: unos 11.500 años, allá por el Epipaleolítico. Pero en términos geológicos, eso es nada, hace un momentín. Pudo barrer las costas de Castellón, el Sur de Tarragona y las Islas Baleares con olas de hasta unos nueve metros, puede que algo más. Hoy en día lo llamamos el tsunami del BIG’95.

Deslizamiento de tierras BIG'95 y áreas primarias de impacto del tsunami (año 11.500 BP)

Ubicación aproximada del deslizamiento de tierras BIG’95 (Epipaleolítico, año 11.500 BP) y, si se hubiera producido hoy en día, de las áreas primarias de impacto del tsunami que generó. En aquella época la costa estaba más mar adentro y, por tanto, golpeó en regiones actualmente sumergidas. Mejor versión y explicación en la fuente original: Iglesias, O.; Lastras, G. et al. (2012): The BIG’95 submarine landslide-generated tsunami: a numerical simulation. The Journal of Geology, vol. 120, nº 1 (enero 2012.) ISSN: 0022-1376. Mapa: © Google Maps. (Clic para ampliar)

BIG’95.

Frente a las costas de Castellón y Tarragona se extiende una plataforma continental llamada la plataforma del Ebro, al estar básicamente constituida por sedimentos que aportaron este río y sus antecesores al menos desde el Aquitaniense (Mioceno inferior, hace aproximadamente 23 millones de años.) Es muy suave; en algunos puntos, por ejemplo frente a la ciudad de Castellón, hay que alejarse de la orilla más de sesenta kilómetros para que supere los cien metros de profundidad, con lo que gran parte de ella debió estar emergida durante el Último Máximo Glacial. Hace 11.500 años, la línea costera debía estar todavía unos 40-50 metros más baja que ahora, y por tanto 15-20 km mar adentro con respecto a su posición actual.

Sin embargo, esta suave plataforma termina abruptamente. En la zona que nos ocupa, por las Islas Columbretes, la profundidad aumenta deprisa hacia los dos mil metros: la llamada Depresión de Valencia. [Aquí tienes un fichero KMZ del Instituto de Ciencias del Mar (Consejo Superior de Investigaciones Científicas) para ver toda esta zona con detalle en Google Earth.] Se comprende fácilmente que los bordes de una suave ladera sedimentaria seguida por un desnivel de casi dos kilómetros están pidiendo a gritos un deslizamiento de tierras. Y esto fue lo que ocurrió, hace ahora once milenios y medio: 26 kilómetros cúbicos de sedimentos se desprendieron del borde de la plataforma del Ebro por la parte de las Columbretes para precipitarse hacia la Depresión de Valencia. No fue, ni con mucho, uno de los deslizamientos más grandes que se conocen. Nada que ver con los de Storegga (3.500 km3), en el Mar del Noruega, tres milenios y medio después, cuyo gigantesco tsunami separó definitivamente Gran Bretaña de la Europa Continental. Incluso mucho menos que el de 1929 frente a Terranova (Canadá), con sus 200 km3.

No obstante, debido al acusado desnivel, BIG’95 descendió rapidito, llegando a superar en algún punto los 150 km/h (> 40 m/s.) El conjunto del deslizamiento recorrió más de 110 km depresión abajo en menos de 73 minutos, cubriendo 2.200 km2 de fondo marino. Una masa de más de 50.000 millones de toneladas desplomándose a velocidades que rondan los cien kilómetros por hora (entre 70 y 150) tiene una cantidad notable de energía, y puede transferírsela al medio circundante. En este caso, el agua del mar.

Probablemente, el tsunami se formó durante los primeros minutos del colapso. Lo hizo en dos frentes, uno más rápido que avanzaba hacia las Islas Baleares y otro más lento que retrocedía hacia la costa de Castellón. El frente rápido golpeó la costa Noreste de Ibiza en primer lugar, 18 minutos después, con una ola inicial de hasta ocho metros que llegó sin previo aviso. La siguió una retirada del mar y al menos otra de unos siete que llegó pocos minutos después, y luego otras más pequeñas. Para entonces, el tsunami ya golpeaba Mallorca (en el minuto 27) aunque con olas de menor altura, entre 2 y 4 metros. Sin embargo, un fenómeno de resonancia en el sector de la Bahía de Palma pudo elevar la ola inicial hasta los diez metros por la parte de Santa Ponça. Por suerte, parece ser que las Baleares carecían de población humana en aquellos tiempos.

Animación de la llegada de un tsunami

Cuando un maremoto llega a aguas someras, la amplitud y velocidad de las olas se reducen, pero a cambio su altura aumenta. Imagen: R. Lachaume vía Wikimedia Commons.

Lamentablemente en el minuto 54 el frente lento, más energético, alcanzó la costa peninsular frente a lo que hoy en día sería casi todo Castellón y el Sur de Tarragona, más o menos. Y ahí, con toda probabilidad, había gente. No tanta como hoy en día, desde luego, y menos si pensamos en la temporada alta del turismo. Pero sí personas como los magdalenienses que ocupaban la cueva Matutano, situada en las proximidades. Esos eran homo sapiens, gente de los nuestros y todo ese rollo. Puede que familias, clanes o tribus de pescadores epipaleolíticos. Las costas y su pesca siempre han atraído a la humanidad.

Primero, se fue el mar. A continuación, regresó. El intenso efecto de asomeramiento producido por la propia plataforma del Ebro elevó las olas, puede que hasta los nueve metros. Quizá esto te parezca poco, acostumbrados como ya estamos a oír de tsunamis de cuarenta metros en el Japón, pero créeme, tú no quieres estar en el camino de un maremoto de nueve metros. Nueve metros son tres plantas de un edificio. La mayoría de las víctimas que causan los grandes tsunamis se dan en zonas donde el agua llega con menos de diez metros de altura; los puntos donde realmente superan los treinta son raros, “el máximo.” Durante el maremoto del Océano Índico de 2004, la inmensa mayor parte de los 175.000 muertos que ocasionó en Indonesia estaban en lugares donde la elevación del mar no superó los diez metros y a menudo ni siquiera los cinco. El de 2011 alcanzó la central nuclear de Fukushima con una altura máxima de 14-15 metros y ya sabes la que armó. En la práctica, medio metro basta para arrastrarte. El agua engaña mucho. Cuando llega con semejante fuerza, incluso inundaciones aparentemente pequeñas tienen un poder pavoroso. Y una vez te ha arrastrado, vete a saber dónde acabas, y cómo. De dos a tres metros ahogarán a todo el que no logre subirse a algo o sepa nadar muy bien (y tenga su día de suerte.)

El maremoto de 2004 llega a Banda Aceh, Indonesia.
Obsérvese que no es realmente muy alto, pero sólo en ese sector causó más de 31.000 muertes.

Área a menos de 9 msnm en el sector Burriana - Alcocéber

Cubierta en azul, el área que actualmente se encuentra a menos de 9 metros sobre el nivel del mar en el sector Burriana – Alcocéber. No obstante, cuando el tsunami alcanzó la antigua costa, varios kilómetros mar adentro, tuvo que inundar un área bastante superior debido a la suave inclinación de la plataforma continental del Ebro. Imagen: Google Maps / flood.firetree.net (Clic para ampliar)

El caso es que el tsunami de hace 11.500 años barrió esta costa hoy desaparecida unos kilómetros frente a lo que ahora son Burriana, Almazora, el Grao de Castellón, Benicasim, Oropesa del Mar, Torreblanca, Alcocéber, Peñíscola, Benicarló, Vinaroz, Alcanar, San Carlos de la Rápita y posiblemente hasta el Delta del Ebro (cuya formación es muy posterior, incluso posterior a la época romana.) Es imposible saber cuánta gente vivía ahí en aquellos tiempos. Si hubiese sido en nuestra época, especialmente durante la temporada turística, puede uno imaginarse lo que ocurriría.

Y… ¿puede volver a ocurrir hoy en día? Pues lo cierto es que no se sabe muy bien. Los mismos investigadores que han estudiado el BIG’95 creen que el punto donde se produjo es ahora estable a menos que hubiera un terremoto de bastante envergadura. Reconozco que un servidor se puso algo nerviosito con los terremotos vinculados al Proyecto Castor de Florentino que se produjeron durante el otoño pasado, justamente en esa zona. La presencia de la central nuclear de Vandellós algo más al Norte tampoco resultaba muy tranquilizadora. No obstante, con respecto a esto último, el Consejo de Seguridad Nuclear asegura que desde 2007 ésta dispone de “un nuevo sistema de refrigeración esencial” situado a más de 23 metros sobre el nivel del mar. Además, a raíz de lo de Fukushima, están realizando inversiones para incrementar la seguridad frente a estos fenómenos.

Sin embargo, como yo tengo mi puntito paranoico, nada, poca cosa, lo de los terremotos en una zona que ya pudo provocar un tsunami importante seguía teniéndome mosca. Así que he decidido ponerme en contacto con uno de los autores de la investigación: Galderic Lastras, profesor titular de Geología Marina de la Universidad de Barcelona. El doctor Lastras, por cierto muy gentilmente, me serena: haría falta uno bastante más intenso y cercano al talud continental que los de 2013 para iniciar, por sí solo, un deslizamiento de tierras de este calibre. No obstante, tales deslizamientos ocurren a veces porque sí; es decir, porque la ladera es o se vuelve inestable y simplemente colapsa. Pero por otra parte, el periodo de retorno (el tiempo medio que tarda en volver a ocurrir) es, obviamente, muy largo: este de hace 11.500 años fue el último que ocurrió en el sector. Decía antes que 11.500 años es un tiempo muy breve en términos geológicos, pero muy largo en términos humanos. Las probabilidades de que vuelva a ocurrir durante nuestro tiempo de vida, o el de nuestros hijos y nietos, son francamente bajas. No es imposible, por supuesto. Pero la probabilidad es muy pequeña.

No obstante, quise saber también si estamos muy en bragas o no en el caso de que esta probabilidad tan pequeña llegara a hacerse efectiva. Como ya te digo que yo soy apenas nada paranoico, molesté a Elena Tel (del Instituto Español de Oceanografía), Emilio Carreño (director de la Red Sísmica del Instituto Geográfico Nacional) y Gregorio Pascual (jefe del área de desastres naturales de la Dirección General de Protección Civil), todos los cuales tuvieron la santa paciencia de seguirme la corriente con gran amabilidad.

Vinieron a explicarme que, a pesar de los recortes, se está desarrollando un sistema de alerta contra maremotos en las costas españolas, en su mayor parte utilizando equipos ya existentes y cooperación internacional. Pero que, por su propia naturaleza, alertar de fenómenos cuya llegada se mide en decenas de minutos es complicado. Que ni esto es el Océano Pacífico, donde pueden transcurrir horas desde que se produce el terremoto hasta que llega el maremoto, ni nosotros somos los japoneses, que llevan décadas perfeccionando sus sistemas de la más alta tecnología hasta ser capaces de alertar a la población en cuestión de minutos. Y que en el caso de los tsunamis causados por deslizamientos de tierras, sin un claro terremoto que los genere, puede pasar un buen rato antes de que las boyas marítimas comiencen a indicar que ocurre algo raro. Es la detección del terremoto y sus características lo que nos permite deducir que viene la ola. Los deslizamientos de tierras se pueden captar, pero resultan mucho más ambiguos.

Sobreviviendo al maremoto.

Tilly Smith

Tilly Smith (izda.), de 10 años de edad, había prestado atención a su profe en clase. Así sabía que cuando el mar se va, es para volver con muy mal genio. Gracias a eso y a su entereza, salvó la vida de numerosas personas en una playa de Phuket (Tailandia) cuando llegó el maremoto de 2004, al dar la alerta que nadie más supo dar. Foto: © The Nation, Tailandia.

Me insisten en que la educación es importante. Durante el maremoto del Índico de 2004, una jovencita británica de diez años llamada Tilly Smith salvó a decenas de personas en una playa de Tailandia al recordar lo que les había contado en clase su profesor Andrew Kearney sobre lo que podía pasar cuando el mar se va. Tilly vio que el mar se iba y se lo explicó a sus padres. Su madre no la creía, pero su padre percibió tanta firmeza en sus palabras que avisó a otros bañistas y al personal del hotel donde se alojaban, activando así una evacuación improvisada. Cuando el mar regresó con todo su poder, fue una de las pocas playas del sector donde no hubo ni un solo muerto.

En realidad, la manera más eficaz de salvarse de un maremoto es relativamente sencilla: al primer indicio, corre. No te quedes a mirar. No pases de todo. No comentes la jugada. No intentes recoger tus posesiones ni ir a buscar el coche ni nada por el estilo. Alerta a los demás, intenta ayudar a quienes no puedan valerse por sí mismos y corre como si te fuera la vida en ello, porque te va. Aléjate del agua hacia el lugar más alto posible: montes, lomas, las plantas superiores de edificios resistentes. Si no hay otra cosa, incluso las copas de árboles grandes, difíciles de desarraigar. Lo que puedas. Una diferencia de pocos metros de altura representa la diferencia entre la vida y la muerte. Y si no hay absolutamente nada sólido a lo que subirse, simplemente corre tierra adentro. El maremoto perderá fuerza conforme avance hacia el interior. Si te pilla, intenta agarrarte a algo que flote. Hay gente que ha sobrevivido así.

¿Y cuáles son esos indicios de que viene un maremoto? Pues el primero de todos es un terremoto percibido en una zona costera. Si estás cerca de la orilla (incluyendo la de los ríos y canalizaciones próximos al mar) y notas un terremoto, ponte en alerta. A lo mejor no pasa nada, la mayoría de veces no pasará nada, pero tú presta atención. Por desgracia, este indicio no es de fiar: a menudo el terremoto se produce lejos, muy mar adentro, y no se percibe en tierra. Entonces sólo te queda lo mismo que alertó a Tilly Smith: que el mar se retire, como si de repente la marea hubiese bajado mucho. Lamentablemente, esto tampoco ocurre siempre, sino sólo cuando llega el vano de la ola en primer lugar. Otras veces, la cresta viene por delante. Entonces, la cosa se complica. Los tsunamis de verdad no son como las olas esas de hacer surf que salen en las pelis. Es más como una inundación rápida que crece y crece y crece sin parar. Si lo ves venir, ya lo tienes encima.

En este caso, bien, tenemos un problema. Cuentas con muy poco tiempo. Correr ya no vale porque, así seas Usain Bolt, el agua es más rápida que tú. Lo primero, intenta agarrarte con fuerza a algo que flote, lo que sea. No permitas que te atrape dentro de un vehículo: los vehículos vuelcan enseguida y te ahogas, además de que las carreteras y caminos se colapsan en un plis. Ni tampoco en un edificio bajo (como un bungaló, caseta, chiringuito, chalecito, nave o demás): si te quedas ahí dentro, el agua simplemente seguirá subiendo hasta llegar al techo y ahogarte. Sal como puedas. Si puedes encaramarte a algo alto, cualquier cosa, pues arriba. Una vez te veas en el agua, no intentes pelear contra ella. No puedes ganar: el mar es infinitamente más fuerte que tú y sólo lograrás agotarte enseguida. Déjate llevar, intentando mantener la cabeza fuera del agua (obvio) y evitar los golpes contra otros objetos que pueda estar arrastrando. No sueltes tu salvavidas, por precario que sea. Si no te engancha nada, lo más probable es que la ola al retroceder se te lleve mar adentro. Calma, hay personas que han sido rescatadas después de varios días en el mar, aferradas a su trozo de madera. Es normal tener miedo, mucho miedo, pero no permitas que te venza el pánico. Si se nos apodera el pánico cometeremos estupideces, y si cometemos estupideces en una situación así, se acabó la partida. Jaque mate.

Cartel de información para tsunamis en Puerto Rico

Cartel de información para tsunamis en el bosque estatal de Guánica, Puerto Rico. Las instrucciones básicas son sencillas: corre todo lo que puedas, lo más alto que puedas, y si no puede ser, lo más lejos de la orilla que puedas. Foto: G. Gallice vía Wikimedia Commons.

Otra causa de mortandad es que el maremoto puede comportarse de manera distinta en diferentes lugares de la costa. Hay gente que lo ve subir poco en otro punto de la orilla y se piensa que está segura. Tú, ni caso: a correr hacia lo alto. El comportamiento de un tsunami depende de numerosos factores muy complejos, y a lo mejor en la otra punta de la playa sube sólo unos centímetros, pero donde estás tú te mete cinco metros. Así que ojito.

Jamás hay que olvidar que un maremoto puede componerse de múltiples olas y durar varias horas. La primera ola tampoco tiene por qué ser la peor de todas, y de hecho muchas veces no lo es. Hay gente que ha muerto porque creía que, al haber escapado de la primera, estaba a salvo de la segunda y sucesivas. Tampoco faltan las personas que perecieron al acudir o regresar al área devastada tras el primer impacto, para prestar auxilio o en busca de familiares, amigos, mascotas o bienes; al hacerlo, se encontraron de bruces con el segundo golpe o los siguientes. La zona afectada por un tsunami no es segura hasta que las autoridades científicas pertinentes no digan que es segura; y aún así, con cuidadín.

Lisboa reloaded.

En general, los especialistas con los que he consultado consideran mucho más plausible (y temible) una repetición del tsunami de Lisboa que del ocasionado por el deslizamiento BIG’95. La repetición del BIG’95 es sumamente improbable; no ha vuelto a haber otro en estos últimos once milenios y medio. Pero algo como lo del día de Todos los Santos de 1755 no sería tan raro. Fuertes terremotos en la falla de Azores-Gibraltar, con maremotos que alcanzaron las costas circundantes, ha habido unos cuantos más.

Para acabar de arreglarlo, en 1755 la zona de la Bahía de Cádiz estaba relativamente poco poblada y menos urbanizada. Ahora es todo lo contrario, con el Polo Químico de Huelva –prácticamente a nivel del mar– como guinda del pastel. La base naval de Rota, donde a menudo atracan buques a propulsión nuclear, tampoco es moco de pavo. Teniendo en cuenta que un submarino de la clase Los Angeles tiene un calado de 9,5 metros cuando está en superficie y el tsunami en esa zona podría andar por los 12 – 15, no sería nada extraño que lo sacara del puerto y lo plantase, pongamos, en medio del Arroyo del Salado. En este plan. Aunque el reactor estuviera asegurado y no hubiese sufrido daños, ya puedes imaginarte las carreras hasta cerciorarse, en un momento en el que harían falta recursos por todas partes.

Con submarino o sin él, el desastre sería mayúsculo en todo el sector. Uno de los problemas de estas catástrofes es que son a la vez improbables, impredecibles y veloces. Esto no es Japón, donde está claro que vas a tener un maremoto gordo de vez en cuando (aunque aparentemente los directivos de TEPCO no se habían enterado, o querido enterar…) En España, son tan improbables como para que asignar grandes recursos a prevenirlas se perciba como un despilfarro, sobre todo en una época donde hace falta tanto en tantas partes. Al mismo tiempo, su impredecibilidad y rapidez hacen que, cuando se producen, o lo tienes ya todo listo en el sitio o apenas da tiempo para nada y nos las comemos con patatas. Y luego todo el mundo chilla que cómo es que no se habían tomado medidas y tal.


Bibliografía:

  • Bernet, S.; Canals, M.; Alonso, B.; Loubrieu, B.; Cochonat, P.: The BIG-95 and CALMAR 97 shipboard parties, 1999. Recent slope failures and mass-movements in the NW Mediterranean Sea. En: Ollier, G.; Cochonat, P.; Mendes, L. (Eds.), Seafloor Characterization/Mapping Including Swath Bathymetry, Side-Scan Sonar And Geophysical Surveys. Third Eurpean Marine Science and Technology Conference. Session Report. EU, Lisboa, págs. 111-126.
  • Lastras, G.; Canals, M.; Hughes-Clarke; J. E.; Moreno, A.; De Batist, M.; Masson, D. G; Cochonat, P. (2002): Seafloor imagery from the BIG’95 debris flow, Western Mediterranean. Geology, 30, (10), 871-874. DOI: 10.1130 / 0091-7613 (2002)030<0871 : SIFTBD>2.0.CO;2.
  • Urgeles, R.; Lastras, G.; Canals, M.; Willmott, V.; Moreno, A.; Casas, D.; Baraza, J.; Bernè, S. (2003): The Big’95 debris flow and adjacent unfailed sediments in the NW Mediterranean Sea: Geotechnical-sedimentological properties and dating. Advances in Natural and Technological Hazards Research, vol. 19 (2003), págs. 479-487.
  • Canals, M.; Lastras, G., Urgeles, R; De Batist, M.; Calafata, A. M.; Casamora, J.L. (2004): Characterisation of the recent BIG’95 debris flow deposit on the Ebro margin, Western Mediterranean Sea, after a variety of seismic reflection data. Marine Geology, vol. 213, nos. 1–4, 15 de diciembre de 2004, págs. 235–255.
  • Atwater, B. F. et al: Surviving a Tsunami — Lessons from Chile, Hawaii, and Japan. United States Geological Survey, circular 1187, versión 1.1, 1999-2005.
  • Lastras, G.; Vittorio, F.; Canals, M.; Elverhøi, A. (2005): Conceptual and numerical modeling of the BIG’95 debris flow, Western Mediterranean Sea. Journal of Sedimentary Research, 2005, v. 75, 784–797. DOI: 10.2110 / jsr.2005.063.
  • Iglesias, O.; Lastras, G.; Canals, M.; Olabarrieta, M.; González Rodríguez, E. M.; Aniel-Quiroga, Í.; Otero, L.; Durán, R.; Amblàs, D.; Casamor, J. L.; Tahchi, E.; Tinti, S.; De Mol, B. (2012): The BIG’95 submarine landslide-generated tsunami: a numerical simulation. The Journal of Geology, vol. 120, nº 1 (enero 2012.) ISSN: 0022-1376.
64 Comentarios Trackbacks / Pingbacks (2)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (24 votos, media: 5,00 de 5)
Loading...Loading...
Be Sociable, Share!

Cuando Suiza quiso su bomba atómica y tuvo un siniestro nuclear

«Una instalación como la Central Nuclear de Lucens no estalla, porque no puede estallar.»
Hans Streuli, ex-Presidente de la Confederación Helvética y de la
Sociedad Nacional para la Promoción de la Energía Atómica, 1962. (NGA GVP 26/06/1962, pág. 7)

Antigua central nuclear experimental de Lucens, siniestrada el 21/01/1969.

Cuarenta y dos años después del siniestro que obligó a su cierre, los niveles de contaminación radiactiva en el agua de drenaje de la antigua central nuclear experimental de Lucens (Suiza) aumentaron inesperadamente de 15 Bq/l a 230 Bq/l durante el invierno de 2011 a 2012. Aunque muy por debajo del nivel considerado seguro por las autoridades helvéticas (12.000 Bq/l), el hecho de que ocurriera pocos meses después de los accidentes nucleares múltiples de Fukushima, su proximidad a la fuente de las aguas minerales Henniez-Nestlé y el peligro para la riqueza agropecuaria y vitivinícola local despertaron no poca inquietud en la zona. El agente contaminante era, en su mayor parte, tritio radiactivo. Los niveles volvieron a la normalidad durante la primavera de 2012 sin causar mayores problemas. Por el momento no se han establecido públicamente las razones de esta incidencia. Datos: Oficina Federal de Salud Pública de la Confederación Helvética. Foto: J. P. Guinnard.

A finales de 2011, una persona se me acercó con unas hojas impresas de un foro de Internet para decirme:

–Eh, Yuri, mira esto. Está llegando a Suiza la radiación de Fukushima. Se han multiplicado por quince los niveles de radiactividad en el agua.
–¿Sí? –contesté con no poca displicencia, pues ya llevaba escuchadas unas cuantas de esas.
–No pongas esa cara, hombre. Son mediciones oficiales, míralo tú mismo.
–¿Pero cómo se va a multiplicar por quince la radiación a diez mil kilómetros de distancia? A ver, déjame ver. ¿La Broye? ¿Dónde c*** está esto?
–Aquí pone que entre el cantón de Vaud y el de Friburgo.
–¿El cantón de Vaud…? –recordé, vagamente– Ah, no, entonces esto no viene de Fukushima. Será todavía por aquel accidente nuclear que tuvieron.

Mi interlocutor se sorprendió:

–¿Un accidente nuclear? ¿En Suiza? ¿Cuándo?
–Allá por 1969, en Lucens. Bueno, en realidad nunca ha quedado claro si fue un accidente o un incidente muy grave. Pero se les fue un reactor como su p*** madre. Así que yo lo llamo “el siniestro nuclear de Lucens“. Por suerte estaba metido dentro de una caverna, que si no…
–Vaya, no me lo imaginaba de los suizos. ¿Y cómo fue eso?
–Verás, el caso es que querían hacer bombas atómicas y…
–¡¿Que Suiza quería hacer bombas atómicas?!
–Pues… eh…

Suiza atómica.

Paul Scherrer

El profesor Paul Scherrer (1890-1969) del ETH-Zúrich fue el “padre” de la energía atómica en Suiza. Foto: © Association suisse pour l’énergie atomique / Schweizerische Vereinigung für Atomenergie.

Ya antes de la Segunda Guerra Mundial Suiza realizó sus propias investigaciones sobre el átomo, fundamentalmente en Lausana, Ginebra y sobre todo en el Instituto Tecnológico Federal de Zúrich (ETH). Entre 1935 y 1940 construyeron tres aceleradores de partículas, incluyendo un ciclotrón en el ETH dirigido por el físico Paul Scherrer, con fondos que aportó la industria privada. El profesor Scherrer mantenía contactos con Lise Meitner (descubridora de la fisión nuclear), Otto Hahn (codescubridor), Werner Heisenberg (el científico más destacado del programa atómico nazi, que ya tratamos en este blog) e incluso con el director del Proyecto Manhattan, el general Leslie Groves. Groves le invitó a visitar los Estados Unidos durante el verano de 1945 y en las propias palabras de Scherrer, le enseñó “muchas cosas”, incluyendo los reactores de producción de plutonio de Hanford. Regresó a Suiza diciendo que “¡todo es muy fácil!”

Apenas tres meses después de que los Estados Unidos dieran a conocer al mundo el poder del núcleo atómico mediante los bombardeos contra las ciudades de Hiroshima y Nagasaki, el profesor Scherrer publicó un artículo divulgativo en la edición vespertina del periódico Neue Zürcher Zeitung de 28 de noviembre de 1945 con el título “Fundamentos físicos y técnicos de la energía atómica.” Le siguieron varios más, que cautivaron el interés del público, incluyendo a los políticos y los militares; quienes, como buena parte del mundo por aquel entonces –visto lo visto en Hiroshima y Nagasaki–, tampoco necesitaban una persuasión extrema para convencerse de que no sería mala idea echar un vistazo a eso de la energía atómica, tanto en su vertiente civil como en la militar.

El 8 de junio de 1946, el Consejo Federal funda la Comisión de Estudios para la Energía Atómica (más conocida por su acrónimo en alemán SKA, de Studienkomission für Atomenergie). Fue presidida, naturalmente, por el profesor Paul Scherrer de Zúrich. El propósito anunciado al público (y al Parlamento) de esta SKA era la investigación nuclear más o menos genérica. Pero el Presidente Confederal Karl Kobelt les encarga en secreto otra tarea, que de hecho estaba ya sobreentendida: la “creación de una bomba de uranio militar o un medio de guerra equivalente basado en los principios de la energía atómica.” En 1947, el Parlamento aprueba una ley para financiar a la SKA con 18 millones de francos suizos sin que nadie informe a los diputados de su dimensión militar.(Fuente)

Al principio, el progreso es lento. Puede que la energía nuclear sea “fácil”, como opinaba el profesor Scherrer, pero sin duda sale muy cara y requiere abundantes medios científicos y tecnológicos que exigen desarrollar una notable pericia técnica. Además, Suiza no tiene uranio. Bueno, ni uranio ni casi nada. El país será muy rico, pero también extremadamente pobre en recursos naturales. Apenas hay minería. Deben importar del extranjero todos los minerales especiales que necesita un programa nuclear, sin que se note que hay gato encerrado. Y esto resulta mucho más complicado de lo que parece, pese a las excelentes relaciones comerciales de Suiza con el mundo entero. Importarlos no, importarlos es sencillo. Lo que resulta endiabladamente difícil es que nadie se percate de que tu programa atómico tiene bicho, sobre todo si tienes que pasarlos ante los ojos de potencias atómicas como los Estados Unidos o la entonces Unión Soviética, celosos defensores de la exclusividad del club nuclear. Y, ya puestos, por los morros del quisquilloso Parlamento suizo.

Reactor nuclear Saphir, Suiza.

El reactor nuclear “Saphir” de tipo piscina, el primero que tuvo Suiza, comprado directamente a los Estados Unidos tras la Primera Conferencia sobre los Usos Pacíficos de la Energía Atómica. Era un diseño del Laboratorio Nacional de Oak Ridge, concebido en origen para funcionar con uranio altamente enriquecido pero “rebajado” al 20% antes de su exposición en Ginebra, precisamente para que no se pudiera utilizar con el propósito de producir material militar. No obstante, permitió a Suiza realizar sus primeros estudios sobre el funcionamiento de un reactor nuclear, la producción de radioisótopos, otros aspectos de la química nuclear, la física de la radiación y los problemas de ingeniería asociados. Foto: Bildarchiv ETH-Bibliothek, Zúrich. (Clic para ampliar)

El caso es que, entre unas cosas y otras, ni siquiera logran iniciar la construcción de un reactor. Hubo que esperar hasta agosto de 1955 para que los Estados Unidos llevasen a Ginebra uno experimental de demostración, llamado Saphir, para la Primera Conferencia sobre los Usos Pacíficos de la Energía Atómica. Fue el primer reactor nuclear que se mostró al público, del tipo piscina, con uranio enriquecido al 20%, moderado y refrigerado por agua ligera (agua común), capaz de entregar unos diez megavatios térmicos de potencia. No era, ni con mucho, el mejor diseño posible para un programa que quería ser militar. De hecho, era uno de los peores (por eso los amerikantsy lo presentaron en una conferencia de usos pacíficos…). Pero, a falta de otras alternativas, un consorcio mixto compuesto por el gobierno suizo y diversas empresas del mismo país que se hizo llamar Reaktor AG se lo compró al finalizar el encuentro. Lo instalaron en Würenlingen, a orillas del río Aar, donde hoy en día se encuentra la sede del Instituto Paul Scherrer.

Bien, pues Suiza ya tenía su primer reactor nuclear. Como te digo, resultaba una muy mala opción para un programa con bicho militar. Para conseguir el combustible enriquecido al 20%, tenían que comprárselo a los Estados Unidos en persona. No tenían medios para aumentar el enriquecimiento del uranio y llevarlo al grado militar. Los reactores de agua ligera son generalmente malos para producir plutonio de buena calidad. Y además, la instalación se encontraba bajo estricto control estadounidense. Mil cosas. Pero les sirvió para aprender.

Tanto fue así, que en 1957 comenzaron a verse capaces de tirar por su propio camino. Ese fue el año en que iniciaron la construcción de un segundo reactor al lado del primero, llamado Diorit, con tecnología mayormente nacional. Diorit era un animal completamente distinto: estaba moderado con agua pesada, utilizaba uranio natural (sin enriquecer, mucho más fácil de conseguir en el mercado internacional) y generaba unos 20 megavatios térmicos. Y servía para producir plutonio. Plutonio de grado militar.

Reactor nuclear Diorit, Suiza.

El reactor suizo Diorit durante una actualización, en 1971. Alimentado con uranio natural y moderado con agua pesada, tenía la capacidad para generar plutonio de grado militar, aunque los controles establecidos por sus proveedores impedían que se pudiera producir en la práctica. Suiza necesitaba más tecnología y más desarrollo propio para crear una auténtica industria nuclear militar independiente. Foto: Archivo de la ETH-Zúrich, ARK-NA-Zü 1.2. (Clic para ampliar)

Compraron el uranio para alimentarlo a AMF Atomics de Canadá. Pero el agua pesada hubo que importarla otra vez de Estados Unidos, bajo el compromiso (y bastantes controles) de que el reactor sólo se utilizaría para investigación civil. La pura verdad es que con esos controles resultaba muy difícil desviar cantidades significativas de plutonio para un todavía hipotético programa militar. No obstante, quienes deseaban que Suiza tuviese armas nucleares se excitaron. A malas, ahora ya disponían de la tecnología y la posibilidad (un poco como pronto haría Israel con Dimona). Sólo necesitaban “independizarse” de sus proveedores.

Al mismo tiempo, la reciente creación del Pacto de Varsovia (1955) en respuesta a la formación de la OTAN (1949), los aún más recientes sucesos de Hungría (1956) y la aparición de los misiles balísticos de alcance medio con grandes cabezas atómicas (precursores de los misiles balísticos intercontinentales, que llegarían inmediatamente después) calentaban la Guerra Fría en Europa a toda velocidad, empujándola hacia su periodo más crítico. Casi en medio, un país riquísimo que –aunque netamente situado en el campo occidental– hace de la neutralidad su bandera, y que muchos creen imposible de derrotar pero sus militares saben que no lo es tanto desde que se inventaron los aviones, las fuerzas aerotransportadas y los misiles de largo alcance: sí, Suiza.

Es en ese contexto, el 27 de marzo de 1957, cuando el jefe del Estado Mayor suizo Louis de Montmollin crea en el más absoluto secreto una cierta comisión de estudio para la posible adquisición de armas nucleares propias, vinculada al “lado militar” de la SKA. No es una cosa que De Montmollin se saque de la manga porque le parece bien, al hombre:  están en el ajo otros cuatro oficiales de alto rango, el jefe de los servicios legales del Ministerio de Asuntos Exteriores, dos miembros destacados del Comité de Trabajo para Asuntos Nucleares del Consejo Federal y el director de la compañía Reaktor AG (algunas de estas personas se hallaban muy próximas al después llamado Projekt-26, la rama suiza de la Operación Gladio.) En realidad, la fundación de esta comisión fue una iniciativa secreta del Consejo Federal.

En junio de 1958, de manera probablemente casual, un grupo pacifista comenzó a recoger firmas para convocar un referéndum que habría prohibido la “importación, fabricación, tránsito, almacenamiento y uso de armas nucleares de todas clases” en territorio suizo. La recogida de firmas les fue bastante bien y el Consejo Federal empezó a ponerse nervioso, porque les metía directamente el dedo en el ojo de un programa secreto que podía provocar un escándalo internacional. Quizá por eso, durante el mes de julio hicieron finalmente pública una denominada declaración de principios donde afirmaban:

“De acuerdo con nuestra centenaria tradición de valentía, este Consejo Federal considera que las Fuerzas Armadas deben recibir el armamento más efectivo para preservar nuestra independencia y proteger nuestra neutralidad, incluyendo las armas nucleares.”

–Declaración de Principios del Consejo Federal de la Confederación Helvética, 11 de julio de 1958.(Fuente)

Pero el asunto estaba ya ocasionando problemas políticos, los costes se disparaban y las dificultades tecnológicas también. Crear una industria nuclear nacional de verdad no era tan fácil como anticipó el profesor Scherrer. Impaciente, el nuevo jefe del estado mayor Jakob Annasohn se dirigió al Ministerio de Defensa el 14 de marzo de 1960 para que considerasen la posibilidad de adquirir armas nucleares completas en Estados Unidos, el Reino Unido e incluso la Unión Soviética; o, al menos, una cooperación con Francia y Suecia (que también tenía su propio programa militar). El Consejo Federal de Ministros le miró muy raro y le vinieron a responder de lo más cortésmente que si estaba loco o qué. Así quedó el tema por el momento.

Sin embargo, el 10 de octubre de 1960, el reactor Diorit alcanzó la primera criticidad y comenzó a funcionar. Trabajosamente, a un coste monumental, Suiza estaba cada vez más cerca de desarrollar su propia industria nuclear. Y sus propias armas atómicas.

El escándalo de los Mirage.

Hawker Hunter Mk.58 de la Fuerza Aérea Suiza.

El mejor avión de combate con que contaba la Fuerza Aérea Suiza mientras se planteaba hacer bombas atómicas era el Hawker Hunter Mk.58 (en la foto, durante una exhibición reciente), un caza táctico subsónico de limitada autonomía totalmente inadecuado para operaciones de bombardeo profundo. Estuvo en servicio desde 1958 hasta 1994. Imagen: Wikimedia Commons. (Clic para ampliar)

Como ya te he contado alguna vez en este blog, si quieres una fuerza nuclear, crear tus propias armas atómicas es sólo una parte del problema. Otra parte consiste en encontrar una manera de llevarlas hasta su blanco de manera más o menos efectiva. Eso, en la práctica, añade dos dificultades nuevas. La primera es que no te vale un petardo cualquiera: tienes que miniaturizarlas para que quepan en una bomba de aviación o en la cabeza de un misil, lo que requiere un grado significativo de sofisticación tecnológica. La segunda es conseguir el avión o el misil de marras.

Fabricar un misil de medio o largo alcance con capacidad nuclear estaba (y sigue estando) totalmente fuera de las capacidades de Suiza y quienes tienen no ponen los buenos a la venta. El desarrollo de esta clase de misiles exige, básicamente, un programa espacial o algo muy parecido. En cuanto a su aviación, también estaba (y, por cierto, sigue estando) totalmente obsoleta, además de ser minúscula. En África hay fuerzas aéreas notablemente más poderosas. Cosas de los impuestos bajitos y tal.

En fin, que lo del misil era imposible por completo y a principios de los ’60 la Fuerza Aérea Suiza no sólo estaba anticuada: era ridícula. De hecho, ni siquiera existía como tal. Era una sección del Ejército de Tierra. Mientras las potencias estrenaban sus F-4 Phantom, sus MiG-21 y sus Mirage III, todos ellos capaces de volar al doble de la velocidad del sonido o más –entre muchas otras cosas–, los suizos se apañaban con cosas británicas de posguerra como los de Havilland Vampire / Venom y los Hawker Hunter, que ni siquiera eran supersónicos. Es que tenían también aspiraciones aeronáuticas nacionales, ¿sabes?, con prototipos como el N-20 y el P-16, obsoletos incluso antes de terminarlos. De todos ellos, el único que valía para algo en esas fechas era el Hunter, un caza subsónico ligero con capacidades de ataque táctico más o menos equivalente al Super Sabre americano o al MiG-17 soviético. Pero para misiones de penetración y bombardeo nuclear profundo, no pasaba de chatarra.

Así que decidieron actualizarse. Y, con el proyecto de fabricar armas atómicas ya en mente, querían un avión supersónico de altas prestaciones que fuese capaz de transportarlas “hasta Moscú” (¡cómo no…!) Para ser exactos, cien de ellos. Probaron el Saab 35 Draken sueco, los Lockheed F-104 Starfighter y Grumman F-11 Tiger estadounidenses, el Fiat G.91 italiano y el Dassault Mirage III francés. De todos ellos, el que más les gustó fue el Mirage. Además, se los dejaron muy bien: 871 millones de francos suizos por las cien unidades, con electrónica estadounidense y nuevos sistemas de radar, guerra electrónica y ayuda a la penetración. Encima, la célula y los motores se construirían en Suiza bajo licencia, dando así un empujón a la atrasada industria aeronáutica helvética. Un buen negocio. En 1961 el Consejo Federal asignó el presupuesto y se pusieron a ello.

Pasó lo de costumbre con los productos Dassault: los costes reales se dispararon. Además, la industria aeronáutica suiza estaba efectivamente tan obsoleta que no era capaz de producir ni las células ni los motores con la rapidez y calidad necesarias. Apenas tres años después, en 1964, el Consejo Federal tuvo que pedir al Parlamento un crédito adicional de 576 millones de francos, sumando un total de 1.447 millones. Eso era una fortuna en aquella época y el Parlamento dijo que ni hablar. Al final lo zanjaron con 1.021 millones… pero por sólo 57 aviones en vez de los cien originales.

Dassault Mirage III de la Fuerza Aérea Suiza.

El Dassault Mirage III con el que tuvieron que quedarse al final. De los cien previstos, sólo pudieron completar 57, y parte de ellos con problemas de calidad (que fueron subsanados posteriormente.) Esta “fuerza mínima” resultaba insuficiente para operaciones de bombardeo profundo contra la URSS y de hecho se dudaba si bastaría para defender el propio espacio aéreo suizo. Foto: Wikimedia Commons. (Clic para ampliar)

Como Suiza no dejaba de ser un país serio, en el proceso dimitió mucha gente, desde el ex-Presidente, Miembro del Consejo Federal y Ministro de Defensa Paul Chaudet hasta el jefe del Estado Mayor Jakob Annasohn que te mencioné más arriba (sí, el que quería comprar armas nucleares por ahí.) Crearon una comisión de investigación parlamentaria (una de verdad, que en los países serios es una cosa muy seria), reorganizaron el Ministerio de Defensa de arriba abajo, multiplicando los controles, y se replantearon la política de defensa en su conjunto. Fue tan gordo para los estándares de allí que se le llamó el escándalo de los Mirage. Aquí ya sabemos que habría sido alguna cosilla de esas por las que no pasa nada, no dimite nadie y además vuelven a sacar mayoría absoluta en las siguientes elecciones. Por no mencionar el chiste de la comisión parlamentaria.

El caso es que al final se quedaron con 57 aviones en vez de 100, parte de los cuales presentaban problemas de calidad en la producción. Esa era una fuerza muy justa, muy por debajo y más cara de lo previsto, ya no para atacar Moscú, sino para simplemente defender el espacio aéreo suizo en caso de guerra.

Pese a ello, algunos seguían hablando de bombas atómicas y ataques estratégicos profundos. El 4 de mayo de 1964, en pleno escándalo de los Mirage, un documento (entonces) secreto de la comisión de estudio para la posible adquisición de armas nucleares propias mencionada más arriba proponía 50 bombas de aviación, con una potencia entre 60 y 100 kilotones cada una. También desarrollaron planes para realizar pruebas nucleares subterráneas en grutas alpinas. Sin embargo, los costes se multiplicaban: otro documento confidencial hablaba de 720 millones de francos suizos a lo largo de 35 años si las hacían de uranio altamente enriquecido y hasta 2.100 millones en 27 años si optaban por el plutonio, que permite construir armas más ligeras, potentes y sofisticadas.

Pero, ¿de dónde iban a sacarlas, si sólo contaban con dos reactores primitivos bajo control de potencias extranjeras nada favorables a la idea de ampliar el club nuclear? Bueno, es que para entonces ya contaban con un tercero. Uno mucho más avanzado, de fabricación exclusivamente nacional, metido en una caverna entre los Alpes y el Jura: la central nuclear experimental de Lucens.

La central nuclear experimental de Lucens.

La central de Lucens surgió de tres proyectos distintos para la producción de energía eléctrica civil. El primero se remonta a 1956, cuando un profesor del Instituto Federal de Tecnología de Zúrich sugirió sustituir la anticuada planta de calefacción urbana de la ciudad por una nueva, nuclear, que suministrara tanto agua caliente como electricidad. Este proyecto fue avalado por “el Consorcio”, una agrupación empresarial privada constituida en torno a la importante firma industrial Sulzer de Winthertur. Sin embargo, este “Consorcio” carecía por sí solo de la capacidad científica para emprender una obra así.

Lucens, Suiza.

Lucens, Cantón de Vaud (distrito de La Broye-Vully), Suiza. La central se instaló en una caverna a apenas dos kilómetros de la localidad, según se baja por la carretera 1 en dirección a Lausana. Foto: Wikimedia Commons. (Clic para ampliar)

La segunda idea, planteada aproximadamente al mismo tiempo, fue propuesta por las compañías eléctricas Atel, FMB, NOK y EOS. Constituyeron la sociedad Suisatom AG para promover una central nuclear que produjera energía eléctrica puramente, en el río Aar, cerca de Villigen, o sea justo al lado de los reactores Saphir y Diorit. Pero pensaban comprar el reactor a la compañía estadounidense General Electric, con lo que no habría sido un proyecto estrictamente nacional.

Y la tercera, también de las mismas fechas, se originó en un grupo romando llamado Enusa (Énergie nucléaire SA, sin ninguna relación con la ENUSA española.) Enusa tenía un proyecto más definido, realista y alcanzable desde el punto de vista tecnológico: construir una central nuclear experimental en una caverna del cantón de Vaud que tenía buenas características geológicas, con planos estadounidenses pero de fabricación nacional, que sentara las bases para luego desarrollar centrales mayores y mejores. No obstante, a Enusa le faltaba el dinero y parte de la tecnología para embarcarse por cuenta propia.

En 1961, el gobierno federal suizo sugirió a estas tres sociedades que aunaran sus esfuerzos en torno al proyecto más factible (y menos susceptible de “injerencias extranjeras”): el de Enusa en Lucens (Vaud). Pero en vez de usar planos americanos, sería totalmente de diseño y construcción suiza. A los tres grupos les pareció buena idea y en julio del mismo año fundaban la Sociedad Nacional para la Promoción de la Técnica Atómica Industrial (SNA), presidida por el ex-Presidente de la Confederación Hans Streuli. El propósito era crear una central nuclear de características tecnológicas avanzadas que constituyera el penúltimo paso para alcanzar la tan ansiada industria nuclear nacional. Hasta donde yo sé, ninguna de esas empresas era totalmente consciente de que tras ese proyecto se ocultaba un afán de investigación militar (aunque también habrían tenido que hacerse un poco los idiotas para alegar completa inconsciencia.)

Optaron por un diseño con combustible de uranio muy ligeramente enriquecido (al 0,96% en vez del 0,7% natural), moderado con agua pesada y refrigerado por dióxido de carbono: lo que viene siendo un HWGCR. Sus 73 elementos de combustible se parecían mucho a los de las centrales Magnox británicas y UNGG francesas (como Vandellós-1), moderadas con grafito pero también refrigeradas por gas (GCR). Esta es una tecnología especialmente apta para producir plutonio militar en cantidad (de ahí salió el que usaron en las primeras armas nucleares de ambos países.) Generaría 30 megavatios térmicos, de los que se obtendrían 8,3 megavatios eléctricos. La disposición de la central era como sigue:

Esquema de la central nuclear experimental de Lucens, Suiza.

Esquema de la central nuclear experimental de Lucens. Leyenda: 1.- Caverna del reactor. 2.- Caverna de maquinaria. 3.- Galería de acceso. 4.- Sistema de aire acondicionado. 5.- Edificio de explotación. 6.- Estación de ventilación superior. 7.- Chimenea de ventilación. Imagen: Inspección Federal para la Seguridad Nuclear, Suiza. (Clic para ampliar)

Construcción de la central nuclear experimental de Lucens, Suiza.

Dos etapas de la construcción de la central nuclear experimental de Lucens. Fue excavada “de dentro afuera” y ensamblada entre 1962 y 1965, pero los distintos problemas que surgieron extendieron el proceso hasta principios de 1969. Imágenes: Inspección Federal para la Seguridad Nuclear, Suiza.

Las obras se iniciaron el 1 de julio de 1962, excavando la galería de cien metros para penetrar en la montaña. Cuando la gente de la zona se enteró de lo que le había tocado en suerte, hubo bastante oposición. Fue entonces cuando el ex Presidente de la Confederación metido ahora a presidente de la SNA quiso tranquilizarles con esa frase tan molona que encabeza el artículo, y que ha quedado para la posteridad: “Una instalación como la Central Nuclear de Lucens no estalla, porque no puede estallar.”

La buena idea, que al final resultaría ser salvífica, fue meterla dentro de una caverna. La mala, todo lo demás. Suiza se había quedado muy atrás en materia nuclear a esas alturas. Mientras ellos excavaban y construían laboriosamente su centralita experimental de 8 megavatios eléctricos (MWe), las superpotencias atómicas estrenaban sus prototipos de reactores de segunda generación con capacidades superiores a los 200: General Electric de los Estados Unidos había inaugurado el BWR-1 en Dresden, Illinois (1960, 210 MWe)  y la URSS daba los últimos retoques al VVER-210 (1964, Novovoronezh, 210 MWe). El Reino Unido, Canadá y Francia les pisaban los talones con tecnologías muy prometedoras y grandes inversiones. Hasta Suecia, que aún se mantenía en la carrera por la bomba (si bien ya resoplando…), completaba el R-3 de Ågesta con 12 MWe: un 50% más.

La construcción no fue mal: Lucens quedó terminada en mayo de 1965, menos de tres años después. Pero durante el proceso se hizo evidente que necesitaría un largo periodo de prueba y ajuste antes de ponerla en servicio. Entonces, la compañía eléctrica NOK se dejó ya de mandangas nacionales y encargó un reactor nuclear PWR a Westinghouse de los Estados Unidos, con 380 MWe de potencia. Poco después, les pidió otro. Así nació la central de Beznau, la primera que produjo verdaderamente energía eléctrica en Suiza y la más antigua del mundo que sigue actualmente en servicio.

Los historiadores siguen discutiendo hasta qué punto la instalación de Lucens estaba concebida para uso civil o militar. Lo más probable es que fuera un reactor de investigación de doble uso. Según las opiniones más extendidas, el plutonio militar se habría producido en Diorit (es un proceso relativamente sencillo) y la investigación puntera se realizaría en Lucens, mucho más sofisticada. La tecnología de Diorit daba para pergeñar primitivas bombas atómicas, del tipo de Nagasaki o poco más. Por el contrario, la ciencia a desarrollar en Lucens permitiría el desarrollo de verdaderas armas nucleares avanzadas para su tiempo, a un nivel similar al de Israel. Es opinión de este que te escribe que Diorit era la fábrica y Lucens el laboratorio para crear una verdadera industria nuclear. En todo caso, los reactores de Diorit y Lucens eran las claves para que Suiza pudiese tener un programa atómico totalmente nacional, fuera para uso civil o militar.

Elemento de combustible nuclear Magnox

Elemento de combustible nuclear Magnox, muy similar a los utilizados en la central experimental de Lucens. Imagen: Wikimedia Commons. (Clic para ampliar)

El siniestro.

El 16 de noviembre de 1966 tuvieron el primer susto. Mientras probaban un elemento de combustible para Lucens en el reactor Diorit de Würenlingen, se les fundió el uranio y parte de la funda de magnesio, provocando una parada de emergencia. La investigación determinó que se había debido a un aumento de potencia demasiado rápido y recomendaron que en Lucens se variase la potencia más despacito. El informe también sugería que esas barras de combustible tipo Magnox no eran muy de fiar porque presentaban problemas de corrosión y peligro de incendio. Pero a esas alturas, con la central terminada, ya no podían echarse atrás.

La central nuclear de Lucens alcanzó su primera criticidad el 29 de diciembre de 1966. Entonces se encontraron con numerosos fallos, sobre todo en el circuito de refrigeración por dióxido de carbono (gas), que exigieron otros diecisiete meses de cambios y ajustes. En particular, los dos ventiladores que debían asegurar la circulación del dióxido de carbono resultaron extremadamente problemáticos. Estaban lubricados por agua y, aunque en los bancos de pruebas habían funcionado bien, en condiciones reales el agua se infiltraba al circuito de gas refrigerante. No fue hasta mayo de 1968 que lograron mantenerla funcionando durante diez horas a dos terceras partes de la potencia nominal. Entonces, la autoridad nuclear suiza transfirió la explotación a la compañía eléctrica EOS para que comenzaran a operar.

No hubo forma. En el mes de octubre, durante las pruebas finales, volvió a infiltrarse agua en el circuito de refrigeración. Durante el siguiente mes y medio cambiaron los ventiladores y EOS obtuvo el permiso definitivo de explotación el 23 de diciembre.  No obstante, la autoridad de seguridad nuclear suiza insistía en que las barras de combustible tipo Magnox eran muy delicadas, y que debían operar la central de 8 míseros MWe en el régimen más suave posible. Mientras, las superpotencias nucleares andaban ya peleándose con la barrera de los 500 MWe por reactor. Por su parte, Suecia se rendía ya: firmaron el Tratado de No-Proliferación, nunca acabaron su reactor R4 con el que pensaban producir plutonio militar y encargaron un reactor BWR puramente civil para la central de Oskarhamn.

Pero los suizos siguieron intentándolo, si bien para entonces la idea de producir armas nucleares iba quedando reducida a poco más que un sueño –o una pesadilla–. Estados Unidos y la Unión Soviética iban ya por los misiles balísticos intercontinentales de segunda generación con cabezas termonucleares en el rango del megatón, como el Minuteman II o el UR-100. Simplemente, se habían quedado fuera de juego. Aún así, cuando el nuevo ministro de Defensa Nello Celio quiso finiquitar el asunto, se encontró con fuerte oposición por parte del Estado Mayor y los sectores más patrioteros y halcones. Tan tarde como en ese mismo año de 1968, un nuevo plan hablaba de asignar entre 100 y 175 millones de francos suizos para un programa que produciría 400 cabezas nucleares de uranio quince años después. El mismo día en que se abría a la firma el Tratado de No-Proliferación Nuclear (1 de julio de 1968) en Londres, Washington y Moscú, Celio se pasó al Ministerio de Finanzas. Como si dijese “yo no quiero tener nada que ver con esta chaladura.”

El arranque definitivo de la central nuclear de Lucens fue programado para el 21 de enero de 1969, en torno a la medianoche. Muy, muy despacito, para no dañar esas barras de combustible Magnox tan delicadas. La primera criticidad se alcanzó a las 04:23 de la madrugada. Poquito a poquito, siguieron aumentando la potencia, con el propósito de alcanzar el 100% y conectar por fin los generadores a la red eléctrica en algún momento del día siguiente. Sobre el mediodía, superaron el 25% de la potencia térmica. Poco antes de las cinco y cuarto de la tarde pasaban del 40%, sin que los problemas que les habían plagado durante todos esos años se presentasen a molestar.

De pronto, a las 17:20, la central entró automáticamente en parada de emergencia y cerró las válvulas de ventilación exterior sin que los operadores de la sala de control supiesen por qué. A los pocos segundos se produjo el primer estampido, muy violento. Los operadores, que estudiaban los instrumentos con desconcierto y miedo, perdieron súbitamente todas las indicaciones del núcleo del reactor. Pero no las de radiactividad en la caverna, que superó los 100 roentgen/hora (aprox. 1 Sv/h) mientras se escuchaba una segunda explosión aún más fuerte y luego otras más pequeñas junto a un inquietante silbido durante otros quince minutos más, conforme la presión del circuito primario caía de 50 atmósferas a 1,2. Sólo los miles de toneladas de roca que envolvían la instalación y el sellado automático de las válvulas de emergencia evitaron que la radiación saliese de ahí.

Sala de control de la central nuclear experimental de Lucens, Suiza.

Sala de control de la central nuclear experimental de Lucens, Suiza, durante la fase de pruebas. Estaba severamente infrainstrumentada, lo que impidió al personal comprender lo que sucedía hasta que ya fue demasiado tarde. Foto: Biblioteca de la EPF-Zúrich. (Clic para ampliar)

Pero para entonces ya quedaban pocas dudas de que el reactor nuclear de Lucens, la última esperanza de Suiza para crear su propio programa atómico nacional, se les acababa de ir. A las 17:58, los operadores encendieron el sistema de ventilación de emergencia, provisto con filtros de yodo, para reducir los niveles de radiación en la caverna. A las 18:15, comenzaron a ponerse los trajes y máscaras de protección. A las 18:20, cerraron toda la ventilación, sellando así efectivamente el reactor o lo que quedaba de él. Por fortuna, apenas escapó radiación al exterior y los trabajadores tampoco resultaron significativamente afectados. Sólo se fugó una cantidad minúscula de tritio, que es un isótopo del hidrógeno y tiende a colarse por todas partes. O eso dicen. Por lo demás, la piedra impidió la catástrofe.

La investigación.

La investigación posterior –que, por cierto, se tomó más de diez años– puso en evidencia numerosos fallos de concepto, diseño, implementación y operación de la central. De todos ellos, el más grave fue el que permitía las infiltraciones de agua lubricante al interior del circuito primario de refrigeración por dióxido de carbono hasta el extremo de humedecer las barras de combustible nuclear tipo Magnox, extremadamente sensibles a la corrosión.

Pese a todos los intentos que hicieron para corregirlo, este problema empeoró a partir de la infiltración y los arreglos del mes de octubre de 1968. Al parecer, tales reparaciones se realizaron con bastante humedad en el circuito y el combustible cargado, afectando gravemente a varios elementos de combustible que ya estaban “tocados” por las infiltraciones precedentes. En particular, las fundas de magnesio del elemento nº 59 se habían oxidado casi por completo; pero al menos ocho de los 73 lo estaban en mayor o menor grado, con los productos resultantes de la corrosión acumulándose al fondo de los canales de combustible en forma de orín hasta bloquear numerosos conductos del gas refrigerante.

Esquemas del reactor de la central nuclear de Lucens, Suiza.

De arriba abajo – Esquema simplificado del reactor: A.- Maquinaria de desconexión de los tubos de presión. B .- Entrada del circuito primario de refrigeración por dióxido de carbono (gas). C.- Salida del circuito primario. D.- Núcleo del reactor. E.- Maquinaria de descarga del combustible. | Distribución del reactor: 1.- Elemento de combustible. 2.- Elemento de combustible destruido (nº 59). 3.- Elemento de combustible con corrosión. 4.- Barra de control. 5.- Barra de seguridad. 6.- Barra de control de reserva. 7.- Portillo de observación. | Estructura de los elementos de combustible: A.- Columna de grafito. B.- Guía de zircaloy. C.- Tubo de presión (zircaloy). D.- Tubo exterior (aluminio.) E.- Moderador (agua pesada). F.- Refrigerante (dióxido de carbono). G.- Funda de magnesio. H.- Barra de uranio. Imágenes: Wikimedia Commons. (Clic para ampliar)

La situación se agravó aún más durante una prueba realizada el 11 de diciembre, al infiltrarse “varios litros” de agua que permanecieron en el interior del circuito primario hasta el 17 de enero, pocos días antes del arranque definitivo. A pesar de todos los problemas, o quizá precisamente por eso, nadie ordenó un repaso general del reactor durante esos últimos meses. En palabras de la Inspección Federal para la Seguridad Nuclear, cuando decidieron la puesta en marcha de la central, sus operadores “no eran conscientes de que se encontraban ya con un reactor fuertemente dañado.”

Las barras de combustible no estaban provistas con termómetros independientes para medir la temperatura del uranio en su interior. Por tanto, los operadores de la sala de control ignoraban el comportamiento térmico de cada elemento; sólo podían saber el del conjunto del reactor. Si una barra de combustible se iba, como ya había pasado durante las pruebas de noviembre de 1966 en Diorit, no tenían manera alguna de saberlo.

Así pues, cuando comenzó la puesta en marcha del 21 de enero de 1969, el reactor nuclear de Lucens tenía ocho elementos de combustible oxidados, varios canales de refrigeración se habían obturado con orín y sus operadores sólo contaban con una instrumentación bastante básica. Conforme la potencia aumentaba y con ella la temperatura, estos elementos de combustible mal refrigerados empezaron a deteriorarse y deslizarse hacia lo que a todos los efectos era un LOCA (loss-of-coolant accident, accidente por pérdida de refrigerante). Probablemente los daños graves comenzaron a producirse durante la mañana o al mediodía, cuando pasaron del 20 – 25% de potencia térmica, pero los operadores de la sala de control no podían saberlo porque carecían de la instrumentación necesaria.

Sólo el lentísimo arranque impuesto por la autoridad de seguridad nuclear impidió que reventasen mucho antes. Así aguantaron hasta las 17:20, poco después de superar el 40% de potencia térmica. Entonces, el elemento nº 59 alcanzó los 600ºC y falló por fin. Primero se derritió la funda de magnesio de las barras de combustible e inmediatamente a continuación el uranio metálico que contenían. Las columnas de uranio y magnesio fundidos empezaron a chorrear. Pero entonces el metal se inflamó, provocando un súbito incendio radiactivo dentro del reactor que saturó el dióxido de carbono refrigerante con gran cantidad de productos de la fisión altamente radiactivos. Fue este incremento brutal de la temperatura y la radiación en el circuito primario lo que provocó la parada automática de emergencia del reactor, mientras los operadores miraban a sus lacónicos instrumentos sin entender nada de nada. Un instante antes todo parecía ir bien y ahora, de pronto, estaban en SCRAM.

Sin embargo, el siniestro apenas acababa de comenzar. Por suerte dio tiempo a que se insertaran las barras de control, deteniendo así la reacción en cadena. No obstante, a los pocos segundos la mezcla de uranio y magnesio fundidos entró en contacto con el conducto de refrigeración, presurizado a casi cincuenta atmósferas. Éste estaba también ya deteriorado y, a 700-800ºC, explotó violentamente. Esta explosión hizo saltar uno de los cinco discos de ruptura del depósito de agua pesada utilizada como moderador. Al instante, 1.100 kg de agua pesada, magnesio, uranio, dióxido de carbono y productos de la fisión muy radiactivos escaparon del reactor por el boquete, contaminando por completo la caverna donde se encontraba. En la sala de control, los operadores sintieron la explosión y se asustaron al ver que la radiación en la caverna aumentaba rápidamente hacia los 100 roentgens/hora. Únicamente entonces comprendieron que el reactor estaba ahora abierto. En lenguaje de a pie, que había reventado.

La cosa no acabó ahí. Un segundo después se produjo una violenta reacción química entre el agua pesada y los metales fundiéndose a alta temperatura, lo que causó la segunda explosión, más potente que la anterior. Los cuatro discos restantes del depósito de agua pesada fallaron definitivamente y el reactor quedó destapado por completo, proyectando aún más sustancias radiactivas a la caverna. Los conductos de las barras de control se deformaron y bloquearon, pero afortunadamente éstas ya estaban insertadas gracias a la parada automática de pocos segundos antes (en caso contrario se habría producido una pérdida total de control del reactor, que ahora se quedaba completamente sin refrigeración, al despresurizarse el circuito primario de dióxido de carbono).

Las reacciones entre el agua pesada y los metales en fundición provocaron varias explosiones más durante el siguiente cuarto de hora, terminando de contaminar la caverna y de destrozar el reactor. Sólo se detuvieron cuando el circuito primario quedó despresurizado por completo, anulando totalmente la refrigeración. Sin embargo, el sistema de refrigeración de emergencia estuvo al quite. Logró mantener bajo control las barras de combustible y hasta ahí llegó la cosa.

En aquella época aún no se usaba la escala INES, que data de 1990, para catalogar la gravedad de los siniestros nucleares. Diversos estudios posteriores lo consideran a mitad camino entre un INES 3 (incidente grave) y un INES 5 (accidente de gravedad media). Tal como se relatan los hechos convencionalmente, en mi opinión estaría entre un 2 (incidente medio) en “afectación de las personas o el medio ambiente” y un 4-5 en “pérdida de control y barreras radiológicas.” La Oficina Federal de Salud Pública de Suiza cree que “el accidente de Lucens sería clasificado hoy en día al nivel 4 o 5 de la escala INES”, lo que lo sitúa en la “lista corta” de los peores accidentes nucleares de la historia.

Elemento de combustible nº 59 de la central nuclear de Lucens.

El elemento de combustible nº 59, tal como quedó después de la explosión. Imagen: Inspección Federal para la Seguridad Nuclear, Suiza. (Clic para ampliar)

Por comparación, yo tiendo a considerarlo subjetivamente un INES-4: a todas luces más grave que Vandellós-1 (1989) o la planta THORP de Sellafield (2005), considerados “treses”, pero no tanto como sólidos “cincos” del tipo del incendio radiactivo de Windscale/Sellafield (1957), el accidente de Isla Tres Millas (1979) o por supuesto el escalofriante accidente de Goiânia (1987). A mi modo de ver se parece más a Saint Laurent (Francia, 1969) o Jaslovské Bohunice (Checoslovaquia, otro HWGCR, 1979), que son “cuatros” de manual.

El informe original de la autoridad de seguridad nuclear suiza, publicado en 1979, era llamativamente “suavito” en sus conclusiones. Tanto, que despertó bastantes críticas, y no sólo entre los ecologistas y demás. En todo momento, el informe consideraba lo sucedido en Lucens una “avería” o un “incidente” sucedido por una diversidad de causas “difíciles de prever” que en ningún momento había puesto en peligro la seguridad pública porque “todos los sistemas de seguridad funcionaron como debían”. Durante las décadas siguientes, diversos análisis fueron incrementando su gravedad, aunque todos ellos coinciden en que la caverna impidió que la radiactividad escapase al exterior en cantidades significativas. Finalmente, en 2009, el Ministro de Energía y después Presidente de la Confederación Moritz Leuenberger hizo las siguientes declaraciones, él sabrá por qué:

“En 1969, Suiza escapó por poco de una catástrofe (…). La actitud oficial de aquella época se conformó con evocar un «incidente». El informe de la investigación publicado diez años después llegó a la conclusión de que «la población no estuvo amenazada en absoluto.» Pero hoy vemos que Lucens aparece en la lista de las veinte peores averías en reactores del mundo. La dimensión real de la avería fue disimulada y eludida sin comentarios.”

Las tareas de limpieza duraron más de un cuarto de siglo. Las barras de combustible fueron a parar a Eurochemic de Mol (Bélgica) y el agua pesada que se pudo recuperar, una vez descontaminada y purificada, se vendió en el mercado internacional. Seis grandes contenedores de residuos altamente radiactivos se almacenaron en la instalación junto a otros 230 con residuos de media y baja actividad. Entre 1991 y 1993 se rellenó con hormigón la caverna del reactor, y se instaló un sistema de drenaje. En 1995 declararon la instalación definitivamente descontaminada. Poco después se estableció allí un archivo del cantón. Sin embargo, los contenedores de residuos no se trasladaron al almacén temporal de Würenlingen hasta 2003. Y a finales de 2011 y principios de 2012, como te conté al principio del post, hubo una contaminación por tritio en el sistema de drenaje, aún no sé por qué.

El fin del sueño (o la pesadilla…)

Liquidador de la central nuclear de Lucens, Suiza.

Un liquidador se dispone a entrar en el área contaminada después del siniestro. Imagen: Inspección Federal para la Seguridad Nuclear, Suiza. (Clic para ampliar)

El programa nuclear suizo nunca se repuso del siniestro de Lucens. La pérdida total del reactor y los obvios problemas que ya había presentado con anterioridad les obligaban a comenzar otra vez desde cero, la idea de fabricar armas atómicas se evidenciaba cada vez más insensata y cara, y para la producción de energía eléctrica civil podían simplemente comprar centrales mucho más avanzadas donde les diese la gana (como de hecho hicieron). Se habían quedado atrás, muchos peldaños por debajo de lo necesario para convertirse en una potencia atómica incluso de segundo o tercer orden. En el mismo año de 1969, Suiza firmó el Tratado de No-Proliferación Nuclear, con sus correspondientes inspecciones y controles.

Aún así, el proyecto militar se resistió a morir. El comité vinculado al Estado Mayor siguió reuniéndose en secreto, 27 veces, hasta 1988. No obstante, fueron virando poco a poco hacia posiciones defensivas, como la protección civil en caso de ataque nuclear o con armas de pulso electromagnético. Pero mantuvieron el afán de ser una “potencia nuclear en el umbral”, es decir, un país que podría construir la bomba atómica si se pusiera a ello. En 1979, el Jefe del Estado Mayor Hans Senn aún emitió una instrucción diciendo que “en el caso de que los desarrollos políticos y tecnológicos condujeran a una evaluación totalmente nueva de la situación, [el comité] debería solicitar que se adoptaran las medidas [necesarias].”

Los desarrollos políticos y tecnológicos no fueron por ahí. El 12 de agosto de 1981, el Consejo Federal de Ministros levantaba el secreto sobre las reservas de uranio que poseía el país para ponerlas bajo el control del Tratado de No-Proliferación, transfiriendo el control sobre las investigaciones nucleares al Ministerio de Energía. En 1985, la Conferencia de Ginebra entre Reagan y Gorbachov iniciaba la congelación de la Guerra Fría. Sin embargo, todavía hubo algunas charlas privadas con alemanes y británicos, y el 31 de diciembre de 1986 el presidente del comité militar Gérard de Loes escribió una carta al Consejo de Ministros para que declarasen oficialmente que Suiza aún tenía la intención de ser una potencia nuclear en el umbral. No lo hicieron. En diciembre de 1987, Reagan y Gorbachov firmaban en Washington DC el Tratado para la Eliminación de las Fuerzas Nucleares de Alcance Intermedio. Estas armas constituyeron uno de los mayores factores de riesgo para la escalada rápida de una guerra atómica en Europa y su eliminación suavizaba bastante las cosas.

Casi sin presupuesto, sin medios, sin perspectivas realistas y sin apoyo político efectivo, ya fuera de la historia como quien dice, el comité militar acabó por solicitar su autodisolución. El 1 de noviembre de 1988, el Ministro de Defensa Arnold Koller echó discretamente la firma. Tras más de cuarenta años, el anhelo suizo de crear una fuerza nuclear moría así por fin.

Hoy en día, Suiza produce el 40% de su energía eléctrica en cuatro centrales nucleares civiles con reactores de tecnología extranjera (General Electric, Westinghouse y Areva) y tienen un reactor universitario de potencia cero, el CROCUS, en la Escuela Politécnica Federal de Lausana; todo ello, monitorizado por la Agencia Internacional para la Energía Atómica. En 2011, tras los accidentes de Fukushima, los distintos estamentos del gobierno helvético (Consejo Federal, Consejo Nacional y Consejo de los Estados) decidieron salirse de la energía nuclear por el procedimiento de no autorizar la construcción de nuevas centrales, si bien las que están actualmente en servicio continuarán haciéndolo hasta el final de su vida útil (con el primer cierre previsto en 2019.) No son pocos quienes piensan que esta nueva política está más vinculada a los fabulosos costes de construcción de las centrales nucleares de nueva generación que a ningún problema de seguridad específico (ver también aquí). Si el mercado nunca creyó en la energía nuclear, la más subvencionada de la historia junto al petróleo y el gas, ahora aún menos. La iniciativa privada no construye actualmente ningún reactor nuclear en el mundo, a menos que tenga acceso al talonario del dinero público. En realidad, el 89% de los que se están haciendo pertenecen a empresas estatales o paraestatales monopolísticas.

Instalación de ojivas MIRV mod. MK21 con cabeza termonuclear W87 en un ICBM Peacekeeper, USA, 1983.

Instalación de ojivas múltiples MIRV del modelo Mk21, con cabeza termonuclear minuaturizada W87, en el bus de un misil balístico intercontinental LGM-118 Peacekeeper de la Fuerza Aérea de los Estados Unidos. Foto tomada en la Base Aérea de Vandenberg, 1983. Casi cualquiera puede pergeñar una bomba atómica, pero para plantearse en serio la guerra nuclear hay que trabajar a este otro nivel… y esta foto tiene ya más de treinta años. Imagínate lo que se mueve hoy en día. Imagen: Departamento de Energía de los Estados Unidos. (Clic para ampliar)

En cuanto a las armas atómicas, el club nuclear se ha ampliado poco desde 1969 hasta aquí. Las dos adiciones más notables son India y Pakistán, sumergidas en sus propias dinámicas de enfrentamiento, más los casos particulares de Israel (que seguramente produjo la primera en torno a 1967) y Corea del Norte. Como es sabido se sospecha también de las intenciones de Irán y, como es menos sabido, de las de Arabia Saudita. Por su parte, Sudáfrica se deshizo de las suyas y de los cuatro estados herederos de la URSS que las tenían en su territorio, sólo Rusia las conservó. Junto a Estados Unidos, Francia, el Reino Unido y China, estos son los únicos países que mantienen el afán nuclear militar. De los demás que quisieron, incluyendo a España, todos han abandonado.

Es que es muy caro, puede acarrearte muchos problemas políticos (según tu situación en el orden internacional) y mucho más difícil de lo que parece. Construir la bomba, no. Construir la bomba, como dijo el profesor Paul Scherrer de Zúrich, es relativamente fácil (aunque no tanto si quieres hacerlo sin que nadie se percate, además de trabajoso). Pero, después de tanto esfuerzo, sólo tienes una bomba gorda y contaminante. Lo diabólicamente caro y difícil es todo lo demás: la infraestructura, los vectores de lanzamiento, los sistemas de alerta temprana y defensa nuclear (porque tener armas nucleares te convierte en un objetivo nuclear ipso facto), mantenerte al día frente a oponentes tan poderosos que avanzan sin parar… a la mayoría de países normales no les sale a cuenta. Sin salirse de lo militar, con lo que te cuesta una fuerza atómica mínimamente creíble, puedes montarte un ejército convencional que dé miedo sólo de verlo. Y si hablamos de hospitales, escuelas, defensa social y demás, qué te voy a contar.


Bibliografía:

Puede que también te interese, en este mismo blog:

85 Comentarios Trackbacks / Pingbacks (6)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (33 votos, media: 5,00 de 5)
Loading...Loading...
Be Sociable, Share!

Así le tomamos la medida al tiempo

Estas fechas son muy curiosas.

Termómetro de mercurio

Que el termómetro y su escala sean una invención humana no significa que el calor no exista. Pues con el tiempo pasa igual. Imagen: Wikimedia Commons.

Me sigo encontrando con personas que no captan a la primera la diferencia entre el tiempo y la medida del tiempo. O sea, entre el tiempo como hecho físico y la manera como lo contamos: años, días, segundos, etcétera. En consecuencia, algunas opinan que el tiempo es una invención humana y no existe de verdad.

Bien, pues esto es como confundir el espacio con los kilómetros, o el calor con los grados centígrados. O los números con las cosas que cuentan. Por ejemplo, por mucho que el número 8 con sus dos cabecitas una encima de la otra sea una invención humana, si nos dan ocho bofetones en vez de uno o dos pillaremos enseguida la diferencia entre hecho físico (las bofetadas), medida (8) y la relación entre ambas. :-P Una cosa son los hechos físicos y otra distinta la manera como nosotros los humanos los medimos. Que es de lo que va este post.

El tiempo es un hecho físico real, que Aristóteles definió como la medida del cambio (Física, libro IV, partes 10-13.) Aunque Aristóteles esté bastante superado en estos temas, y aunque hubo otros que defendieron que el tiempo no existe con mejores argumentos, va a ser que sí existe, o algo que se le parece mucho. Si no existiera el tiempo, o algo que se comporta exactamente como el tiempo, este sería un universo estático, congelado en su mismísimo momento inicial. El tiempo y la entropía están estrechamente relacionados. Tanto, que hay quien los considera dos avatares del mismo hecho físico: el que obliga al universo a cambiar constantemente (por ejemplo, creando, desarrollando y destruyendo a cosas como tú o yo o las estrellas) y lo empuja irreversiblemente hacia adelante (o sea, hacia donde apunta la flecha del tiempo) sin parar. La flecha del tiempo, a su vez, quedó determinada por la bajísima entropía del universo inicial. En realidad el tiempo no es sino una de las cuatro dimensiones del espaciotiempo. El doctor Sergéi Krásnikov de Púlkovo tuvo a bien aclararnos un poco todo esto para este blog aquí.

La capacidad de medir el espaciotiempo tuvo que comenzar con la humanidad. Es difícil imaginar que en cuanto surgió una inteligencia intelectiva no comenzáramos a calcular cuántos pasos hay hasta aquella montaña, y si lograremos llegar antes del anochecer. Y si no, ya te enterarás, ya, cuando los tengas que caminar.

Parece que desde el principio nos aclaramos bastante mejor con el espacio que con el tiempo. Probablemente porque, al igual que los demás animales, tenemos una percepción intuitiva de la distancia. Un gato sabe cuánto tiene que saltar para cazar al ratón. Una araña, cuánto debe moverse para tejer su tela. Una abeja, por dónde anda su panal. El tiempo, en cambio, se nos hace un poquito más difícil de aprehender. Intuitivamente sabemos que está ahí, pues tenemos una percepción clara de pasado, presente y futuro; lo que se suele llamar el tiempo psicológico. Pero se presta mal a tocarlo con los dedos, o pasarle los ojos por encima (a decir verdad con el espacio en sí nos pasaría lo mismo, pero como podemos ver y tocar las cosas que se hallan en él, nos parece que lo controlamos mejor.) A medirlo, vamos.

Del sol y la luna, del día y el mes.

Básicamente sólo podemos medir el tiempo observando ciclos, y sólo hay dos ciclos obvios a primera vista para una inteligencia terrestre. El primero es el periodo de luz y oscuridad al que llamamos día. Este ciclo día/noche requiere muy poca inteligencia para captarlo y es incluso posible que algunos animales no humanos tengan alguna clase de consciencia del mismo, más allá de los ritmos circadianos y el mero seguimiento del entorno en general. El segundo es el ciclo lunar (lunación) y para ser exactos su periodo sinódico: el que va de luna llena a luna llena (o de nueva a nueva o como prefieras). Darse cuenta del periodo sinódico lunar ya requiere un poquito más de inteligencia, de memoria y de atención para al menos fijarse y llevar la cuenta.

Rotación terrestre

El eje de rotación terrestre está inclinado con respecto al plano de la Eclíptica (por así decirlo, la “línea Sol-Tierra”, representada en rojo en este gráfico.) Esto hace que tengamos estaciones y que las horas de luz y oscuridad varíen a lo largo del año. No está claro cuándo supimos con certeza que la suma de ambas dura siempre lo mismo. Imagen: 1718.wikispaces.com (Clic para ampliar)

En primera instancia, para medir el tiempo, la luz del sol no es un indicador muy preciso. A menos que estemos cerca del ecuador, las horas de luz (y oscuridad) varían notablemente a lo largo del año. A la latitud de España, por ejemplo, se van más de un 23%, que es muchísimo. En latitudes donde luego surgirían cosas curiosas como los lugares ahora llamados Cairo, Bagdad, Mbabane o Stonehenge, puede oscilar entre el 13,5% y el 36%. Esto es extraño, confunde. Nuestra cueva está siempre a los mismos pasos de distancia del río, pero cuando hace calor llegamos antes de que se haga de noche y cuando hace frío, no. No parece muy confiable, sobre todo si nos va la vida en ello. A un nivel muy primitivo, el día sólo nos sirve para contar ciclos luz-oscuridad, marcar momentos como el amanecer o el anochecer y hacer estimaciones genéricas.

No se sabe cuándo nos dimos cuenta de que la suma de luz y oscuridad dura siempre lo mismo y lo llamamos un día, porque la medida psicológica del tiempo es fuertemente subjetiva: hay ratos que se nos pasan volando y otros que no parecen acabar nunca, por no mencionar que mientras dormimos no nos enteramos. No es evidente por sí mismo. Para asegurarnos de que los días siempre duran lo mismo hace falta un reloj que no sea de sol, y aún faltaban muchos milenios para que tuviéramos esa clase de relojes. Intenta demostrar que un día completo dura lo mismo que el anterior sin un reloj o algo que desempeñe su función y enseguida me comprenderás.

Fases y libración lunar

Las fases de la luna, tal como se ven desde el Hemisferio Norte terrestre. El periodo transcurrido entre dos puntos cualquiera de sus fases siguiente varía relativamente poco, en torno a los 29,53 días. Por cierto, el bamboleo aparente se conoce como “libración”. Imagen: Wikimedia Commons.

La luna, en cambio, es más de fiar. El número de ciclos luz-oscuridad que transcurren entre luna nueva y luna nueva varía poco. Son siempre algo menos de treinta; convencionalmente, veintinueve (la media exacta son 29,5306). Como máximo se va de siete horas, apenas un 1%, en la práctica imperceptible a simple vista. Además, probablemente por mera coincidencia pese a lo mucho que se dice lo contrario, cuadra bastante con otro ciclo natural. Uno que, aunque suele irse bastante más, difícilmente nos pasaría desapercibidos a los humanos y sobre todo a las humanas: la menstruación, con sus 28 días de media pero a menudo 29. Que no en vano se llama también regla en numerosas lenguas latinas (español regla, francés règles, catalán regla, portugués regras, gallego regra, rumano regulă, occitano règla, etc.) e incluso en algunas muy poco latinas, como el ruso: регулы, transcrito reguly.

Sí, como la de medir espacio (es. regla, fr. règle, ca. regle, pt. régua, ro. riglă, etc.) La regla de medir y la regla de sangrar vienen del latín regŭla, o sea, un bastón o palo recto. Por ahí se origina también la palabra regular (del latín regulo, dirigir, guiar, seguramente con el susodicho bastón), que en numerosos idiomas modernos hace referencia a lo que es uniforme, lo que cambia poco, lo que siempre funciona igual. Y resulta que las cosas regulares van extraordinariamente bien para medir. No otra cosa es una regla de medir (distancias) o la dilatación y contracción del mercurio en un termómetro (temperatura) o las marcas de un transportador (ángulos.) Y cada vez que una jovenzuela de las que en el mundo son aprende a llevar la cuenta de su regla de sangrar mientras se le agitan las hormonas, está aprendiendo una nueva manera de medir el tiempo. Para medir cosas necesitamos una referencia regular absoluta, algo que siempre mida lo mismo, o al menos parecido. En el caso del tiempo, nos hacía falta un ciclo regular y Luna vino a regalárnoslo con su periodo sinódico.

Hueso de Lebombo y Tianhe-2

Arriba: el hueso de Lebombo (Swazilandia) con sus 29 marcas, de 35.000 años de antigüedad, un palo de cómputo como los que se siguen usando en la zona hasta la actualidad. Eso lo convierte en el primer instrumento matemático y por tanto científico conocido de toda la historia de la humanidad. Si además se usó para contar el ciclo sinódico lunar de 29 días, también sería el primer calendario. Abajo: el superordenador Tianhe-2 (Vía Láctea-2) del Centro Nacional de Supercomputación en Cantón, China. En el momento en que escribo esto, aparece en el Top500 como el más potente del mundo con 3.120.000 núcleos, 33,82 Pflops/s de Rmax (Linpack) y 54,9 Pflops/s de Rpeak teórica. Pese al abismo de tiempo, conocimiento, ciencia y tecnología entre ambos, en su esencia son lo mismo: instrumentos para computar.

Puede que por todo esto, los primeros calendarios de la humanidad fueron lunares. Los más antiguos se remontan a la prehistoria. Tenemos, por ejemplo, el calendario de Aberdeenshire, hallado en ese concejo de Escocia, con unos 10.000 años de edad. Sin embargo, hay algún otro objeto muy, muy anterior que resulta de lo más intrigante. Por ejemplo, el hueso de Lebombo (entre Sudáfrica y Swazilandia), un peroné de babuino con 35.000 años de antigüedad usado como palo de cómputo; los bosquimanos de la región siguen usando objetos similares para contar y calcular hasta la actualidad. Eso lo convierte en el instrumento científico más antiguo que se conserva, porque el hecho de contar es un acto matemático y por tanto científico. No hay ninguna diferencia obvia entre la lógica de fondo subyacente al hueso de Lebombo y al superordenador Tianhe-2 de los chinos, el más potente del mundo en estos momentos. Esencialmente, ambos sirven para lo mismo: para computar.

Y el hueso de Lebombo tiene… veintinueve marcas. Naturalmente, existen muchos motivos distintos por los que un ser humano quisiera contar veintinueve unidades de algo. Muchísimos. Pero igual de naturalmente, entre esos motivos se incluye la posibilidad de que alguien estuviese contando los días del ciclo lunar, o los de su ciclo menstrual, o ambos. En este caso, ese sería además el primer calendario conocido de la humanidad. Permíteme ensoñar por un instante: nuestro primer matemático, nuestro primer científico, al menos el primero que nos dejó una anotación, pudo ser una muchacha curiosa contando los días de su regla y comparándolos con las fases de la luna y maravillándose ante semejante prodigio hace treinta y cinco milenios tal noche como hoy, en plena Edad de Piedra. Lo que también la convertiría en el primer astrónomo, el primer astrofísico y el primer biólogo conocido. Por qué demonios no. Bajo sus cabellos tenía todo lo necesario para poder.

Bueno, ya. Sea Aberdeenshire o Lebombo o cualquiera de los otros que hay por ahí, no cabe duda: nuestros primeros calendarios fueron lunares, para contar días y meses. A decir verdad, lunisolares, puesto que establecen una relación entre el periodo sinódico lunar y el ciclo de luz-oscuridad al que llamamos “día”, regido por el sol. Y así, la humanidad comenzó a medir el tiempo por fin.

Del año, las estaciones y las horas.

Hay otra observación que tampoco pudo pasarnos desapercibida durante mucho tiempo. El día será poco de fiar a lo largo del año porque las horas de luz y oscuridad cambian mucho, pero ese cambio es en sí mismo regular. Por ejemplo, en Europa, cuando el clima es frío el sol se levanta menos en el cielo y durante menos tiempo que cuando es cálido. Es más: la altura máxima que el sol alcanza en el cielo desde el punto de vista terrestre va aumentando durante algo más de 180 días, desde la temporada fría a la temporada cálida. Luego, se reduce durante otros tantos, de la temporada cálida hasta la fría. Entre ambos, suman trescientos sesenta y pico. Y así una y otra vez. Es una regla.

Además, este hecho viene acompañado por toda otra serie de fenómenos cíclicos de gran importancia para nosotros los humanos desde tiempos prehistóricos: las migraciones de los animales que cazamos o carroñeamos, la maduración de las frutas y bayas que recolectamos, la necesidad o no de preparar pieles o tejidos para abrigarnos, la disponibilidad de agua en ríos y lagos, los vientos, las tormentas y las inundaciones. Mil cosas. Sin embargo, no nos consta que los paleolíticos tuvieran una idea clara de esto, que ahora llamamos año. Sin duda tuvieron que observar estos hechos, pero parece que más bien se dejaban llevar junto con el resto de la naturaleza, probablemente con la ayuda de leyendas y tradiciones ancestrales. Si tenían una concepción intelectual clara del año solar, no nos han dejado ningún rastro.

Pero entonces inventamos el Neolítico, con la agricultura y el pastoreo. Para las sociedades agrícolas y ganaderas, el conocimiento del año y sus estaciones es vital. No es posible la agricultura sin una percepción clara de los tiempos de siembra y cosecha, de las heladas, de la crecida de los ríos, de las épocas de riego, de los propios ciclos anuales de las plantas, de todo. Lo mismo ocurre con la ganadería. Además, el dominio del año facilita las operaciones militares y la organización de sociedades cada vez más y más complejas. El problema, o uno de los problemas, es que el año solar es un proceso más lento y difícil de centrar. Por ejemplo, no hay nada evidente a la primera que delimite el final de un año y el principio de otro, como sí lo hay para el día solar y el mes lunar, que sólo requieren abrir los ojos y fijarse un poco para reconocerlos. Las estaciones tampoco están bien definidas en la experiencia cotidiana: no hay nada que separe claramente el último día del otoño y el primer día del invierno, por decir algo, y además hay un montón de veranillos de San Martín, de San Miguel, de San Juan y demás santoral, que pueden darse o no cada año. Resulta difícil establecer reglas precisas porque no acaba de ser muy regular. Un lío.

Círculo de Goseck (4900 - 4700 AEC), actual Alemania

El Círculo de Goseck (4900 – 4700 aEC), actualmente en Alemania, tal y como ha sido reconstruido por el Depto. de Arqueología Prehistórica de la Universidad Martín Lutero de Halle-Wittenberg y el Gobierno del Estado Federado de Sajonia-Anhalt. Se trata de un lugar arqueoastronómico y un cementerio prehistórico en cuyos alrededores se han hallado huesos descarnados de ganado y humanos colocados cuidadosamente, lo que puede indicar rituales de enterramiento, sacrificios de animales o humanos y/o canibalismo ritual. Dos de sus tres entradas apuntan en la dirección por donde sale y se pone el sol durante el solsticio de invierno, mientras que la tercera está próxima al meridiano astronómico. Otros huecos en la empalizada parecen señalar hacia los mismos puntos para el solsticio de verano y las tradicionales fiestas de primavera. Está “ajustado” para las posiciones del sol de hace 6.800 años, con una precisión de unos 4 días. Dos mil años más antiguo que el popular Stonehenge, manifiesta un notable conocimiento de diversos fenómenos astronómicos como el año, las estaciones y su regularidad. Fotos: E. Schütze vía Wikimedia Commons | © M. Grimm (Clic para ampliar)

Sin embargo, muy poco a poco, comienzan a surgir instrumentos como el círculo de Goseck (hoy en Alemania, 6.900 años de antigüedad), el complejo megalítico de Mnajdra (actual Malta, a partir de hace 5.600 años), el conocidísimo Stonehenge (actual Reino Unido, entre 5.100 y 3.600 años) y puede que algo de la estructura circular de Nabta, Egipto, entre otros. Sobre estas construcciones se han contado tantas tontadas, algunas de ellas magufadas evidentes pero otras con peer review, que resulta muy difícil separar el grano de la paja. Lo que es una pena, porque son creaciones absolutamente fascinantes que habrían merecido mucho mejor trato. A pesar de todo, estas estructuras parecen evidenciar un conocimiento cada vez más profundo de fenómenos anuales y estacionales como los solsticios, los equinoccios, las posiciones del sol y de ciertas estrellas a lo largo de todo el año y quizá algún rudimento sobre ciclos plurianuales más complejos. Si otras culturas lo lograron también en el mismo periodo, no nos lo dejaron saber.

Lamentablemente, ninguno de esos pueblos sabía ni siquiera escribir. Probablemente funcionaban por observación, prueba y error, lo que tiene su mérito, ¿eh? Pero seguir avanzando exige alta tecnología: escritura, geometría, astronomía, matemáticas. Como en aquella época no tenían un CERN ni un DARPA ni nada parecido para agilizar un poco las cosas, hubo que esperar a que fuéramos inventándolo todo. Se duda de si los primeros en lograrlo fueron los astrónomos egipcios o los sumerios, después babilonios, en lo que hoy día es Iraq. Probablemente fueron los dos, durante un largo proceso de aprendizaje que pudo extenderse durante algún que otro millar de años. Allá por los albores de la historia, crearon muy poco a poco los primeros calendarios modernos, muchas de cuyas características seguimos utilizando en la actualidad, como la semana de siete días o los doce meses del año.

Ruinas de Eridu, Sumeria

Lo que queda de la ciudad de Eridu (actual Iraq), convencionalmente considerada la cuna de la cultura sumeria y por tanto de la escritura, la civilización y la ciencia que la caracterizaron. Floreció hace algo más de 6.000 años, llegando a alcanzar una población superior a los 4.000 habitantes (puede que hasta 10.000, una enormidad para su época). Inició su declive hace aproximadamente cuatro milenios pero no quedó abandonada del todo hasta hace unos 2.500 años. Foto: Wikimedia Commons. (Clic para ampliar)

Los sumerios, después babilonios, o más generalmente mesopotámicos, comenzaron con un calendario primordialmente lunar de 354 días dividido en doce meses alternos de 29 y 30 días. Como se les descuadraba debido a la diferencia entre esos 354 días y los 365,25 días que hay aproximadamente en un año solar, cada cierto tiempo intercalaban por decreto un mes adicional para reajustarlo, dando así lugar a los primeros años bisiestos. Los meses empezaban siempre al primer avistamiento de la luna nueva (en la práctica, el inicio del cuarto creciente), con el primero en primavera, originando el día de Año Nuevo. A partir de ahí contaban tres semanas de siete días más una de 8 o 9, con el último día considerado maligno, o sea inhábil para hacer cosas y por tanto de descanso. ¿Te suena de algo esto de los doce meses alternos con en torno a treinta días, la intercalación de bisiestos, y las semanas de siete días con el último sacralizado para descansar? (Puede que a estos respectos también te interese el origen de Dios)

Sin embargo, a los meticulosos escribas sumerios no les gustaba demasiado este año tan irregular y allá por el 2.400 antes de nuestra era ya estaban usando un año con 12 meses de 30 días, que suman 360. Sigue sin ser muy exacto pero es más sencillo de llevar, más regular, y además permite cálculos rápidos y fáciles. Ahí se originan también los 360 grados de un círculo y el sistema sexagesimal en general. Aprendiendo a medir el tiempo, aprendieron y nos enseñaron a medir muchas cosas más.

Hasta aproximadamente el 500 aEC, este calendario era fundamentalmente observacional; esto es, miraban el sol, la luna y lo reajustaban trabajosamente acorde a los mismos. Pero a partir de ahí se percataron del ciclo metónico, que luego Metón el Ateniense les piratearía (o redescubriría) y ahora conocemos bajo su nombre. Y ese fue el primer ciclo combinado complejo de tiempo que descubrió la humanidad. Resulta que 19 años solares suman 6.940 días, al igual que 235 meses (sinódicos) lunares. Sólo se van de unas pocas horas. Desde ese momento fue posible computar los años, los meses y sus bisiestos de manera regular, sin tener que estar mirando a los cielos todo el rato, sino sólo de vez en cuando. Además, el ciclo metónico también sirve para predecir los eclipses. No veas qué poder.

Pirámides de Guiza vistas desde el Nilo

Dos de las Grandes Pirámides de Egipto vistas desde el río Nilo, a las afueras de El Cairo. Foto: © AP. (Clic para ampliar)

Para los egipcios, el dominio del año era absolutamente esencial. Toda la civilización del Antiguo Egipto dependía de las crecidas anuales del Nilo. Parece ser que al principio empezaron con un calendario lunisolar, como todo el mundo. Pero ya vemos lo rápido que se descuadra, y un año descuadrado es un año de cosechas fallidas, hambre y revueltas. Así que enseguida se pusieron a buscar, yo diría que a la desesperada, algo más regular.

Como suele pasarnos a los humanos cuando buscamos cosas verdaderamente importantes, lo encontraron en las estrellas. Para ser exactos, en el orto helíaco (sin coñitas) de la estrella Sirio. Que al estar directamente vinculado a la órbita terrestre alrededor del Sol se produce, claro, coincidiendo con el año real. Y además, se correspondía también con la inundación del Nilo. Así que, al menos desde tiempos del faraón Shepseskaf (c. 2486 – 2479 aEC), los egipcios se saltaron el magreo y pasaron directamente al año moderno de 365 días, con tres estaciones llamadas inundación, siembra y cosecha. Una tablilla vinculada a Dyer podría remontar la fecha hasta el 3.000 aEC o por ahí, aunque esto no es seguro; pero probablemente ya lo usaban cuando hicieron las pirámides (a partir de aprox. 2.670 aEC.)

Los egipcios también dividieron el año en 12 meses de 30 días y al final del año añadían cinco más, llamados epagómenos. En cambio, usaban tres semanas de diez días en vez de las cuatro de siete o siete y pico que nos legaron los ahora iraquís. Pese a tanta brillantez, no estuvieron finos a la hora de intercalar un día bisiesto para corregir la diferencia entre los 365 días del año egipcio y los 365,25 del real. Así que, aunque mucho más lentamente, también se les descuadraba hasta tal punto que las fiestas de verano comenzaban en invierno y cosas así; la reforma de Canopo, en el 238 aEC, fracasó debido a broncas entre clérigos.

Sin embargo, mirando ortos, acabaron por descubrir otro ciclo complejo: el ciclo sótico o sotíaco (Sothis es el nombre en griego de Sirio.) Este es el tiempo que tarda un calendario de 365 días en descuadrarse tanto como para que vuelva a empezar en el mismo momento del año. Este ciclo sotíaco (también llamado canicular) es de aproximadamente 1.460 años (365 x 4). En la práctica, la precesión de los equinoccios y otros fenómenos lo hacen variar un poco. Pero tuvieron que ser ya los griegos y en particular el primer señor que dijo que era la Tierra la que giraba alrededor del Sol, un cierto Aristarco de Samos (c. 310 – 230 aEC), quienes establecieron con claridad la diferencia entre el año aparente de 365 días, el año tropical y el año sideral.

Reloj de sol en los Jardines Botánicos de Singapur.

Reloj de sol en los Jardines Botánicos de Singapur. Dado que Singapur se encuentra casi en el ecuador, su diseño está adaptado para reflejar el hecho de que el sol de mediodía brilla prácticamente desde el Norte en verano y desde el Sur en invierno. Foto: Wikimedia Commons (Clic para ampliar)

Al mismo tiempo, hay otro fenómeno obvio que o bien nos pasó desapercibido, o no le dimos importancia o no se nos ocurrió que sirviera para gran cosa durante mucho tiempo. Y mira que es evidente: el sol se mueve por el cielo a lo largo del día de manera regular y por tanto proyecta sombras que se desplazan sobre la tierra de modo igualmente regular. Por el sencillísimo procedimiento de clavar un palo en el suelo y hacer unas marcas arbitrarias pero también regulares entre la primera sombra de la mañana y la última sombra de la tarde, es posible dividir el día en periodos mucho más exactos y delimitados que el tradicional al amanecer, al atardecer o cuando el sol esté alto en el cielo. Es decir, un reloj solar que dé las horas. Da igual que sean 12, 24 o 60: son horas.

O no se nos ocurrió o no nos hizo gracia la idea de vivir colgados del reloj o yo qué sé, porque los primeros relojes solares –es decir, los primeros relojes, punto– tardaron muchísimo en surgir. Se ha dicho muchas veces que los obeliscos, las escalinatas de los templos y cosas así desempeñaban la función, pero no hay absolutamente ninguna prueba al respecto, como por ejemplo unas marquitas en el suelo. Que algo se pudiera hacer no significa que se hiciera, o incluso que se conociera. Desde luego, si lo hacían, no era algo generalizado. De hecho, algunos de los propios obeliscos prevén en sus grabados que las generaciones futuras se preguntarán para qué fueron levantados, y lo explican: para el culto religioso. Ni una sola mención a la medida del tiempo.

Las mismas civilizaciones que construyeron Stonehenge, las pirámides de Egipto o los ziggurats babilónicos pasaron olímpicamente de las horas o les dieron una importancia mínima hasta fecha tan tardía como el 1.500 aEC, que es cuando empiezan a aparecer los relojes solares propiamente dichos. Llevo años preguntándome el porqué, pero claro, no tengo a nadie de hace cuatro milenios a mano para consultárselo. No es hasta el reinado de Tutmosis III, hace unos 3.500 años, cuando aparece en Egipto el primer reloj solar verdadero: el sechat. Al menos, que conozcamos. En la web de la Asociación de Amigos de los Relojes de Sol tienen un estudio interesante sobre la manera como se usaba (y aquí).

Las horas que da un reloj de sol son desiguales. Me refiero a que su duración va variando a lo largo del año según el día se alarga o se acorta. Pero aún así, lo hacen dentro de una regularidad y permiten un control mucho más sofisticado sobre las actividades diurnas que no tenerlo. En la práctica se siguieron utilizando hasta bien entrada la Edad Media europea, cuando los relojes mecánicos comenzaron a desplazarlos.

Reloj estelar de Ramsés VI

Funcionamiento del reloj estelar de Ramsés VI (1145-1137 aEC), Egipto Antiguo. Imagen: Wikimedia Commons (Clic para ampliar)

Fueron también los egipcios quienes inventaron la manera de contar las horas nocturnas, cuando no hay sol para tu reloj solar. Para ello crearon el merjet o instrumento del saber, básicamente una doble plomada que permite tomar referencias con respecto a las estrellas. Así, marcaron 36 constelaciones decanas (una por cada 10º del círculo de 360º) y las usaron para dividir la noche en diez horas, más otras dos adicionales para el amanecer y el anochecer. En total, doce. Y de este modo, sumando otras tantas para el día, surgió el día de veinticuatro horas, que aún hoy seguimos contando en dos grupos de doce; en lenguaje común (y en los relojes comunes) después de las doce del mediodía viene la una de la tarde, no las trece, que es cosa más de militares, científicos, marinos, aviadores y asimilados.

En realidad, todas estas civilizaciones usaban un mezcladillo de calendarios, cada uno para una cosa distinta. Solía haber un calendario civil común, otro más científico para calcular las efemérides, uno religioso con las festividades, y muchos más, que podían coincidir o no entre sí. Por ejemplo, a mediados del primer milenio anterior a nuestra era, los atenienses utilizaban el sistema de calendarios áticos, con uno lunar de doce meses para las festividades, otro estatal de diez meses arbitrarios y uno agrícola que mayormente contaba estaciones. Un jaleo, vamos, pero es que la idea de establecer unas fechas y tiempos precisos para el conjunto de las actividades humanas tardó en desarrollarse.

De los cumpleaños, la corrupción de los políticos y el calendario unificado.

En la práctica, los años se contaban diciendo aquello de “en el tercer año del reinado del Rey Fulano…”. Ni siquiera los romanos usaban normalmente el famoso ab urbe condita, o sea, “desde la fundación de la ciudad”, muchísimo más común entre quienes luego escribieron sobre ellos. Era mucho más habitual decir (y escribir) “en el año del cónsul Tal” o “en el cuarto año del emperador Cual.” Esto ocurría en todas las culturas de su tiempo, incluyendo a los egipcios, con lo cual aparece el concepto de cumpleaños.

En la Antigüedad, la gente no sabía cuántos años tenía más que de una manera muy aproximada. El concepto de adolescencia era desconocido y se pasaba de niño a hombre, o de niña a mujer, con el inicio de la pubertad. Luego, si llegabas, te convertías en viejo. Y punto. La pregunta “¿cuántos años tienes?” habría desconcertado a la mayoría de la gente antigua. Sin embargo, había una excepción: el monarca, gobernante, o mandamás en general. Por el mero hecho de contar el tiempo desde el año de su acceso al poder, la sociedad en su conjunto estaba contándole cumpleaños, se celebraran o no.

Clepsidra griega

Otro reloj de la antigüedad: la clepsidra o reloj de agua. Esta es griega, del siglo V aEC (la de arriba, la de abajo es una reproducción contemporánea) pero parece ser que los babilonios ya las usaban hace cuatro mil años. La de esta imagen es muy sencilla (es simplemente un chorrito de agua que va escapando a un ritmo determinado), pero sus versiones más sofisticadas podían llegar a ser notablemente precisas y fueron los relojes más comunes y exactos que tuvimos hasta el siglo XVII. En torno a ellas se desarrollaron gran parte de los mecanismos que luego permitirían la aparición de los relojes mecánicos (como el escape relojero, el que hace “tic tac”.) Objeto: Museo de la Antigua Ágora, Atenas, Grecia. Imagen: Wikimedia Commons.

En algún momento del primer milenio antes de nuestra era varias culturas comenzaron a celebrar también los aniversarios de distintos eventos, templos e incluso dioses, como por ejemplo el de la diosa griega Artemisa, a la que le ponían velitas (¿te suena esto también?). Parece ser que fueron los romanos quienes empezaron a celebrar los aniversarios de las personas en sus dies natalis, debido a una combinación de factores culturales, políticos y supersticiosos. Por supuesto, sólo entre las clases altas; al pueblo de a pie ni se le ocurría hacer semejantes gastos (salvo por una casta proporcionalmente muchísimo más reducida que la actual, eran pobres como ratas y bastante tenían con ingeniárselas para comer a diario.) Y sólo se celebraba el de los hombres adultos; para que se celebrase el cumpleaños de las mujeres hay que esperar al siglo XII de nuestra era y el de los niños (y niñas) al XVIII, cuando los críos van dejando de ser una boca inútil que alimentar llevada a palos para convertirse en los reyes y reinas de la casa. Cosas del pasado.

Fueron también los romanos quienes primero vieron la necesidad de tener un calendario único, o al menos dominante. Empezaron con el calendario de Rómulo, lunar y agrícola, que sumaba 304 días divididos en diez meses de 30 y 31 más un periodo invernal que no se asignaba a ningún mes. El año nuevo coincidía con el equinoccio de primavera y a partir de ahí se contaban los diez meses, llamados martius (por el dios Marte, con 31 días), aprilis (origen desconocido, probablemente relacionado con Afrodita/Venus, 30 días), maius (seguramente por Maia, la diosa buena, 31 días), iunius (por Juno, 30 días) y el resto derivado de sus ordinales: quintilis (de quintus, quinto, con 31 días), sextilis (sexto, 30 días), september (séptimo, 30 días), october (octavo, 31 días), november (noveno, 30 días) y december (décimo, 30 días), gran parte de lo cual te sonará también. Sin embargo, las semanas obedecían a un ciclo nundinal (de mercado) de ocho días.

Ya en fechas muy tempranas, allá por el 713 aEC, el rey (probablemente legendario) Numa Pompilio modificó este calendario inicial con criterios supersticiosos (los romanos eran extremadamente supersticiosos). Como pensaban que los números impares daban buena suerte (y los pares, mala), cambiaron el número de días de cada mes a 29 o 31. Ya que estaban, aprovecharon para convertir ese periodo invernal indefinido en dos meses nuevos: ianuarius (seguramente por Jano, con 29 días) y un februarius (vinculado a las februa), necesariamente con 28 días y por tanto de malísimo fario. Tanto era así que en la práctica lo dividían en dos periodos de 23 y 5 días, antes y después de las terminalias, y además se convirtió en un mes de ritos de purificación y demás. Que si no, lagarto, lagarto. Curiosamente, la Cuaresma de purificación de los cristianos también suele empezar en febrero (y su celebración más importante, la Pascua, cae en el primer día sagrado del año pagano tradicional, que comenzaba con la primera luna llena tras el equinoccio de primavera.)

Calendario de la República Romana, c. 60 aEC

Reconstrucción del calendario de la República Romana “Fasti Antiates Maiores” hallado en una villa de Anzio (aprox. 60 aEC). Los nombres abreviados de los doce meses “normales” y el mes intercalar se encuentran en la fila superior. En la fila inferior, podemos leer el número total de días. Los días, mostrados en la primera columna de cada mes, se representan mediante las ocho letras A a H (pues aún usaban la semana nundinal de ocho jornadas de mercado). La segunda columna muestra la K de “kalendas” para el primer día del mes, la N de “nones” para el quinto y la E de “eidus” (idus) para el 13º. El resto de días están indicados por su función: F de “fasti” (“laborables”), N de “nefasti” (“no laborables”), C de “comitiales” (se podían celebrar asambleas públicas), EN de “endotercisi” (mitad fasti y mitad nefasti) y “nefastus publicus” (festividades públicas). Las palabras en letras grandes hacen referencia a festivales importantes y las de letra más pequeña, a otros festejos y deidades menores. Fuente: Universidad de Chicago. (Clic para ampliar)

Esto totalizaba un año de 355 días, bastante menos preciso que el de egipcios y mesopotámicos. Para reajustarlo, el Sumo Pontífice (pontifex maximus) intercalaba un mes bisiesto de 27 días tras los primeros 23 del febrero de mal rollo cada dos o tres años. Al principio lo llevaban relativamente bien pero luego se convirtió en una juerga de corrupción política y clerical. Metían el mes bisiesto cuando les convenía para extender o abreviar el periodo en el poder de sí mismos o sus amiguetes, y también para alargar o acortar el plazo de pago de las deudas según les interesase. Esta no era una práctica exclusiva de los romanos; resultaba bastante común en la Antigüedad. En la comedia Las Nubes del griego Aristófanes (423 aEC), la luna en persona baja a quejarse del cachondeo con los meses, a fuerza de manipularlos. Tres siglos después, las cosas no habían mejorado: los calendarios venían en dos versiones, una “según el dios” (la luna) y otra “según el arconte” (el jerarca de turno).

Pues para el siglo I antes de nuestra era, a los romanos les estaba pasando lo mismo. Y además, por lo visto, de una forma bastante acusada y con notable mala leche, vinculada al desorden y la violencia de los últimos años de la casi cinco veces centenaria República Romana. Vamos, que iban a saco. El caos era tal que fuera de la ciudad de Roma nadie sabía muy bien cuándo empezaban y terminaban los meses y años oficiales; y dentro de Roma, sólo podían predecirlo quienes estaban en el ajo. Entonces uno de los últimos cónsules republicanos, que también desempeñaba las funciones de sumo pontífice, decidió hacer algo  al respecto en el año 46 aEC. Este señor era ni más ni menos que Julio César.

Cayo Julio César

Cayo Julio César (100 – 44 aEC), general, cónsul y sumo pontífice romano, creador del calendario juliano que con unas pocas modificaciones usamos hoy día en todo el mundo. Busto en el Museo dell’Opera del Duomo, Pisa. Imagen: Wikimedia Commons.

El jefazo Julio reunió a sus astrónomos, filósofos y matemáticos. En particular, a un experto greco-egipcio llamado Sosígenes de Alejandría. Y crearon el calendario juliano. Estaba compuesto por 365 días divididos en doce meses de 30 y 31 días, salvo febrero, que siguió siendo de 28. Pero abolió el mes intercalar que se había convertido en un cachondeo para sustituirlo por un único día bisiesto que se añadía al final de febrero cada cuatro años. Es decir, muy parecido a lo que seguimos haciendo ahora. El calendario juliano es ya nuestro calendario moderno, salvo por un par de arreglos que vendrían después. Y con ello, al forzar un calendario unificado de duración regular, solventó el problema de un plumazo. Bien es cierto que, ya que estaba, César aprovechó el ajuste para extender su propio año de consulado hasta un total de 445 días. Casi tres meses por la cara que se arrogó el colega. O sea, como si ahora alguno de nuestros amados líderes saliese diciendo que su mandato de cuatro años en realidad dura cinco.

Poco después, la semana romana pasó a ser de siete días, como la de los griegos y babilónicos, en vez de los ocho tradicionales. Con el calendario juliano, el principio del año quedó también fijado en el 1 de enero. No está claro cuándo el mes de enero pasó a ser el primero del año en la civilización (greco-)romana, sustituyendo así a marzo con su equinoccio de primavera. En todo caso es anterior al año juliano y puede que sea algo muy antiguo. Al menos desde el 153 aEC, el año consular (el año de mandato de los cónsules republicanos) comenzaba el 1 de enero. Pero desde luego, no fue algo generalizado en el mundo (ni siquiera en el mundo occidental) hasta mucho después. En civilizaciones alejadas de la cultura occidental, que tienen sus propios calendarios con su propia historia, sigue sin serlo (como el Año Nuevo Chino.)

En general, casi todo el mundo mantuvo el principio del año en torno al equinoccio de primavera o algo después hasta siglos relativamente recientes (como por ejemplo continúa ocurriendo con el Año Nuevo Persa o el Indio). Es decir, que deberíamos haberlo celebrado esta semana pasada (este año 2014 cayó en 20 de marzo.) Aquí en Valencia tuvimos las Fallas, ¿y en tu casa?

Cremà de una falla valenciana

Cremà (quema) de una falla valenciana, uno de los incontables festivales del fuego celebrados en torno al equinoccio de primavera desde la más remota antigüedad. Foto: Wikimedia Commons.

Voy a detenerme un instante en esto. No es casual en absoluto que tantas civilizaciones distintas hayamos concedido tanta importancia al equinoccio de primavera. Dentro de la arbitrariedad de las maneras humanas de contar el tiempo, el equinoccio de primavera ha demostrado un poder excepcional sobre nuestra imaginación desde antes de la historia. El Año Nuevo de decenas de culturas, la Pascua judeocristiana, el Akitu babilónico, el Shunbun-no-Hi japonés, el Sham-el Nessin egipcio, el Holi hinduista, cientos de festivales del fuego paganos repartidos por todo el mundo y mil cosas más están directamente vinculadas al también llamado equinoccio vernal.

Al menos en el Hemisferio Norte nos gusta este equinoccio vernal, el momento en el que muere el invierno para dejar paso a la primavera. Nos gusta, claro, el instante en que se acaba el frío, la austeridad y el hasta el hambre para permitirnos otra vez cultivar, cazar, jugar a pleno sol. Cautivó nuestro misticismo religioso, nuestra imaginación popular y nuestra curiosidad científica. Muchas de nuestras civilizaciones son hijas, al menos en parte, del equinoccio vernal.

Los calendarios precolombinos.

En otro orden de cosas, las culturas precolombinas de América me resultan especialmente fascinantes porque se separaron de las Afroeuroasiáticas mucho antes del Neolítico. Por ello, aunque partían de unas “bases comunes mínimas”, crearon modelos de civilización humana alternativos sin conexión alguna con la de los viejos continentes durante más de 15.000 años. Un poco como si fuesen alienígenas, o nosotros para ellos, o viceversa, ya me entiendes.

Detalle de la estela C de Tres Zapotes, Veracruz, México.

Detalle de la estela C de Tres Zapotes, Veracruz, México, una de las anotaciones en Cuenta Larga (el mal llamado “calendario de los mayas”) más antigua que se conserva. De arriba abajo, indica la fecha 7(hallada después).16(fragmentaria).6.16.18, correspondiente al día 5 de septiembre del 32 aEC según nuestro calendario moderno. Objeto: Museo Nacional de Arqueología, México.

Así, hicieron cosas fascinantemente diferentes y otras sobrecogedoramente idénticas, pues humanos somos todos. Por ejemplo, las estructuras sociales piramidales. Y las propias pirámides, de las que tanto se ha hablado. No es que vinieran los extraterrestres a hacérselas, sino que para todo humano es la manera más sencilla de construir un edificio grande, la que menos arquitectura exige: apilar piedras más o menos bien cortadas hasta levantar una montañita con algunas grutas interiores (pasadizos) y tal. Y al contrario: también hicieron cosas misteriosamente marcianas que aún hoy en día no entendemos bien. Algunos de sus secretos se los llevaron las tinieblas de la jungla, el tiempo y la viruela y no los sabremos jamás.

Los calendarios precolombinos se encuentran un poco a caballo entre ambos extremos. Cuando el último cazador-recolector siberiano quedó aislado al lado americano del estrecho de Bering, es dudoso que llevara más ciencia encima que uno de esos palos de computar. A partir de ahí, tuvieron que crearlo todo prácticamente de cero. La escritura, la astronomía, las matemáticas, todo. Algunas de sus elecciones son bastante obvias: por ejemplo, tomaron la base 20 para sus números, igual que muchos otros pueblos del mundo, como los vascos antiguos. Claro, esto no tiene nada de raro: salvo amputaciones y tal, todos tenemos veinte dedos aptos para contar. Sin embargo, su calendario más común, para usos tanto civiles como religiosos, tenía años de 260 días desde tiempos de los olmecas y así siguió siendo con los aztecas, los mayas y demás.

No es obvio por qué eligieron esa cifra. Aunque hay quien lo ha querido vincular con el cultivo del maíz o el periodo de gestación humana, no acaba de cuadrar muy bien. Y no es que ignorasen que el año solar tiene en torno a 365 días. Lo sabían y lo utilizaban (aztecas: xiuhpohualli; mayas: haab’, en ambos casos de 18 x 20 días más otros cinco que se consideraban maléficos). Pero no le daban mucha importancia. Les gustaba mucho más el de 260, que en el caso azteca se ha bautizado posteriormente como tonalpohualli y para el maya, tzolkin. 260 es el producto de 20 x 13 y por lo visto el 13 era un número importante en la numerología mística mesoamericana. A lo mejor sólo se trata de eso. Hablamos de calendarios con unas implicaciones religiosas muy fuertes, que se extendían a cada detalle de sus culturas. El calendario de 260 días sigue usándose en algunos lugares hasta la actualidad para practicar la adivinación, la magia popular y otras cosas por el estilo. Ambos calendarios coinciden cada 52 años solares de 365 días o 73 de esos raros de 260 (18.980 días). A esto se le suele llamar el “ciclo redondo” o “completo.”

Y sin embargo, sobre esas bases crearon auténticos monstruos matemáticos con pocos parangones en ningún otro lugar. El más impresionante y conocido, o desconocido de todos ellos es la Cuenta Larga. Conocido, porque hace poco tuvimos una de esas tontadas milenaristas en torno a ella: sí, es el famoso calendario maya que ni siquiera es propiamente maya, sino de toda la Mesoamérica precolombina. Desconocido, porque ninguno de quienes hablaban de fines del mundo o cambios de era o cosas de esas tenía más que una vaga idea sobre él y el público en general, pues todavía menos. Impresionante, porque hasta tiempos muy recientes a pocos más se les había ocurrido o habían sido capaces de desarrollar semejante cosa. Hace falta un notable ejercicio de imaginación, de astronomía y de matemáticas para crear un calendario capaz de contar “automáticamente” largos periodos de tiempo sin repetir un solo día. Parece más propio de la ciencia moderna que de algo que pudo empezar antes de nuestra era.

Funcionamiento de la Cuenta Larga mesoamericana.

Funcionamiento de la Cuenta Larga mesoamericana (el mal llamado “calendario de los mayas”). Fuente: Wikimedia Commons. (Clic para ampliar)

Matemáticamente, la Cuenta Larga funciona de manera muy parecida al odómetro de un coche. No es un calendario lunar ni estrictamente solar, sino que va sumando días, uno detrás de otro, y en principio podría seguir haciéndolo hasta el infinito. Comienzas contando los primeros veinte días en la posición más a la derecha (k’in), numerados del 0 al 19 (por cierto, uno de los primeros usos del número cero propiamente dicho.) Cuando has llegado al 19 y quieres contar otro más, subes un uno a la segunda posición de la derecha (uinal) y vuelves al cero en la primera. Así, te queda 1.0, lo que significa “veinte”. Pero con el uinal sólo puedes contar hasta 18 (es decir, de 0 a 17). En 360 días (20 x 18), o sea un año haab’ sin sus cinco “días maléficos”, tienes un 17.19: esto es, 17 en la posición uinal y 19 en la posición k’in.

Si quieres añadir otro día más (el primero del segundo año haab’), tienes que poner de nuevo un cero en ambas posiciones de la derecha (uinal y k’in) y un uno en la tercera (tun), que también es de base 20. Vamos, que se te queda: 1.0.0. A partir de ahí, vuelves a sumar k’in (en base 20) y uinal (en base 18) hasta llegar al 19.17.19 que, como contamos empezando por el cero, equivale a 20 x 18 x 20 días. Eso son 20 años “mesoamericanos” de 360 días.

Y así sucesivamente, ya siempre en base 20 excepto con los uinal, donde mantenemos la base 18. Se sigue por los katun (lo que permite contar hasta 400 años mesoamericanos) y luego por los baktun (hasta 8.000 años mesoamericanos). Para aumentar otro día más, tendríamos que poner un 1 en la sexta posición (pictun) y un cero en todas las demás. Lo que pasa es que la posición pictun y las de orden superior son ya invenciones de los mayanistas modernos. Los mesoamericanos antiguos sólo usaban cinco posiciones. Es decir, que la Cuenta Larga original habría dado para un máximo de 8.000 años de los suyos. Teniendo en cuenta que comenzaban a contar desde una fecha mítica de la creación establecida en el año 3.114 aEC, aún queda Cuenta Larga para más de dos mil años a partir de hoy. Lo único que ocurría el famoso 21 de diciembre de 2012 es que pasábamos del baktun 12 al baktun 13. Sólo con eso, algunos se inventaron sus historias. Puedes ver qué día es hoy en Cuenta Larga aquí.

Por supuesto, si las civilizaciones mesoamericanas hubiesen seguido existiendo y utilizando la Cuenta Larga (en realidad, ya estaba olvidada cuando llegó el colonizador europeo), nada les habría impedido seguir añadiendo posiciones a la izquierda cuando se les acabasen los baktun, tal como hacen los mayanistas modernos con el pictun y demás. Así, la Cuenta Larga tiene el potencial para contar cualquier periodo del tiempo, hasta el infinito. ¡Hey, un momento! Eso es exactamente lo que hacemos con nuestros números, sólo que en base 10 pura: del 9 pasamos al 10. Del 99, al 100. Del 999, al 1.000. Y así una y otra vez, hasta el infinito. La gracia de la Cuenta Larga es que los mesoamericanos antiguos se dieron cuenta muy pronto de que podían usar eso para contar días, y derivar a partir de ahí las fechas “normales” (como las del tzolkin). Bueno, y su rollo jeroglífico, que impresiona un montón.

De los meses modernos y los días de la semana.

Volvamos al calendario romano de Julio César, porque es el que ha acabado imponiéndose como referencia común en todo el mundo, con algunas pequeñas variaciones. La primera es que a la muerte de César se le honró cambiando el nombre del mes quintilis por iulius, o sea Julio (había nacido el 12 o 13 de julio del 100 aEC.) Después, el primer emperador del Imperio Romano, César Augusto, llamó al mes sextilis… pues cómo lo iba a llamar, augustus, o sea agosto, en honor a sí mismo.

Estatua del dios romano Jano

Estatua del dios Jano, una deidad romana sin equivalente griego, caracterizada por sus dos caras mirando eternamente en sentidos contrarios. Como era el dios del mes de enero (ianuarius), se cree que éste pasó progresivamente a ser el primero del año por asociación a su figura, que miraría así al año pasado y al futuro. Estatua: Museos Vaticanos, Roma.

Así ya tuvimos todos los meses del calendario moderno: enero (ianuarius, por Jano, 31 días), febrero (por las februa, 28 días o 29 cuando carga el bisiesto), marzo (por Marte, 31 días, antiguamente el primero del año), abril (seguramente por Afrodita/Venus, 30 días), mayo (por la diosa buena, 31 días), junio (por Juno, 30 días), julio (por Julio César, 31 días), agosto (por Augusto, 31 días, no iba a ser menos el hombre…) y el resto siguiendo su antiquísimo ordinal romano, de cuando sólo tenían diez: septiembre (“el séptimo” después de marzo, 30 días), octubre (“octavo”, 31), noviembre (“noveno”, 30) y diciembre (“décimo”, 31).

El nombre de nuestros días de la semana merece párrafo aparte. La idea es también mesopotámica (jodó con los iraquís), pero su origen moderno es griego, correspondiente a los siete dioses / astros mayores del sistema solar conocidos en aquellos tiempos: hêméra Hêlíou (día de Helios / Sol), Selénês (de Selene / Luna), Áreôs (de Ares / Marte), Hermoú (de Hermes / Mercurio), Diós (del padre de los dioses Zeus / Júpiter), Aphrodítês (de Afrodita / Venus) y Krónou (de Cronos / Saturno). Los romanos, que eran unos multiculturetas de postín (en eso radica gran parte del éxito de la civilización romana: absorbían, asimilaban y asumían todo lo que les molaba), simplemente los tradujeron: dies Sōlis, Lūnae, Martis, Mercuriī, Iovis, Veneris y Saturnī. Seguro que al menos cinco de ellos los conoces: lunes, martes, miércoles, jueves (la letra J es una variación de la I inventada en el siglo XVI) y viernes.

En muchos idiomas, como el inglés, el sábado sigue siendo también el día de Saturno (Saturday – Saturn day) y el domingo, el día de Sol (Sunday – Sun day). Monday continúa siendo el día de Luna (Moon day) y los demás se corresponden con las versiones locales de los mismos dioses: Tuesday de Tiw/Týr, Wednesday de Wōden, Thursday de Thor y Friday de Frigg. En cambio, por estos lares del Sur, adoptamos ya en tiempos de la Cristiandad las versiones judeocristianas sabbat (sábado) y dies dominicus (día del Señor, domingo.)

¿Antes y después de Cristo? Va a ser que no…

San Dionisio el Exiguo

(San) Dionisio el Exiguo (c. 470 – c. 544 aEC) en un icono ortodoxo rumano. Quiso determinar la fecha de nacimiento de Cristo para contar los años a partir de ahí como Anno Domini, y la estableció en el 754 desde la fundación de Roma. Esto daría lugar posteriormente a la conocida fórmula “antes de Cristo / después de Cristo”. Pero se equivocó. Dando por buenos los Evangelios, Jesús no pudo nacer en ese año, y si no se dan por buenos, pues no sabemos cuándo fue, si fue.

En torno al año 525 de nuestra era, un monje llamado Dionisio el Exiguo sentó las bases para cristianizar el calendario. Su logro más notable y conocido fue la creación del Año del Señor (Anno Domini, AD), según el cual los años empiezan a contarse a partir del nacimiento de Cristo: la fórmula tradicional actual. A todos los que peinamos ya alguna cana y a algunos de quienes aún sólo tienen pelo en la cabeza nos enseñaron y les enseñan que ahora mismo contamos los años desde el nacimiento del Nazareno y dividimos la historia en antes de Cristo (aC) y después de Cristo (dC). Según esto, hoy viviríamos en el año 2014 después de Cristo, como todos sabemos, ¿no?

Pues no. Y no es una cuestión de fe religiosa o lo contrario. El problema es que el buen Dionisio metió la pata. Tras muchos cálculos, hizo coincidir el año 1 de nuestra era, el primer año del Señor, con el 754 ab urbe condita (AUC, desde la fundación de Roma.) Esta forma de contar los años se generalizó a partir del siglo IX europeo: la historia se dividía en ab urbe condita para los años anteriores al 1 y Anno Domini para el 1 y siguientes (en ambos casos contando hacia adelante). Pero en el siglo XVII se extendió la fórmula “antes de Cristo” (contando hacia atrás a partir del Anno Domini -1) y “después de Cristo” (contando hacia adelante a partir del Anno Domini +1). Esa es la que seguimos oyendo hoy.

Está mal. La fecha dada por Dionisio el Exiguo es imposible. Los propios académicos cristianos de hoy en día lo aceptan: si existió Jesus de Nazaret tal como lo cuentan en la Biblia, o de manera parecida, no hay forma ninguna de que pudiese nacer en el 754 ab urbe condita. En primer lugar: para que el Rey Herodes el Grande pudiese instigar la famosa matanza de los Santos Inocentes tal como afirmó el evangelista Mateo (Mt 2:16-18), tuvo que ser antes del 750 AUC porque ese es el año en el que Herodes murió. (En el 754 reinaba en Judea otro Herodes distinto, Herodes Arquelao, al que nadie ha atribuido jamás la autoría de lo de los Santos Inocentes ni nada de eso.)

El Emperador romano César Augusto

Tal como afirma el evangelista Lucas, el emperador César Augusto (en la imagen) ordenó un censo en los territorios romanos durante los albores de nuestra era. Lucas dice que Jesús de Nazaret nació durante el mismo, y de ahí la historia del Portal de Belén. Pero en Judea este censo, realizado por el gobernador Publio Sulpicio Quirinio, se llevó a cabo en el año 6 “después de Cristo”. Con lo que, para que cuadre la Biblia, el año 1 de Dionisio el Exiguo no pudo ser el de nacimiento de Jesús. Si decimos “antes o después de Cristo” para referirnos a los años modernos, estamos contando mal. Estatua: Museos Vaticanos, Roma.

En segundo lugar, y aún más contuntente: si Jesús nació durante el censo realizado por el gobernador romano de Siria y Judea llamado Publio Sulpicio Quirinio, como asegura el evangelista Lucas (Lc 2:1-2), y de ahí toda la temática sobre el Portal de Belén… bien, pues tal censo existió, pero se realizó seis o siete años después del Anno Domini 1 (según Flavio Josefo, fue “37 años después de que Octavio derrotó a Antonio en la batalla naval de Accio“, lo que se correspondería con el año 6 “después de Cristo”.) No hubo ningún otro censo en la región en ese periodo.

Existen otras posibilidades que alejan aún más la fecha de nacimiento de Jesús del “año 1”, y ninguna a favor. Pero estas dos son las más aplastantes: por esa época Herodes I el Grande ya estaba muerto y no hubo censo alguno en Judea hasta seis años después. O sea: el problema no es que decir “antes de Cristo” y “después de Cristo” sea algo religioso o deje de serlo. El problema es que es erróneo. Aceptando los Evangelios, Cristo no pudo nacer en el 754 ab urbe condita convertido en el Año del Señor nº 1 por Dionisio el Exiguo. No cuadra. O fue antes del 4 “antes de Cristo” (muerte de Herodes el Grande) o fue en el 6 “después de Cristo” (censo de Quirinio, también conocido como Quirino o Cirino.) Y si no damos por buenos los Evangelios, pues entonces, claro, no hay referencia alguna. Por un lado o por el otro, estamos contando mal.

Por este motivo (y también porque el calendario occidental ha sido asimilado por culturas que tienen muy poca relación con el cristianismo), en todos los ámbitos mínimamente rigurosos utilizamos ahora las expresiones “Era Común” (EC) y “antes de la Era Común” (aEC) en lugar de “antes de Cristo” y “después de Cristo”. En contra de lo que parecen creer algunos, no es una conspiración anticristiana, sino la mera corrección del error histórico cometido por Dionisio el Exiguo y un resultado del éxito global del calendario occidental.

De los relojes, el minuto, el segundo y más allá.

Papa Gregorio XIII

El Papa Gregorio XIII (1502 – 1585) promulgó la bula Inter gravissimas (1582) para dar los últimos retoques al calendario juliano, convirtiéndolo así en el calendario moderno. Por eso lo conocemos como “calendario gregoriano.” En muchos lugares del mundo no fue adoptado hasta el siglo XX. Retrato realizado por Lavinia Fontana (1552 – 1614).

Durante los siguientes siglos, fue volviéndose evidente que el calendario juliano se descuadraba también. Esto se debe a que la duración real del año trópico no es exactamente 365,25 días, sino más bien 365,242, con una pequeña variación interanual. En el año 1582, se había ido unos diez días desde los tiempos de Julio César. Entonces el Papa Gregorio XIII ordenó el último cambio notable: saltaron esos diez días y los años bisiestos dejaron de ser uno de cada cuatro. En su lugar, lo fueron aquellos que son divisibles por cuatro, excepto los que también son divisibles por cien, pero no por cuatrocientos.

Esto crea un año efectivo de 365,2425 días, mucho más parecido al real, que es el que seguimos usando ahora: el calendario gregoriano, hoy en día ya más conocido como el calendario occidental o el calendario internacional (pues sólo quedan cinco países que no lo usen de manera oficial: Afganistán, Arabia Saudita, Etiopía, Irán y Nepal, e incluso éstos lo utilizan en sus relaciones con el exterior y la gran mayoría de sus aplicaciones tecnológicas e industriales. Hay algunos otros que lo simultanean con algún calendario local, pero lógicamente éstos se van viendo cada vez más desplazados por la pujanza global del internacional.)

Es más o menos en la época de este Papa Gregorio XIII cuando empiezan a aparecer los primeros relojes con precisión suficiente para contar segundos. La idea del minuto como sesentava parte de la hora es bastante antigua (seguramente se origina también en los babilonios), y la del segundo como sesentava parte del minuto ya fue utilizada por científico persa Al Biruni en torno al año 1.000 de la Era Común. Pero no había ninguna manera práctica de medir tiempos tan precisos hasta el siglo XVI y de hacerlo con exactitud, hasta el XVII. Ni relojes solares, ni clepsidras ni los primeros relojes mecánicos eran capaces. Hubo que esperar al reloj de péndulo inventado por el matemático, astrónomo y físico holandés Christiaan Huygens en 1656 para que esto fuese posible.

Esquema para un reloj de péndulo de Christiaan Huygens (1673)

Ilustración en el libro “Horologium Oscillatorium sive de motu pendulorum” publicado por Christiaan Huygens en 1673, donde se define el primer reloj de péndulo realmente funcional. Los relojes de péndulo fueron por fin capaces de medir segundos, dándonos un control mucho más avanzado sobre la medida del tiempo.

La gracia del reloj de péndulo es que está construido en torno a un oscilador armónico: el péndulo en cuestión. Esto significa que siempre oscila en un periodo exacto de tiempo (o tan exacto como permitan las imperfecciones del mecanismo), dependiendo de su longitud. Es decir, que sus movimientos son isócronos. O sea, una de esas reglas lo más regulares posible que nos gustan tanto para medir cosas.

Y el péndulo resultó ser notablemente regular. Tanto que pasó a ser la clave del tiempo durante los siguientes 270 años, hasta bien entrado el siglo XX. Sólo la invención del reloj electrónico de cuarzo en 1927 comenzaría a desplazarlo, pero no del todo hasta después de la Segunda Guerra Mundial. En el reloj de cuarzo, el péndulo queda reemplazado por un oscilador piezoeléctrico de cristal mucho más pequeño y preciso. Y veloz, lo que permite medir fracciones mucho más breves de tiempo, a millones de ciclos por segundo. Poco después llegó el reloj atómico, más exacto todavía. De pronto, resultó que nuestros relojes comenzaban a ser enormemente más regulares que la inmensa mayor parte de los fenómenos naturales que medían, como la órbita de la Tierra alrededor del Sol, la de la Luna alrededor de la Tierra o casi cualquier otra cosa que antes constituyese la referencia mejor de tiempo. Y ya sabes, lo regular, la regla, es lo que mola para medir.

Entonces hicimos algo nuevo: invertimos la referencia. Es decir, el sol y la luna y las estrellas dejaron de ser la referencia última para nuestros relojes y fueron nuestros relojes, cada vez más precisos y prácticos, los que nos sirvieron para medir el resto de fenómenos naturales. Incluyendo al sol, la luna y las estrellas. Hoy en día la referencia absoluta de tiempo ya no está en los cielos, sino en la tierra, en nuestros relojes atómicos (bueno, algunos hay en el espacio…). Ahora decimos que la unidad básica de tiempo en el sistema internacional es el segundo, y en estos momentos lo definimos así, en el lenguaje cuántico de estos relojes atómicos:

“El segundo es la duración de 9.192.631.770 periodos de la radiación correspondiente a la transición entre los dos niveles hiperfinos del estado fundamental del átomo de cesio-133.” [A una temperatura de 0 K]

Reloj atómico de estroncio del JILA, 2014

El reloj más preciso del mundo en la actualidad: el atómico de estroncio del Joint Institute for Laboratory Astrophysics (JILA), formado por la Universidad de Colorado y el Instituto Nacional de Estándares y Tecnología de los Estados Unidos (NIST). Necesitaría por encima de cinco mil millones de años, más que la edad del sistema solar, para “irse” un solo segundo. Foto: Ye group and Baxley/JILA

…lo que es una regla exacta como el demonio y además muy práctica, porque no tenemos que andar dando tantas vueltas a que si el sol, la luna o las estrellas cada vez que queremos contar el tiempo con precisión, ni depender de sus imperfecciones cósmicas. Cosa que hoy en día es totalmente necesaria en todas partes. Toda nuestra ciencia y tecnología modernas, las claves de nuestro nivel y calidad de vida, dependen por completo de la regularidad de nuestros relojes.

Me he saltado necesariamente muchas cosas, porque esta fue una historia muy larga y compleja, llena de acelerones y paradas y marchas adelante y atrás. Pero quiero añadir que nuestra historia, la historia de la humanidad, está indisolublemente vinculada a las maneras como aprendimos a medir el tiempo. Exigió lo mejor y lo más brillante de nosotros. A cambio, nos premió con una clase de dominio sobre nuestro mundo que de otro modo jamás habríamos podido soñar. La agricultura, la navegación oceánica, la electrónica moderna o la astronomía, entre otro millón de cosas más, son en parte hijas de nuestro afán por medir el tiempo de manera cada vez más y más precisa. Sin ese afán, sin esa capacidad, seguiríamos anclados allá por el Epipaleolítico. Y, te lo aseguro, eso no te iba a gustar.

(Quizá te interese también: La computadora de Anticitera, en este mismo blog.)

59 Comentarios Trackback / Pingback (1)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (39 votos, media: 4,85 de 5)
Loading...Loading...
Be Sociable, Share!

« Entradas anteriores Página siguiente » Página siguiente »