BIG’95: El gran tsunami del Mediterráneo español

Hola, ola. :-|

Maremoto de Lisboa del 1 de noviembre de 1755.

El maremoto del 1 de noviembre de 1755 llega a la ciudad de Lisboa, ya gravemente dañada e incendiada por el terremoto precedente. Grabado: G. Hartwig, “Volcanoes and earthquakes”, Longmans, Green & Co., 1887. (En la colección de la Universidad de Wisconsin – Madison)

Tsunami de 2004 en Banda Aceh, Indonesia.

Banda Aceh, Indonesia, después del tsunami de 2004. Indonesia sufrió unos 175.000 muertos sin que el nivel del mar subiera más de diez metros en la práctica totalidad del país. La gran cantidad de población costera viviendo en casitas bajas de poca resistencia situadas en llanuras contribuyó significativamente a la catástrofe. Imagen: Wikimedia Commons. (Clic para ampliar)

Cuando oímos hablar de tsunamis, solemos pensar en Asia, y muy especialmente en el país que nos dio la palabra: Japón. Ciertamente, los maremotos que se dan en algunas costas asiáticas son terribles, debido a una mezcla de factores geológicos, geográficos y superpoblación (y, últimamente, añadiría yo que por ciertas centrales nucleares cuyas defensas contra los mismos resultaron ser ridículas.) Pero no son los únicos. Se da la circunstancia de que la Península Ibérica es otra de las regiones con riesgo maremotriz. Engaña, porque por estos lares no son tan frecuentes y tampoco suelen ser tan intensos. Pero el riesgo existe.

No otra cosa fue el gran terremoto y tsunami de Lisboa del día de Todos los Santos de 1755, que ya te comenté en este blog. Se le suele llamar “de Lisboa” y “de Todos los Santos” porque prácticamente aniquiló la capital portuguesa, matando (entre muchas otras personas) a una montaña de gente que se encontraba en las iglesias celebrando esa festividad, o buscó refugio en ellas. Se calcula que hubo unos 40.000 – 60.000 muertos, sobre una población en la época de 275.000 habitantes. Semejante tragedia alentó notables dudas sobre la divinidad, sus atributos, su bondad y su poder protector, alejando a muchos pensadores influyentes de la teodicea de Leibniz, contribuyendo significativamente a la difusión del racionalismo ilustrado y, de paso, creando la sismología moderna. Fue tan gordo que hubo un antes y un después de la catástrofe “de Lisboa” en la cultura occidental.

Pero yo lo entrecomillo porque no fue sólo Lisboa. El maremoto, originado en la falla Azores-Gibraltar, golpeó con fuerza desde Irlanda al Senegal. Al Sur de la Península Ibérica, causó devastación y mortandad entre el Algarve portugués y la provincia de Cádiz, con olas a las que se les han estimado hasta quince metros de altura. Se llevó por medio Ayamonte, matando a unas mil personas, más un número indeterminado de pequeñas comunidades costeras. Por su parte, el terremoto, estimado en una magnitud de 8,5, causó daños importantes en lugares tan lejanos como Valladolid o Ciudad Real. Algunas fuentes afirman que las víctimas totales rondaron las 90.000.

Animación del tsunami del Atlántico de 1755, según el modelo computacional RIFT.
Puede observarse cómo en media hora ya estaba barriendo todo el Golfo de Cádiz.
Estudio realizado por la NOAA / NWS / Pacific Tsunami Warning Center.

Terremoto y tsunami de Mesina de 1908.

El terremoto y tsunami de Italia del 28 de diciembre de 1908 mató a 123.000 personas y destruyó las ciudades de Mesina y Reggio Calabria en su práctica totalidad. Foto: Wikimedia Commons. (Clic para ampliar)

El Mar Mediterráneo tampoco es inmune a los tsunamis, sobre todo en su parte central y oriental, con fuerte actividad sísmica. El historiador griego Heródoto de Helicarnaso ya nos cuenta que, en el año 479 aEC, durante un asedio a la ciudad de Potidea, los atacantes persas que aprovechaban un repentino y sorprendente descenso del nivel del mar para atravesar el istmo fueron sorprendidos por una gran ola como nunca se había visto antes y perecieron ahogados. Aunque Heródoto era un liante, habitualmente considerado al mismo tiempo el padre de la historia y el padre de la mentira, esto describe el comportamiento de ciertos tsunamis bastante bien y puede que el relato se sustente en un hecho real. Heródoto achacó este maremoto a la ira de Poseidón.

El primero que estableció un vínculo directo entre terremoto y maremoto fue otro historiador griego, Tucídides, cuando nos cuenta de uno sucedido en el Golfo Malíaco durante el verano del año 426 aEC. Al parecer, se llevó por medio a todas las poblaciones costeras. Desde entonces, ha habido muchos más. Quizá el más conocido de todos sea el que ocurrió a primera hora de la mañana del 21 de julio de 365 EC. Un fuerte terremoto submarino con epicentro cerca de Creta arrasó Libia y Egipto, y notablemente las ciudades de Apolonia y Alejandría, matando a mucha gente. Aparecieron barcos tres kilómetros tierra adentro. El fenómeno se repitió menos de un milenio después, en el año 1303. Mucho más recientemente, durante la madrugada del 28 de diciembre de 1908, el terremoto y tsunami de Mesina, al Sur de Italia, se llevó por delante a entre cien y doscientas mil personas.

¿Y en el Mediterráneo Occidental, o sea, más o menos las costas españolas y parte del extranjero? Bien, la actividad sísmica en el Mediterráneo Occidental no es tan intensa, pero también suceden. El más reciente así digno de mención fue el 21 de mayo de 2003, a consecuencia del terremoto de Bumerdés, Argelia. Este seísmo les hizo dos mil y pico muertos en tierra a nuestros queridos proveedores de gas natural, pero también inició un pequeño maremoto que, aunque sin causar otras víctimas, provocó bastantes daños en los puertos baleares. Destrozó numerosos pantalanes y hundió más de cien barcos pequeños, recordándonos así su poder.

Pese a ello, hay quien asegura que en el Mediterráneo Occidental no pueden producirse grandes tsunamis (y aquí). Otros, en cambio, dicen que eso no está claro. De hecho, probablemente ya ocurrió al menos una vez, que sepamos. En términos humanos, fue hace mucho tiempo: unos 11.500 años, allá por el Epipaleolítico. Pero en términos geológicos, eso es nada, hace un momentín. Pudo barrer las costas de Castellón, el Sur de Tarragona y las Islas Baleares con olas de hasta unos nueve metros, puede que algo más. Hoy en día lo llamamos el tsunami del BIG’95.

Deslizamiento de tierras BIG'95 y áreas primarias de impacto del tsunami (año 11.500 BP)

Ubicación aproximada del deslizamiento de tierras BIG’95 (Epipaleolítico, año 11.500 BP) y, si se hubiera producido hoy en día, de las áreas primarias de impacto del tsunami que generó. En aquella época la costa estaba más mar adentro y, por tanto, golpeó en regiones actualmente sumergidas. Mejor versión y explicación en la fuente original: Iglesias, O.; Lastras, G. et al. (2012): The BIG’95 submarine landslide-generated tsunami: a numerical simulation. The Journal of Geology, vol. 120, nº 1 (enero 2012.) ISSN: 0022-1376. Mapa: © Google Maps. (Clic para ampliar)

BIG’95.

Frente a las costas de Castellón y Tarragona se extiende una plataforma continental llamada la plataforma del Ebro, al estar básicamente constituida por sedimentos que aportaron este río y sus antecesores al menos desde el Aquitaniense (Mioceno inferior, hace aproximadamente 23 millones de años.) Es muy suave; en algunos puntos, por ejemplo frente a la ciudad de Castellón, hay que alejarse de la orilla más de sesenta kilómetros para que supere los cien metros de profundidad, con lo que gran parte de ella debió estar emergida durante el Último Máximo Glacial. Hace 11.500 años, la línea costera debía estar todavía unos 40-50 metros más baja que ahora, y por tanto 15-20 km mar adentro con respecto a su posición actual.

Sin embargo, esta suave plataforma termina abruptamente. En la zona que nos ocupa, por las Islas Columbretes, la profundidad aumenta deprisa hacia los dos mil metros: la llamada Depresión de Valencia. [Aquí tienes un fichero KMZ del Instituto de Ciencias del Mar (Consejo Superior de Investigaciones Científicas) para ver toda esta zona con detalle en Google Earth.] Se comprende fácilmente que los bordes de una suave ladera sedimentaria seguida por un desnivel de casi dos kilómetros están pidiendo a gritos un deslizamiento de tierras. Y esto fue lo que ocurrió, hace ahora once milenios y medio: 26 kilómetros cúbicos de sedimentos se desprendieron del borde de la plataforma del Ebro por la parte de las Columbretes para precipitarse hacia la Depresión de Valencia. No fue, ni con mucho, uno de los deslizamientos más grandes que se conocen. Nada que ver con los de Storegga (3.500 km3), en el Mar del Noruega, tres milenios y medio después, cuyo gigantesco tsunami separó definitivamente Gran Bretaña de la Europa Continental. Incluso mucho menos que el de 1929 frente a Terranova (Canadá), con sus 200 km3.

No obstante, debido al acusado desnivel, BIG’95 descendió rapidito, llegando a superar en algún punto los 150 km/h (> 40 m/s.) El conjunto del deslizamiento recorrió más de 110 km depresión abajo en menos de 73 minutos, cubriendo 2.200 km2 de fondo marino. Una masa de más de 50.000 millones de toneladas desplomándose a velocidades que rondan los cien kilómetros por hora (entre 70 y 150) tiene una cantidad notable de energía, y puede transferírsela al medio circundante. En este caso, el agua del mar.

Probablemente, el tsunami se formó durante los primeros minutos del colapso. Lo hizo en dos frentes, uno más rápido que avanzaba hacia las Islas Baleares y otro más lento que retrocedía hacia la costa de Castellón. El frente rápido golpeó la costa Noreste de Ibiza en primer lugar, 18 minutos después, con una ola inicial de hasta ocho metros que llegó sin previo aviso. La siguió una retirada del mar y al menos otra de unos siete que llegó pocos minutos después, y luego otras más pequeñas. Para entonces, el tsunami ya golpeaba Mallorca (en el minuto 27) aunque con olas de menor altura, entre 2 y 4 metros. Sin embargo, un fenómeno de resonancia en el sector de la Bahía de Palma pudo elevar la ola inicial hasta los diez metros por la parte de Santa Ponça. Por suerte, parece ser que las Baleares carecían de población humana en aquellos tiempos.

Animación de la llegada de un tsunami

Cuando un maremoto llega a aguas someras, la amplitud y velocidad de las olas se reducen, pero a cambio su altura aumenta. Imagen: R. Lachaume vía Wikimedia Commons.

Lamentablemente en el minuto 54 el frente lento, más energético, alcanzó la costa peninsular frente a lo que hoy en día sería casi todo Castellón y el Sur de Tarragona, más o menos. Y ahí, con toda probabilidad, había gente. No tanta como hoy en día, desde luego, y menos si pensamos en la temporada alta del turismo. Pero sí personas como los magdalenienses que ocupaban la cueva Matutano, situada en las proximidades. Esos eran homo sapiens, gente de los nuestros y todo ese rollo. Puede que familias, clanes o tribus de pescadores epipaleolíticos. Las costas y su pesca siempre han atraído a la humanidad.

Primero, se fue el mar. A continuación, regresó. El intenso efecto de asomeramiento producido por la propia plataforma del Ebro elevó las olas, puede que hasta los nueve metros. Quizá esto te parezca poco, acostumbrados como ya estamos a oír de tsunamis de cuarenta metros en el Japón, pero créeme, tú no quieres estar en el camino de un maremoto de nueve metros. Nueve metros son tres plantas de un edificio. La mayoría de las víctimas que causan los grandes tsunamis se dan en zonas donde el agua llega con menos de diez metros de altura; los puntos donde realmente superan los treinta son raros, “el máximo.” Durante el maremoto del Océano Índico de 2004, la inmensa mayor parte de los 175.000 muertos que ocasionó en Indonesia estaban en lugares donde la elevación del mar no superó los diez metros y a menudo ni siquiera los cinco. El de 2011 alcanzó la central nuclear de Fukushima con una altura máxima de 14-15 metros y ya sabes la que armó. En la práctica, medio metro basta para arrastrarte. El agua engaña mucho. Cuando llega con semejante fuerza, incluso inundaciones aparentemente pequeñas tienen un poder pavoroso. Y una vez te ha arrastrado, vete a saber dónde acabas, y cómo. De dos a tres metros ahogarán a todo el que no logre subirse a algo o sepa nadar muy bien (y tenga su día de suerte.)

El maremoto de 2004 llega a Banda Aceh, Indonesia.
Obsérvese que no es realmente muy alto, pero sólo en ese sector causó más de 31.000 muertes.

Área a menos de 9 msnm en el sector Burriana - Alcocéber

Cubierta en azul, el área que actualmente se encuentra a menos de 9 metros sobre el nivel del mar en el sector Burriana – Alcocéber. No obstante, cuando el tsunami alcanzó la antigua costa, varios kilómetros mar adentro, tuvo que inundar un área bastante superior debido a la suave inclinación de la plataforma continental del Ebro. Imagen: Google Maps / flood.firetree.net (Clic para ampliar)

El caso es que el tsunami de hace 11.500 años barrió esta costa hoy desaparecida unos kilómetros frente a lo que ahora son Burriana, Almazora, el Grao de Castellón, Benicasim, Oropesa del Mar, Torreblanca, Alcocéber, Peñíscola, Benicarló, Vinaroz, Alcanar, San Carlos de la Rápita y posiblemente hasta el Delta del Ebro (cuya formación es muy posterior, incluso posterior a la época romana.) Es imposible saber cuánta gente vivía ahí en aquellos tiempos. Si hubiese sido en nuestra época, especialmente durante la temporada turística, puede uno imaginarse lo que ocurriría.

Y… ¿puede volver a ocurrir hoy en día? Pues lo cierto es que no se sabe muy bien. Los mismos investigadores que han estudiado el BIG’95 creen que el punto donde se produjo es ahora estable a menos que hubiera un terremoto de bastante envergadura. Reconozco que un servidor se puso algo nerviosito con los terremotos vinculados al Proyecto Castor de Florentino que se produjeron durante el otoño pasado, justamente en esa zona. La presencia de la central nuclear de Vandellós algo más al Norte tampoco resultaba muy tranquilizadora. No obstante, con respecto a esto último, el Consejo de Seguridad Nuclear asegura que desde 2007 ésta dispone de “un nuevo sistema de refrigeración esencial” situado a más de 23 metros sobre el nivel del mar. Además, a raíz de lo de Fukushima, están realizando inversiones para incrementar la seguridad frente a estos fenómenos.

Sin embargo, como yo tengo mi puntito paranoico, nada, poca cosa, lo de los terremotos en una zona que ya pudo provocar un tsunami importante seguía teniéndome mosca. Así que he decidido ponerme en contacto con uno de los autores de la investigación: Galderic Lastras, profesor titular de Geología Marina de la Universidad de Barcelona. El doctor Lastras, por cierto muy gentilmente, me serena: haría falta uno bastante más intenso y cercano al talud continental que los de 2013 para iniciar, por sí solo, un deslizamiento de tierras de este calibre. No obstante, tales deslizamientos ocurren a veces porque sí; es decir, porque la ladera es o se vuelve inestable y simplemente colapsa. Pero por otra parte, el periodo de retorno (el tiempo medio que tarda en volver a ocurrir) es, obviamente, muy largo: este de hace 11.500 años fue el último que ocurrió en el sector. Decía antes que 11.500 años es un tiempo muy breve en términos geológicos, pero muy largo en términos humanos. Las probabilidades de que vuelva a ocurrir durante nuestro tiempo de vida, o el de nuestros hijos y nietos, son francamente bajas. No es imposible, por supuesto. Pero la probabilidad es muy pequeña.

No obstante, quise saber también si estamos muy en bragas o no en el caso de que esta probabilidad tan pequeña llegara a hacerse efectiva. Como ya te digo que yo soy apenas nada paranoico, molesté a Elena Tel (del Instituto Español de Oceanografía), Emilio Carreño (director de la Red Sísmica del Instituto Geográfico Nacional) y Gregorio Pascual (jefe del área de desastres naturales de la Dirección General de Protección Civil), todos los cuales tuvieron la santa paciencia de seguirme la corriente con gran amabilidad.

Vinieron a explicarme que, a pesar de los recortes, se está desarrollando un sistema de alerta contra maremotos en las costas españolas, en su mayor parte utilizando equipos ya existentes y cooperación internacional. Pero que, por su propia naturaleza, alertar de fenómenos cuya llegada se mide en decenas de minutos es complicado. Que ni esto es el Océano Pacífico, donde pueden transcurrir horas desde que se produce el terremoto hasta que llega el maremoto, ni nosotros somos los japoneses, que llevan décadas perfeccionando sus sistemas de la más alta tecnología hasta ser capaces de alertar a la población en cuestión de minutos. Y que en el caso de los tsunamis causados por deslizamientos de tierras, sin un claro terremoto que los genere, puede pasar un buen rato antes de que las boyas marítimas comiencen a indicar que ocurre algo raro. Es la detección del terremoto y sus características lo que nos permite deducir que viene la ola. Los deslizamientos de tierras se pueden captar, pero resultan mucho más ambiguos.

Sobreviviendo al maremoto.

Tilly Smith

Tilly Smith (izda.), de 10 años de edad, había prestado atención a su profe en clase. Así sabía que cuando el mar se va, es para volver con muy mal genio. Gracias a eso y a su entereza, salvó la vida de numerosas personas en una playa de Phuket (Tailandia) cuando llegó el maremoto de 2004, al dar la alerta que nadie más supo dar. Foto: © The Nation, Tailandia.

Me insisten en que la educación es importante. Durante el maremoto del Índico de 2004, una jovencita británica de diez años llamada Tilly Smith salvó a decenas de personas en una playa de Tailandia al recordar lo que les había contado en clase su profesor Andrew Kearney sobre lo que podía pasar cuando el mar se va. Tilly vio que el mar se iba y se lo explicó a sus padres. Su madre no la creía, pero su padre percibió tanta firmeza en sus palabras que avisó a otros bañistas y al personal del hotel donde se alojaban, activando así una evacuación improvisada. Cuando el mar regresó con todo su poder, fue una de las pocas playas del sector donde no hubo ni un solo muerto.

En realidad, la manera más eficaz de salvarse de un maremoto es relativamente sencilla: al primer indicio, corre. No te quedes a mirar. No pases de todo. No comentes la jugada. No intentes recoger tus posesiones ni ir a buscar el coche ni nada por el estilo. Alerta a los demás, intenta ayudar a quienes no puedan valerse por sí mismos y corre como si te fuera la vida en ello, porque te va. Aléjate del agua hacia el lugar más alto posible: montes, lomas, las plantas superiores de edificios resistentes. Si no hay otra cosa, incluso las copas de árboles grandes, difíciles de desarraigar. Lo que puedas. Una diferencia de pocos metros de altura representa la diferencia entre la vida y la muerte. Y si no hay absolutamente nada sólido a lo que subirse, simplemente corre tierra adentro. El maremoto perderá fuerza conforme avance hacia el interior. Si te pilla, intenta agarrarte a algo que flote. Hay gente que ha sobrevivido así.

¿Y cuáles son esos indicios de que viene un maremoto? Pues el primero de todos es un terremoto percibido en una zona costera. Si estás cerca de la orilla (incluyendo la de los ríos y canalizaciones próximos al mar) y notas un terremoto, ponte en alerta. A lo mejor no pasa nada, la mayoría de veces no pasará nada, pero tú presta atención. Por desgracia, este indicio no es de fiar: a menudo el terremoto se produce lejos, muy mar adentro, y no se percibe en tierra. Entonces sólo te queda lo mismo que alertó a Tilly Smith: que el mar se retire, como si de repente la marea hubiese bajado mucho. Lamentablemente, esto tampoco ocurre siempre, sino sólo cuando llega el vano de la ola en primer lugar. Otras veces, la cresta viene por delante. Entonces, la cosa se complica. Los tsunamis de verdad no son como las olas esas de hacer surf que salen en las pelis. Es más como una inundación rápida que crece y crece y crece sin parar. Si lo ves venir, ya lo tienes encima.

En este caso, bien, tenemos un problema. Cuentas con muy poco tiempo. Correr ya no vale porque, así seas Usain Bolt, el agua es más rápida que tú. Lo primero, intenta agarrarte con fuerza a algo que flote, lo que sea. No permitas que te atrape dentro de un vehículo: los vehículos vuelcan enseguida y te ahogas, además de que las carreteras y caminos se colapsan en un plis. Ni tampoco en un edificio bajo (como un bungaló, caseta, chiringuito, chalecito, nave o demás): si te quedas ahí dentro, el agua simplemente seguirá subiendo hasta llegar al techo y ahogarte. Sal como puedas. Si puedes encaramarte a algo alto, cualquier cosa, pues arriba. Una vez te veas en el agua, no intentes pelear contra ella. No puedes ganar: el mar es infinitamente más fuerte que tú y sólo lograrás agotarte enseguida. Déjate llevar, intentando mantener la cabeza fuera del agua (obvio) y evitar los golpes contra otros objetos que pueda estar arrastrando. No sueltes tu salvavidas, por precario que sea. Si no te engancha nada, lo más probable es que la ola al retroceder se te lleve mar adentro. Calma, hay personas que han sido rescatadas después de varios días en el mar, aferradas a su trozo de madera. Es normal tener miedo, mucho miedo, pero no permitas que te venza el pánico. Si se nos apodera el pánico cometeremos estupideces, y si cometemos estupideces en una situación así, se acabó la partida. Jaque mate.

Cartel de información para tsunamis en Puerto Rico

Cartel de información para tsunamis en el bosque estatal de Guánica, Puerto Rico. Las instrucciones básicas son sencillas: corre todo lo que puedas, lo más alto que puedas, y si no puede ser, lo más lejos de la orilla que puedas. Foto: G. Gallice vía Wikimedia Commons.

Otra causa de mortandad es que el maremoto puede comportarse de manera distinta en diferentes lugares de la costa. Hay gente que lo ve subir poco en otro punto de la orilla y se piensa que está segura. Tú, ni caso: a correr hacia lo alto. El comportamiento de un tsunami depende de numerosos factores muy complejos, y a lo mejor en la otra punta de la playa sube sólo unos centímetros, pero donde estás tú te mete cinco metros. Así que ojito.

Jamás hay que olvidar que un maremoto puede componerse de múltiples olas y durar varias horas. La primera ola tampoco tiene por qué ser la peor de todas, y de hecho muchas veces no lo es. Hay gente que ha muerto porque creía que, al haber escapado de la primera, estaba a salvo de la segunda y sucesivas. Tampoco faltan las personas que perecieron al acudir o regresar al área devastada tras el primer impacto, para prestar auxilio o en busca de familiares, amigos, mascotas o bienes; al hacerlo, se encontraron de bruces con el segundo golpe o los siguientes. La zona afectada por un tsunami no es segura hasta que las autoridades científicas pertinentes no digan que es segura; y aún así, con cuidadín.

Lisboa reloaded.

En general, los especialistas con los que he consultado consideran mucho más plausible (y temible) una repetición del tsunami de Lisboa que del ocasionado por el deslizamiento BIG’95. La repetición del BIG’95 es sumamente improbable; no ha vuelto a haber otro en estos últimos once milenios y medio. Pero algo como lo del día de Todos los Santos de 1755 no sería tan raro. Fuertes terremotos en la falla de Azores-Gibraltar, con maremotos que alcanzaron las costas circundantes, ha habido unos cuantos más.

Para acabar de arreglarlo, en 1755 la zona de la Bahía de Cádiz estaba relativamente poco poblada y menos urbanizada. Ahora es todo lo contrario, con el Polo Químico de Huelva –prácticamente a nivel del mar– como guinda del pastel. La base naval de Rota, donde a menudo atracan buques a propulsión nuclear, tampoco es moco de pavo. Teniendo en cuenta que un submarino de la clase Los Angeles tiene un calado de 9,5 metros cuando está en superficie y el tsunami en esa zona podría andar por los 12 – 15, no sería nada extraño que lo sacara del puerto y lo plantase, pongamos, en medio del Arroyo del Salado. En este plan. Aunque el reactor estuviera asegurado y no hubiese sufrido daños, ya puedes imaginarte las carreras hasta cerciorarse, en un momento en el que harían falta recursos por todas partes.

Con submarino o sin él, el desastre sería mayúsculo en todo el sector. Uno de los problemas de estas catástrofes es que son a la vez improbables, impredecibles y veloces. Esto no es Japón, donde está claro que vas a tener un maremoto gordo de vez en cuando (aunque aparentemente los directivos de TEPCO no se habían enterado, o querido enterar…) En España, son tan improbables como para que asignar grandes recursos a prevenirlas se perciba como un despilfarro, sobre todo en una época donde hace falta tanto en tantas partes. Al mismo tiempo, su impredecibilidad y rapidez hacen que, cuando se producen, o lo tienes ya todo listo en el sitio o apenas da tiempo para nada y nos las comemos con patatas. Y luego todo el mundo chilla que cómo es que no se habían tomado medidas y tal.


Bibliografía:

  • Bernet, S.; Canals, M.; Alonso, B.; Loubrieu, B.; Cochonat, P.: The BIG-95 and CALMAR 97 shipboard parties, 1999. Recent slope failures and mass-movements in the NW Mediterranean Sea. En: Ollier, G.; Cochonat, P.; Mendes, L. (Eds.), Seafloor Characterization/Mapping Including Swath Bathymetry, Side-Scan Sonar And Geophysical Surveys. Third Eurpean Marine Science and Technology Conference. Session Report. EU, Lisboa, págs. 111-126.
  • Lastras, G.; Canals, M.; Hughes-Clarke; J. E.; Moreno, A.; De Batist, M.; Masson, D. G; Cochonat, P. (2002): Seafloor imagery from the BIG’95 debris flow, Western Mediterranean. Geology, 30, (10), 871-874. DOI: 10.1130 / 0091-7613 (2002)030<0871 : SIFTBD>2.0.CO;2.
  • Urgeles, R.; Lastras, G.; Canals, M.; Willmott, V.; Moreno, A.; Casas, D.; Baraza, J.; Bernè, S. (2003): The Big’95 debris flow and adjacent unfailed sediments in the NW Mediterranean Sea: Geotechnical-sedimentological properties and dating. Advances in Natural and Technological Hazards Research, vol. 19 (2003), págs. 479-487.
  • Canals, M.; Lastras, G., Urgeles, R; De Batist, M.; Calafata, A. M.; Casamora, J.L. (2004): Characterisation of the recent BIG’95 debris flow deposit on the Ebro margin, Western Mediterranean Sea, after a variety of seismic reflection data. Marine Geology, vol. 213, nos. 1–4, 15 de diciembre de 2004, págs. 235–255.
  • Atwater, B. F. et al: Surviving a Tsunami — Lessons from Chile, Hawaii, and Japan. United States Geological Survey, circular 1187, versión 1.1, 1999-2005.
  • Lastras, G.; Vittorio, F.; Canals, M.; Elverhøi, A. (2005): Conceptual and numerical modeling of the BIG’95 debris flow, Western Mediterranean Sea. Journal of Sedimentary Research, 2005, v. 75, 784–797. DOI: 10.2110 / jsr.2005.063.
  • Iglesias, O.; Lastras, G.; Canals, M.; Olabarrieta, M.; González Rodríguez, E. M.; Aniel-Quiroga, Í.; Otero, L.; Durán, R.; Amblàs, D.; Casamor, J. L.; Tahchi, E.; Tinti, S.; De Mol, B. (2012): The BIG’95 submarine landslide-generated tsunami: a numerical simulation. The Journal of Geology, vol. 120, nº 1 (enero 2012.) ISSN: 0022-1376.
51 Comentarios Trackback / Pingback (1)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (24 votos, media: 5,00 de 5)
Loading ... Loading ...
Be Sociable, Share!

Cuando Suiza quiso su bomba atómica y tuvo un siniestro nuclear

«Una instalación como la Central Nuclear de Lucens no estalla, porque no puede estallar.»
Hans Streuli, ex-Presidente de la Confederación Helvética y de la
Sociedad Nacional para la Promoción de la Energía Atómica, 1962. (NGA GVP 26/06/1962, pág. 7)

Antigua central nuclear experimental de Lucens, siniestrada el 21/01/1969.

Cuarenta y dos años después del siniestro que obligó a su cierre, los niveles de contaminación radiactiva en el agua de drenaje de la antigua central nuclear experimental de Lucens (Suiza) aumentaron inesperadamente de 15 Bq/l a 230 Bq/l durante el invierno de 2011 a 2012. Aunque muy por debajo del nivel considerado seguro por las autoridades helvéticas (12.000 Bq/l), el hecho de que ocurriera pocos meses después de los accidentes nucleares múltiples de Fukushima, su proximidad a la fuente de las aguas minerales Henniez-Nestlé y el peligro para la riqueza agropecuaria y vitivinícola local despertaron no poca inquietud en la zona. El agente contaminante era, en su mayor parte, tritio radiactivo. Los niveles volvieron a la normalidad durante la primavera de 2012 sin causar mayores problemas. Por el momento no se han establecido públicamente las razones de esta incidencia. Datos: Oficina Federal de Salud Pública de la Confederación Helvética. Foto: J. P. Guinnard.

A finales de 2011, una persona se me acercó con unas hojas impresas de un foro de Internet para decirme:

–Eh, Yuri, mira esto. Está llegando a Suiza la radiación de Fukushima. Se han multiplicado por quince los niveles de radiactividad en el agua.
–¿Sí? –contesté con no poca displicencia, pues ya llevaba escuchadas unas cuantas de esas.
–No pongas esa cara, hombre. Son mediciones oficiales, míralo tú mismo.
–¿Pero cómo se va a multiplicar por quince la radiación a diez mil kilómetros de distancia? A ver, déjame ver. ¿La Broye? ¿Dónde c*** está esto?
–Aquí pone que entre el cantón de Vaud y el de Friburgo.
–¿El cantón de Vaud…? –recordé, vagamente– Ah, no, entonces esto no viene de Fukushima. Será todavía por aquel accidente nuclear que tuvieron.

Mi interlocutor se sorprendió:

–¿Un accidente nuclear? ¿En Suiza? ¿Cuándo?
–Allá por 1969, en Lucens. Bueno, en realidad nunca ha quedado claro si fue un accidente o un incidente muy grave. Pero se les fue un reactor como su p*** madre. Así que yo lo llamo “el siniestro nuclear de Lucens“. Por suerte estaba metido dentro de una caverna, que si no…
–Vaya, no me lo imaginaba de los suizos. ¿Y cómo fue eso?
–Verás, el caso es que querían hacer bombas atómicas y…
–¡¿Que Suiza quería hacer bombas atómicas?!
–Pues… eh…

Suiza atómica.

Paul Scherrer

El profesor Paul Scherrer (1890-1969) del ETH-Zúrich fue el “padre” de la energía atómica en Suiza. Foto: © Association suisse pour l’énergie atomique / Schweizerische Vereinigung für Atomenergie.

Ya antes de la Segunda Guerra Mundial Suiza realizó sus propias investigaciones sobre el átomo, fundamentalmente en Lausana, Ginebra y sobre todo en el Instituto Tecnológico Federal de Zúrich (ETH). Entre 1935 y 1940 construyeron tres aceleradores de partículas, incluyendo un ciclotrón en el ETH dirigido por el físico Paul Scherrer, con fondos que aportó la industria privada. El profesor Scherrer mantenía contactos con Lise Meitner (descubridora de la fisión nuclear), Otto Hahn (codescubridor), Werner Heisenberg (el científico más destacado del programa atómico nazi, que ya tratamos en este blog) e incluso con el director del Proyecto Manhattan, el general Leslie Groves. Groves le invitó a visitar los Estados Unidos durante el verano de 1945 y en las propias palabras de Scherrer, le enseñó “muchas cosas”, incluyendo los reactores de producción de plutonio de Hanford. Regresó a Suiza diciendo que “¡todo es muy fácil!”

Apenas tres meses después de que los Estados Unidos dieran a conocer al mundo el poder del núcleo atómico mediante los bombardeos contra las ciudades de Hiroshima y Nagasaki, el profesor Scherrer publicó un artículo divulgativo en la edición vespertina del periódico Neue Zürcher Zeitung de 28 de noviembre de 1945 con el título “Fundamentos físicos y técnicos de la energía atómica.” Le siguieron varios más, que cautivaron el interés del público, incluyendo a los políticos y los militares; quienes, como buena parte del mundo por aquel entonces –visto lo visto en Hiroshima y Nagasaki–, tampoco necesitaban una persuasión extrema para convencerse de que no sería mala idea echar un vistazo a eso de la energía atómica, tanto en su vertiente civil como en la militar.

El 8 de junio de 1946, el Consejo Federal funda la Comisión de Estudios para la Energía Atómica (más conocida por su acrónimo en alemán SKA, de Studienkomission für Atomenergie). Fue presidida, naturalmente, por el profesor Paul Scherrer de Zúrich. El propósito anunciado al público (y al Parlamento) de esta SKA era la investigación nuclear más o menos genérica. Pero el Presidente Confederal Karl Kobelt les encarga en secreto otra tarea, que de hecho estaba ya sobreentendida: la “creación de una bomba de uranio militar o un medio de guerra equivalente basado en los principios de la energía atómica.” En 1947, el Parlamento aprueba una ley para financiar a la SKA con 18 millones de francos suizos sin que nadie informe a los diputados de su dimensión militar.(Fuente)

Al principio, el progreso es lento. Puede que la energía nuclear sea “fácil”, como opinaba el profesor Scherrer, pero sin duda sale muy cara y requiere abundantes medios científicos y tecnológicos que exigen desarrollar una notable pericia técnica. Además, Suiza no tiene uranio. Bueno, ni uranio ni casi nada. El país será muy rico, pero también extremadamente pobre en recursos naturales. Apenas hay minería. Deben importar del extranjero todos los minerales especiales que necesita un programa nuclear, sin que se note que hay gato encerrado. Y esto resulta mucho más complicado de lo que parece, pese a las excelentes relaciones comerciales de Suiza con el mundo entero. Importarlos no, importarlos es sencillo. Lo que resulta endiabladamente difícil es que nadie se percate de que tu programa atómico tiene bicho, sobre todo si tienes que pasarlos ante los ojos de potencias atómicas como los Estados Unidos o la entonces Unión Soviética, celosos defensores de la exclusividad del club nuclear. Y, ya puestos, por los morros del quisquilloso Parlamento suizo.

Reactor nuclear Saphir, Suiza.

El reactor nuclear “Saphir” de tipo piscina, el primero que tuvo Suiza, comprado directamente a los Estados Unidos tras la Primera Conferencia sobre los Usos Pacíficos de la Energía Atómica. Era un diseño del Laboratorio Nacional de Oak Ridge, concebido en origen para funcionar con uranio altamente enriquecido pero “rebajado” al 20% antes de su exposición en Ginebra, precisamente para que no se pudiera utilizar con el propósito de producir material militar. No obstante, permitió a Suiza realizar sus primeros estudios sobre el funcionamiento de un reactor nuclear, la producción de radioisótopos, otros aspectos de la química nuclear, la física de la radiación y los problemas de ingeniería asociados. Foto: Bildarchiv ETH-Bibliothek, Zúrich. (Clic para ampliar)

El caso es que, entre unas cosas y otras, ni siquiera logran iniciar la construcción de un reactor. Hubo que esperar hasta agosto de 1955 para que los Estados Unidos llevasen a Ginebra uno experimental de demostración, llamado Saphir, para la Primera Conferencia sobre los Usos Pacíficos de la Energía Atómica. Fue el primer reactor nuclear que se mostró al público, del tipo piscina, con uranio enriquecido al 20%, moderado y refrigerado por agua ligera (agua común), capaz de entregar unos diez megavatios térmicos de potencia. No era, ni con mucho, el mejor diseño posible para un programa que quería ser militar. De hecho, era uno de los peores (por eso los amerikantsy lo presentaron en una conferencia de usos pacíficos…). Pero, a falta de otras alternativas, un consorcio mixto compuesto por el gobierno suizo y diversas empresas del mismo país que se hizo llamar Reaktor AG se lo compró al finalizar el encuentro. Lo instalaron en Würenlingen, a orillas del río Aar, donde hoy en día se encuentra la sede del Instituto Paul Scherrer.

Bien, pues Suiza ya tenía su primer reactor nuclear. Como te digo, resultaba una muy mala opción para un programa con bicho militar. Para conseguir el combustible enriquecido al 20%, tenían que comprárselo a los Estados Unidos en persona. No tenían medios para aumentar el enriquecimiento del uranio y llevarlo al grado militar. Los reactores de agua ligera son generalmente malos para producir plutonio de buena calidad. Y además, la instalación se encontraba bajo estricto control estadounidense. Mil cosas. Pero les sirvió para aprender.

Tanto fue así, que en 1957 comenzaron a verse capaces de tirar por su propio camino. Ese fue el año en que iniciaron la construcción de un segundo reactor al lado del primero, llamado Diorit, con tecnología mayormente nacional. Diorit era un animal completamente distinto: estaba moderado con agua pesada, utilizaba uranio natural (sin enriquecer, mucho más fácil de conseguir en el mercado internacional) y generaba unos 20 megavatios térmicos. Y servía para producir plutonio. Plutonio de grado militar.

Reactor nuclear Diorit, Suiza.

El reactor suizo Diorit durante una actualización, en 1971. Alimentado con uranio natural y moderado con agua pesada, tenía la capacidad para generar plutonio de grado militar, aunque los controles establecidos por sus proveedores impedían que se pudiera producir en la práctica. Suiza necesitaba más tecnología y más desarrollo propio para crear una auténtica industria nuclear militar independiente. Foto: Archivo de la ETH-Zúrich, ARK-NA-Zü 1.2. (Clic para ampliar)

Compraron el uranio para alimentarlo a AMF Atomics de Canadá. Pero el agua pesada hubo que importarla otra vez de Estados Unidos, bajo el compromiso (y bastantes controles) de que el reactor sólo se utilizaría para investigación civil. La pura verdad es que con esos controles resultaba muy difícil desviar cantidades significativas de plutonio para un todavía hipotético programa militar. No obstante, quienes deseaban que Suiza tuviese armas nucleares se excitaron. A malas, ahora ya disponían de la tecnología y la posibilidad (un poco como pronto haría Israel con Dimona). Sólo necesitaban “independizarse” de sus proveedores.

Al mismo tiempo, la reciente creación del Pacto de Varsovia (1955) en respuesta a la formación de la OTAN (1949), los aún más recientes sucesos de Hungría (1956) y la aparición de los misiles balísticos de alcance medio con grandes cabezas atómicas (precursores de los misiles balísticos intercontinentales, que llegarían inmediatamente después) calentaban la Guerra Fría en Europa a toda velocidad, empujándola hacia su periodo más crítico. Casi en medio, un país riquísimo que –aunque netamente situado en el campo occidental– hace de la neutralidad su bandera, y que muchos creen imposible de derrotar pero sus militares saben que no lo es tanto desde que se inventaron los aviones, las fuerzas aerotransportadas y los misiles de largo alcance: sí, Suiza.

Es en ese contexto, el 27 de marzo de 1957, cuando el jefe del Estado Mayor suizo Louis de Montmollin crea en el más absoluto secreto una cierta comisión de estudio para la posible adquisición de armas nucleares propias, vinculada al “lado militar” de la SKA. No es una cosa que De Montmollin se saque de la manga porque le parece bien, al hombre:  están en el ajo otros cuatro oficiales de alto rango, el jefe de los servicios legales del Ministerio de Asuntos Exteriores, dos miembros destacados del Comité de Trabajo para Asuntos Nucleares del Consejo Federal y el director de la compañía Reaktor AG (algunas de estas personas se hallaban muy próximas al después llamado Projekt-26, la rama suiza de la Operación Gladio.) En realidad, la fundación de esta comisión fue una iniciativa secreta del Consejo Federal.

En junio de 1958, de manera probablemente casual, un grupo pacifista comenzó a recoger firmas para convocar un referéndum que habría prohibido la “importación, fabricación, tránsito, almacenamiento y uso de armas nucleares de todas clases” en territorio suizo. La recogida de firmas les fue bastante bien y el Consejo Federal empezó a ponerse nervioso, porque les metía directamente el dedo en el ojo de un programa secreto que podía provocar un escándalo internacional. Quizá por eso, durante el mes de julio hicieron finalmente pública una denominada declaración de principios donde afirmaban:

“De acuerdo con nuestra centenaria tradición de valentía, este Consejo Federal considera que las Fuerzas Armadas deben recibir el armamento más efectivo para preservar nuestra independencia y proteger nuestra neutralidad, incluyendo las armas nucleares.”

–Declaración de Principios del Consejo Federal de la Confederación Helvética, 11 de julio de 1958.(Fuente)

Pero el asunto estaba ya ocasionando problemas políticos, los costes se disparaban y las dificultades tecnológicas también. Crear una industria nuclear nacional de verdad no era tan fácil como anticipó el profesor Scherrer. Impaciente, el nuevo jefe del estado mayor Jakob Annasohn se dirigió al Ministerio de Defensa el 14 de marzo de 1960 para que considerasen la posibilidad de adquirir armas nucleares completas en Estados Unidos, el Reino Unido e incluso la Unión Soviética; o, al menos, una cooperación con Francia y Suecia (que también tenía su propio programa militar). El Consejo Federal de Ministros le miró muy raro y le vinieron a responder de lo más cortésmente que si estaba loco o qué. Así quedó el tema por el momento.

Sin embargo, el 10 de octubre de 1960, el reactor Diorit alcanzó la primera criticidad y comenzó a funcionar. Trabajosamente, a un coste monumental, Suiza estaba cada vez más cerca de desarrollar su propia industria nuclear. Y sus propias armas atómicas.

El escándalo de los Mirage.

Hawker Hunter Mk.58 de la Fuerza Aérea Suiza.

El mejor avión de combate con que contaba la Fuerza Aérea Suiza mientras se planteaba hacer bombas atómicas era el Hawker Hunter Mk.58 (en la foto, durante una exhibición reciente), un caza táctico subsónico de limitada autonomía totalmente inadecuado para operaciones de bombardeo profundo. Estuvo en servicio desde 1958 hasta 1994. Imagen: Wikimedia Commons. (Clic para ampliar)

Como ya te he contado alguna vez en este blog, si quieres una fuerza nuclear, crear tus propias armas atómicas es sólo una parte del problema. Otra parte consiste en encontrar una manera de llevarlas hasta su blanco de manera más o menos efectiva. Eso, en la práctica, añade dos dificultades nuevas. La primera es que no te vale un petardo cualquiera: tienes que miniaturizarlas para que quepan en una bomba de aviación o en la cabeza de un misil, lo que requiere un grado significativo de sofisticación tecnológica. La segunda es conseguir el avión o el misil de marras.

Fabricar un misil de medio o largo alcance con capacidad nuclear estaba (y sigue estando) totalmente fuera de las capacidades de Suiza y quienes tienen no ponen los buenos a la venta. El desarrollo de esta clase de misiles exige, básicamente, un programa espacial o algo muy parecido. En cuanto a su aviación, también estaba (y, por cierto, sigue estando) totalmente obsoleta, además de ser minúscula. En África hay fuerzas aéreas notablemente más poderosas. Cosas de los impuestos bajitos y tal.

En fin, que lo del misil era imposible por completo y a principios de los ’60 la Fuerza Aérea Suiza no sólo estaba anticuada: era ridícula. De hecho, ni siquiera existía como tal. Era una sección del Ejército de Tierra. Mientras las potencias estrenaban sus F-4 Phantom, sus MiG-21 y sus Mirage III, todos ellos capaces de volar al doble de la velocidad del sonido o más –entre muchas otras cosas–, los suizos se apañaban con cosas británicas de posguerra como los de Havilland Vampire / Venom y los Hawker Hunter, que ni siquiera eran supersónicos. Es que tenían también aspiraciones aeronáuticas nacionales, ¿sabes?, con prototipos como el N-20 y el P-16, obsoletos incluso antes de terminarlos. De todos ellos, el único que valía para algo en esas fechas era el Hunter, un caza subsónico ligero con capacidades de ataque táctico más o menos equivalente al Super Sabre americano o al MiG-17 soviético. Pero para misiones de penetración y bombardeo nuclear profundo, no pasaba de chatarra.

Así que decidieron actualizarse. Y, con el proyecto de fabricar armas atómicas ya en mente, querían un avión supersónico de altas prestaciones que fuese capaz de transportarlas “hasta Moscú” (¡cómo no…!) Para ser exactos, cien de ellos. Probaron el Saab 35 Draken sueco, los Lockheed F-104 Starfighter y Grumman F-11 Tiger estadounidenses, el Fiat G.91 italiano y el Dassault Mirage III francés. De todos ellos, el que más les gustó fue el Mirage. Además, se los dejaron muy bien: 871 millones de francos suizos por las cien unidades, con electrónica estadounidense y nuevos sistemas de radar, guerra electrónica y ayuda a la penetración. Encima, la célula y los motores se construirían en Suiza bajo licencia, dando así un empujón a la atrasada industria aeronáutica helvética. Un buen negocio. En 1961 el Consejo Federal asignó el presupuesto y se pusieron a ello.

Pasó lo de costumbre con los productos Dassault: los costes reales se dispararon. Además, la industria aeronáutica suiza estaba efectivamente tan obsoleta que no era capaz de producir ni las células ni los motores con la rapidez y calidad necesarias. Apenas tres años después, en 1964, el Consejo Federal tuvo que pedir al Parlamento un crédito adicional de 576 millones de francos, sumando un total de 1.447 millones. Eso era una fortuna en aquella época y el Parlamento dijo que ni hablar. Al final lo zanjaron con 1.021 millones… pero por sólo 57 aviones en vez de los cien originales.

Dassault Mirage III de la Fuerza Aérea Suiza.

El Dassault Mirage III con el que tuvieron que quedarse al final. De los cien previstos, sólo pudieron completar 57, y parte de ellos con problemas de calidad (que fueron subsanados posteriormente.) Esta “fuerza mínima” resultaba insuficiente para operaciones de bombardeo profundo contra la URSS y de hecho se dudaba si bastaría para defender el propio espacio aéreo suizo. Foto: Wikimedia Commons. (Clic para ampliar)

Como Suiza no dejaba de ser un país serio, en el proceso dimitió mucha gente, desde el ex-Presidente, Miembro del Consejo Federal y Ministro de Defensa Paul Chaudet hasta el jefe del Estado Mayor Jakob Annasohn que te mencioné más arriba (sí, el que quería comprar armas nucleares por ahí.) Crearon una comisión de investigación parlamentaria (una de verdad, que en los países serios es una cosa muy seria), reorganizaron el Ministerio de Defensa de arriba abajo, multiplicando los controles, y se replantearon la política de defensa en su conjunto. Fue tan gordo para los estándares de allí que se le llamó el escándalo de los Mirage. Aquí ya sabemos que habría sido alguna cosilla de esas por las que no pasa nada, no dimite nadie y además vuelven a sacar mayoría absoluta en las siguientes elecciones. Por no mencionar el chiste de la comisión parlamentaria.

El caso es que al final se quedaron con 57 aviones en vez de 100, parte de los cuales presentaban problemas de calidad en la producción. Esa era una fuerza muy justa, muy por debajo y más cara de lo previsto, ya no para atacar Moscú, sino para simplemente defender el espacio aéreo suizo en caso de guerra.

Pese a ello, algunos seguían hablando de bombas atómicas y ataques estratégicos profundos. El 4 de mayo de 1964, en pleno escándalo de los Mirage, un documento (entonces) secreto de la comisión de estudio para la posible adquisición de armas nucleares propias mencionada más arriba proponía 50 bombas de aviación, con una potencia entre 60 y 100 kilotones cada una. También desarrollaron planes para realizar pruebas nucleares subterráneas en grutas alpinas. Sin embargo, los costes se multiplicaban: otro documento confidencial hablaba de 720 millones de francos suizos a lo largo de 35 años si las hacían de uranio altamente enriquecido y hasta 2.100 millones en 27 años si optaban por el plutonio, que permite construir armas más ligeras, potentes y sofisticadas.

Pero, ¿de dónde iban a sacarlas, si sólo contaban con dos reactores primitivos bajo control de potencias extranjeras nada favorables a la idea de ampliar el club nuclear? Bueno, es que para entonces ya contaban con un tercero. Uno mucho más avanzado, de fabricación exclusivamente nacional, metido en una caverna entre los Alpes y el Jura: la central nuclear experimental de Lucens.

La central nuclear experimental de Lucens.

La central de Lucens surgió de tres proyectos distintos para la producción de energía eléctrica civil. El primero se remonta a 1956, cuando un profesor del Instituto Federal de Tecnología de Zúrich sugirió sustituir la anticuada planta de calefacción urbana de la ciudad por una nueva, nuclear, que suministrara tanto agua caliente como electricidad. Este proyecto fue avalado por “el Consorcio”, una agrupación empresarial privada constituida en torno a la importante firma industrial Sulzer de Winthertur. Sin embargo, este “Consorcio” carecía por sí solo de la capacidad científica para emprender una obra así.

Lucens, Suiza.

Lucens, Cantón de Vaud (distrito de La Broye-Vully), Suiza. La central se instaló en una caverna a apenas dos kilómetros de la localidad, según se baja por la carretera 1 en dirección a Lausana. Foto: Wikimedia Commons. (Clic para ampliar)

La segunda idea, planteada aproximadamente al mismo tiempo, fue propuesta por las compañías eléctricas Atel, FMB, NOK y EOS. Constituyeron la sociedad Suisatom AG para promover una central nuclear que produjera energía eléctrica puramente, en el río Aar, cerca de Villigen, o sea justo al lado de los reactores Saphir y Diorit. Pero pensaban comprar el reactor a la compañía estadounidense General Electric, con lo que no habría sido un proyecto estrictamente nacional.

Y la tercera, también de las mismas fechas, se originó en un grupo romando llamado Enusa (Énergie nucléaire SA, sin ninguna relación con la ENUSA española.) Enusa tenía un proyecto más definido, realista y alcanzable desde el punto de vista tecnológico: construir una central nuclear experimental en una caverna del cantón de Vaud que tenía buenas características geológicas, con planos estadounidenses pero de fabricación nacional, que sentara las bases para luego desarrollar centrales mayores y mejores. No obstante, a Enusa le faltaba el dinero y parte de la tecnología para embarcarse por cuenta propia.

En 1961, el gobierno federal suizo sugirió a estas tres sociedades que aunaran sus esfuerzos en torno al proyecto más factible (y menos susceptible de “injerencias extranjeras”): el de Enusa en Lucens (Vaud). Pero en vez de usar planos americanos, sería totalmente de diseño y construcción suiza. A los tres grupos les pareció buena idea y en julio del mismo año fundaban la Sociedad Nacional para la Promoción de la Técnica Atómica Industrial (SNA), presidida por el ex-Presidente de la Confederación Hans Streuli. El propósito era crear una central nuclear de características tecnológicas avanzadas que constituyera el penúltimo paso para alcanzar la tan ansiada industria nuclear nacional. Hasta donde yo sé, ninguna de esas empresas era totalmente consciente de que tras ese proyecto se ocultaba un afán de investigación militar (aunque también habrían tenido que hacerse un poco los idiotas para alegar completa inconsciencia.)

Optaron por un diseño con combustible de uranio muy ligeramente enriquecido (al 0,96% en vez del 0,7% natural), moderado con agua pesada y refrigerado por dióxido de carbono: lo que viene siendo un HWGCR. Sus 73 elementos de combustible se parecían mucho a los de las centrales Magnox británicas y UNGG francesas (como Vandellós-1), moderadas con grafito pero también refrigeradas por gas (GCR). Esta es una tecnología especialmente apta para producir plutonio militar en cantidad (de ahí salió el que usaron en las primeras armas nucleares de ambos países.) Generaría 30 megavatios térmicos, de los que se obtendrían 8,3 megavatios eléctricos. La disposición de la central era como sigue:

Esquema de la central nuclear experimental de Lucens, Suiza.

Esquema de la central nuclear experimental de Lucens. Leyenda: 1.- Caverna del reactor. 2.- Caverna de maquinaria. 3.- Galería de acceso. 4.- Sistema de aire acondicionado. 5.- Edificio de explotación. 6.- Estación de ventilación superior. 7.- Chimenea de ventilación. Imagen: Inspección Federal para la Seguridad Nuclear, Suiza. (Clic para ampliar)

Construcción de la central nuclear experimental de Lucens, Suiza.

Dos etapas de la construcción de la central nuclear experimental de Lucens. Fue excavada “de dentro afuera” y ensamblada entre 1962 y 1965, pero los distintos problemas que surgieron extendieron el proceso hasta principios de 1969. Imágenes: Inspección Federal para la Seguridad Nuclear, Suiza.

Las obras se iniciaron el 1 de julio de 1962, excavando la galería de cien metros para penetrar en la montaña. Cuando la gente de la zona se enteró de lo que le había tocado en suerte, hubo bastante oposición. Fue entonces cuando el ex Presidente de la Confederación metido ahora a presidente de la SNA quiso tranquilizarles con esa frase tan molona que encabeza el artículo, y que ha quedado para la posteridad: “Una instalación como la Central Nuclear de Lucens no estalla, porque no puede estallar.”

La buena idea, que al final resultaría ser salvífica, fue meterla dentro de una caverna. La mala, todo lo demás. Suiza se había quedado muy atrás en materia nuclear a esas alturas. Mientras ellos excavaban y construían laboriosamente su centralita experimental de 8 megavatios eléctricos (MWe), las superpotencias atómicas estrenaban sus prototipos de reactores de segunda generación con capacidades superiores a los 200: General Electric de los Estados Unidos había inaugurado el BWR-1 en Dresden, Illinois (1960, 210 MWe)  y la URSS daba los últimos retoques al VVER-210 (1964, Novovoronezh, 210 MWe). El Reino Unido, Canadá y Francia les pisaban los talones con tecnologías muy prometedoras y grandes inversiones. Hasta Suecia, que aún se mantenía en la carrera por la bomba (si bien ya resoplando…), completaba el R-3 de Ågesta con 12 MWe: un 50% más.

La construcción no fue mal: Lucens quedó terminada en mayo de 1965, menos de tres años después. Pero durante el proceso se hizo evidente que necesitaría un largo periodo de prueba y ajuste antes de ponerla en servicio. Entonces, la compañía eléctrica NOK se dejó ya de mandangas nacionales y encargó un reactor nuclear PWR a Westinghouse de los Estados Unidos, con 380 MWe de potencia. Poco después, les pidió otro. Así nació la central de Beznau, la primera que produjo verdaderamente energía eléctrica en Suiza y la más antigua del mundo que sigue actualmente en servicio.

Los historiadores siguen discutiendo hasta qué punto la instalación de Lucens estaba concebida para uso civil o militar. Lo más probable es que fuera un reactor de investigación de doble uso. Según las opiniones más extendidas, el plutonio militar se habría producido en Diorit (es un proceso relativamente sencillo) y la investigación puntera se realizaría en Lucens, mucho más sofisticada. La tecnología de Diorit daba para pergeñar primitivas bombas atómicas, del tipo de Nagasaki o poco más. Por el contrario, la ciencia a desarrollar en Lucens permitiría el desarrollo de verdaderas armas nucleares avanzadas para su tiempo, a un nivel similar al de Israel. Es opinión de este que te escribe que Diorit era la fábrica y Lucens el laboratorio para crear una verdadera industria nuclear. En todo caso, los reactores de Diorit y Lucens eran las claves para que Suiza pudiese tener un programa atómico totalmente nacional, fuera para uso civil o militar.

Elemento de combustible nuclear Magnox

Elemento de combustible nuclear Magnox, muy similar a los utilizados en la central experimental de Lucens. Imagen: Wikimedia Commons. (Clic para ampliar)

El siniestro.

El 16 de noviembre de 1966 tuvieron el primer susto. Mientras probaban un elemento de combustible para Lucens en el reactor Diorit de Würenlingen, se les fundió el uranio y parte de la funda de magnesio, provocando una parada de emergencia. La investigación determinó que se había debido a un aumento de potencia demasiado rápido y recomendaron que en Lucens se variase la potencia más despacito. El informe también sugería que esas barras de combustible tipo Magnox no eran muy de fiar porque presentaban problemas de corrosión y peligro de incendio. Pero a esas alturas, con la central terminada, ya no podían echarse atrás.

La central nuclear de Lucens alcanzó su primera criticidad el 29 de diciembre de 1966. Entonces se encontraron con numerosos fallos, sobre todo en el circuito de refrigeración por dióxido de carbono (gas), que exigieron otros diecisiete meses de cambios y ajustes. En particular, los dos ventiladores que debían asegurar la circulación del dióxido de carbono resultaron extremadamente problemáticos. Estaban lubricados por agua y, aunque en los bancos de pruebas habían funcionado bien, en condiciones reales el agua se infiltraba al circuito de gas refrigerante. No fue hasta mayo de 1968 que lograron mantenerla funcionando durante diez horas a dos terceras partes de la potencia nominal. Entonces, la autoridad nuclear suiza transfirió la explotación a la compañía eléctrica EOS para que comenzaran a operar.

No hubo forma. En el mes de octubre, durante las pruebas finales, volvió a infiltrarse agua en el circuito de refrigeración. Durante el siguiente mes y medio cambiaron los ventiladores y EOS obtuvo el permiso definitivo de explotación el 23 de diciembre.  No obstante, la autoridad de seguridad nuclear suiza insistía en que las barras de combustible tipo Magnox eran muy delicadas, y que debían operar la central de 8 míseros MWe en el régimen más suave posible. Mientras, las superpotencias nucleares andaban ya peleándose con la barrera de los 500 MWe por reactor. Por su parte, Suecia se rendía ya: firmaron el Tratado de No-Proliferación, nunca acabaron su reactor R4 con el que pensaban producir plutonio militar y encargaron un reactor BWR puramente civil para la central de Oskarhamn.

Pero los suizos siguieron intentándolo, si bien para entonces la idea de producir armas nucleares iba quedando reducida a poco más que un sueño –o una pesadilla–. Estados Unidos y la Unión Soviética iban ya por los misiles balísticos intercontinentales de segunda generación con cabezas termonucleares en el rango del megatón, como el Minuteman II o el UR-100. Simplemente, se habían quedado fuera de juego. Aún así, cuando el nuevo ministro de Defensa Nello Celio quiso finiquitar el asunto, se encontró con fuerte oposición por parte del Estado Mayor y los sectores más patrioteros y halcones. Tan tarde como en ese mismo año de 1968, un nuevo plan hablaba de asignar entre 100 y 175 millones de francos suizos para un programa que produciría 400 cabezas nucleares de uranio quince años después. El mismo día en que se abría a la firma el Tratado de No-Proliferación Nuclear (1 de julio de 1968) en Londres, Washington y Moscú, Celio se pasó al Ministerio de Finanzas. Como si dijese “yo no quiero tener nada que ver con esta chaladura.”

El arranque definitivo de la central nuclear de Lucens fue programado para el 21 de enero de 1969, en torno a la medianoche. Muy, muy despacito, para no dañar esas barras de combustible Magnox tan delicadas. La primera criticidad se alcanzó a las 04:23 de la madrugada. Poquito a poquito, siguieron aumentando la potencia, con el propósito de alcanzar el 100% y conectar por fin los generadores a la red eléctrica en algún momento del día siguiente. Sobre el mediodía, superaron el 25% de la potencia térmica. Poco antes de las cinco y cuarto de la tarde pasaban del 40%, sin que los problemas que les habían plagado durante todos esos años se presentasen a molestar.

De pronto, a las 17:20, la central entró automáticamente en parada de emergencia y cerró las válvulas de ventilación exterior sin que los operadores de la sala de control supiesen por qué. A los pocos segundos se produjo el primer estampido, muy violento. Los operadores, que estudiaban los instrumentos con desconcierto y miedo, perdieron súbitamente todas las indicaciones del núcleo del reactor. Pero no las de radiactividad en la caverna, que superó los 100 roentgen/hora (aprox. 1 Sv/h) mientras se escuchaba una segunda explosión aún más fuerte y luego otras más pequeñas junto a un inquietante silbido durante otros quince minutos más, conforme la presión del circuito primario caía de 50 atmósferas a 1,2. Sólo los miles de toneladas de roca que envolvían la instalación y el sellado automático de las válvulas de emergencia evitaron que la radiación saliese de ahí.

Sala de control de la central nuclear experimental de Lucens, Suiza.

Sala de control de la central nuclear experimental de Lucens, Suiza, durante la fase de pruebas. Estaba severamente infrainstrumentada, lo que impidió al personal comprender lo que sucedía hasta que ya fue demasiado tarde. Foto: Biblioteca de la EPF-Zúrich. (Clic para ampliar)

Pero para entonces ya quedaban pocas dudas de que el reactor nuclear de Lucens, la última esperanza de Suiza para crear su propio programa atómico nacional, se les acababa de ir. A las 17:58, los operadores encendieron el sistema de ventilación de emergencia, provisto con filtros de yodo, para reducir los niveles de radiación en la caverna. A las 18:15, comenzaron a ponerse los trajes y máscaras de protección. A las 18:20, cerraron toda la ventilación, sellando así efectivamente el reactor o lo que quedaba de él. Por fortuna, apenas escapó radiación al exterior y los trabajadores tampoco resultaron significativamente afectados. Sólo se fugó una cantidad minúscula de tritio, que es un isótopo del hidrógeno y tiende a colarse por todas partes. O eso dicen. Por lo demás, la piedra impidió la catástrofe.

La investigación.

La investigación posterior –que, por cierto, se tomó más de diez años– puso en evidencia numerosos fallos de concepto, diseño, implementación y operación de la central. De todos ellos, el más grave fue el que permitía las infiltraciones de agua lubricante al interior del circuito primario de refrigeración por dióxido de carbono hasta el extremo de humedecer las barras de combustible nuclear tipo Magnox, extremadamente sensibles a la corrosión.

Pese a todos los intentos que hicieron para corregirlo, este problema empeoró a partir de la infiltración y los arreglos del mes de octubre de 1968. Al parecer, tales reparaciones se realizaron con bastante humedad en el circuito y el combustible cargado, afectando gravemente a varios elementos de combustible que ya estaban “tocados” por las infiltraciones precedentes. En particular, las fundas de magnesio del elemento nº 59 se habían oxidado casi por completo; pero al menos ocho de los 73 lo estaban en mayor o menor grado, con los productos resultantes de la corrosión acumulándose al fondo de los canales de combustible en forma de orín hasta bloquear numerosos conductos del gas refrigerante.

Esquemas del reactor de la central nuclear de Lucens, Suiza.

De arriba abajo – Esquema simplificado del reactor: A.- Maquinaria de desconexión de los tubos de presión. B .- Entrada del circuito primario de refrigeración por dióxido de carbono (gas). C.- Salida del circuito primario. D.- Núcleo del reactor. E.- Maquinaria de descarga del combustible. | Distribución del reactor: 1.- Elemento de combustible. 2.- Elemento de combustible destruido (nº 59). 3.- Elemento de combustible con corrosión. 4.- Barra de control. 5.- Barra de seguridad. 6.- Barra de control de reserva. 7.- Portillo de observación. | Estructura de los elementos de combustible: A.- Columna de grafito. B.- Guía de zircaloy. C.- Tubo de presión (zircaloy). D.- Tubo exterior (aluminio.) E.- Moderador (agua pesada). F.- Refrigerante (dióxido de carbono). G.- Funda de magnesio. H.- Barra de uranio. Imágenes: Wikimedia Commons. (Clic para ampliar)

La situación se agravó aún más durante una prueba realizada el 11 de diciembre, al infiltrarse “varios litros” de agua que permanecieron en el interior del circuito primario hasta el 17 de enero, pocos días antes del arranque definitivo. A pesar de todos los problemas, o quizá precisamente por eso, nadie ordenó un repaso general del reactor durante esos últimos meses. En palabras de la Inspección Federal para la Seguridad Nuclear, cuando decidieron la puesta en marcha de la central, sus operadores “no eran conscientes de que se encontraban ya con un reactor fuertemente dañado.”

Las barras de combustible no estaban provistas con termómetros independientes para medir la temperatura del uranio en su interior. Por tanto, los operadores de la sala de control ignoraban el comportamiento térmico de cada elemento; sólo podían saber el del conjunto del reactor. Si una barra de combustible se iba, como ya había pasado durante las pruebas de noviembre de 1966 en Diorit, no tenían manera alguna de saberlo.

Así pues, cuando comenzó la puesta en marcha del 21 de enero de 1969, el reactor nuclear de Lucens tenía ocho elementos de combustible oxidados, varios canales de refrigeración se habían obturado con orín y sus operadores sólo contaban con una instrumentación bastante básica. Conforme la potencia aumentaba y con ella la temperatura, estos elementos de combustible mal refrigerados empezaron a deteriorarse y deslizarse hacia lo que a todos los efectos era un LOCA (loss-of-coolant accident, accidente por pérdida de refrigerante). Probablemente los daños graves comenzaron a producirse durante la mañana o al mediodía, cuando pasaron del 20 – 25% de potencia térmica, pero los operadores de la sala de control no podían saberlo porque carecían de la instrumentación necesaria.

Sólo el lentísimo arranque impuesto por la autoridad de seguridad nuclear impidió que reventasen mucho antes. Así aguantaron hasta las 17:20, poco después de superar el 40% de potencia térmica. Entonces, el elemento nº 59 alcanzó los 600ºC y falló por fin. Primero se derritió la funda de magnesio de las barras de combustible e inmediatamente a continuación el uranio metálico que contenían. Las columnas de uranio y magnesio fundidos empezaron a chorrear. Pero entonces el metal se inflamó, provocando un súbito incendio radiactivo dentro del reactor que saturó el dióxido de carbono refrigerante con gran cantidad de productos de la fisión altamente radiactivos. Fue este incremento brutal de la temperatura y la radiación en el circuito primario lo que provocó la parada automática de emergencia del reactor, mientras los operadores miraban a sus lacónicos instrumentos sin entender nada de nada. Un instante antes todo parecía ir bien y ahora, de pronto, estaban en SCRAM.

Sin embargo, el siniestro apenas acababa de comenzar. Por suerte dio tiempo a que se insertaran las barras de control, deteniendo así la reacción en cadena. No obstante, a los pocos segundos la mezcla de uranio y magnesio fundidos entró en contacto con el conducto de refrigeración, presurizado a casi cincuenta atmósferas. Éste estaba también ya deteriorado y, a 700-800ºC, explotó violentamente. Esta explosión hizo saltar uno de los cinco discos de ruptura del depósito de agua pesada utilizada como moderador. Al instante, 1.100 kg de agua pesada, magnesio, uranio, dióxido de carbono y productos de la fisión muy radiactivos escaparon del reactor por el boquete, contaminando por completo la caverna donde se encontraba. En la sala de control, los operadores sintieron la explosión y se asustaron al ver que la radiación en la caverna aumentaba rápidamente hacia los 100 roentgens/hora. Únicamente entonces comprendieron que el reactor estaba ahora abierto. En lenguaje de a pie, que había reventado.

La cosa no acabó ahí. Un segundo después se produjo una violenta reacción química entre el agua pesada y los metales fundiéndose a alta temperatura, lo que causó la segunda explosión, más potente que la anterior. Los cuatro discos restantes del depósito de agua pesada fallaron definitivamente y el reactor quedó destapado por completo, proyectando aún más sustancias radiactivas a la caverna. Los conductos de las barras de control se deformaron y bloquearon, pero afortunadamente éstas ya estaban insertadas gracias a la parada automática de pocos segundos antes (en caso contrario se habría producido una pérdida total de control del reactor, que ahora se quedaba completamente sin refrigeración, al despresurizarse el circuito primario de dióxido de carbono).

Las reacciones entre el agua pesada y los metales en fundición provocaron varias explosiones más durante el siguiente cuarto de hora, terminando de contaminar la caverna y de destrozar el reactor. Sólo se detuvieron cuando el circuito primario quedó despresurizado por completo, anulando totalmente la refrigeración. Sin embargo, el sistema de refrigeración de emergencia estuvo al quite. Logró mantener bajo control las barras de combustible y hasta ahí llegó la cosa.

En aquella época aún no se usaba la escala INES, que data de 1990, para catalogar la gravedad de los siniestros nucleares. Diversos estudios posteriores lo consideran a mitad camino entre un INES 3 (incidente grave) y un INES 5 (accidente de gravedad media). Tal como se relatan los hechos convencionalmente, en mi opinión estaría entre un 2 (incidente medio) en “afectación de las personas o el medio ambiente” y un 4-5 en “pérdida de control y barreras radiológicas.” La Oficina Federal de Salud Pública de Suiza cree que “el accidente de Lucens sería clasificado hoy en día al nivel 4 o 5 de la escala INES”, lo que lo sitúa en la “lista corta” de los peores accidentes nucleares de la historia.

Elemento de combustible nº 59 de la central nuclear de Lucens.

El elemento de combustible nº 59, tal como quedó después de la explosión. Imagen: Inspección Federal para la Seguridad Nuclear, Suiza. (Clic para ampliar)

Por comparación, yo tiendo a considerarlo subjetivamente un INES-4: a todas luces más grave que Vandellós-1 (1989) o la planta THORP de Sellafield (2005), considerados “treses”, pero no tanto como sólidos “cincos” del tipo del incendio radiactivo de Windscale/Sellafield (1957), el accidente de Isla Tres Millas (1979) o por supuesto el escalofriante accidente de Goiânia (1987). A mi modo de ver se parece más a Saint Laurent (Francia, 1969) o Jaslovské Bohunice (Checoslovaquia, otro HWGCR, 1979), que son “cuatros” de manual.

El informe original de la autoridad de seguridad nuclear suiza, publicado en 1979, era llamativamente “suavito” en sus conclusiones. Tanto, que despertó bastantes críticas, y no sólo entre los ecologistas y demás. En todo momento, el informe consideraba lo sucedido en Lucens una “avería” o un “incidente” sucedido por una diversidad de causas “difíciles de prever” que en ningún momento había puesto en peligro la seguridad pública porque “todos los sistemas de seguridad funcionaron como debían”. Durante las décadas siguientes, diversos análisis fueron incrementando su gravedad, aunque todos ellos coinciden en que la caverna impidió que la radiactividad escapase al exterior en cantidades significativas. Finalmente, en 2009, el Ministro de Energía y después Presidente de la Confederación Moritz Leuenberger hizo las siguientes declaraciones, él sabrá por qué:

“En 1969, Suiza escapó por poco de una catástrofe (…). La actitud oficial de aquella época se conformó con evocar un «incidente». El informe de la investigación publicado diez años después llegó a la conclusión de que «la población no estuvo amenazada en absoluto.» Pero hoy vemos que Lucens aparece en la lista de las veinte peores averías en reactores del mundo. La dimensión real de la avería fue disimulada y eludida sin comentarios.”

Las tareas de limpieza duraron más de un cuarto de siglo. Las barras de combustible fueron a parar a Eurochemic de Mol (Bélgica) y el agua pesada que se pudo recuperar, una vez descontaminada y purificada, se vendió en el mercado internacional. Seis grandes contenedores de residuos altamente radiactivos se almacenaron en la instalación junto a otros 230 con residuos de media y baja actividad. Entre 1991 y 1993 se rellenó con hormigón la caverna del reactor, y se instaló un sistema de drenaje. En 1995 declararon la instalación definitivamente descontaminada. Poco después se estableció allí un archivo del cantón. Sin embargo, los contenedores de residuos no se trasladaron al almacén temporal de Würenlingen hasta 2003. Y a finales de 2011 y principios de 2012, como te conté al principio del post, hubo una contaminación por tritio en el sistema de drenaje, aún no sé por qué.

El fin del sueño (o la pesadilla…)

Liquidador de la central nuclear de Lucens, Suiza.

Un liquidador se dispone a entrar en el área contaminada después del siniestro. Imagen: Inspección Federal para la Seguridad Nuclear, Suiza. (Clic para ampliar)

El programa nuclear suizo nunca se repuso del siniestro de Lucens. La pérdida total del reactor y los obvios problemas que ya había presentado con anterioridad les obligaban a comenzar otra vez desde cero, la idea de fabricar armas atómicas se evidenciaba cada vez más insensata y cara, y para la producción de energía eléctrica civil podían simplemente comprar centrales mucho más avanzadas donde les diese la gana (como de hecho hicieron). Se habían quedado atrás, muchos peldaños por debajo de lo necesario para convertirse en una potencia atómica incluso de segundo o tercer orden. En el mismo año de 1969, Suiza firmó el Tratado de No-Proliferación Nuclear, con sus correspondientes inspecciones y controles.

Aún así, el proyecto militar se resistió a morir. El comité vinculado al Estado Mayor siguió reuniéndose en secreto, 27 veces, hasta 1988. No obstante, fueron virando poco a poco hacia posiciones defensivas, como la protección civil en caso de ataque nuclear o con armas de pulso electromagnético. Pero mantuvieron el afán de ser una “potencia nuclear en el umbral”, es decir, un país que podría construir la bomba atómica si se pusiera a ello. En 1979, el Jefe del Estado Mayor Hans Senn aún emitió una instrucción diciendo que “en el caso de que los desarrollos políticos y tecnológicos condujeran a una evaluación totalmente nueva de la situación, [el comité] debería solicitar que se adoptaran las medidas [necesarias].”

Los desarrollos políticos y tecnológicos no fueron por ahí. El 12 de agosto de 1981, el Consejo Federal de Ministros levantaba el secreto sobre las reservas de uranio que poseía el país para ponerlas bajo el control del Tratado de No-Proliferación, transfiriendo el control sobre las investigaciones nucleares al Ministerio de Energía. En 1985, la Conferencia de Ginebra entre Reagan y Gorbachov iniciaba la congelación de la Guerra Fría. Sin embargo, todavía hubo algunas charlas privadas con alemanes y británicos, y el 31 de diciembre de 1986 el presidente del comité militar Gérard de Loes escribió una carta al Consejo de Ministros para que declarasen oficialmente que Suiza aún tenía la intención de ser una potencia nuclear en el umbral. No lo hicieron. En diciembre de 1987, Reagan y Gorbachov firmaban en Washington DC el Tratado para la Eliminación de las Fuerzas Nucleares de Alcance Intermedio. Estas armas constituyeron uno de los mayores factores de riesgo para la escalada rápida de una guerra atómica en Europa y su eliminación suavizaba bastante las cosas.

Casi sin presupuesto, sin medios, sin perspectivas realistas y sin apoyo político efectivo, ya fuera de la historia como quien dice, el comité militar acabó por solicitar su autodisolución. El 1 de noviembre de 1988, el Ministro de Defensa Arnold Koller echó discretamente la firma. Tras más de cuarenta años, el anhelo suizo de crear una fuerza nuclear moría así por fin.

Hoy en día, Suiza produce el 40% de su energía eléctrica en cuatro centrales nucleares civiles con reactores de tecnología extranjera (General Electric, Westinghouse y Areva) y tienen un reactor universitario de potencia cero, el CROCUS, en la Escuela Politécnica Federal de Lausana; todo ello, monitorizado por la Agencia Internacional para la Energía Atómica. En 2011, tras los accidentes de Fukushima, los distintos estamentos del gobierno helvético (Consejo Federal, Consejo Nacional y Consejo de los Estados) decidieron salirse de la energía nuclear por el procedimiento de no autorizar la construcción de nuevas centrales, si bien las que están actualmente en servicio continuarán haciéndolo hasta el final de su vida útil (con el primer cierre previsto en 2019.) No son pocos quienes piensan que esta nueva política está más vinculada a los fabulosos costes de construcción de las centrales nucleares de nueva generación que a ningún problema de seguridad específico (ver también aquí). Si el mercado nunca creyó en la energía nuclear, la más subvencionada de la historia junto al petróleo y el gas, ahora aún menos. La iniciativa privada no construye actualmente ningún reactor nuclear en el mundo, a menos que tenga acceso al talonario del dinero público. En realidad, el 89% de los que se están haciendo pertenecen a empresas estatales o paraestatales monopolísticas.

Instalación de ojivas MIRV mod. MK21 con cabeza termonuclear W87 en un ICBM Peacekeeper, USA, 1983.

Instalación de ojivas múltiples MIRV del modelo Mk21, con cabeza termonuclear minuaturizada W87, en el bus de un misil balístico intercontinental LGM-118 Peacekeeper de la Fuerza Aérea de los Estados Unidos. Foto tomada en la Base Aérea de Vandenberg, 1983. Casi cualquiera puede pergeñar una bomba atómica, pero para plantearse en serio la guerra nuclear hay que trabajar a este otro nivel… y esta foto tiene ya más de treinta años. Imagínate lo que se mueve hoy en día. Imagen: Departamento de Energía de los Estados Unidos. (Clic para ampliar)

En cuanto a las armas atómicas, el club nuclear se ha ampliado poco desde 1969 hasta aquí. Las dos adiciones más notables son India y Pakistán, sumergidas en sus propias dinámicas de enfrentamiento, más los casos particulares de Israel (que seguramente produjo la primera en torno a 1967) y Corea del Norte. Como es sabido se sospecha también de las intenciones de Irán y, como es menos sabido, de las de Arabia Saudita. Por su parte, Sudáfrica se deshizo de las suyas y de los cuatro estados herederos de la URSS que las tenían en su territorio, sólo Rusia las conservó. Junto a Estados Unidos, Francia, el Reino Unido y China, estos son los únicos países que mantienen el afán nuclear militar. De los demás que quisieron, incluyendo a España, todos han abandonado.

Es que es muy caro, puede acarrearte muchos problemas políticos (según tu situación en el orden internacional) y mucho más difícil de lo que parece. Construir la bomba, no. Construir la bomba, como dijo el profesor Paul Scherrer de Zúrich, es relativamente fácil (aunque no tanto si quieres hacerlo sin que nadie se percate, además de trabajoso). Pero, después de tanto esfuerzo, sólo tienes una bomba gorda y contaminante. Lo diabólicamente caro y difícil es todo lo demás: la infraestructura, los vectores de lanzamiento, los sistemas de alerta temprana y defensa nuclear (porque tener armas nucleares te convierte en un objetivo nuclear ipso facto), mantenerte al día frente a oponentes tan poderosos que avanzan sin parar… a la mayoría de países normales no les sale a cuenta. Sin salirse de lo militar, con lo que te cuesta una fuerza atómica mínimamente creíble, puedes montarte un ejército convencional que dé miedo sólo de verlo. Y si hablamos de hospitales, escuelas, defensa social y demás, qué te voy a contar.


Bibliografía:

Puede que también te interese, en este mismo blog:

83 Comentarios Trackbacks / Pingbacks (5)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (33 votos, media: 5,00 de 5)
Loading ... Loading ...
Be Sociable, Share!

El inquietante superbólido de Chelyábinsk

No hace falta un gran meteorito para matar a una montaña de gente.
Por ejemplo, en mi ciudad o en la tuya.

Una de las cosas importantes que han ocurrido durante este periodo de standby fue el impacto, o más bien la detonación aérea, del superbólido de Chelyábinsk. Seguro que te acuerdas, porque fue muy sonado y sobre todo grabado:

El superbólido de Chelyábinsk se desintegra en la atmósfera terrestre sobre las 09:20 local (03:20 UTC) del 15 de febrero de 2013, a unos 19,16 ± 0,15 km/s (aprox. 69.000 km/h) y 18,3 ± 0,2° de ángulo de incidencia. La desintegración se produjo entre los 83 y los 26 km de altitud, unos 35 km al Sur del centro urbano, liberando de 440 a 590 ± 50 kilotones de potencia explosiva (90 de ellos en forma de luz). La onda de choque fue captada por 17 detectores infrasónicos de la Organización del Tratado de Prohibición Completa de los Ensayos Nucleares, incluso desde la Antártida, y dio varias vueltas a la Tierra antes de disiparse por completo más de un día después.

Trayectoria del superbólido de Chelyabinsk y ubicación de los fragmentos encontrados.

Trayectoria del superbólido de Chelyabinsk y ubicación de los fragmentos encontrados. (Clic para ampliar)

Comenzaremos por algo muy parecido a una perogrullada: la capacidad de una gran explosión aérea para causar daños en tierra, en términos generales, aumenta con su potencia y se reduce con la distancia al blanco (tanto en el plano horizontal como en el vertical). Aunque cabe hacer algunos matices al respecto (como el “efecto escudo” de montañas y colinas o el “efecto espejo” de determinados fenómenos meteorológicos, entre otros), resulta obvio que una explosión muy potente que suceda muy lejos no nos hace nada, mientras que una explosión relativamente pequeña que detone justo al lado puede hacernos polvo. La manera precisa como esto sucede se estudió muy bien durante la Guerra Fría, para aumentar la eficacia destructiva de las armas nucleares; hoy en día tenemos incluso divertidas aplicaciones que lo calculan con bastante exactitud.

Detonación de 455 kt a 10.000 y 1.400 m sobre la ciudad de Valencia, España.

Arriba: Efectos de una detonación de 455 kilotones a 10.000 metros de altitud sobre la ciudad de Valencia. 1ª línea naranja – quemaduras de 2-3º, incendios dispersos (R = 6.160 m). Línea azul – onda de choque de 1 psi, con heridas por cristalería y fragmentos (R = 6.650 m). 2ª línea naranja- quemaduras de 1-2º (R = 12.400 m). Última línea naranja – zona segura (R = 17.600 m). | Abajo: Efectos de la misma detonación a 1.400 metros de altitud. Círculo verde/rojo – área de aniquilación con sobrepresión > 20 psi y radiación directa > 100 – 500 rem (R = 1.780 – 2.240 m). 1ª línea azul – Colapso generalizado de construcciones (5 psi, R = 5.400 m). 1ª línea naranja – Inflamación espontánea de combustibles (15 cal/cm^2, R = 7.570 m). 2ª línea naranja – Quemaduras de tercer grado con probabilidad = 100% (10,8 cal/cm^2, R = 8.840 m). 2ª línea azul – sobrepresión de 1,5 psi, con numerosas heridas graves por cristalería y fragmentos (R = 10.900 m). – 3ª línea naranja – Quemaduras extensas de 2º-3º (R = 11.700 m). – 3ª línea azul – sobrepresión de 1 psi, con heridas por cristalería (R = 12.900 m). 4ª línea naranja – Quemaduras de 1º-2º (R = 15.900 m). – Última línea naranja – zona segura (R = 20.200 m). En el primer caso habría unos centenares de muertos, quizá algún millar; en el segundo, más de 600.000. Fuente: Nukemap v2.4 de Alex Wellerstein. (Clic para ampliar)

Si yo, por ejemplo, hago estallar una bomba de esos mismos 450 kilotones aproximadamente a diez mil metros sobre tu cabeza, vas a tener un círculo de unos 12-13 kilómetros de diámetro con gente quemada (de segundo grado más que nada), heridas por cristalería e incendios dispersos. Te encontrarás quemados de primer grado hasta los 17,5 km, con algún que otro muerto porque le ha caído una pared vieja encima y cosas así. Seguramente se irá la luz, habrá reventones en las conducciones de agua y alcantarillado y tendrás algo de radiación residual en el ambiente (las explosiones nucleares aéreas son mucho más limpias que las de superficie porque no levantan y esparcen grandes cantidades de material contaminado). Todo ello sin duda suficiente para que te acuerdes de toda mi parentela hasta el último antepasado común por lo menos, pero según a la hora del día en que te la meta (y, por tanto, lo a cubierto que esté tu población), puede que ni siquiera mate mucho. Tu ciudad sobrevivirá bastante bien y probablemente en unas décadas estaremos haciendo negocios y celebrando el Día de la Memoria con lagrimitas de los embajadores respectivos y esas cosas. Lo de Hamburgo, Dresde, Tokio, Hiroshima o Nagasaki fue mucho peor y ya ves.

En cambio, si te enchufo el mismo petardo a 1.400 metros de altitud, los resultados van a ser un pelín distintos. Para empezar, los primeros dos kilómetros y medio alrededor de tu centro urbano van a resultar literalmente aniquilados y tendrás problemas para encontrar supervivientes en otros tantos más. Buena parte de los edificios se derrumbarán en cinco kilómetros a la redonda y los demás echarán a arder porque los combustibles del tipo de la gasolina o el gas se inflaman hasta los 7,5 km (aprox. 15 cal/cm2), ocasionando grandes incendios y quizá una tormenta de fuego. Vas a encontrarte muchos quemados graves de segundo y tercer grado a 10 km y personas descuartizadas por los cristales a más de 11 (un diámetro de 22 km). Nadie estará seguro hasta los 20 km de distancia del eje de la explosión, y luego empezaremos a hablar de la contaminación radiactiva. Pero de buen rollito, ¿eh?

Si tu ciudad es más o menos del tamaño de la mía, dependiendo de la fecha y la hora, con ese pepinazo de medio megatón voy a hacerte como unos 625.000 muertos y 350.000 heridos. Si se parece más bien a París, Nueva York, Moscú, México DF o Pekín, cuenta con un millón y medio de muertos y de dos a cuatro millones de heridos, ascendiendo a 2-3 millones de muertos y casi cinco millones de heridos en monstruos urbanos como Shanghái o Delhi. Por el extremo contrario, si se trata de una localidad mediana o pequeña, bueno, morirá menos gente, pero por la única razón de que una vez os he matado a todos ya no puedo cargarme a nadie más. Vamos, que resultaríais erradicados.

Hoy por hoy, ya no solemos desplegar bombas tan potentes. Estos son tiempos de supresión selectiva, exterminio quirúrgico y esas moderneces; para los genocidios, el machete sale más económico y siempre encuentras a justicieros con ansias de darle su merecido a unos cuantos millones de prójimos. Por lo demás, hoy en día montar cabezas nucleares muy potentes se considera un signo de atraso: no confías en la precisión de tus misiles, así que aseguras la destrucción del blanco por la vía del petajulio. Estás anticuado. O eso dicen.

Sin embargo, Mamá Naturaleza pasa monumentalmente de tales sutilezas. Y puedes jurar por tu dios favorito que los cuerpos menores del sistema solar, al igual que los terremotos, los volcanes, los tsunamis, la peste negra, la viruela o la toxina botulínica, son perfectamente naturales. En el caso de los cuerpos menores, que incluyen a los asteroides, los cometas, los meteoroides y otros objetos capaces de hacer que el cielo caiga sobre nuestras cabezas, no hay un límite bien definido para la cantidad de energía de esa tan natural con que pueden bendecirnos.

Sabemos que en este sistema solar no quedan cosas amenazadoras tan grandes como Tea. Las que hubo, ya hicieron lo suyo muchísimo tiempo atrás. En la actualidad, los objetos próximos a la Tierra más grandes que hemos detectado son los asteroides (1036) Ganymed y (433) Eros, ambos en la escala de los treinta kilómetros, mayores que el que mató a los dinosaurios. Sin embargo, ninguno de estos parece estar en ruta de colisión con nuestro planeta, por mucho. Entre los que sí podrían hacerlo alguna vez rondan por ahí tipos como el objeto doble (4179) Tutatis(4953) 1990 MU, en el rango de los 3-4 kilómetros, ambos más pequeños que el de los dinos. Sin embargo, sus probabilidades de impacto son muy, muy bajas y muy lejanas en el futuro.

El asteroide (4179) Tutatis fotografiado por la sonda espacial china Chang'e-2.

El asteroide (4179) Tutatis fotografiado por la sonda espacial china Chang’e-2 en diciembre de 2012. Tiene un tamaño de 4,5 × 2,4 × 1,9 km y ha estado pasando relativamente cerca de la Tierra cada 4 años (la próxima vez le toca en 2016, pero luego no volverá a hacerlo hasta 2069.) Por este motivo, su órbita ha sido cuidadosamente calculada y carece de la posibilidad de topar con la Tierra en muchos siglos. Imagen: Administración Nacional del Espacio de China.

Hasta hace poco se pensaba que el asteroide (29075) 1950 DA tenía una buena posibilidad de atizarnos allá por el año 2.880, cuando –si seguimos por aquí y progresando más o menos al mismo ritmo histórico que hasta ahora– probablemente seremos capaces de apartarlo con facilidad. En todo caso, parece que esta posibilidad ha quedado excluida mediante mediciones más recientes. Por otra parte, los distintos sistemas de alerta planetaria (LINEAR, NEAT, Spacewatch, LONEOS, Catalina, Pan-STARRS, NEOWISE, etc) creen haber detectado ya más del 90% de los objetos mayores de un kilómetro que pudieran caernos encima y ahora van a por los de 140 metros. Aunque siempre existe alguna incertidumbre, es difícil que se nos haya escapado algo verdaderamente grande. En estos momentos, no hay nada que llegue ni siquiera al nivel 1 ni en la escala de Turín ni en la escala técnica de Palermo. Vamos, que no parece que el apocalipsis improbable ese en el que creen algunos vaya a venir de los cielos.

Sin embargo, a mí los que me inquietan son precisamente los pequeños; pequeños como Tunguska o Chelyábinsk. Porque apocalipsis, lo que se dice apocalipsis, va a ser que no; pero para arrearnos un guantazo megaletal en alguna región densamente habitada no hace falta medir un kilómetro. Ni siquiera 140 metros. Puede que el de Tunguska no superara los 60 metros (aunque algunos sugieren un tamaño considerablemente mayor de 90 a 190 e incluso 1.000, si bien con una densidad muy baja) y liberó entre 3 y 20 megatones de una manera notoriamente destructiva. El bólido de Chelyábinsk nos ha confirmado que un objeto de unos 20 metros puede producir fácilmente 440 – 590 kilotones, en torno al medio megatón. Por fortuna lo hizo a tanta altitud y distancia de las áreas más pobladas que, pese a los innumerables cristales rotos y la gran cantidad de gente que sufrió cortes diversos, sólo dos personas resultaron heridas de gravedad.

En un área más poblada, con un objeto que estallase más cerca e incluso llegara al suelo, difícilmente discutiremos que un fenómeno de estas características causaría gran mortandad y devastación. Existe incluso un posible precedente histórico, en China. Con todas las precauciones que exigen siempre los documentos antiguos, hay al menos cuatro escritos del periodo Ming hablándonos de unas “piedras que cayeron del cielo como lluvia” en el área de Quinyang allá por marzo o abril del año 1490. Al parecer, mataron a más de 10.000 personas y los supervivientes evacuaron la ciudad. Más o menos por las mismas fechas, el impacto de Mahuika provocó un megatsunami que obligó a huir a las poblaciones costeras de lo que hoy en día son Australia y Nueva Zelanda, matando a quién sabe cuántas que no lo lograron. No son pocos quienes piensan que ambos sucesos están relacionados y de hecho podrían ser el mismo.

Y, amigo mío, amiga mía, esos objetos pequeños están en estos momentos fuera del alcance de ¿nuestra tecnología? No, no, qué va. De nuestras ganas de gastar pasta. Por supuesto que podríamos detectarlos si nos pusiésemos a ello, al menos con tiempo suficiente para cursar una alarma de defensa civil a las poblaciones en peligro, igual que se hace con los tsunamis. Pero no nos da la real gana. Hay otras prioridades.

El asteroide 2008 TC3 detona sobre el Desierto de Nubia, Sudán, en imagen tomada por el satélite Meteosat-8.

El asteroide 2008 TC3 detona sobre el Desierto de Nubia, Sudán, en imagen tomada desde el satélite Meteosat-8 después de que fuera descubierto por el Catalina Sky Survey. Con un diámetro de 4,1 metros, penetró en la atmósfera a las 02:46 UTC (05:46 local) del 7 de octubre de 2008, liberando entre 0,9 y 2,1 kilotones. Fue la primera vez en que se detectó un objeto en rumbo de colisión con la Tierra antes de que se produjese el impacto (19 horas antes.) Imagen: © EUMETSAT – Organización Europea para la Explotación de Satélites Meteorológicos. (Clic para ampliar)

El caso es que se nos cuelan constantemente. De los impactos en lo que llevamos de siglo XXI, sólo dos se detectaron con alguna antelación. El primero fue 2008 TC3, una rara ureilita de unos cuatro metros, que estalló a gran altitud sobre el desierto de Nubia, Sudán, en torno a las 05:46 AM del 7 de octubre de 2008, hora local (02:46 UTC); la explosión liberó entre uno y dos kilotones. Fue observada 19 horas antes de que llegase a la Tierra por Catalina de la Universidad de Arizona, Estados Unidos, y luego trazada por una diversidad de sistemas civiles y militares hasta su desintegración. Los científicos pudieron recuperar los restos en el área de impacto, proyectada con notable precisión.

El segundo es mucho más reciente: 2014 AA, con un tamaño similar al anterior. Se desintegró sobre una región remota del Atlántico Central a las 04:02 del 2 de enero de 2014. Lo descubrieron 21 horas antes del impacto en otro observatorio de Catalina (sí, los amerikantsy son los únicos que parecen tomarse todo esto verdaderamente en serio; a cada uno, lo que le toca.) Hubo explosión, captada (como muchas otras) por los detectores infrasónicos del Tratado de Prohibición de Ensayos Nucleares, pero tan lejana que no se pudo cuantificar la potencia. En todo caso, con 19 y 21 horas de antelación, habría dado tiempo de proteger, evacuar o al menos alertar a la gente si se hubieran dirigido a regiones habitadas. ¿Ves cómo sí que podemos?

Lamentablemente, son los únicos. No hay medios para escudriñar el suficiente cielo durante el suficiente tiempo. En 2002 se nos colaron los de Vitim (Rusia) y el Mediterráneo Oriental, este último con la potencia de la bomba de Nagasaki. En 2009 el de Sulawesi (Indonesia), que también liberó entre 10 y 50 kilotones. En 2012 el de Sutter’s Mill, sobre California (Estados Unidos) con 4 kilotones. En 2013, el de Chelyábinsk, con su potencia explosiva en la categoría de un misil balístico intercontinental, por fortuna dispersada a gran altitud. Alguno que no nos dio sólo lo detectamos cuando ya se iba, como 2002 MN, con 73 metros de diámetro. 73 metros bastan para generar varias decenas de megatones.

Por simple probabilidad, estos objetos tienden a hacer impacto en zonas despobladas porque la mayor parte de la Tierra está, básicamente, deshabitada. Mares y océanos cubren más del 70% de su superficie. Los desiertos fríos y cálidos suponen una tercera parte de las tierras emergidas. Hay regiones inmensas, como la Rusia Asiática, con muy pocos habitantes. Sin salir de España, en el donut situado entre las costas y Madrid no son raras las densidades de población por debajo de veinte e incluso de diez habitantes por kilómetro cuadrado. Los humanos tendemos a concentrarnos en unas áreas determinadas por una diversidad de razones socioeconómicas e históricas, así que la mayoría de cosas que ocurren en la Tierra no nos dan, o nos dan relativamente poco.

Fragmento del meteorito de Chelyábinsk recuperado en el lago Chebarkul.

Fragmento del meteorito de Chelyábinsk recuperado en el fondo del lago Chebarkul, a unos 70 km de la ciudad. Se trata de una condrita LL (baja en hierro y metales), menos común que las condritas H (altas en hierro) que he utilizado para ilustrar el impacto de este post. Imagen: © RT.

Pero por ese mismo motivo, existen algunas regiones donde la densidad de población es muy alta, a veces extremadamente alta. En el Sur de Asia viven 400 personas por kilómetro cuadrado. En Europa Occidental hay países que superan las 300 e incluso se acercan a 500, como Holanda. Lo mismo ocurre en algunos estados norteamericanos. Bangladesh roza los mil. El área metropolitana de Madrid los supera. La de Tokio anda por 9.000.

Y un día de estos, podemos encontrarnos con uno malo. Digamos una condrita, que son los más comunes, de entre 50 y 150 metros de diámetro, con una masa en el orden de los dos millones de toneladas. Que estalle a baja altitud sobre una región densamente habitada, o incluso llegue a entrar en contacto con la superficie, entera o a cachos. Como suele decirse, la cuestión no es si esto sucederá, sino cuándo: antes o después de que aprendamos a detectarlos y tomar medidas al respecto. Si es antes, lo vamos a lamentar. Entre otras razones, porque esa región densamente habitada puede ser la tuya, o la mía.

Internet está llena de aplicaciones de esas divertidas para romper cosas. Como antes ya vimos una para calcular explosiones atómicas, ahora vamos a suponer que nuestra condrita llega a golpear el suelo y utilizaremos esta otra de la Universidad Purdue y el Imperial College de Londres. Digamos que tiene cien metros de diámetro, con una densidad normal para las condritas de 3.300 kg/m3, y llega a la misma velocidad que el de Chelyábinsk: aproximadamente 19,2 kilómetros por segundo. Pero esta vez va a entrar con un ángulo más acusado: 45º. Para que no se me enfade nadie imaginaremos también que atiza justo aquí al lado de mi casa, en Valencia, cuyo suelo es esencialmente sedimentario.

Efectos del impacto de una condrita de 100 m de diámetro en la ciudad de Valencia.

Efectos del impacto de una condrita de 100 m de diámetro en la ciudad de Valencia, con indicaciones de sobrepresión. Círculo negro: cráter de impacto, 480 -> 360 metros de profundidad. Círculo sobre 20 psi (138 kPa): destrucción total, incluso de las estructuras reforzadas de hormigón armado; mortalidad del 100%. Círculo de 20 a 10 psi (69 kPa): destrucción generalizada de las estructuras residenciales, industriales y análogas; mortalidad superior al 90%. Círculo de 10 a 3 psi (>20 kPa): daños, lesiones y mortalidad entre el 5% y el 90% por derrumbamientos y proyectiles. Círculo de 3 a 1 psi: daños, lesiones y mortalidad dispersa (< 5%) por pequeños derrumbamientos y proyectiles. Mapa: © Google Maps. (Clic para ampliar)

Este objeto llega con una energía de unos 76 megatones. Sin embargo, al penetrar en la atmósfera terrestre, comienza a fragmentarse y ralentizarse. Se rompe a aproximadamente 53.000 metros de altitud y llega a tierra menos de cinco segundos después en pedazos que aún viajan a 8,9 km/s, o sea 32.000 kilómetros por hora, más de seis veces más rápidos que la bala más veloz. La energía efectiva de impacto son 16,2 megatones, por encima de Castle Bravo.

A menudo los meteoritos hacen impacto de buena mañana, o sea entre la medianoche y el mediodía. Este curioso hecho se debe a que el “lado matutino” de la Tierra coincide con el sentido de avance alrededor del Sol y los meteoritos no suelen “caer” realmente, sino que más bien los embestimos nosotros. Un objeto celeste tiene que traer una trayectoria un poco peculiar para darnos por detrás, en el “lado vespertino.” Sucede, pero menos. Así que supondremos que el impacto se produce en torno a las cinco o las seis de la mañana, cuando los niños aún duermen. Por piedad, y eso.

Se formaría un cráter momentáneo de 1.360 metros de diámetro y 480 de profundidad. En mi zona eso es un diámetro de unos veinte bloques de edificios, más buena parte del casco histórico. Ahí dormimos o nos estaríamos levantando unas 75.000 personas, que resultaríamos pulverizadas al instante junto con nuestras viviendas. Después los bordes del cráter colapsarían hasta alcanzar los 1.700 metros de diámetro, donde pueden residir fácilmente otras 25.000. Ya tenemos los primeros cien mil muertos.

Pero la catástrofe no ha hecho más que comenzar. En los impactos con una velocidad final inferior a 12 km/s no se produce esfera ígnea (fireball) ni efectos térmicos significativos (una diferencia notable con las armas nucleares o los impactos a mayor velocidad), así que vamos a evitarnos buena parte de los quemados. Por el contrario, la onda de choque es brutal, con una sobrepresión superior a las 20 psi (aprox. 138 kilopascales) en cinco kilómetros y pico a la redonda. Esta es la sobrepresión que se considera necesaria para derribar o dañar irrecuperablemente las construcciones sólidas de hormigón reforzado, matando a todo el mundo. Ese círculo de 10 km de diámetro cubre la ciudad de Valencia entera más media docena de localidades periféricas. Eso suma unos 900.000 muertos en los primeros quince segundos. Olvídate de la horchata de Alboraia. (En Madrid, por ejemplo, equivaldría al perímetro de la M-30; y en Barcelona, al círculo de Hospitalet de Llobregat a Sant Andreu, pasando por Horta-Guinardó).

Sin embargo, 10 psi (69 kPa) suelen ser suficientes para reventar los edificios corrientes y sacar a todos los que hay dentro a cachos por las ventanas. Con nuestro meteorito, este efecto se extendería hasta los 7,5 km, barriendo buena parte del área metropolitana de Valencia hasta más o menos el aeropuerto de Manises en unos veintitrés segundos. (En Madrid sería el círculo de la M-40 y en Barcelona, desde Cornellà hasta Santa Coloma) Por ahí comenzarías a encontrar a los primeros heridos, graves.

Impacto de cristal sobre pared de cemento a 2.200 metros de la detonación de Hiroshima (aprox. 3 psi.)

Esto es lo que le hizo un trozo de cristal a una pared de cemento situada a unos 2.200 metros de la detonación de Hiroshima (sobrepresión estimada en ese punto: 3 psi; velocidad del viento: 165 km/h). Imagínate lo que pasa si le da a una persona. Objeto: Museo Memorial de la Paz de Hiroshima.

La mortandad y los derrumbamientos generalizados se extenderían hasta los catorce kilómetros de distancia, cuando el pico de sobrepresión cae por debajo de las 3 psi (20,7 kPa). Zonas residenciales como las de Torrent o La Cañada, con sus chalés de no muy alta resistencia y sus bosquecillos listos para convertirse en proyectiles, se encuentran en esta zona. Más allá hallarías sobre todo heridos por cristalería y el colapso de construcciones viejas o de pobre calidad, como muros o cosas así, igual que en Chelyábinsk. Sin embargo, ese círculo mortífero de catorce kilómetros de radio cubre gran parte del área metropolitana de Valencia, donde vivimos aproximadamente 1.600.000 personas. Según los datos que estamos manejando, hablaríamos de como un millón de muertos y otros 300.000 heridos o así, suponiendo que no atice en plenas Fallas o algo por el estilo. Es decir, una matanza cuatro veces mayor que la del tsunami del Océano Índico de 2004, comparable a la del genocidio de Ruanda. En menos de un minuto.

He elegido Valencia no sólo para que no se me enfade nadie (o se me enfaden todos mis vecinos), sino también porque es una ciudad mediana bastante característica. No es el peor caso imaginable. En Valencia hay áreas de intensa urbanización mezcladas con otras menos densas e incluso zonas de –lo que va quedando de– huerta. Además, es un territorio llano, lo que facilitaba los cálculos. :-P Pero vamos, que no quería ponerme tremendista del todo y tal. Evidentemente, el caso peor sería un impacto de estas características en o sobre una gran conurbación densa y muy poblada, donde nos iríamos a los tres o cuatro millones de muertos.

No sólo eso. Si el efecto físico de las grandes explosiones en o sobre las áreas habitadas está muy bien estudiado a raíz de la Guerra Fría, su impacto socioeconómico sobre la economía regional y nacional es menos conocido. Por los bombardeos estratégicos de la Segunda Guerra Mundial y otras grandes catástrofes sabemos que se produce un intenso empobrecimiento de las comarcas circundantes y una caída más o menos proporcional del PIB nacional. En todo caso, una catástrofe de primera división.

Se puede aducir que la probabilidad de un impacto de estas características es baja. Es cierto: en toda la historia escrita, sólo parece haber ocurrido en ese caso chino que te contaba más arriba. Sin embargo, es una probabilidad real. No para dejar de dormir por las noches, pero tampoco para tomársela en broma, porque un posible millón de muertos no son ninguna broma. A mí, al menos, me resulta preocupante.

Y cabreante, porque los programas para detectar estos cuerpos celestes con tiempo para alertar o evacuar a la población no son realmente caros. El Catalina Sky Survey que he mencionado varias veces a lo largo de este post como uno de los mejores detectores de objetos peligrosos en la actualidad consume un presupuesto anual de poco más de un millón de dólares, por cuenta de la NASA. Sí, unos 750.000 euros, una miseria. El más ambicioso Pan-STARRS requiere unos diez millones de dólares al año. Para cualquier economía desarrollada, calderilla ínfima. Evitaré las comparaciones con los salvamentos de bancos, autopistas y demás por no hacerme mala sangre. El caso es que aquí estamos, abiertos de patas ante lo que el cosmos nos quiera mandar, porque así están las cosas y por lo visto nos parece bien.

Daños causados por el superbólido de Chelyábinsk en el Teatro Dramático de la ciudad.

Daños causados por el superbólido de Chelyábinsk en el Teatro Dramático de la ciudad. En total, 1.491 personas necesitaron asistencia médica por causa de los cristales, entre ellas 311 menores de 14 años; hubo que hospitalizar a 112. Una mujer de 52 años tuvo que ser trasladada a Moscú con lesiones espinales. Foto: Nikita Plekhanov vía Wikimedia Commons.

 

La profesora Yulia Karbysheva de Chelyábinsk.

La profesora Yulia Karbysheva (en la foto), al ver el potentísimo destello en el cielo, mandó a sus 44 alumnos de 4º de Primaria en la escuela nº 37 de Chelyábinsk “agacharse, cubrirse y mantenerse” bajo los pupitres (lo que en EEUU llaman “duck and cover”, la maniobra estándar de protección básica de emergencia en caso de ataque nuclear). Cuando llegó la onda de choque ninguno de sus alumnos resultó herido pero ella, que se había quedado en pie, sufrió varios cortes que le afectaron a un tendón. Por fortuna, se recuperó de sus lesiones. Foto: © Agencia Dostup1, Rusia.

54 Comentarios Trackback / Pingback (1)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (30 votos, media: 4,93 de 5)
Loading ... Loading ...
Be Sociable, Share!

Así le tomamos la medida al tiempo

Estas fechas son muy curiosas.

Termómetro de mercurio

Que el termómetro y su escala sean una invención humana no significa que el calor no exista. Pues con el tiempo pasa igual. Imagen: Wikimedia Commons.

Me sigo encontrando con personas que no captan a la primera la diferencia entre el tiempo y la medida del tiempo. O sea, entre el tiempo como hecho físico y la manera como lo contamos: años, días, segundos, etcétera. En consecuencia, algunas opinan que el tiempo es una invención humana y no existe de verdad.

Bien, pues esto es como confundir el espacio con los kilómetros, o el calor con los grados centígrados. O los números con las cosas que cuentan. Por ejemplo, por mucho que el número 8 con sus dos cabecitas una encima de la otra sea una invención humana, si nos dan ocho bofetones en vez de uno o dos pillaremos enseguida la diferencia entre hecho físico (las bofetadas), medida (8) y la relación entre ambas. :-P Una cosa son los hechos físicos y otra distinta la manera como nosotros los humanos los medimos. Que es de lo que va este post.

El tiempo es un hecho físico real, que Aristóteles definió como la medida del cambio (Física, libro IV, partes 10-13.) Aunque Aristóteles esté bastante superado en estos temas, y aunque hubo otros que defendieron que el tiempo no existe con mejores argumentos, va a ser que sí existe, o algo que se le parece mucho. Si no existiera el tiempo, o algo que se comporta exactamente como el tiempo, este sería un universo estático, congelado en su mismísimo momento inicial. El tiempo y la entropía están estrechamente relacionados. Tanto, que hay quien los considera dos avatares del mismo hecho físico: el que obliga al universo a cambiar constantemente (por ejemplo, creando, desarrollando y destruyendo a cosas como tú o yo o las estrellas) y lo empuja irreversiblemente hacia adelante (o sea, hacia donde apunta la flecha del tiempo) sin parar. La flecha del tiempo, a su vez, quedó determinada por la bajísima entropía del universo inicial. En realidad el tiempo no es sino una de las cuatro dimensiones del espaciotiempo. El doctor Sergéi Krásnikov de Púlkovo tuvo a bien aclararnos un poco todo esto para este blog aquí.

La capacidad de medir el espaciotiempo tuvo que comenzar con la humanidad. Es difícil imaginar que en cuanto surgió una inteligencia intelectiva no comenzáramos a calcular cuántos pasos hay hasta aquella montaña, y si lograremos llegar antes del anochecer. Y si no, ya te enterarás, ya, cuando los tengas que caminar.

Parece que desde el principio nos aclaramos bastante mejor con el espacio que con el tiempo. Probablemente porque, al igual que los demás animales, tenemos una percepción intuitiva de la distancia. Un gato sabe cuánto tiene que saltar para cazar al ratón. Una araña, cuánto debe moverse para tejer su tela. Una abeja, por dónde anda su panal. El tiempo, en cambio, se nos hace un poquito más difícil de aprehender. Intuitivamente sabemos que está ahí, pues tenemos una percepción clara de pasado, presente y futuro; lo que se suele llamar el tiempo psicológico. Pero se presta mal a tocarlo con los dedos, o pasarle los ojos por encima (a decir verdad con el espacio en sí nos pasaría lo mismo, pero como podemos ver y tocar las cosas que se hallan en él, nos parece que lo controlamos mejor.) A medirlo, vamos.

Del sol y la luna, del día y el mes.

Básicamente sólo podemos medir el tiempo observando ciclos, y sólo hay dos ciclos obvios a primera vista para una inteligencia terrestre. El primero es el periodo de luz y oscuridad al que llamamos día. Este ciclo día/noche requiere muy poca inteligencia para captarlo y es incluso posible que algunos animales no humanos tengan alguna clase de consciencia del mismo, más allá de los ritmos circadianos y el mero seguimiento del entorno en general. El segundo es el ciclo lunar (lunación) y para ser exactos su periodo sinódico: el que va de luna llena a luna llena (o de nueva a nueva o como prefieras). Darse cuenta del periodo sinódico lunar ya requiere un poquito más de inteligencia, de memoria y de atención para al menos fijarse y llevar la cuenta.

Rotación terrestre

El eje de rotación terrestre está inclinado con respecto al plano de la Eclíptica (por así decirlo, la “línea Sol-Tierra”, representada en rojo en este gráfico.) Esto hace que tengamos estaciones y que las horas de luz y oscuridad varíen a lo largo del año. No está claro cuándo supimos con certeza que la suma de ambas dura siempre lo mismo. Imagen: 1718.wikispaces.com (Clic para ampliar)

En primera instancia, para medir el tiempo, la luz del sol no es un indicador muy preciso. A menos que estemos cerca del ecuador, las horas de luz (y oscuridad) varían notablemente a lo largo del año. A la latitud de España, por ejemplo, se van más de un 23%, que es muchísimo. En latitudes donde luego surgirían cosas curiosas como los lugares ahora llamados Cairo, Bagdad, Mbabane o Stonehenge, puede oscilar entre el 13,5% y el 36%. Esto es extraño, confunde. Nuestra cueva está siempre a los mismos pasos de distancia del río, pero cuando hace calor llegamos antes de que se haga de noche y cuando hace frío, no. No parece muy confiable, sobre todo si nos va la vida en ello. A un nivel muy primitivo, el día sólo nos sirve para contar ciclos luz-oscuridad, marcar momentos como el amanecer o el anochecer y hacer estimaciones genéricas.

No se sabe cuándo nos dimos cuenta de que la suma de luz y oscuridad dura siempre lo mismo y lo llamamos un día, porque la medida psicológica del tiempo es fuertemente subjetiva: hay ratos que se nos pasan volando y otros que no parecen acabar nunca, por no mencionar que mientras dormimos no nos enteramos. No es evidente por sí mismo. Para asegurarnos de que los días siempre duran lo mismo hace falta un reloj que no sea de sol, y aún faltaban muchos milenios para que tuviéramos esa clase de relojes. Intenta demostrar que un día completo dura lo mismo que el anterior sin un reloj o algo que desempeñe su función y enseguida me comprenderás.

Fases y libración lunar

Las fases de la luna, tal como se ven desde el Hemisferio Norte terrestre. El periodo transcurrido entre dos puntos cualquiera de sus fases siguiente varía relativamente poco, en torno a los 29,53 días. Por cierto, el bamboleo aparente se conoce como “libración”. Imagen: Wikimedia Commons.

La luna, en cambio, es más de fiar. El número de ciclos luz-oscuridad que transcurren entre luna nueva y luna nueva varía poco. Son siempre algo menos de treinta; convencionalmente, veintinueve (la media exacta son 29,5306). Como máximo se va de siete horas, apenas un 1%, en la práctica imperceptible a simple vista. Además, probablemente por mera coincidencia pese a lo mucho que se dice lo contrario, cuadra bastante con otro ciclo natural. Uno que, aunque suele irse bastante más, difícilmente nos pasaría desapercibidos a los humanos y sobre todo a las humanas: la menstruación, con sus 28 días de media pero a menudo 29. Que no en vano se llama también regla en numerosas lenguas latinas (español regla, francés règles, catalán regla, portugués regras, gallego regra, rumano regulă, occitano règla, etc.) e incluso en algunas muy poco latinas, como el ruso: регулы, transcrito reguly.

Sí, como la de medir espacio (es. regla, fr. règle, ca. regle, pt. régua, ro. riglă, etc.) La regla de medir y la regla de sangrar vienen del latín regŭla, o sea, un bastón o palo recto. Por ahí se origina también la palabra regular (del latín regulo, dirigir, guiar, seguramente con el susodicho bastón), que en numerosos idiomas modernos hace referencia a lo que es uniforme, lo que cambia poco, lo que siempre funciona igual. Y resulta que las cosas regulares van extraordinariamente bien para medir. No otra cosa es una regla de medir (distancias) o la dilatación y contracción del mercurio en un termómetro (temperatura) o las marcas de un transportador (ángulos.) Y cada vez que una jovenzuela de las que en el mundo son aprende a llevar la cuenta de su regla de sangrar mientras se le agitan las hormonas, está aprendiendo una nueva manera de medir el tiempo. Para medir cosas necesitamos una referencia regular absoluta, algo que siempre mida lo mismo, o al menos parecido. En el caso del tiempo, nos hacía falta un ciclo regular y Luna vino a regalárnoslo con su periodo sinódico.

Hueso de Lebombo y Tianhe-2

Arriba: el hueso de Lebombo (Swazilandia) con sus 29 marcas, de 35.000 años de antigüedad, un palo de cómputo como los que se siguen usando en la zona hasta la actualidad. Eso lo convierte en el primer instrumento matemático y por tanto científico conocido de toda la historia de la humanidad. Si además se usó para contar el ciclo sinódico lunar de 29 días, también sería el primer calendario. Abajo: el superordenador Tianhe-2 (Vía Láctea-2) del Centro Nacional de Supercomputación en Cantón, China. En el momento en que escribo esto, aparece en el Top500 como el más potente del mundo con 3.120.000 núcleos, 33,82 Pflops/s de Rmax (Linpack) y 54,9 Pflops/s de Rpeak teórica. Pese al abismo de tiempo, conocimiento, ciencia y tecnología entre ambos, en su esencia son lo mismo: instrumentos para computar.

Puede que por todo esto, los primeros calendarios de la humanidad fueron lunares. Los más antiguos se remontan a la prehistoria. Tenemos, por ejemplo, el calendario de Aberdeenshire, hallado en ese concejo de Escocia, con unos 10.000 años de edad. Sin embargo, hay algún otro objeto muy, muy anterior que resulta de lo más intrigante. Por ejemplo, el hueso de Lebombo (entre Sudáfrica y Swazilandia), un peroné de babuino con 35.000 años de antigüedad usado como palo de cómputo; los bosquimanos de la región siguen usando objetos similares para contar y calcular hasta la actualidad. Eso lo convierte en el instrumento científico más antiguo que se conserva, porque el hecho de contar es un acto matemático y por tanto científico. No hay ninguna diferencia obvia entre la lógica de fondo subyacente al hueso de Lebombo y al superordenador Tianhe-2 de los chinos, el más potente del mundo en estos momentos. Esencialmente, ambos sirven para lo mismo: para computar.

Y el hueso de Lebombo tiene… veintinueve marcas. Naturalmente, existen muchos motivos distintos por los que un ser humano quisiera contar veintinueve unidades de algo. Muchísimos. Pero igual de naturalmente, entre esos motivos se incluye la posibilidad de que alguien estuviese contando los días del ciclo lunar, o los de su ciclo menstrual, o ambos. En este caso, ese sería además el primer calendario conocido de la humanidad. Permíteme ensoñar por un instante: nuestro primer matemático, nuestro primer científico, al menos el primero que nos dejó una anotación, pudo ser una muchacha curiosa contando los días de su regla y comparándolos con las fases de la luna y maravillándose ante semejante prodigio hace treinta y cinco milenios tal noche como hoy, en plena Edad de Piedra. Lo que también la convertiría en el primer astrónomo, el primer astrofísico y el primer biólogo conocido. Por qué demonios no. Bajo sus cabellos tenía todo lo necesario para poder.

Bueno, ya. Sea Aberdeenshire o Lebombo o cualquiera de los otros que hay por ahí, no cabe duda: nuestros primeros calendarios fueron lunares, para contar días y meses. A decir verdad, lunisolares, puesto que establecen una relación entre el periodo sinódico lunar y el ciclo de luz-oscuridad al que llamamos “día”, regido por el sol. Y así, la humanidad comenzó a medir el tiempo por fin.

Del año, las estaciones y las horas.

Hay otra observación que tampoco pudo pasarnos desapercibida durante mucho tiempo. El día será poco de fiar a lo largo del año porque las horas de luz y oscuridad cambian mucho, pero ese cambio es en sí mismo regular. Por ejemplo, en Europa, cuando el clima es frío el sol se levanta menos en el cielo y durante menos tiempo que cuando es cálido. Es más: la altura máxima que el sol alcanza en el cielo desde el punto de vista terrestre va aumentando durante algo más de 180 días, desde la temporada fría a la temporada cálida. Luego, se reduce durante otros tantos, de la temporada cálida hasta la fría. Entre ambos, suman trescientos sesenta y pico. Y así una y otra vez. Es una regla.

Además, este hecho viene acompañado por toda otra serie de fenómenos cíclicos de gran importancia para nosotros los humanos desde tiempos prehistóricos: las migraciones de los animales que cazamos o carroñeamos, la maduración de las frutas y bayas que recolectamos, la necesidad o no de preparar pieles o tejidos para abrigarnos, la disponibilidad de agua en ríos y lagos, los vientos, las tormentas y las inundaciones. Mil cosas. Sin embargo, no nos consta que los paleolíticos tuvieran una idea clara de esto, que ahora llamamos año. Sin duda tuvieron que observar estos hechos, pero parece que más bien se dejaban llevar junto con el resto de la naturaleza, probablemente con la ayuda de leyendas y tradiciones ancestrales. Si tenían una concepción intelectual clara del año solar, no nos han dejado ningún rastro.

Pero entonces inventamos el Neolítico, con la agricultura y el pastoreo. Para las sociedades agrícolas y ganaderas, el conocimiento del año y sus estaciones es vital. No es posible la agricultura sin una percepción clara de los tiempos de siembra y cosecha, de las heladas, de la crecida de los ríos, de las épocas de riego, de los propios ciclos anuales de las plantas, de todo. Lo mismo ocurre con la ganadería. Además, el dominio del año facilita las operaciones militares y la organización de sociedades cada vez más y más complejas. El problema, o uno de los problemas, es que el año solar es un proceso más lento y difícil de centrar. Por ejemplo, no hay nada evidente a la primera que delimite el final de un año y el principio de otro, como sí lo hay para el día solar y el mes lunar, que sólo requieren abrir los ojos y fijarse un poco para reconocerlos. Las estaciones tampoco están bien definidas en la experiencia cotidiana: no hay nada que separe claramente el último día del otoño y el primer día del invierno, por decir algo, y además hay un montón de veranillos de San Martín, de San Miguel, de San Juan y demás santoral, que pueden darse o no cada año. Resulta difícil establecer reglas precisas porque no acaba de ser muy regular. Un lío.

Círculo de Goseck (4900 - 4700 AEC), actual Alemania

El Círculo de Goseck (4900 – 4700 aEC), actualmente en Alemania, tal y como ha sido reconstruido por el Depto. de Arqueología Prehistórica de la Universidad Martín Lutero de Halle-Wittenberg y el Gobierno del Estado Federado de Sajonia-Anhalt. Se trata de un lugar arqueoastronómico y un cementerio prehistórico en cuyos alrededores se han hallado huesos descarnados de ganado y humanos colocados cuidadosamente, lo que puede indicar rituales de enterramiento, sacrificios de animales o humanos y/o canibalismo ritual. Dos de sus tres entradas apuntan en la dirección por donde sale y se pone el sol durante el solsticio de invierno, mientras que la tercera está próxima al meridiano astronómico. Otros huecos en la empalizada parecen señalar hacia los mismos puntos para el solsticio de verano y las tradicionales fiestas de primavera. Está “ajustado” para las posiciones del sol de hace 6.800 años, con una precisión de unos 4 días. Dos mil años más antiguo que el popular Stonehenge, manifiesta un notable conocimiento de diversos fenómenos astronómicos como el año, las estaciones y su regularidad. Fotos: E. Schütze vía Wikimedia Commons | © M. Grimm (Clic para ampliar)

Sin embargo, muy poco a poco, comienzan a surgir instrumentos como el círculo de Goseck (hoy en Alemania, 6.900 años de antigüedad), el complejo megalítico de Mnajdra (actual Malta, a partir de hace 5.600 años), el conocidísimo Stonehenge (actual Reino Unido, entre 5.100 y 3.600 años) y puede que algo de la estructura circular de Nabta, Egipto, entre otros. Sobre estas construcciones se han contado tantas tontadas, algunas de ellas magufadas evidentes pero otras con peer review, que resulta muy difícil separar el grano de la paja. Lo que es una pena, porque son creaciones absolutamente fascinantes que habrían merecido mucho mejor trato. A pesar de todo, estas estructuras parecen evidenciar un conocimiento cada vez más profundo de fenómenos anuales y estacionales como los solsticios, los equinoccios, las posiciones del sol y de ciertas estrellas a lo largo de todo el año y quizá algún rudimento sobre ciclos plurianuales más complejos. Si otras culturas lo lograron también en el mismo periodo, no nos lo dejaron saber.

Lamentablemente, ninguno de esos pueblos sabía ni siquiera escribir. Probablemente funcionaban por observación, prueba y error, lo que tiene su mérito, ¿eh? Pero seguir avanzando exige alta tecnología: escritura, geometría, astronomía, matemáticas. Como en aquella época no tenían un CERN ni un DARPA ni nada parecido para agilizar un poco las cosas, hubo que esperar a que fuéramos inventándolo todo. Se duda de si los primeros en lograrlo fueron los astrónomos egipcios o los sumerios, después babilonios, en lo que hoy día es Iraq. Probablemente fueron los dos, durante un largo proceso de aprendizaje que pudo extenderse durante algún que otro millar de años. Allá por los albores de la historia, crearon muy poco a poco los primeros calendarios modernos, muchas de cuyas características seguimos utilizando en la actualidad, como la semana de siete días o los doce meses del año.

Ruinas de Eridu, Sumeria

Lo que queda de la ciudad de Eridu (actual Iraq), convencionalmente considerada la cuna de la cultura sumeria y por tanto de la escritura, la civilización y la ciencia que la caracterizaron. Floreció hace algo más de 6.000 años, llegando a alcanzar una población superior a los 4.000 habitantes (puede que hasta 10.000, una enormidad para su época). Inició su declive hace aproximadamente cuatro milenios pero no quedó abandonada del todo hasta hace unos 2.500 años. Foto: Wikimedia Commons. (Clic para ampliar)

Los sumerios, después babilonios, o más generalmente mesopotámicos, comenzaron con un calendario primordialmente lunar de 354 días dividido en doce meses alternos de 29 y 30 días. Como se les descuadraba debido a la diferencia entre esos 354 días y los 365,25 días que hay aproximadamente en un año solar, cada cierto tiempo intercalaban por decreto un mes adicional para reajustarlo, dando así lugar a los primeros años bisiestos. Los meses empezaban siempre al primer avistamiento de la luna nueva (en la práctica, el inicio del cuarto creciente), con el primero en primavera, originando el día de Año Nuevo. A partir de ahí contaban tres semanas de siete días más una de 8 o 9, con el último día considerado maligno, o sea inhábil para hacer cosas y por tanto de descanso. ¿Te suena de algo esto de los doce meses alternos con en torno a treinta días, la intercalación de bisiestos, y las semanas de siete días con el último sacralizado para descansar? (Puede que a estos respectos también te interese el origen de Dios)

Sin embargo, a los meticulosos escribas sumerios no les gustaba demasiado este año tan irregular y allá por el 2.400 antes de nuestra era ya estaban usando un año con 12 meses de 30 días, que suman 360. Sigue sin ser muy exacto pero es más sencillo de llevar, más regular, y además permite cálculos rápidos y fáciles. Ahí se originan también los 360 grados de un círculo y el sistema sexagesimal en general. Aprendiendo a medir el tiempo, aprendieron y nos enseñaron a medir muchas cosas más.

Hasta aproximadamente el 500 aEC, este calendario era fundamentalmente observacional; esto es, miraban el sol, la luna y lo reajustaban trabajosamente acorde a los mismos. Pero a partir de ahí se percataron del ciclo metónico, que luego Metón el Ateniense les piratearía (o redescubriría) y ahora conocemos bajo su nombre. Y ese fue el primer ciclo combinado complejo de tiempo que descubrió la humanidad. Resulta que 19 años solares suman 6.940 días, al igual que 235 meses (sinódicos) lunares. Sólo se van de unas pocas horas. Desde ese momento fue posible computar los años, los meses y sus bisiestos de manera regular, sin tener que estar mirando a los cielos todo el rato, sino sólo de vez en cuando. Además, el ciclo metónico también sirve para predecir los eclipses. No veas qué poder.

Pirámides de Guiza vistas desde el Nilo

Dos de las Grandes Pirámides de Egipto vistas desde el río Nilo, a las afueras de El Cairo. Foto: © AP. (Clic para ampliar)

Para los egipcios, el dominio del año era absolutamente esencial. Toda la civilización del Antiguo Egipto dependía de las crecidas anuales del Nilo. Parece ser que al principio empezaron con un calendario lunisolar, como todo el mundo. Pero ya vemos lo rápido que se descuadra, y un año descuadrado es un año de cosechas fallidas, hambre y revueltas. Así que enseguida se pusieron a buscar, yo diría que a la desesperada, algo más regular.

Como suele pasarnos a los humanos cuando buscamos cosas verdaderamente importantes, lo encontraron en las estrellas. Para ser exactos, en el orto helíaco (sin coñitas) de la estrella Sirio. Que al estar directamente vinculado a la órbita terrestre alrededor del Sol se produce, claro, coincidiendo con el año real. Y además, se correspondía también con la inundación del Nilo. Así que, al menos desde tiempos del faraón Shepseskaf (c. 2486 – 2479 aEC), los egipcios se saltaron el magreo y pasaron directamente al año moderno de 365 días, con tres estaciones llamadas inundación, siembra y cosecha. Una tablilla vinculada a Dyer podría remontar la fecha hasta el 3.000 aEC o por ahí, aunque esto no es seguro; pero probablemente ya lo usaban cuando hicieron las pirámides (a partir de aprox. 2.670 aEC.)

Los egipcios también dividieron el año en 12 meses de 30 días y al final del año añadían cinco más, llamados epagómenos. En cambio, usaban tres semanas de diez días en vez de las cuatro de siete o siete y pico que nos legaron los ahora iraquís. Pese a tanta brillantez, no estuvieron finos a la hora de intercalar un día bisiesto para corregir la diferencia entre los 365 días del año egipcio y los 365,25 del real. Así que, aunque mucho más lentamente, también se les descuadraba hasta tal punto que las fiestas de verano comenzaban en invierno y cosas así; la reforma de Canopo, en el 238 aEC, fracasó debido a broncas entre clérigos.

Sin embargo, mirando ortos, acabaron por descubrir otro ciclo complejo: el ciclo sótico o sotíaco (Sothis es el nombre en griego de Sirio.) Este es el tiempo que tarda un calendario de 365 días en descuadrarse tanto como para que vuelva a empezar en el mismo momento del año. Este ciclo sotíaco (también llamado canicular) es de aproximadamente 1.460 años (365 x 4). En la práctica, la precesión de los equinoccios y otros fenómenos lo hacen variar un poco. Pero tuvieron que ser ya los griegos y en particular el primer señor que dijo que era la Tierra la que giraba alrededor del Sol, un cierto Aristarco de Samos (c. 310 – 230 aEC), quienes establecieron con claridad la diferencia entre el año aparente de 365 días, el año tropical y el año sideral.

Reloj de sol en los Jardines Botánicos de Singapur.

Reloj de sol en los Jardines Botánicos de Singapur. Dado que Singapur se encuentra casi en el ecuador, su diseño está adaptado para reflejar el hecho de que el sol de mediodía brilla prácticamente desde el Norte en verano y desde el Sur en invierno. Foto: Wikimedia Commons (Clic para ampliar)

Al mismo tiempo, hay otro fenómeno obvio que o bien nos pasó desapercibido, o no le dimos importancia o no se nos ocurrió que sirviera para gran cosa durante mucho tiempo. Y mira que es evidente: el sol se mueve por el cielo a lo largo del día de manera regular y por tanto proyecta sombras que se desplazan sobre la tierra de modo igualmente regular. Por el sencillísimo procedimiento de clavar un palo en el suelo y hacer unas marcas arbitrarias pero también regulares entre la primera sombra de la mañana y la última sombra de la tarde, es posible dividir el día en periodos mucho más exactos y delimitados que el tradicional al amanecer, al atardecer o cuando el sol esté alto en el cielo. Es decir, un reloj solar que dé las horas. Da igual que sean 12, 24 o 60: son horas.

O no se nos ocurrió o no nos hizo gracia la idea de vivir colgados del reloj o yo qué sé, porque los primeros relojes solares –es decir, los primeros relojes, punto– tardaron muchísimo en surgir. Se ha dicho muchas veces que los obeliscos, las escalinatas de los templos y cosas así desempeñaban la función, pero no hay absolutamente ninguna prueba al respecto, como por ejemplo unas marquitas en el suelo. Que algo se pudiera hacer no significa que se hiciera, o incluso que se conociera. Desde luego, si lo hacían, no era algo generalizado. De hecho, algunos de los propios obeliscos prevén en sus grabados que las generaciones futuras se preguntarán para qué fueron levantados, y lo explican: para el culto religioso. Ni una sola mención a la medida del tiempo.

Las mismas civilizaciones que construyeron Stonehenge, las pirámides de Egipto o los ziggurats babilónicos pasaron olímpicamente de las horas o les dieron una importancia mínima hasta fecha tan tardía como el 1.500 aEC, que es cuando empiezan a aparecer los relojes solares propiamente dichos. Llevo años preguntándome el porqué, pero claro, no tengo a nadie de hace cuatro milenios a mano para consultárselo. No es hasta el reinado de Tutmosis III, hace unos 3.500 años, cuando aparece en Egipto el primer reloj solar verdadero: el sechat. Al menos, que conozcamos. En la web de la Asociación de Amigos de los Relojes de Sol tienen un estudio interesante sobre la manera como se usaba (y aquí).

Las horas que da un reloj de sol son desiguales. Me refiero a que su duración va variando a lo largo del año según el día se alarga o se acorta. Pero aún así, lo hacen dentro de una regularidad y permiten un control mucho más sofisticado sobre las actividades diurnas que no tenerlo. En la práctica se siguieron utilizando hasta bien entrada la Edad Media europea, cuando los relojes mecánicos comenzaron a desplazarlos.

Reloj estelar de Ramsés VI

Funcionamiento del reloj estelar de Ramsés VI (1145-1137 aEC), Egipto Antiguo. Imagen: Wikimedia Commons (Clic para ampliar)

Fueron también los egipcios quienes inventaron la manera de contar las horas nocturnas, cuando no hay sol para tu reloj solar. Para ello crearon el merjet o instrumento del saber, básicamente una doble plomada que permite tomar referencias con respecto a las estrellas. Así, marcaron 36 constelaciones decanas (una por cada 10º del círculo de 360º) y las usaron para dividir la noche en diez horas, más otras dos adicionales para el amanecer y el anochecer. En total, doce. Y de este modo, sumando otras tantas para el día, surgió el día de veinticuatro horas, que aún hoy seguimos contando en dos grupos de doce; en lenguaje común (y en los relojes comunes) después de las doce del mediodía viene la una de la tarde, no las trece, que es cosa más de militares, científicos, marinos, aviadores y asimilados.

En realidad, todas estas civilizaciones usaban un mezcladillo de calendarios, cada uno para una cosa distinta. Solía haber un calendario civil común, otro más científico para calcular las efemérides, uno religioso con las festividades, y muchos más, que podían coincidir o no entre sí. Por ejemplo, a mediados del primer milenio anterior a nuestra era, los atenienses utilizaban el sistema de calendarios áticos, con uno lunar de doce meses para las festividades, otro estatal de diez meses arbitrarios y uno agrícola que mayormente contaba estaciones. Un jaleo, vamos, pero es que la idea de establecer unas fechas y tiempos precisos para el conjunto de las actividades humanas tardó en desarrollarse.

De los cumpleaños, la corrupción de los políticos y el calendario unificado.

En la práctica, los años se contaban diciendo aquello de “en el tercer año del reinado del Rey Fulano…”. Ni siquiera los romanos usaban normalmente el famoso ab urbe condita, o sea, “desde la fundación de la ciudad”, muchísimo más común entre quienes luego escribieron sobre ellos. Era mucho más habitual decir (y escribir) “en el año del cónsul Tal” o “en el cuarto año del emperador Cual.” Esto ocurría en todas las culturas de su tiempo, incluyendo a los egipcios, con lo cual aparece el concepto de cumpleaños.

En la Antigüedad, la gente no sabía cuántos años tenía más que de una manera muy aproximada. El concepto de adolescencia era desconocido y se pasaba de niño a hombre, o de niña a mujer, con el inicio de la pubertad. Luego, si llegabas, te convertías en viejo. Y punto. La pregunta “¿cuántos años tienes?” habría desconcertado a la mayoría de la gente antigua. Sin embargo, había una excepción: el monarca, gobernante, o mandamás en general. Por el mero hecho de contar el tiempo desde el año de su acceso al poder, la sociedad en su conjunto estaba contándole cumpleaños, se celebraran o no.

Clepsidra griega

Otro reloj de la antigüedad: la clepsidra o reloj de agua. Esta es griega, del siglo V aEC (la de arriba, la de abajo es una reproducción contemporánea) pero parece ser que los babilonios ya las usaban hace cuatro mil años. La de esta imagen es muy sencilla (es simplemente un chorrito de agua que va escapando a un ritmo determinado), pero sus versiones más sofisticadas podían llegar a ser notablemente precisas y fueron los relojes más comunes y exactos que tuvimos hasta el siglo XVII. En torno a ellas se desarrollaron gran parte de los mecanismos que luego permitirían la aparición de los relojes mecánicos (como el escape relojero, el que hace “tic tac”.) Objeto: Museo de la Antigua Ágora, Atenas, Grecia. Imagen: Wikimedia Commons.

En algún momento del primer milenio antes de nuestra era varias culturas comenzaron a celebrar también los aniversarios de distintos eventos, templos e incluso dioses, como por ejemplo el de la diosa griega Artemisa, a la que le ponían velitas (¿te suena esto también?). Parece ser que fueron los romanos quienes empezaron a celebrar los aniversarios de las personas en sus dies natalis, debido a una combinación de factores culturales, políticos y supersticiosos. Por supuesto, sólo entre las clases altas; al pueblo de a pie ni se le ocurría hacer semejantes gastos (salvo por una casta proporcionalmente muchísimo más reducida que la actual, eran pobres como ratas y bastante tenían con ingeniárselas para comer a diario.) Y sólo se celebraba el de los hombres adultos; para que se celebrase el cumpleaños de las mujeres hay que esperar al siglo XII de nuestra era y el de los niños (y niñas) al XVIII, cuando los críos van dejando de ser una boca inútil que alimentar llevada a palos para convertirse en los reyes y reinas de la casa. Cosas del pasado.

Fueron también los romanos quienes primero vieron la necesidad de tener un calendario único, o al menos dominante. Empezaron con el calendario de Rómulo, lunar y agrícola, que sumaba 304 días divididos en diez meses de 30 y 31 más un periodo invernal que no se asignaba a ningún mes. El año nuevo coincidía con el equinoccio de primavera y a partir de ahí se contaban los diez meses, llamados martius (por el dios Marte, con 31 días), aprilis (origen desconocido, probablemente relacionado con Afrodita/Venus, 30 días), maius (seguramente por Maia, la diosa buena, 31 días), iunius (por Juno, 30 días) y el resto derivado de sus ordinales: quintilis (de quintus, quinto, con 31 días), sextilis (sexto, 30 días), september (séptimo, 30 días), october (octavo, 31 días), november (noveno, 30 días) y december (décimo, 30 días), gran parte de lo cual te sonará también. Sin embargo, las semanas obedecían a un ciclo nundinal (de mercado) de ocho días.

Ya en fechas muy tempranas, allá por el 713 aEC, el rey (probablemente legendario) Numa Pompilio modificó este calendario inicial con criterios supersticiosos (los romanos eran extremadamente supersticiosos). Como pensaban que los números impares daban buena suerte (y los pares, mala), cambiaron el número de días de cada mes a 29 o 31. Ya que estaban, aprovecharon para convertir ese periodo invernal indefinido en dos meses nuevos: ianuarius (seguramente por Jano, con 29 días) y un februarius (vinculado a las februa), necesariamente con 28 días y por tanto de malísimo fario. Tanto era así que en la práctica lo dividían en dos periodos de 23 y 5 días, antes y después de las terminalias, y además se convirtió en un mes de ritos de purificación y demás. Que si no, lagarto, lagarto. Curiosamente, la Cuaresma de purificación de los cristianos también suele empezar en febrero (y su celebración más importante, la Pascua, cae en el primer día sagrado del año pagano tradicional, que comenzaba con la primera luna llena tras el equinoccio de primavera.)

Calendario de la República Romana, c. 60 aEC

Reconstrucción del calendario de la República Romana “Fasti Antiates Maiores” hallado en una villa de Anzio (aprox. 60 aEC). Los nombres abreviados de los doce meses “normales” y el mes intercalar se encuentran en la fila superior. En la fila inferior, podemos leer el número total de días. Los días, mostrados en la primera columna de cada mes, se representan mediante las ocho letras A a H (pues aún usaban la semana nundinal de ocho jornadas de mercado). La segunda columna muestra la K de “kalendas” para el primer día del mes, la N de “nones” para el quinto y la E de “eidus” (idus) para el 13º. El resto de días están indicados por su función: F de “fasti” (“laborables”), N de “nefasti” (“no laborables”), C de “comitiales” (se podían celebrar asambleas públicas), EN de “endotercisi” (mitad fasti y mitad nefasti) y “nefastus publicus” (festividades públicas). Las palabras en letras grandes hacen referencia a festivales importantes y las de letra más pequeña, a otros festejos y deidades menores. Fuente: Universidad de Chicago. (Clic para ampliar)

Esto totalizaba un año de 355 días, bastante menos preciso que el de egipcios y mesopotámicos. Para reajustarlo, el Sumo Pontífice (pontifex maximus) intercalaba un mes bisiesto de 27 días tras los primeros 23 del febrero de mal rollo cada dos o tres años. Al principio lo llevaban relativamente bien pero luego se convirtió en una juerga de corrupción política y clerical. Metían el mes bisiesto cuando les convenía para extender o abreviar el periodo en el poder de sí mismos o sus amiguetes, y también para alargar o acortar el plazo de pago de las deudas según les interesase. Esta no era una práctica exclusiva de los romanos; resultaba bastante común en la Antigüedad. En la comedia Las Nubes del griego Aristófanes (423 aEC), la luna en persona baja a quejarse del cachondeo con los meses, a fuerza de manipularlos. Tres siglos después, las cosas no habían mejorado: los calendarios venían en dos versiones, una “según el dios” (la luna) y otra “según el arconte” (el jerarca de turno).

Pues para el siglo I antes de nuestra era, a los romanos les estaba pasando lo mismo. Y además, por lo visto, de una forma bastante acusada y con notable mala leche, vinculada al desorden y la violencia de los últimos años de la casi cinco veces centenaria República Romana. Vamos, que iban a saco. El caos era tal que fuera de la ciudad de Roma nadie sabía muy bien cuándo empezaban y terminaban los meses y años oficiales; y dentro de Roma, sólo podían predecirlo quienes estaban en el ajo. Entonces uno de los últimos cónsules republicanos, que también desempeñaba las funciones de sumo pontífice, decidió hacer algo  al respecto en el año 46 aEC. Este señor era ni más ni menos que Julio César.

Cayo Julio César

Cayo Julio César (100 – 44 aEC), general, cónsul y sumo pontífice romano, creador del calendario juliano que con unas pocas modificaciones usamos hoy día en todo el mundo. Busto en el Museo dell’Opera del Duomo, Pisa. Imagen: Wikimedia Commons.

El jefazo Julio reunió a sus astrónomos, filósofos y matemáticos. En particular, a un experto greco-egipcio llamado Sosígenes de Alejandría. Y crearon el calendario juliano. Estaba compuesto por 365 días divididos en doce meses de 30 y 31 días, salvo febrero, que siguió siendo de 28. Pero abolió el mes intercalar que se había convertido en un cachondeo para sustituirlo por un único día bisiesto que se añadía al final de febrero cada cuatro años. Es decir, muy parecido a lo que seguimos haciendo ahora. El calendario juliano es ya nuestro calendario moderno, salvo por un par de arreglos que vendrían después. Y con ello, al forzar un calendario unificado de duración regular, solventó el problema de un plumazo. Bien es cierto que, ya que estaba, César aprovechó el ajuste para extender su propio año de consulado hasta un total de 445 días. Casi tres meses por la cara que se arrogó el colega. O sea, como si ahora alguno de nuestros amados líderes saliese diciendo que su mandato de cuatro años en realidad dura cinco.

Poco después, la semana romana pasó a ser de siete días, como la de los griegos y babilónicos, en vez de los ocho tradicionales. Con el calendario juliano, el principio del año quedó también fijado en el 1 de enero. No está claro cuándo el mes de enero pasó a ser el primero del año en la civilización (greco-)romana, sustituyendo así a marzo con su equinoccio de primavera. En todo caso es anterior al año juliano y puede que sea algo muy antiguo. Al menos desde el 153 aEC, el año consular (el año de mandato de los cónsules republicanos) comenzaba el 1 de enero. Pero desde luego, no fue algo generalizado en el mundo (ni siquiera en el mundo occidental) hasta mucho después. En civilizaciones alejadas de la cultura occidental, que tienen sus propios calendarios con su propia historia, sigue sin serlo (como el Año Nuevo Chino.)

En general, casi todo el mundo mantuvo el principio del año en torno al equinoccio de primavera o algo después hasta siglos relativamente recientes (como por ejemplo continúa ocurriendo con el Año Nuevo Persa o el Indio). Es decir, que deberíamos haberlo celebrado esta semana pasada (este año 2014 cayó en 20 de marzo.) Aquí en Valencia tuvimos las Fallas, ¿y en tu casa?

Cremà de una falla valenciana

Cremà (quema) de una falla valenciana, uno de los incontables festivales del fuego celebrados en torno al equinoccio de primavera desde la más remota antigüedad. Foto: Wikimedia Commons.

Voy a detenerme un instante en esto. No es casual en absoluto que tantas civilizaciones distintas hayamos concedido tanta importancia al equinoccio de primavera. Dentro de la arbitrariedad de las maneras humanas de contar el tiempo, el equinoccio de primavera ha demostrado un poder excepcional sobre nuestra imaginación desde antes de la historia. El Año Nuevo de decenas de culturas, la Pascua judeocristiana, el Akitu babilónico, el Shunbun-no-Hi japonés, el Sham-el Nessin egipcio, el Holi hinduista, cientos de festivales del fuego paganos repartidos por todo el mundo y mil cosas más están directamente vinculadas al también llamado equinoccio vernal.

Al menos en el Hemisferio Norte nos gusta este equinoccio vernal, el momento en el que muere el invierno para dejar paso a la primavera. Nos gusta, claro, el instante en que se acaba el frío, la austeridad y el hasta el hambre para permitirnos otra vez cultivar, cazar, jugar a pleno sol. Cautivó nuestro misticismo religioso, nuestra imaginación popular y nuestra curiosidad científica. Muchas de nuestras civilizaciones son hijas, al menos en parte, del equinoccio vernal.

Los calendarios precolombinos.

En otro orden de cosas, las culturas precolombinas de América me resultan especialmente fascinantes porque se separaron de las Afroeuroasiáticas mucho antes del Neolítico. Por ello, aunque partían de unas “bases comunes mínimas”, crearon modelos de civilización humana alternativos sin conexión alguna con la de los viejos continentes durante más de 15.000 años. Un poco como si fuesen alienígenas, o nosotros para ellos, o viceversa, ya me entiendes.

Detalle de la estela C de Tres Zapotes, Veracruz, México.

Detalle de la estela C de Tres Zapotes, Veracruz, México, una de las anotaciones en Cuenta Larga (el mal llamado “calendario de los mayas”) más antigua que se conserva. De arriba abajo, indica la fecha 7(hallada después).16(fragmentaria).6.16.18, correspondiente al día 5 de septiembre del 32 aEC según nuestro calendario moderno. Objeto: Museo Nacional de Arqueología, México.

Así, hicieron cosas fascinantemente diferentes y otras sobrecogedoramente idénticas, pues humanos somos todos. Por ejemplo, las estructuras sociales piramidales. Y las propias pirámides, de las que tanto se ha hablado. No es que vinieran los extraterrestres a hacérselas, sino que para todo humano es la manera más sencilla de construir un edificio grande, la que menos arquitectura exige: apilar piedras más o menos bien cortadas hasta levantar una montañita con algunas grutas interiores (pasadizos) y tal. Y al contrario: también hicieron cosas misteriosamente marcianas que aún hoy en día no entendemos bien. Algunos de sus secretos se los llevaron las tinieblas de la jungla, el tiempo y la viruela y no los sabremos jamás.

Los calendarios precolombinos se encuentran un poco a caballo entre ambos extremos. Cuando el último cazador-recolector siberiano quedó aislado al lado americano del estrecho de Bering, es dudoso que llevara más ciencia encima que uno de esos palos de computar. A partir de ahí, tuvieron que crearlo todo prácticamente de cero. La escritura, la astronomía, las matemáticas, todo. Algunas de sus elecciones son bastante obvias: por ejemplo, tomaron la base 20 para sus números, igual que muchos otros pueblos del mundo, como los vascos antiguos. Claro, esto no tiene nada de raro: salvo amputaciones y tal, todos tenemos veinte dedos aptos para contar. Sin embargo, su calendario más común, para usos tanto civiles como religiosos, tenía años de 260 días desde tiempos de los olmecas y así siguió siendo con los aztecas, los mayas y demás.

No es obvio por qué eligieron esa cifra. Aunque hay quien lo ha querido vincular con el cultivo del maíz o el periodo de gestación humana, no acaba de cuadrar muy bien. Y no es que ignorasen que el año solar tiene en torno a 365 días. Lo sabían y lo utilizaban (aztecas: xiuhpohualli; mayas: haab’, en ambos casos de 18 x 20 días más otros cinco que se consideraban maléficos). Pero no le daban mucha importancia. Les gustaba mucho más el de 260, que en el caso azteca se ha bautizado posteriormente como tonalpohualli y para el maya, tzolkin. 260 es el producto de 20 x 13 y por lo visto el 13 era un número importante en la numerología mística mesoamericana. A lo mejor sólo se trata de eso. Hablamos de calendarios con unas implicaciones religiosas muy fuertes, que se extendían a cada detalle de sus culturas. El calendario de 260 días sigue usándose en algunos lugares hasta la actualidad para practicar la adivinación, la magia popular y otras cosas por el estilo. Ambos calendarios coinciden cada 52 años solares de 365 días o 73 de esos raros de 260 (18.980 días). A esto se le suele llamar el “ciclo redondo” o “completo.”

Y sin embargo, sobre esas bases crearon auténticos monstruos matemáticos con pocos parangones en ningún otro lugar. El más impresionante y conocido, o desconocido de todos ellos es la Cuenta Larga. Conocido, porque hace poco tuvimos una de esas tontadas milenaristas en torno a ella: sí, es el famoso calendario maya que ni siquiera es propiamente maya, sino de toda la Mesoamérica precolombina. Desconocido, porque ninguno de quienes hablaban de fines del mundo o cambios de era o cosas de esas tenía más que una vaga idea sobre él y el público en general, pues todavía menos. Impresionante, porque hasta tiempos muy recientes a pocos más se les había ocurrido o habían sido capaces de desarrollar semejante cosa. Hace falta un notable ejercicio de imaginación, de astronomía y de matemáticas para crear un calendario capaz de contar “automáticamente” largos periodos de tiempo sin repetir un solo día. Parece más propio de la ciencia moderna que de algo que pudo empezar antes de nuestra era.

Funcionamiento de la Cuenta Larga mesoamericana.

Funcionamiento de la Cuenta Larga mesoamericana (el mal llamado “calendario de los mayas”). Fuente: Wikimedia Commons. (Clic para ampliar)

Matemáticamente, la Cuenta Larga funciona de manera muy parecida al odómetro de un coche. No es un calendario lunar ni estrictamente solar, sino que va sumando días, uno detrás de otro, y en principio podría seguir haciéndolo hasta el infinito. Comienzas contando los primeros veinte días en la posición más a la derecha (k’in), numerados del 0 al 19 (por cierto, uno de los primeros usos del número cero propiamente dicho.) Cuando has llegado al 19 y quieres contar otro más, subes un uno a la segunda posición de la derecha (uinal) y vuelves al cero en la primera. Así, te queda 1.0, lo que significa “veinte”. Pero con el uinal sólo puedes contar hasta 18 (es decir, de 0 a 17). En 360 días (20 x 18), o sea un año haab’ sin sus cinco “días maléficos”, tienes un 17.19: esto es, 17 en la posición uinal y 19 en la posición k’in.

Si quieres añadir otro día más (el primero del segundo año haab’), tienes que poner de nuevo un cero en ambas posiciones de la derecha (uinal y k’in) y un uno en la tercera (tun), que también es de base 20. Vamos, que se te queda: 1.0.0. A partir de ahí, vuelves a sumar k’in (en base 20) y uinal (en base 18) hasta llegar al 19.17.19 que, como contamos empezando por el cero, equivale a 20 x 18 x 20 días. Eso son 20 años “mesoamericanos” de 360 días.

Y así sucesivamente, ya siempre en base 20 excepto con los uinal, donde mantenemos la base 18. Se sigue por los katun (lo que permite contar hasta 400 años mesoamericanos) y luego por los baktun (hasta 8.000 años mesoamericanos). Para aumentar otro día más, tendríamos que poner un 1 en la sexta posición (pictun) y un cero en todas las demás. Lo que pasa es que la posición pictun y las de orden superior son ya invenciones de los mayanistas modernos. Los mesoamericanos antiguos sólo usaban cinco posiciones. Es decir, que la Cuenta Larga original habría dado para un máximo de 8.000 años de los suyos. Teniendo en cuenta que comenzaban a contar desde una fecha mítica de la creación establecida en el año 3.114 aEC, aún queda Cuenta Larga para más de dos mil años a partir de hoy. Lo único que ocurría el famoso 21 de diciembre de 2012 es que pasábamos del baktun 12 al baktun 13. Sólo con eso, algunos se inventaron sus historias. Puedes ver qué día es hoy en Cuenta Larga aquí.

Por supuesto, si las civilizaciones mesoamericanas hubiesen seguido existiendo y utilizando la Cuenta Larga (en realidad, ya estaba olvidada cuando llegó el colonizador europeo), nada les habría impedido seguir añadiendo posiciones a la izquierda cuando se les acabasen los baktun, tal como hacen los mayanistas modernos con el pictun y demás. Así, la Cuenta Larga tiene el potencial para contar cualquier periodo del tiempo, hasta el infinito. ¡Hey, un momento! Eso es exactamente lo que hacemos con nuestros números, sólo que en base 10 pura: del 9 pasamos al 10. Del 99, al 100. Del 999, al 1.000. Y así una y otra vez, hasta el infinito. La gracia de la Cuenta Larga es que los mesoamericanos antiguos se dieron cuenta muy pronto de que podían usar eso para contar días, y derivar a partir de ahí las fechas “normales” (como las del tzolkin). Bueno, y su rollo jeroglífico, que impresiona un montón.

De los meses modernos y los días de la semana.

Volvamos al calendario romano de Julio César, porque es el que ha acabado imponiéndose como referencia común en todo el mundo, con algunas pequeñas variaciones. La primera es que a la muerte de César se le honró cambiando el nombre del mes quintilis por iulius, o sea Julio (había nacido el 12 o 13 de julio del 100 aEC.) Después, el primer emperador del Imperio Romano, César Augusto, llamó al mes sextilis… pues cómo lo iba a llamar, augustus, o sea agosto, en honor a sí mismo.

Estatua del dios romano Jano

Estatua del dios Jano, una deidad romana sin equivalente griego, caracterizada por sus dos caras mirando eternamente en sentidos contrarios. Como era el dios del mes de enero (ianuarius), se cree que éste pasó progresivamente a ser el primero del año por asociación a su figura, que miraría así al año pasado y al futuro. Estatua: Museos Vaticanos, Roma.

Así ya tuvimos todos los meses del calendario moderno: enero (ianuarius, por Jano, 31 días), febrero (por las februa, 28 días o 29 cuando carga el bisiesto), marzo (por Marte, 31 días, antiguamente el primero del año), abril (seguramente por Afrodita/Venus, 30 días), mayo (por la diosa buena, 31 días), junio (por Juno, 30 días), julio (por Julio César, 31 días), agosto (por Augusto, 31 días, no iba a ser menos el hombre…) y el resto siguiendo su antiquísimo ordinal romano, de cuando sólo tenían diez: septiembre (“el séptimo” después de marzo, 30 días), octubre (“octavo”, 31), noviembre (“noveno”, 30) y diciembre (“décimo”, 31).

El nombre de nuestros días de la semana merece párrafo aparte. La idea es también mesopotámica (jodó con los iraquís), pero su origen moderno es griego, correspondiente a los siete dioses / astros mayores del sistema solar conocidos en aquellos tiempos: hêméra Hêlíou (día de Helios / Sol), Selénês (de Selene / Luna), Áreôs (de Ares / Marte), Hermoú (de Hermes / Mercurio), Diós (del padre de los dioses Zeus / Júpiter), Aphrodítês (de Afrodita / Venus) y Krónou (de Cronos / Saturno). Los romanos, que eran unos multiculturetas de postín (en eso radica gran parte del éxito de la civilización romana: absorbían, asimilaban y asumían todo lo que les molaba), simplemente los tradujeron: dies Sōlis, Lūnae, Martis, Mercuriī, Iovis, Veneris y Saturnī. Seguro que al menos cinco de ellos los conoces: lunes, martes, miércoles, jueves (la letra J es una variación de la I inventada en el siglo XVI) y viernes.

En muchos idiomas, como el inglés, el sábado sigue siendo también el día de Saturno (Saturday – Saturn day) y el domingo, el día de Sol (Sunday – Sun day). Monday continúa siendo el día de Luna (Moon day) y los demás se corresponden con las versiones locales de los mismos dioses: Tuesday de Tiw/Týr, Wednesday de Wōden, Thursday de Thor y Friday de Frigg. En cambio, por estos lares del Sur, adoptamos ya en tiempos de la Cristiandad las versiones judeocristianas sabbat (sábado) y dies dominicus (día del Señor, domingo.)

¿Antes y después de Cristo? Va a ser que no…

San Dionisio el Exiguo

(San) Dionisio el Exiguo (c. 470 – c. 544 aEC) en un icono ortodoxo rumano. Quiso determinar la fecha de nacimiento de Cristo para contar los años a partir de ahí como Anno Domini, y la estableció en el 754 desde la fundación de Roma. Esto daría lugar posteriormente a la conocida fórmula “antes de Cristo / después de Cristo”. Pero se equivocó. Dando por buenos los Evangelios, Jesús no pudo nacer en ese año, y si no se dan por buenos, pues no sabemos cuándo fue, si fue.

En torno al año 525 de nuestra era, un monje llamado Dionisio el Exiguo sentó las bases para cristianizar el calendario. Su logro más notable y conocido fue la creación del Año del Señor (Anno Domini, AD), según el cual los años empiezan a contarse a partir del nacimiento de Cristo: la fórmula tradicional actual. A todos los que peinamos ya alguna cana y a algunos de quienes aún sólo tienen pelo en la cabeza nos enseñaron y les enseñan que ahora mismo contamos los años desde el nacimiento del Nazareno y dividimos la historia en antes de Cristo (aC) y después de Cristo (dC). Según esto, hoy viviríamos en el año 2014 después de Cristo, como todos sabemos, ¿no?

Pues no. Y no es una cuestión de fe religiosa o lo contrario. El problema es que el buen Dionisio metió la pata. Tras muchos cálculos, hizo coincidir el año 1 de nuestra era, el primer año del Señor, con el 754 ab urbe condita (AUC, desde la fundación de Roma.) Esta forma de contar los años se generalizó a partir del siglo IX europeo: la historia se dividía en ab urbe condita para los años anteriores al 1 y Anno Domini para el 1 y siguientes (en ambos casos contando hacia adelante). Pero en el siglo XVII se extendió la fórmula “antes de Cristo” (contando hacia atrás a partir del Anno Domini -1) y “después de Cristo” (contando hacia adelante a partir del Anno Domini +1). Esa es la que seguimos oyendo hoy.

Está mal. La fecha dada por Dionisio el Exiguo es imposible. Los propios académicos cristianos de hoy en día lo aceptan: si existió Jesus de Nazaret tal como lo cuentan en la Biblia, o de manera parecida, no hay forma ninguna de que pudiese nacer en el 754 ab urbe condita. En primer lugar: para que el Rey Herodes el Grande pudiese instigar la famosa matanza de los Santos Inocentes tal como afirmó el evangelista Mateo (Mt 2:16-18), tuvo que ser antes del 750 AUC porque ese es el año en el que Herodes murió. (En el 754 reinaba en Judea otro Herodes distinto, Herodes Arquelao, al que nadie ha atribuido jamás la autoría de lo de los Santos Inocentes ni nada de eso.)

El Emperador romano César Augusto

Tal como afirma el evangelista Lucas, el emperador César Augusto (en la imagen) ordenó un censo en los territorios romanos durante los albores de nuestra era. Lucas dice que Jesús de Nazaret nació durante el mismo, y de ahí la historia del Portal de Belén. Pero en Judea este censo, realizado por el gobernador Publio Sulpicio Quirinio, se llevó a cabo en el año 6 “después de Cristo”. Con lo que, para que cuadre la Biblia, el año 1 de Dionisio el Exiguo no pudo ser el de nacimiento de Jesús. Si decimos “antes o después de Cristo” para referirnos a los años modernos, estamos contando mal. Estatua: Museos Vaticanos, Roma.

En segundo lugar, y aún más contuntente: si Jesús nació durante el censo realizado por el gobernador romano de Siria y Judea llamado Publio Sulpicio Quirinio, como asegura el evangelista Lucas (Lc 2:1-2), y de ahí toda la temática sobre el Portal de Belén… bien, pues tal censo existió, pero se realizó seis o siete años después del Anno Domini 1 (según Flavio Josefo, fue “37 años después de que Octavio derrotó a Antonio en la batalla naval de Accio“, lo que se correspondería con el año 6 “después de Cristo”.) No hubo ningún otro censo en la región en ese periodo.

Existen otras posibilidades que alejan aún más la fecha de nacimiento de Jesús del “año 1″, y ninguna a favor. Pero estas dos son las más aplastantes: por esa época Herodes I el Grande ya estaba muerto y no hubo censo alguno en Judea hasta seis años después. O sea: el problema no es que decir “antes de Cristo” y “después de Cristo” sea algo religioso o deje de serlo. El problema es que es erróneo. Aceptando los Evangelios, Cristo no pudo nacer en el 754 ab urbe condita convertido en el Año del Señor nº 1 por Dionisio el Exiguo. No cuadra. O fue antes del 4 “antes de Cristo” (muerte de Herodes el Grande) o fue en el 6 “después de Cristo” (censo de Quirinio, también conocido como Quirino o Cirino.) Y si no damos por buenos los Evangelios, pues entonces, claro, no hay referencia alguna. Por un lado o por el otro, estamos contando mal.

Por este motivo (y también porque el calendario occidental ha sido asimilado por culturas que tienen muy poca relación con el cristianismo), en todos los ámbitos mínimamente rigurosos utilizamos ahora las expresiones “Era Común” (EC) y “antes de la Era Común” (aEC) en lugar de “antes de Cristo” y “después de Cristo”. En contra de lo que parecen creer algunos, no es una conspiración anticristiana, sino la mera corrección del error histórico cometido por Dionisio el Exiguo y un resultado del éxito global del calendario occidental.

De los relojes, el minuto, el segundo y más allá.

Papa Gregorio XIII

El Papa Gregorio XIII (1502 – 1585) promulgó la bula Inter gravissimas (1582) para dar los últimos retoques al calendario juliano, convirtiéndolo así en el calendario moderno. Por eso lo conocemos como “calendario gregoriano.” En muchos lugares del mundo no fue adoptado hasta el siglo XX. Retrato realizado por Lavinia Fontana (1552 – 1614).

Durante los siguientes siglos, fue volviéndose evidente que el calendario juliano se descuadraba también. Esto se debe a que la duración real del año trópico no es exactamente 365,25 días, sino más bien 365,242, con una pequeña variación interanual. En el año 1582, se había ido unos diez días desde los tiempos de Julio César. Entonces el Papa Gregorio XIII ordenó el último cambio notable: saltaron esos diez días y los años bisiestos dejaron de ser uno de cada cuatro. En su lugar, lo fueron aquellos que son divisibles por cuatro, excepto los que también son divisibles por cien, pero no por cuatrocientos.

Esto crea un año efectivo de 365,2425 días, mucho más parecido al real, que es el que seguimos usando ahora: el calendario gregoriano, hoy en día ya más conocido como el calendario occidental o el calendario internacional (pues sólo quedan cinco países que no lo usen de manera oficial: Afganistán, Arabia Saudita, Etiopía, Irán y Nepal, e incluso éstos lo utilizan en sus relaciones con el exterior y la gran mayoría de sus aplicaciones tecnológicas e industriales. Hay algunos otros que lo simultanean con algún calendario local, pero lógicamente éstos se van viendo cada vez más desplazados por la pujanza global del internacional.)

Es más o menos en la época de este Papa Gregorio XIII cuando empiezan a aparecer los primeros relojes con precisión suficiente para contar segundos. La idea del minuto como sesentava parte de la hora es bastante antigua (seguramente se origina también en los babilonios), y la del segundo como sesentava parte del minuto ya fue utilizada por científico persa Al Biruni en torno al año 1.000 de la Era Común. Pero no había ninguna manera práctica de medir tiempos tan precisos hasta el siglo XVI y de hacerlo con exactitud, hasta el XVII. Ni relojes solares, ni clepsidras ni los primeros relojes mecánicos eran capaces. Hubo que esperar al reloj de péndulo inventado por el matemático, astrónomo y físico holandés Christiaan Huygens en 1656 para que esto fuese posible.

Esquema para un reloj de péndulo de Christiaan Huygens (1673)

Ilustración en el libro “Horologium Oscillatorium sive de motu pendulorum” publicado por Christiaan Huygens en 1673, donde se define el primer reloj de péndulo realmente funcional. Los relojes de péndulo fueron por fin capaces de medir segundos, dándonos un control mucho más avanzado sobre la medida del tiempo.

La gracia del reloj de péndulo es que está construido en torno a un oscilador armónico: el péndulo en cuestión. Esto significa que siempre oscila en un periodo exacto de tiempo (o tan exacto como permitan las imperfecciones del mecanismo), dependiendo de su longitud. Es decir, que sus movimientos son isócronos. O sea, una de esas reglas lo más regulares posible que nos gustan tanto para medir cosas.

Y el péndulo resultó ser notablemente regular. Tanto que pasó a ser la clave del tiempo durante los siguientes 270 años, hasta bien entrado el siglo XX. Sólo la invención del reloj electrónico de cuarzo en 1927 comenzaría a desplazarlo, pero no del todo hasta después de la Segunda Guerra Mundial. En el reloj de cuarzo, el péndulo queda reemplazado por un oscilador piezoeléctrico de cristal mucho más pequeño y preciso. Y veloz, lo que permite medir fracciones mucho más breves de tiempo, a millones de ciclos por segundo. Poco después llegó el reloj atómico, más exacto todavía. De pronto, resultó que nuestros relojes comenzaban a ser enormemente más regulares que la inmensa mayor parte de los fenómenos naturales que medían, como la órbita de la Tierra alrededor del Sol, la de la Luna alrededor de la Tierra o casi cualquier otra cosa que antes constituyese la referencia mejor de tiempo. Y ya sabes, lo regular, la regla, es lo que mola para medir.

Entonces hicimos algo nuevo: invertimos la referencia. Es decir, el sol y la luna y las estrellas dejaron de ser la referencia última para nuestros relojes y fueron nuestros relojes, cada vez más precisos y prácticos, los que nos sirvieron para medir el resto de fenómenos naturales. Incluyendo al sol, la luna y las estrellas. Hoy en día la referencia absoluta de tiempo ya no está en los cielos, sino en la tierra, en nuestros relojes atómicos (bueno, algunos hay en el espacio…). Ahora decimos que la unidad básica de tiempo en el sistema internacional es el segundo, y en estos momentos lo definimos así, en el lenguaje cuántico de estos relojes atómicos:

“El segundo es la duración de 9.192.631.770 periodos de la radiación correspondiente a la transición entre los dos niveles hiperfinos del estado fundamental del átomo de cesio-133.” [A una temperatura de 0 K]

Reloj atómico de estroncio del JILA, 2014

El reloj más preciso del mundo en la actualidad: el atómico de estroncio del Joint Institute for Laboratory Astrophysics (JILA), formado por la Universidad de Colorado y el Instituto Nacional de Estándares y Tecnología de los Estados Unidos (NIST). Necesitaría por encima de cinco mil millones de años, más que la edad del sistema solar, para “irse” un solo segundo. Foto: Ye group and Baxley/JILA

…lo que es una regla exacta como el demonio y además muy práctica, porque no tenemos que andar dando tantas vueltas a que si el sol, la luna o las estrellas cada vez que queremos contar el tiempo con precisión, ni depender de sus imperfecciones cósmicas. Cosa que hoy en día es totalmente necesaria en todas partes. Toda nuestra ciencia y tecnología modernas, las claves de nuestro nivel y calidad de vida, dependen por completo de la regularidad de nuestros relojes.

Me he saltado necesariamente muchas cosas, porque esta fue una historia muy larga y compleja, llena de acelerones y paradas y marchas adelante y atrás. Pero quiero añadir que nuestra historia, la historia de la humanidad, está indisolublemente vinculada a las maneras como aprendimos a medir el tiempo. Exigió lo mejor y lo más brillante de nosotros. A cambio, nos premió con una clase de dominio sobre nuestro mundo que de otro modo jamás habríamos podido soñar. La agricultura, la navegación oceánica, la electrónica moderna o la astronomía, entre otro millón de cosas más, son en parte hijas de nuestro afán por medir el tiempo de manera cada vez más y más precisa. Sin ese afán, sin esa capacidad, seguiríamos anclados allá por el Epipaleolítico. Y, te lo aseguro, eso no te iba a gustar.

(Quizá te interese también: La computadora de Anticitera, en este mismo blog.)

59 Comentarios Trackbacks / Pingbacks (3)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (39 votos, media: 4,85 de 5)
Loading ... Loading ...
Be Sociable, Share!

Air France 447: Buscando cajas negras a 4.000 metros de profundidad (y 2)

A la memoria del Malaysian Airlines MH370

He estado dudando sobre si era el momento más adecuado para publicar esta segunda parte, porque la casualidad es mucha casualidad. Me refiero, por supuesto, a la pérdida del Malaysia 370 en el mar este fin de semana. Hasta se parecen la hora y el número de ocupantes; la principal diferencia es que el MH370 parece estar en una región de poca profundidad. Al final me he decidido, dado que es educativo y enseña un poco lo que puede venir a continuación. No obstante, he cambiado un poco el tono, que en la anterior versión era demasiado ligero para mi gusto dadas las circunstancias. En todo caso, este post va a la memoria del pasaje y la tripulación del vuelo Malaysia Airlines 370, perdido en el mar sobre las dos de la madrugada hora local del 8 de marzo de 2014 con 239 personas a bordo. Sit vobis mare levis.

Por petición, y por supuesto:“Mi corazón comparte la tristeza y la impotencia de los familiares de los pasajeros del Malaysian Airlines.”
Firma: la mamá de un pasajero del 447 de Air France, que leyó estas líneas.

Ir a la primera parte

Ruta prevista del vuelo Air France 447, 31 de mayo - 1 de junio de 2009.

Recopilemos: el vuelo Air France 447 había partido de Río de Janeiro – Galeão a las 19:29 (local) del 31 de mayo de 2009 y se le esperaba en París – Charles de Gaulle sobre las 09:10 del 1 de junio. Sobrevoló las playas del Brasil antes de adentrarse en la noche atlántica con toda normalidad. Entre las 02:11 y las 02:14 de la madrugada UTC, cuando se encontraba atravesando una región turbulenta de convergencia intertropical fuera del alcance de los radares, se produjo una ráfaga de mensajes ACARS de alerta y ya no se volvió a saber de él. Gráfico: Wikimedia Commons modificado por la Pizarra de Yuri. (Clic para ampliar)

Durante la mañana del 1 de junio de 2009, tres continentes fueron alcanzando poco a poco tres conclusiones. La primera, que al vuelo Air France 447 de Río de Janeiro a París con 228 personas a bordo ya no podía quedarle ni una gota de combustible. La segunda, que el avión, un moderno Airbus A330-200, no se hallaba en ningún lugar de las tierras emergidas. Y por tanto la tercera: que había desaparecido en el mar. Como en los viejos tiempos.

A las 11:04 UTC salió la primera aeronave en su busca, de la Fuerza Aérea Brasileña. En torno a las 12:15 se le sumó un Breguet Atlantique-2 desde la base que Francia todavía conservaba en Senegal, antigua colonia suya. Después acudieron también un CASA 235 de la Guardia Civil Española y un P-3 Orion perteneciente a la Armada Estadounidense. Luego, muchos más, todos ellos buscando frenéticamente alguna pista del vuelo desaparecido y sus ocupantes a lo largo y lo ancho de miles de millas de mar. A primera hora de la tarde, Air France comunicó oficialmente al mundo que habían perdido un avión. Uno grande.

Durante un día entero, no encontraron nada. Fue a las 15:20 del día dos de junio cuando un Embraer R99 de la Fuerza Aérea Brasileña divisó la primera mancha de combustible en el océano. Aunque en un primer momento se les ocurrió que podía ser un sentinazo de algún barco, enseguida comenzaron a avistar otros fragmentos flotantes. Unos pocos al principio y luego algunos más, incluyendo restos humanos. El 6 de junio, la corbeta brasileña Caboclo rescataba los dos primeros cadáveres junto a un asiento, una mochila con un ordenador portátil y una cartera con una tarjeta de embarque para el AF447. Sin embargo lo más llamativo, o simbólico, fue la deriva que la gente llama “timón de cola” (el timón en sí es la parte móvil), cuya foto dio la vuelta al mundo. Su estructura es de fibra de carbono (CFC) y puede flotar. Un gran timón con los colores de Air France, o sea de Francia, por mucho que esté privatizada, flotando en medio del mar.

La Armada del Brasil recupera la deriva del Air France 447.

La imagen que dio la vuelta al mundo: la Armada del Brasil recupera la deriva (“timón de cola”) del Air France 447 en medio del Océano Atlántico, el 7 de junio de 2009. Foto: Fuerza Áerea del Brasil vía Associated Press. (Clic para ampliar)

Ay, la grandeur. Y encima mandando el Sarkozy y con la crisis ya en marcha. Y Airbus, con sede en Toulouse, acusándola como todo el mundo. Mira, no estuve yo atento a contar los minutos que tardó lo que era un accidente aéreo en convertirse en una cuestión de estado y orgullo nacional. Pero no fueron muchos.

Submarino nuclear de ataque S604 Émeraude, Francia

El submarino nuclear de ataque S604 Émeraude, la primera ocurrencia del gobierno francés para buscar los restos del AF447. Foto: Armada Nacional de Francia. (Clic para ampliar)

La primera que se les ocurrió fue sacar un submarino atómico. Cuál si no. Para un buen chauviniste ofendido en su orgullo patrio, cualquier excusa es buena para sacar a los submarinos atómicos. En menos de cuatro días, el submarino nuclear Émeraude se hizo a la mar a toda máquina para localizar las cajas negras con sus “sonares ultrasensibles” (así los definieron), y de paso el resto del avión. Le precedían la fragata Ventôse y el portahelicópteros Mistral. Eso, para empezar.

Los profesionales empezaron a encogerse con esa cara de velocidad que se nos pone a todos cuando vemos una catástrofe a punto de ocurrir, y ya iban a ser dos esa semana. Hay muchas, muchas maneras de destrozar una búsqueda y una investigación que prometían contarse entre las más delicadas de la historia de la aviación. Gracias a Neptuno, no rompieron nada. Pero sólo por la sencilla razón de que ni hallaron las cajas negras, ni los restos del avión y si encontraron el Océano Atlántico yo creo que fue porque ya estaban en él. Parecía un happening muy caro ilustrando aquello tan viejo de que al que sólo tiene un martillo, todos los problemas le parecen clavos. Con toda esa gente muerta, de un tono bastante macabro, la verdad.

Baliza de localización subacuática (ULB) para regristradoras de vuelo Dukane DK-120.

El cilindro horizontal es la baliza de localización subacuática (underwater locator beacon, ULB), en este caso del modelo Dukane DK-120. Estas balizas son capaces de sobrevivir a un accidente aéreo en más del 90% de las ocasiones (según estudio de la BEA) y seguir transmitiendo desde 6.000 metros de profundidad (más del 97% de los mares y océanos terrestres son menos profundos). Emiten un pulso ultrasónico (ping) cada segundo a 37 kHz de frecuencia durante aproximadamente un mes antes de agotar la pila. Actualmente se estudia bajarlas a 8,8 kHz para mejor recepción. Foto: Dukane Seacom Inc. / Radiant Power Corp. (Clic para ampliar)

Verás. Para empezar, cuatro días son radicalmente insuficientes para diseñar una búsqueda tan compleja como la que era fácilmente previsible. Por expeditivo y machote que quede de cara al electorado, el submarino salió con lo puesto, sin preparación, formación ni equipamiento específico alguno. Sólo disponían de sus sonares pasivos para detectar el pulso ultrasónico (ping) a 37,5 kilohercios que emiten una vez por segundo las balizas subacuáticas de las cajas negras. Estas balizas (underwater locator beacon, ULB) son el cilindro pequeño que suele verse al extremo de las mismas, capaces de seguir haciendo ping hasta a 6.000 metros de profundidad durante aproximadamente un mes.

Pero es que además resulta que tanto el Émeraude como cualquier otro submarino de combate en general son herramientas totalmente inapropiadas para esa función. Este en particular sólo podía barrer 34 km2 por día con alguna exhaustividad y encima, mal. De entrada, el área de búsqueda profunda ascendía a más de 17.000 km2 y terminó superando los 25.000. O sea, entre dieciocho meses y dos años y pico para hacer un barrido preliminar, sin parar ni un solo segundo y con más rendijas que la casa de la Familia Monster. Porque sus sensores, por “ultrasensibles” que fuesen, no eran los correctos para detectar una señal cada vez más débil y posiblemente apantallada por los restos del avión que tuviesen encima, menos aún en ese rango de frecuencias, y viniéndole desde muy abajo (los sensores de los submarinos son bastante mejores detectando a sus alrededores, en busca de otros submarinos o buques de superficie, que justo encima o debajo; y además están especializados en captar las frecuencias y señales más características de esos navíos).

Por si fuera poco, los submarinos de combate sólo se sumergen hasta unos cientos de metros. Supongamos que el Émeraude llegue hasta los 500, que ya es mucho suponer (los datos reales de profundidad máxima de los submarinos son secretos, pero para uno de ese tipo, por ahí puede ir la cosa; salvo algunos bichos extraños, ninguno llega ni cerca de mil). Y resulta que ahí hay entre 2.500 y 4.000 metros de profundidad. Es decir, una capa adicional de dos a tres kilómetros y medio de agua entre el fondo y el submarino (y sus sensores). Aún más: esa es una región con abundante ruido biológico, que tiende a confundir a estos sensores (o sus operadores). En suma, era como limpiar el agua radiactiva de Fukushima con un cubo, sin cuerda y encima agujereado.

Adicionalmente, la presencia de un submarino nuclear en el área obligó a crear una extensa zona de seguridad a su alrededor que no podía ser utilizada por los barcos con sensores remolcados. Hasta el informe oficial de la BEA francesa al respecto es sutilmente crítico cuando afirma que “el uso de un submarino genera constricciones operacionales significativas y dificultades de coordinación con los buques de superficie. La limitada capacidad de inmersión de los submarinos no representa una ventaja decisiva con respecto a los buques de superficie y es incluso menor que la de un hidrófono sumergido. Un submarino podría ser útil para explorar áreas de profundidad limitada, siempre que esté equipado con los sensores apropiados.”

Naturalmente los profesionales de la Armada Francesa, que son gente inteligente y capaz, pidieron ayuda ante semejante marrón. Acudió en su auxilio, por un lado, el buque Pourquoi Pas? del IFREMER con el batiscafo Nautile, capaz de llegar hasta el fondo del mar. Lo que también tenía algo de tufillo patriotero, porque aunque la gente del IFREMER son auténticos profesionales de las profundidades, y además de primera categoría (hace poco escribí algo sobre ellos), un batiscafo de limitada autonomía como todos los batiscafos tampoco parece la herramienta más apropiada para barrer decenas de miles de kilómetros cuadrados de mar. Por su parte, el américain ese del que hay que defender al cine francés les prestó algo bastante más útil: dos sensores de arrastre especializados en detectar esta clase de balizas a gran profundidad. Francia contrató otros dos barcos para remolcarlos: el Fairmount Glacier y el Fairmount Paramount.

Localizador remolcado de balizas subacuáticas TPL-25, Armada de los Estados Unidos.

El localizador remolcado de balizas subacuáticas (towed pinger locator) TPL-25 de la Armada de los Estados Unidos. Está especializado en detectar los pings de las ULB a gran profundidad, y fue el primer equipo adecuado a la función que se llevó al lugar del desastre. No obstante, la búsqueda inicial fue tan inadecuada que no sirvió de nada, pese a que pasaron al menos en dos ocasiones por encima de los restos. Foto: SEA OOC – Armada de los Estados Unidos. (Clic para ampliar)

Daba igual. Toda la operación obedecía a criterios tan absurdos que no sirvió de nada. Hacia finales del mes el Émeraude, el Pourquoi Pas?, la Ventôse, el Mistral y los dos Fairmount se retiraron muy discretamente sin haber encontrado un solo tornillo del Air France 447. Luego se supo que habían pasado dos veces prácticamente por encima de los restos, con al menos una baliza subacuática aún viva, emitiendo pings sin cesar. Pues ni por esas. El informe oficial de la BEA vuelve a clavar otra puyita al decir que “el uso de recursos sin probar no es deseable. Por ejemplo, los recursos acústicos del submarino nuclear y el Pourquoi pas? no se habían probado con señales de [balizas subacuáticas] ULB antes de ser desplegados en el sector. Ajustar los sistemas una vez en el lugar es difícilmente compatible con el cumplimiento de la misión.”

Mientras tanto, los buques y aviones de rescate brasileños recuperaban todo lo que se podía recuperar en superficie muy profesionalmente, sin alharacas pero con gran efectividad, cubriendo un millón de kilómetros cuadrados de mar. Rescataron 50 cuerpos humanos de los 288 ocupantes, incluyendo el del comandante Marc Dubois, y 640 fragmentos del avión; algunos, bastante grandes. Sin embargo, los elementos más importantes para la investigación, como los motores, los ordenadores, los instrumentos o las cajas negras, seguían en el fondo del océano.

La tontada, como todas las tontadas a ese nivel, tuvo consecuencias. Ya te digo, fue tan ineficaz que no rompieron nada porque no toparon con nada que romper. Pero se había perdido un tiempo precioso: exactamente los treinta días que tardan en agotarse las pilas de las balizas subacuáticas. Ahora, los restos críticos del Air France 447 no sólo permanecían en el fondo del mar, sino que además habían perdido la voz y se hallaban en el más completo silencio. El silencio de la gran profundidad.

Mientras tanto, mil Airbus A330 seguían volando por todo el mundo cargados de gente, más todos los demás aviones equipados con sistemas muy parecidos, y seguía sin saberse con ninguna certeza qué los podía matar. Lo único que se pudo hacer por el momento fue cambiar los tubos Pitot del modelo Thales AA, como los que llevaba el AF447, por otro modelo distinto, dado que ese era un problema conocido y además los mensajes ACARS que vimos al final del post anterior parecían apuntar en tal dirección. Pero sin saber lo que pasó, eso y nada es básicamente lo mismo. Podían ser los tubos Pitot o cualquier otra cosa. Sin restos y sin cajas negras y sin investigación técnica, en cualquier momento podía volver a ocurrir y matar a otras doscientas o trescientas o más personas de nuevo. Es lo que tienen la ignorancia y la estupidez, que son peligrosísimas. Con poder, para echarse a temblar. Y mira que había antecedentes, ¿eh?

El antecedente.

Los genios que idearon lo de mandar al submarino ni siquiera pueden alegar la novedad, porque no era la primera vez que se intentaba. Muchos años atrás, un Jumbo sudafricano acabó en el fondo del Océano Índico con 159 personas a bordo. Fue el vuelo South African 295 de Taipei a Johannesburgo con escala en Isla Mauricio, un Boeing 747-244B Combi mixto de carga y pasaje, una de esas cosas de entonces (aunque aún quedan algunos por ahí, si bien en versiones muy modernizadas).

Boeing 747-244B Combi matrícula ZS-SAS (South African 295)

El Boeing 747-244B Combi matrícula ZS-SAS (South African 295) desaparecido en el Océano Índico el 27 de noviembre de 1987. Tras dos meses de búsqueda infructuosa mediante sonar pasivo y otros métodos tradicionales, la compañía Steadfast Oceaneering localizó los restos a 4.900 m de profundidad en apenas 48 horas mediante magnetómetros y sonar de barrido lateral. Foto tomada dos años antes del accidente en Oporto por: Pedro Aragao / airliners.net vía Wikimedia Commons.

El 27 de noviembre de 1987, este vuelo South African 295 declaró una emergencia por humo en cabina y fallo eléctrico a los controladores de Mauricio que se extendió durante 16 minutos. Después, dejó de comunicar. Se había estrellado en el mar unos 250 km al Noreste de Isla Mauricio y mil al Este de Madagascar. Ahí el Océano Índico tiene casi 5.000 metros de profundidad. Como en aquellos tiempos Sudáfrica se hallaba bajo sanciones internacionales por el apartheid, muchas veces se ha dicho que el avión transportaba una carga ilegal de productos químicos militares que se incendió. Lo cierto es que no se sabe con seguridad.

Los sudafricanos intentaron primero localizar las cajas negras y con ello los restos del avión mediante sonar pasivo, exactamente igual que Francia 22 años después. Con el mismo éxito: ninguno. Tras dos meses de búsqueda, cuando ya era evidente que las balizas no podían seguir transmitiendo (de hecho, es posible que esas balizas antiguas ni siquiera funcionasen tan hondo), pagaron un pastón para contratar a la empresa Steadfast Oceaneering (ahora Oceaneering International), expertos en rescates de material a gran profundidad.

Avioneta Cessna en el fondo marino vista con sonar de barrido lateral (SSS).

Una avioneta Cessna en el fondo marino tal como se ve con un sonar de barrido lateral bastante antiguo. (Clic para ampliar)

Oceaneering tardó exactamente dos días en localizar buena parte de los restos, a 4.900 metros de profundidad, utilizando magnetómetros y un primitivo sonar de barrido lateral. A diferencia del sonar pasivo, básicamente hidrófonos que se dedican a escuchar el agua a su alrededor buscando alguna señal en las siempre inciertas condiciones de propagación submarinas, el sonar de barrido lateral es un sistema activo que sirve exactamente para ver el fondo marino. Es decir, la herramienta adecuada para buscar los restos de un avión (o de cualquier otra cosa) cuyas balizas subacuáticas no estás detectando a la primera. O sea, el destornillador para el tornillo. Como te digo, les costó poco más de 48 horas hallar lo que quedaba del South African 295, su carga y sus ocupantes.

Pese a que los restos estaban bastante dañados, en dos campos separados entre sí, el 6 de enero de 1988 Oceaneering rescató la grabadora de voces en cabina (CVR) utilizando un vehículo submarino a control remoto y así la investigación en serio pudo comenzar. Por el contrario, la grabadora de datos (FDR) nunca se encontró. No obstante, entre el análisis de la CVR y el estudio de los demás restos que hallaron pudieron descubrir lo ocurrido con bastante precisión. Muy resumido, el incendio se inició en el compartimiento de carga –no se pudo determinar el punto exacto, debido al grado de desintegración de los restos, pero sí el palé: el primero de estribor–, alcanzando los 600ºC necesarios para fundir una raqueta de tenis de fibra de carbono que se halló derretida. Debido a unas separaciones inadecuadas, el fuego se extendió rápidamente al área de pasaje y terminó dañando tantos sistemas que el avión no pudo más y se estrelló.

Restos del South African 295 filmados por Oceaneering, 01/1988.

Los restos del South African 295 filmados por Oceaneering tras su hallazgo a 4.900 metros de profundidad, en enero de 1988. (Clic para ampliar)

El caso es que podían recuperarse los restos de un avión a gran profundidad desde 1988 por lo menos, incluso mil metros más hondo. Se sabía cómo hacerlo. Sin embargo, esta vez iba a ser más difícil. Mucho más difícil.

Vuelven los profesionales. Con material.

El IFREMER regresó a mediados de julio de 2009, de nuevo con el Pourquoi Pas?, pero esta vez en mejores condiciones. Es decir, con material más adecuado: un sonar de barrido lateral como el que utilizó Oceaneering para encontrar al South African 295 casi un cuarto de siglo atrás, aunque mucho más moderno.

El problema fue que no sabían muy bien dónde buscar. Con las balizas subacuáticas de las cajas negras definitivamente muertas, no tenían ninguna pista. Comenzaron a partir de la última posición conocida del Air France 447 y durante las tres semanas siguientes fueron cubriendo trabajosamente un círculo de 75 kilómetros a su alrededor. Levantaron excelentes mapas del fondo marino… pero no encontraban ni una sola astilla del avión.

Contenedores de oxígeno de emergencia para pasaje del AF447 en posición cerrada.


Contenedores de oxígeno de emergencia para pasaje del AF447 (los que van encima de todos los bloques de asientos). Arriba: Contenedor recuperado en posición cerrada, con deformación coincidente en tapa y cubeta, indicando que no llegó a abrirse. Abajo: Contenedor recuperado en posición abierta, debido al impacto, pero con los tres seguros enclavados. Tal cosa significa que las máscaras de oxígeno no se desplegaron en ningún momento. Esto aporta el dato fundamental de que la cabina no se despresurizó antes del impacto, y permite deducir que no se produjo desintegración en el aire, sino que al menos el fuselaje llegó de una sola pieza y sin peforaciones al mar. Suele ser un fuerte indicador de que un avión no ha sufrido daños estructurales graves antes de estrellarse. Imágenes: BEA, Francia. (Clic para ampliar)

Mientras tanto, gracias al análisis de los restos recuperados en superficie por la Armada Brasileña, empezaban a saberse algunas cosas. Una de ellas, fundamental, es que no hubo despresurización de la cabina antes del impacto: ninguna máscara de oxígeno estaba desplegada. Esta es una de las primeras cosas que se buscan en una investigación, porque indica muy bien si el avión resultó dañado en el aire (en cuanto hay perforación o fractura del fuselaje, hay despresurización y se disparan las máscaras) o por el contrario llegó más o menos de una sola pieza al suelo. Esto es importantísimo, dado que excluye un conjunto enorme de posibles causas. Entre ellas, los tipos más comunes de atentado o derribo: las explosiones e impactos de proyectiles tienden a abrir boquetes en el fuselaje, con la consiguiente despresurización y despliegue de las máscaras. También excluye, por ejemplo, la posibilidad de una gran explosión interna en vuelo como la que mató al TWA800 en 1996. O fallos estructurales severos como el del Aloha 243. Y un montón de cosas más.

El análisis de los restos flotantes recuperados permitió descubrir varias cosas importantes más. En particular, el estudio de los cuerpos practicado por los forenses brasileños. Los cuerpos humanos son magníficos testigos de lo que les ha pasado antes, durante y después de la muerte. Por ejemplo, ninguna de las víctimas (ni de los restos del avión) presentaba quemaduras. Cuando viajas junto a 140.000 litros de combustible de aviación, de los que en ese momento debían quedar aún en torno a 100.000, eso significa que difícilmente se produjo explosión o incendio alguno antes del impacto contra el mar. Todo empezaba a apuntar a que el Air France 447 y sus ocupantes permanecían en buen estado hasta que se estrellaron, un dato esencial.

El estudio forense aportó más datos aún. Todas las víctimas murieron instantáneamente o casi, debido a lesiones muy parecidas: fracturas compresivas de pelvis, tórax y columna vertebral con ruptura masiva de los órganos internos por deceleración súbita en el eje vertical, con algo de ángulo hacia atrás y un pelín hacia un lado. O sea: estaban sentadas en sus asientos y cayeron de culo con la espalda inclinada unos 15º hacia atrás. Los pedazos recuperados del avión contaban la misma historia: deformaciones por frenazo repentino de arriba abajo con cabeceo positivo y algo de alabeo. Es decir, que el Air France 447 se estrelló de panza con el morro levantado y un poquito de inclinación lateral.

Aunque esto no es determinante, porque el ángulo de impacto puede deberse al azar, insinúa que el avión conservaba alguna clase de control. En caso contrario, suelen caer de cualquier modo: en picado, de cola, con un ala por delante, boca abajo, como sea. Es relativamente raro que un avión incontrolado por completo caiga de panza  con el morro levantado como si estuviese aterrizando, si bien a un ángulo y velocidad brutal. Más bien sugiere pérdida de control sobre la altitud, la velocidad y el ángulo de ataque, entre otras cosas, pero no tanto sobre la actitud (de alabeo, cabeceo y guiñada). Sugiere que los pilotos, humanos o automáticos, seguían al mando aún. En estos dos videos podemos ver lo que suele pasarle a un avión cuando hay pérdida total de control:

El Tatarstan 363, un Boeing 737-500 procedente de Moscú, se estrella en Kazán (Rusia) el 17 de noviembre de 2013 con 50 personas a bordo. Puede observarse que lo hace en un fuerte picado, a consecuencia de una entrada en pérdida aerodinámica por mala configuración durante un aterrizaje frustrado, que derivó en una pérdida total de control.

Accidente del carguero militar estadounidense National Airlines 102, un Boeing 747-428BCF Jumbo con 7 tripulantes a bordo, a la salida de Bagram (Afganistán). Estaba llevándose vehículos militares pesados de vuelta a Dubai. Cinco de ellos se soltaron durante el despegue, dando lugar a un corrimiento de carga con sobredesplazamiento hacia atrás del centro de gravedad y pérdida total de control. Puede observarse que, aunque en este caso viene a caer “de panza”, la actitud de descenso es totalmente incontrolable y podía haber caído en cualquier otra posición.

Áreas barridas durante la 1ª y 2ª fase de la búsqueda del Air France 447, 10/06 - 17/08/2009

Áreas barridas durante la 1ª y 2ª fase de la búsqueda del Air France 447 entre el 10 de junio y el 17 de agosto de 2010, sin resultados. Imagen: BEA, Francia. (Clic para ampliar)

Todas estas fueron informaciones muy interesantes y útiles para descartar una montaña de posibilidades. Pero no para saber lo que ocurrió. Y sin saber lo que ocurrió, la seguridad aeronáutica continuaba en entredicho. El 17 de agosto, el Pourquoi Pas? se tuvo que retirar por segunda vez, sin haber encontrado nada. Todos los días, a todas horas, miles de aviones seguían surcando los cielos sin saber si lo que mató al Air France 447 podía matarlos a ellos en cualquier momento también.

A la tercera…

Y pasaron los meses. Tras la segunda intentona del Pourquoi Pas?, ya nadie sabía muy bien dónde buscar o qué hacer. ¿Podía ser que el AF447 se hubiera desviado enormemente de su ruta antes de estrellarse? ¿O quizá estaría encajonado en el fondo de alguno de los profundos valles submarinos que habían detectado en el sector, a cubierto de los haces del sonar de barrido lateral? ¡Porque todo aquello resultó ser una especie de escarpada cordillera sumergida a miles de metros de profundidad! No estaba fácil, no.

Conforme pasaba el tiempo, todo el mundo iba poniéndose más y más nervioso. El gobierno francés, porque lo que convirtieron en asunto de orgullo nacional se había transformado en humillación. Air France-KLM, porque en un contexto de crisis global donde muchas compañías aéreas estaban quebrando, miraba a sus aviones preguntándose cuál de ellos les daría un puntillazo de los malos. Airbus, porque en el peor año de ventas de la industria aeronáutica en década y media, tenía que explicar a sus clientes que bueno, que en fin, que no, que no sabemos por qué se estrelló nuestro avión, ¿cuántos dijo que quería comprar? Sus tripulantes, porque sabían que podían ser los próximos. Y eso sin mencionar a las familias y amistades de las víctimas, que iban pasando de la resignación a la furia, y con sobrada razón.

En abril de 2010, diez meses después del accidente, lo intentaron otra vez. La cosa estaba tan caliente que se dejaron por fin de patrioterismos y contrataron a empresas de talla mundial expertas en rescate submarino. Por un lado, a la estadounidense Phoenix International, que acudió con el buque Anne Candies, un sonar avanzado de barrido lateral ORION y un vehículo submarino a control remoto (ROV) CURV-21, ambos propiedad de la Armada de los Estados Unidos. Por otro, a la noruega Swire Seabed, con el navío especializado Seabed Worker, tres vehículos submarinos autónomos (AUV) del modelo REMUS-6000 y otro ROV más. Además, consultaron las áreas de búsqueda con oceanógrafos no sólo franceses, sino también británicos, norteamericanos y rusos. Esta vez iban en serio de veras.

Seabed Worker, Noruega

El Seabed Worker, un buque noruego especializado en rescate a gran profundidad que se utilizó durante la tercera fase de la búsqueda del Air France 447. Foto: Swire Seabed. (Clic para ampliar)

Áreas cubiertas en la 3ª fase de la búsqueda del Air France 447, 02/04 - 24/05/2010

Áreas cubiertas en la 3ª fase de la búsqueda del Air France 447 entre el 2 de abril y el 24 de mayo de 2010, una vez más sin resultados. Imagen: BEA, Francia. (Clic para ampliar)

Ambos buques partieron de Recife (Brasil) el 29 de marzo e iniciaron la búsqueda el 2 de abril, en un área de 4.500 km2 al Norte de la última posición conocida del avión. Pese a todos sus medios, tampoco encontraron nada. La cosa empezaba a ser desesperante. Para acabar de arreglarlo, cuando regresaron a hacer una parada técnica en Recife el 28 de abril, se encontraron con que la Armada de los Estados Unidos necesitaba que les devolviesen el sonar ORION y el vehículo CURV-21 para una de sus operaciones militares. Y a los dueños de uno de los REMUS-6000, los alemanes del IFM-GEOMAR, también les hacía falta el suyo. La tercera intentona parecía condenada a acabar como las dos anteriores antes siquiera de terminar.

Entonces, Airbus y Air France salieron por fin al quite. Vamos, que se sacaron la chequera para financiar otras tres semanas de búsqueda con el material restante y otro sonar lateral. En total, barrieron un área de 6.300 km2 en distintos sectores al Norte y alrededor de la última posición conocida. Pero una vez más, sin éxito. ¿Dónde demonios estaba ese maldito avión?

Y llegaron los científicos.

Transcurrió otro año, que se dice pronto. Durante ese tiempo, una de las empresas a las que habían consultado, Metron Scientific Solutions de Estados Unidos, propuso una aproximación innovadora. Bueno, en realidad no tan innovadora, porque era un método que ya se había utilizado para localizar el naufragio del submarino nuclear USS Scorpion, hundido en 1968, o la bomba termonuclear que cayó frente a Almería en 1966.

Metron sugirió un nuevo juego de patrones de búsqueda basado en un método matemático teórico conocido como busqueda bayesiana, utilizando datos de la BEA francesa y la MAK rusa. Simplificándolo mucho, este es un método estadístico que permite asignar distintas probabilidades a cada cuadrícula de un mapa y dirige la búsqueda de mayor a menor probabilidad, retroalimentándose constantemente a sí mismo. Sobre esta idea, volvieron a intentarlo otra vez más. Y, con algunas lecciones ya aprendidas, en esta ocasión encargaron directamente el trabajo a la Woods Hole Oceanographic Institution de Massachusetts, una universidad y centro de investigación que se cuenta entre los líderes mundiales en ciencias marinas.

La WHOI se puso a ello con el yate M/V Alucia y tres vehículos autónomos submarinos REMUS-6000, estudiando un área inicial de 10.000 km2 en las zonas sin barrer o peor barridas durante las expediciones anteriores. Se hicieron a la mar desde Suape (Brasil) el 23 de marzo. Iniciaron la búsqueda siguiendo esas técnicas bayesianas el 25. Y apenas nueve días después, el 3 de abril de 2011, el Air France 447 apareció por fin:

Campo de restos del Air France 447 detectado por SSS, 03/04/2010.

Campo de restos del Air France 447 tal como fue detectado por uno de los vehículos autónomos REMUS-6000 de la Woods Hole Oceanographic Institution mediante sonar de barrido lateral, el 3 de abril de 2010, utilizando técnicas de búsqueda bayesiana propuestas por Metron Scientific Solutions. Foto: BEA. (Clic para ampliar)

Posición de los restos del AF447.

Posición de los restos del Air France 447. Puede observarse que los sumergidos se encontraban a apenas 12 km de su última posición conocida y 8 km a la izquierda de su ruta de vuelo prevista. Imagen: BEA. (Clic para ampliar)

Mientras la BEA y Air France y todo quisqui convocaban ruedas de prensa y demás, profesionales de todo el mundo se agolparon a mirar. Y se miraron un poco raro, porque la primera sorpresa fue que los restos del Air France 447 no se encontraban entre todas aquellas montañas submarinas, sino en una suave llanura de limo a unos 3.900 metros de profundidad; a apenas doce kilómetros de su última posición conocida y justo al lado de su ruta de vuelo prevista, un poquito a la izquierda. Habían pasado un montón de veces por encima. Estuvo ahí todo el tiempo, a la vista de cualquiera que mirase bien.

Vista frontal de un motor del Air France 447 tras su rescate del fondo del mar

Vista frontal de un reactor del Air France 447 tras su rescate del fondo del mar. Puede observarse a la perfección cómo los álabes de la turbina están fuertemente torcidos, indicando que el motor giraba a toda potencia cuando impactó contra el mar. Foto: BEA. (Clic para ampliar)

La segunda cosa que llamó la atención fue que, salvo por unos pocos fragmentos que habían ido a parar algo más lejos, el campo de restos era muy pequeño: apenas 600 x 200 metros, después de estrellarse con gran violencia y hundirse cuatro kilómetros. Esto confirmó que el Air France 447 hizo impacto contra la superficie de una sola pieza, sin ninguna desintegración significativa en el aire. El avión estaba entero cuando golpeó contra el océano.

No sólo eso. La primera inspección visual de los motores, gracias a las imágenes proporcionadas por los vehículos submarinos de la Woods Hole Oceanographic Institution, evidenció que las turbinas giraban a gran velocidad cuando se produjo la colisión. Sus álabes están torcidos de una manera que sólo puede explicarse si los reactores seguían en marcha a toda potencia cuando penetraron en el agua. En cuestión de horas, quedó prácticamente confirmado que el Air France 447 permaneció vivo y peleando hasta el último momento. No era un avión que hubiese sufrido algun gravísimo problema en el aire para luego caer como un ladrillo inerte al mar. Era un avión que continuó operativo, en marcha y al menos parcialmente controlado hasta el instante final. Todo lo cual no hizo sino engordar todavía más el misterio. ¿Qué hace que un avión perfectamente funcional se caiga del cielo así?

Francia envió inmediatamente al buque cablero Île de Sein con un vehículo submarino a control remoto Remora-6000 para iniciar la recuperación de los restos. Llegó el 26 de abril y ya durante la primera inmersión encontró el chasis de la registradora de datos (FDR), pero sin la cápsula de memoria, que hallaron el 1 de mayo. Y al día siguiente, a las 21:50 UTC del 2 de mayo de 2011, apareció la registradora de voz (CVR). Estaba en relativo buen estado, parcialmente hundida en el limo, pero de una sola pieza y con su baliza subacuática, sin nada encima que hubiera podido apantallar la señal. Después se comprobó que estuvo emitiendo pings como debía hasta agotar la pila. Que la primera búsqueda con el submarino y demás no fuera capaz de localizarla sólo evidencia la chapuza que fue.

Registradora de voces en cabina de pilotaje (CVR) del Air France 447.

La “caja negra de voz” (CVR) del AF447 tal como fue localizada en el fondo del mar. Puede observarse que está en bastante buen estado y con su baliza subacuática, que estuvo emitiendo “pings” hasta agotar la pila al menos un mes después del accidente. Imagen: BEA. (Clic para ampliar)

Toda la información de ambas cajas negras se pudo recuperar. Finalmente, todas las partes sustanciales del AF447 fueron localizadas con la siguiente distribución, y rescatadas del fondo del mar junto a (creo que) todos los cadáveres restantes, o lo que quedase de ellos casi dos años después:

Mapa de restos del Air France 447.

Mapa de restos del Air France 447. Imagen: BEA. (Clic para ampliar)

Bueno, y… al final, ¿qué les pasó?

Pues como siempre, varias cosas. Prácticamente ya no quedan accidentes aéreos que obedezcan a una sola causa. Este, además, tiene algo de Chernóbil: se origina en un problema de diseño, pero conocido y hasta tenido en cuenta en los manuales y procedimientos, que de modo casi incomprensible resulta agravado por los humanos a los mandos hasta que ya no les salva ni la caridad. Y digo casi incomprensible porque en realidad es muy comprensible, demasiado comprensible, como vamos a ver.

Ubicación de los tubos Pitot en un Airbus A330.

Ubicación de los tubos Pitot en un Airbus A330 como el Air France 447. Imagen: BEA. (Clic para ampliar)

El problema de diseño estaba en el sistema de tubos Pitot. Los tubos Pitot son un dispositivo que, en combinación con las sondas de presión estática, permiten calcular la velocidad con respecto al aire a la que va un avión: su referencia fundamental de velocidad, la que vale. En el caso particular del Airbus A330, hay tres tubos Pitot (llamados comandante, copiloto y standby) más seis sondas de presión estática.

La presión registrada en cada uno de estos tubos y sondas es digitalizada por los ADM (Air Data Modules) y procesada por los ADR (Air Data Reference) de unos dispostivos llamados ADIRU (Air data inertial reference unit). Estos ADIRU, en combinación con otros sensores como la unidad de referencia inercial (IR o IRU), proporcionan a los ordenadores del avión y sus pilotos las medidas esenciales de velocidad, ángulo de ataque, altitud, actitud y posición. De los ADIRU dependen un montón de sistemas críticos: los ordenadores de control de vuelo y el fly-by-wire, los de gestión de los motores, los de gestión de vuelo y orientación, el sistema de aviso de proximidad al suelo, el transpondedor y el sistema de control de flaps y slats. Y, por supuesto, los pilotos, que ya me dirás tú qué van a hacer si no saben su velocidad, ángulo de ataque, altitud, actitud y demás.

Como puede comprenderse fácilmente, esto es algo muy importante y en el caso del Airbus A330 va todo por triplicado. Si falla uno o incluso dos, siempre queda uno más. Además, existe otro dispositivo llamado ISIS (integrated standby instrument system) que utiliza sus propios sensores para proporcionar información de respaldo sobre velocidad, altitud y actitud, pero aún depende del tubo Pitot 3 (“standby“) y su correspondiente par de sondas estáticas. De algún sitio tiene que tomar las referencias de presión exterior, no se las puede inventar.

No es ningún misterio que este es un sistema bastante complejo, pero necesario para los ordenadores volantes que son los aviones de hoy en día. En realidad es mucho más seguro y eficiente volar así que a la manera tradicional. Sin embargo, da problemas cuando uno o varios sensores suministran información inconsistente con los demás, normalmente debido a algún fallo técnico. Los ordenadores tienen problemas para saber qué datos son los buenos y cuáles son los malos, así que pueden inducir comportamientos anómalos. Esto había ocurrido varias veces en aviones tanto de Airbus como de Boeing (como por ejemplo el Malaysia 124 en 2005, un Boeing 777-2H6ER como el que se ha estrellado este fin de semana, y esto no quiere decir nada por el momento).

Daños en el vuelo Qantas 72 el 07 Oct 2008

Daños en el interior del vuelo Qantas 72 de Singapur a Perth (Australia), el 7 de octubre de 2008, tras una de estas descoordinaciones del ADIRU que provocó la desconexión del autopiloto y dos fuertes cabeceos no controlados. Se trataba de otro Airbus A330. Hubo 115 personas heridas entre pasaje y tripulación, con 12 de ellos presentando lesiones graves en cabeza y columna. La mayoría de esos agujeros que ves en el techo los hicieron las cabezas del pasaje que no llevaba abrochado el cinturón de seguridad. Fotos: Qantas. (Clic para ampliar)

No obstante, parece como si la implementación específica en el Airbus A330 hubiese sido especialmente delicada. Casi todos los problemas “menos leves” se habían dado en aviones de este modelo. Hasta lo del Air France 447 el peor incidente se produjo en el Qantas 72, otro A330, el 7 de octubre de 2008. Durante un vuelo de Singapur a Perth, un fallo en el ADIRU nº 1 provocó la desconexión del piloto automático, falsas alarmas de entrada en pérdida y sobrevelocidad y, lo más grave, dos bruscos cabeceos que hirieron a 115 de los 315 ocupantes, 12 de ellos graves. Más a menudo, el tema se saldaba con una simple desconexión del piloto automático y un rato de datos erróneos hasta que los pilotos humanos se aclaraban. Normalmente, cuando los ordenadores no saben a qué atenerse, lo que hacen es desactivar el piloto automático y pasar el control a manos humanas.

El problema era tan común que, salvo en algún caso extremo como el del Qantas 72, no hacía mucho más que levantar alguna ceja. Es llamativo observar cómo cuando el centro de operaciones de Air France en París recibió el chorro de mensajes ACARS del Air France 447 informando de problemas con los Pitot, los ADIRU y demás –lo que vimos al final del post anterior–, simplemente pasó de ellos. Ocurría tan a menudo que no disparó ninguna alerta. Y esta es una de las primeras causas del accidente del AF447: la normalización de una anomalía evidente. El problema no es tanto que si los tubos Pitot hacen tal o el ADIRU deja de hacer cual, sino un “ecosistema humano” que asume y normaliza una anomalía conocida y obvia pero potencialmente muy peligrosa hasta el punto de emitir directivas de aeronavegabilidad (como la FAA 2008-17-12 y la 2009-0012-E) o redactar procedimientos específicos para cuando se dé el caso.

Los problemas del Air France 447 se inician a las 02:10’03″ de la madrugada UTC. Ese es el momento en el que sus tubos pitot se congelan, la instrumentación se altera, los ordenadores del avión empiezan a recibir datos contradictorios y hacen lo de costumbre: desactivar el piloto automático (anunciado con una alarma sonora) y reconfigurar el modo de control de vuelo manual a ley alterna. Este es un modo que reduce las limitaciones (protecciones) del piloto, permitiéndole así actuar con mayor libertad. Ni qué decir tiene que eso le da también mayor libertad para meter la pata mucho más a fondo.

Y la mete. Nadie sabe muy bien lo que pasó por la cabeza del piloto al mando en ese momento, pero hay dos cosas que están claras. Una que, mentalizados como iban para un tranquilo vuelo transoceánico, este incidente súbito les tomó totalmente por sorpresa, induciéndoles un alto grado de confusión. La segunda, que sobrerreaccionó. La desconexión del autopiloto provocó un alabeo (inclinación lateral) de +8,4º, pero él, al intentar compensarla, levantó excesivamente el morro del avión. Es posible que le confundieran las falsas indicaciones del sistema director de vuelo, también dependiente de los ADIRU. A gran altitud, levantar mucho el morro no es una buena idea. Te elevas rápidamente –el AF447 ascendió a 6.500-7.000 pies por minuto (1.980-2.130 m/min), una barbaridad– pero a costa de la velocidad en una región del aire donde la velocidad es extremadamente crítica, provocando una inmediata entrada en pérdida aerodinámica (stall). Con eso, el avión pierde la capacidad de sustentarse en el aire. La primera alarma de entrada en pérdida suena a las 2:10’10″, apenas siete segundos después de la desconexión inicial del piloto automático. Con eso podemos hacernos una idea de lo rápido y sorpresivo que fue todo.

El caso es que ahora el avión se hallaba en una senda y actitud incompatibles con la seguridad del vuelo. Que después de subir se caía, vaya. Sin embargo, aún no estaban ni siquiera cerca de un accidente. La solución habría sido tan sencilla como agachar el morro (picar) para recuperar velocidad y sustentación y reestabilizarse a una altitud inferior. Esto lo sabe cualquiera que haya echado dos partidas al Flight Simulator. Y así lo indica en el informe técnico final: en este momento y durante al menos dos minutos más, habría bastado con descender en actitud morro-abajo de manera sostenida hasta salir de la pérdida y volver a estabilizar el vuelo. El hecho de que dos pilotos profesionales no realizaran una maniobra tan obvia evidencia hasta qué punto quedaron confundidos desde los primeros segundos (hay que recordar que no tenían visibilidad exterior.) De hecho, es posible que pensaran que tenían el problema contrario, de exceso de velocidad, cuyos síntomas se parecen a los de la entrada en pérdida (recordemos también que habían perdido las indicaciones de actitud y velocidad).

Existe incluso un procedimiento para esto: el de vuelo con velocidad indicada dudosa, que los pilotos entrenan y practican. Pero claro, en Chernóbil también había decenas de procedimientos y limitadores para impedir que un reactor nuclear con un alto coeficiente de reactividad positiva sufriera, precisamente, un embalamiento por reactividad positiva. Y eso fue exactamente lo que ocurrió, tras muchas horas de manipulaciones insensatas. Si los humanos no siguen los procedimientos, o deciden saltárselos a la torera, o simplemente están demasiado confundidos y desorientados para comprender que se encuentran en esa situación (cosa esta última que pasó tanto en Chernóbil como aquí), pues entonces no sirven para nada porque ni siquiera llegan a ponerse en marcha.

Cuando un avión empieza a irse, no se suele disponer de muchas horas, sino sólo de unos pocos minutos en el mejor de los casos. Es crítico que los pilotos reconozcan la condición de inmediato para poder adoptar el procedimiento que la corrige antes de que todo esté perdido. Normalmente, lo hacen. Por eso casi nunca pasa nada. Sin embargo, en esta ocasión no fue así. Ninguno de los tres pilotos que había en la cabina en ese momento, incluyendo a un veterano comandante de amplia experiencia como Marc Dubois (58 años, 10.988 horas de vuelo, que entró en la cabina poco después), supo reconocer la condición de velocidad indicada dudosa y entrada en pérdida aerodinámica. Me resulta escalofriante, entre otras cosas porque si se hubieran dado cuenta, como te digo, habría sido facilísimo de resolver.

Datos seleccionados de la FDR del Air France 447 durante los últimos 5'30" del vuelo.

Parámetros seleccionados de la “caja negra de datos” (FDR) del Air France 447 durante los últimos cinco minutos y medio de vuelo. Puede observarse cómo la velocidad computada queda alterada bruscamente al principio del suceso (a las 02:10’10″) y acto seguido se produce un fuerte ascenso que incrementa el ángulo de ataque hasta los 40º, disparando la alarma de entrada en pérdida aerodinámica. Pese a las constantes maniobras de cabeceo, los pilotos nunca fueron capaces de entender lo que sucedía y el ángulo de ataque se mantuvo consistentemente por encima de los 35º hasta estrellarse en el mar. Fuente: BEA. (Clic para ampliar)

El caso es que el avión siguió cayendo, cabeceando con fuerte ángulo de ataque, la panza por delante y una embarullada interacción entre ambos pilotos. La sorpresa, la confusión y los nervios no sólo deterioraron su capacidad para comprender la situación, sino que desestructuraron rápidamente la coordinación en cabina. Un minuto y medio después el comandante que se había ido a descansar regresa alertado por los bruscos movimientos (con aceleraciones verticales de hasta 1,6 g y alabeo) que deben haber despertado y aterrorizado a todo el pasaje. Les pregunta qué hacen, qué pasa. La contestación del piloto no-al mando (Robert) resume el accidente a la perfección:

02:11:43,0 – Qu’est-ce qui se passe? Je ne sais pas, je sais pas ce qui se passe. (…) On a tout perdu le contrôle de l’avion, on comprend rien, on a tout tenté.

¿Qué pasa? No sé, no sé lo que pasa. (…) Hemos perdido totalmente el control del avión, no entendemos nada, lo hemos intentado todo.

No entendemos nada. Esa es la explicación (que no la causa) primaria del accidente. Ese es el motivo por el que no hicieron cosas tan obvias que sabe cualquier jugador de videojuegos de aviones. Aparentemente, sin indicaciones de velocidad, no creen que la alarma de entrada en pérdida sea real. Y el retorno del comandante a la cabina no lo arregla en absoluto. Por el contrario, parece inducir aún más nerviosismo y confusión. Hay que decir que en ese momento el avión, después del veloz ascenso provocado por la sobrerreacción inicial del piloto al mando, se encuentra más o menos a la misma altitud a la que estaba cuando él se marchó a descansar. Así que, como no ha visto la secuencia previa de acontecimientos, tampoco tiene motivos para creer que estén en una situación de pérdida aerodinámica (“si estamos en pérdida, ¿cómo es que seguimos a la misma altitud que cuando me fui?”).

Saben que están cayendo, saben que llevan los motores acelerados a potencia de despegue (TO/GA), saben que cabecean con un ángulo de ataque letalmente alto pero en apariencia no se les ocurre en ningún momento que realmente están en pérdida completa a pesar de que las alarmas de stall  y otras más no paran de sonar (se ha sugerido que el exceso de alarmas sonoras en la cabina incrementó la confusión) y que el avión batanea (se sacude) sin cesar. En realidad, parecen mucho más concentrados en impedir que les alabee (que se les incline de lado). El avión está yéndose a estribor y describiría casi tres cuartos de vuelta antes del impacto.

Ahora con los tres pilotos en cabina, el Air France 447 cae por debajo del nivel 315 (31.500 pies, 9.600 m) sobre las 02:12. En ese momento el ángulo de ataque es de 40º, descendiendo muy deprisa, y eso ya no tiene tan fácil solución. En palabras del informe final de la BEA, a partir de ahí “sólo una tripulación extremadamente resuelta con una buena comprensión de la situación podría haber realizado una maniobra que quizá hubiera permitido recuperar el control de la aeronave. En la práctica, la tripulación había perdido casi por completo el control de la situación” y así siguió siendo durante otros dos minutos y dieciocho segundos más. El avión es una batidora que cabecea sin parar. El ángulo de ataque ya jamás volvió a bajar de 35º. Las penúltimas palabras registradas en la CVR, pronunciadas por el copiloto Pierre Cédric-Bonin, dejan poco margen a la duda:

02:14:23,7 – (!) On va taper. C’est pas vrai. Mais qu’est-ce qui se passe?

Memorias de la CVR del AF447.

Memorias de la registradora de voces en cabina (CVR) del AF447, recuperadas del fondo del mar, tras retirarles los blindajes y protecciones. Toda la información se pudo recuperar. Foto: BEA. (Clic para ampliar)

¡Nos vamos a estrellar! Esto no puede ser verdad. ¿Pero qué está pasando? Continuaban sin comprender nada. Pierre apenas había acabado de decir estas palabras cuando el Air France 447 con todas sus 228 vidas se estrelló violentamente contra el océano, de panza y con la cola por delante, siendo exactamente las 02:14:28,4 de la madrugada del 1 de junio de 2009. Fin de la grabación.

El informe final de la BEA lo explica así (las negritas y corchetes son míos, el resto es traducción directa del original):

3.2. Causas del accidente.

La obstrucción con cristales de hielo de los tubos Pitot era un fenómeno conocido pero poco comprendido por la comunidad aeronáutica en el momento del accidente. Desde una perspectiva operacional, la pérdida total de información sobre la velocidad con respecto al aire que resultó de este suceso era un fallo clasificado [previsto] en el modelo de seguridad. Tras unas reacciones iniciales que dependen de habilidades de pilotaje básicas, se esperaba que [la situación] fuese diagnosticada rápidamente por los pilotos y gestionada en lo que fuese preciso mediante medidas de precaución sobre la actitud de cabeceo y el empuje, tal como se indica en el procedimiento asociado.

Cuando se produjo este fallo en el contexto de un vuelo en fase de crucero, sorprendió por completo a los pilotos del AF447. Las dificultades aparentes con el manejo del avión a gran altitud entre turbulencias condujeron al piloto al mando a levantar el morro bruscamente y alabear en exceso. La [subsiguiente] desestabilización ocasionada por la senda de vuelo ascendente y la evolución en la actitud de cabeceo y la velocidad vertical se añadió a las indicaciones de velocidad erróneas y los mensajes ECAM, lo que no ayudó con la diagnosis. La tripulación, desestructurándose progresivamente, probablemente nunca comprendió que se enfrentaba a una “simple” pérdida de tres fuentes de información sobre la velocidad con respecto al aire.

En el minuto que siguió a la desconexión del autopiloto, el fracaso de los intentos por comprender la situación y la desestructuración de la cooperación entre tripulantes se realimentaron hasta alcanzar la pérdida total del control cognitivo de la situación. (…) El avión entró en una pérdida sostenida, señalada por la alarma de entrada en pérdida y un fuerte bataneo [sacudidas]. Pese a estos síntomas persistentes, la tripulación nunca entendió que habían entrado en pérdida y en consecuencia nunca aplicaron la maniobra de recuperación. La combinación de la ergonomía de diseño de las alertas, las condiciones en las que los pilotos de aerolínea son entrenados y expuestos a pérdidas durante su formación profesional y el proceso de entrenamiento recurrente no genera el comportamiento esperado con ninguna fiabilidad aceptable.

En su forma actual, dar por buena la alarma de entrada en pérdida, incluso cuando está asociada al bataneo [sacudidas], supone que la tripulación otorga un mínimo nivel de “legitimidad” [credibilidad] a la misma. Esto presupone una experiencia previa suficiente con las entradas en pérdida, un mínimo de disponibilidad cognitiva y de compresión de la situación, conocimiento de la aeronave (y sus modos de protección)  y su física de vuelo. Un examen del entrenamiento actual para los pilotos de aerolínea, en general, no aporta indicaciones convincentes de que se formen y mantengan las habilidades asociadas.

Tormenta convectiva en la Zona de Convergencia Intertropical que atravesaba el Air France 447 al inicio del accidente.

La tormenta convectiva en la Zona de Convergencia Intertropical que atravesaba el Air France 447 cuando se le congelaron los tubos Pitot, poniendo así en marcha el accidente. No obstante, esto es algo habitual y de hecho en ese mismo momento volaban por la zona otros doce aviones más que no tuvieron ningún problema, entre ellos el Air France 459, que venía detrás. Imagen: BEA. (Clic para ampliar)

Más generalmente, el doble fallo de las respuestas procedimentales planeadas pone de manifiesto los límites del modelo de seguridad actual. Cuando se espera que la tripulación actúe, siempre se supone que serán capaces de tomar inicialmente el control de la senda de vuelo y realizar una rápida diagnosis que les permita identificar el epígrafe correcto en el diccionario de procedimientos. Una tripulación puede verse enfrentada a una situación inesperada que les lleve a una pérdida de comprensión momentánea pero profunda. En este caso, su supuesta capacidad para dominar [la situación] al inicio y después realizar la diagnosis se pierde, y el modelo de seguridad queda entonces en “modo de fallo general.” Durante este accidente, la incapacidad inicial para dominar la senda de vuelo les hizo también imposible entender la situación y acceder a la solución planeada.

Por tanto, el accidente fue el resultado de:

  • Una inconsistencia temporal entre las mediciones de velocidad con respecto al aire, a consecuencia de la obstrucción de los tubos Pitot con cristales de hielo que, en este caso particular, causaron la desconexión del piloto automático y la reconfiguración del [control de vuelo] a ley alterna;
  • [La aplicación de] acciones de control inapropiadas que desestabilizaron la senda de vuelo;
  • La incapacidad de la tripulación para establecer un vínculo entre la pérdida de las velocidades indicadas y el procedimiento apropiado;
  • La identificación tardía por parte del piloto no-al mando del desvío de la senda de vuelo, y la insuficiente corrección aplicada por el piloto al mando;
  • La incapacidad de la tripulación para identificar la aproximación a la entrada en pérdida, su falta de respuesta inmediata y el abandono de la envolvente de vuelo;
  • La incapacidad de la tripulación para diagnosticar la entrada en pérdida y, como resultado, la ausencia de las acciones que les habrían permitido recuperarse de la misma;
Recuperación de la grabadora de voces en cabina (CVR) del Air France 447, 2 de mayo de 2011.

Arriba: recuperación de la grabadora de voces en cabina (CVR) del Air France 447 por el cablero Île de Sein y un robot subacuático Remora-6000 el 2 de mayo de 2011. Abajo: preparación para su transporte al laboratorio de análisis. Puede observarse cómo la conservan en agua salada, de tal modo que sufra las mínimas alteraciones adicionales posibles hasta su llegada al laboratorio. Fotos: BEA (Clic para ampliar)

Estos sucesos pueden explicarse mediante una combinación de los siguientes factores:

  • Los mecanismos de retroalimentación [de información] por parte de todos los implicados [el conjunto del sistema humano, no sólo los pilotos] que hicieron imposible:
    • Identificar que, repetitivamente, no se estaba aplicando el procedimiento para la pérdida de información sobre la velocidad con respecto al aire y remediarla.
    • Asegurar que el modelo [de gestión] de riesgos para tripulaciones incluía la congelación de los tubos Pitot y sus consecuencias.
  • La ausencia de entrenamiento para el pilotaje manual a gran altitud y en el procedimiento de “vuelo con velocidad indicada dudosa.”
  • Una [coordinación] de tareas debilitada por:
    • La incomprensión de la situación cuando el piloto automático se desconectó.
    • La pobre gestión del efecto sorpresa que indujo un factor de alta carga emocional en ambos copilotos.
  • La ausencia de un indicador claro en cabina que mostrase las inconsistencias en la velocidad con respecto al aire identificadas por los ordenadores.
  • La tripulación que no tuvo en cuenta la alarma de entrada en pérdida, lo que pudo deberse a:
    • Incapacidad para identificar la alarma sonora, debido al poco tiempo de exposición durante el entrenamiento a los fenómenos de  entrada en pérdida, alarmas de entrada en pérdida y bataneo [sacudidas].
    • La aparición al principio del suceso de alertas transitorias que pudieron considerarse espurias.
    • La ausencia de ninguna información visual que confirmase la aproximación a entrada en pérdida tras la pérdida de los límites de velocidad.
    • La posible confusión con una situación de exceso de velocidad, para la que el bataneo también se considera un síntoma.
    • Indicaciones del sistema director de vuelo que pudieron conducir a la tripulación a creer que sus acciones eran apropiadas, aunque no lo eran; y
    • La dificultad para reconocer y comprender las implicaciones de una reconfiguración [del modo de vuelo] a ley alterna sin protección de ángulo de ataque.

O sea (y esto ya lo digo yo):

  1. El diseño e implementación del sistema de tubos Pitot/ADR/ADIRU en el Airbus A330 era problemático, un hecho conocido y normalizado. Tanto es así, que el centro de operaciones de Air France en París ignoró los mensajes ACARS transmitidos automáticamente por los ordenadores del AF447 desde el Atlántico porque sucedía a menudo sin mayores consecuencias.
  2. El avión se encontraba fuera del alcance de los radares terrestres y en la práctica sin servicio de control de tráfico aéreo, o con el mismo reducido a un mínimo, pero esto era el procedimiento estándar en ese tramo de su ruta. No tuvo ningún efecto sobre los acontecimientos.
  3. La noche y el estado de la meteorología degradaban severamente o impedían la orientación natural de los pilotos (con sus ojos, vamos). Operaban por completo bajo condiciones de vuelo instrumental (“a ciegas”) y por tanto dependían totalmente de la fiabilidad de los instrumentos del avión.
  4. Pese a ello, las condiciones no eran peligrosas y de hecho había otros vuelos circulando con normalidad por la misma ruta u otras próximas. El Air France 447 operaba de manera estándar sin violar ninguna norma de seguridad aérea, orientado instrumentalmente, por su ruta, altitud y velocidad previstas. Ni la aeronave, ni la tripulación ni sus procedimientos presentaban ningún problema específico.
  5. Súbitamente, al congelarse los tubos Pitot, se produjeron diversos acontecimientos simultáneos (desconexión del piloto automático, reconfiguración del control de vuelo a ley alterna con la consecuente pérdida de protecciones y limitaciones, indicaciones anómalas en los instrumentos…) que tomaron completamente por sorpresa a los pilotos, mentalizados en ese momento para un largo vuelo de crucero a gran altitud.
  6. El avión no sufrió ningún otro problema técnico. Todos sus demás sistemas siguieron operando perfectamente hasta el momento del impacto final. Sus ordenadores comenzaron a transmitir automáticamente mensajes ACARS notificando las anomalías al centro de operaciones de Air France en París y siguieron haciéndolo hasta los momentos anteriores a la colisión.
  7. La tripulación técnica (los pilotos) no estaba bien formada para el vuelo manual a gran altitud en este tipo de circunstancias anómalas, sobre todo bajo el efecto de la sorpresa. El entrenamiento al respecto era inadecuado, insuficiente y no cubría numerosas posibilidades realistas.
  8. La instrumentación de cabina no incluía ningún indicador claro que permitiera a los ordenadores comunicar a los pilotos la pérdida de sincronía entre los datos procedentes de los tubos Pitot, lo que habría clarificado bastante la situación.
  9. Debido a la sorpresa y al entrenamiento inadecuado, la pobre reacción inicial del piloto al mando llevó al avión a una actitud anómala incompatible con la seguridad del vuelo a gran altitud.
  10. La veloz sucesión de estos hechos indujo a los pilotos un intenso estado psicológico de confusión y ofuscación con fuerte carga emocional. El rápido regreso del comandante a la cabina desde el área de descanso, aunque sin duda inspirado por un recto sentido de la responsabilidad, no tuvo ninguna utilidad práctica y sólo sirvió para aumentar aún más la confusión, en la que él también cayó.
  11. Este estado de ofuscación degradó rápidamente sus capacidades cognitivas y la coordinación entre ellos, llegando al extremo de no reconocer o reaccionar a algunas indicaciones obvias y tomar acciones contradictorias, mientras creían seguir actuando racional y coordinadamente.
  12. Debido a todo esto, cuando el avión entró en pérdida aerodinámica (“comenzó a caerse”) por causa de su actitud de vuelo anómala, los pilotos no creían que estuviese sucediendo realmente pese al disparo de la alarma sonora de entrada en pérdida y las características sacudidas (bataneo) que la acompañan, pero que también pueden darse en otras condiciones como el exceso de velocidad.
  13. Durante los cuatro minutos y veinticinco segundos que transcurrieron desde la desconexión inicial del piloto automático hasta el impacto final contra el mar, el estado de confusión y ofuscación de los pilotos no hizo sino incrementarse con el nerviosismo. Ninguno de ellos mostró indicios de comprender la situación real del avión o la severa degradación de su propio estado cognitivo. Todos creían estar haciendo lo correcto en un estado psicológico tenso pero bien ajustado y normal. Aparentemente en ningún momento se sintieron compelidos a sobreponerse, pues no percibieron que hubiera nada a lo que sobreponerse, sino que tan solo debían resolver la situación técnica a la que se enfrentaban.
  14. Como consecuencia de todo lo anterior, los pilotos nunca llegaron a entender lo que estaba sucediendo, el conjunto de sus reacciones fue inadecuado y el avión acabó por estrellarse en el mar, matando a todos sus ocupantes de manera instantánea o prácticamente instantánea. La mayor parte de sus restos acabaron sumergidos a gran profundidad.
  15. El “ecosistema humano” que envolvió al accidente no permitía la identificación y resolución eficaz de estas deficiencias y de hecho era bastante pasivo con las mismas.
Pierre Cédric-Bonin

El primer oficial Pierre Cédric-Bonin con su esposa. Esta es su verdadera foto y cualquier otra “graciosilla” que hayas podido ver por ahí, además de no ser él, es cosa de mamarrachos ignorantes como piedras. Foto: © Associated Press.

Así que ya ves. Ni un piloto idiota, como pretendieron algunos desalmados, incluso con fotitos de pésimo gusto (además de falsas) que me niego a enlazar; ni un comandante entretenido con una azafata como dijeron otros –claro, un comandante francés, qué iba a estar haciendo, jiji, jaja >:-( –, ni ninguna otra simpleza por el estilo. Como siempre en el mundo real, fue todo mucho más complejo y difícil. Desde mi punto de vista, de todas las causas del accidente definidas por la investigación técnica, doy la mayor importancia a dos: las notables deficiencias en el entrenamiento de los pilotos de Air France (y probablemente de muchas otras compañías) en esos momentos y la inexistencia de mecanismos eficaces para detectar numerosos problemas humanos y técnicos y corregirlos.

En mi opinión, el problema con los tubos Pitot fue secundario por mucho que iniciara la secuencia de acontecimientos que condujo al accidente. Como cualquier otra máquina fabricada por manos humanas, un avión en vuelo puede tener un problema con los tubos Pitot o con cualquier otra cosa. Precisamente para eso están los pilotos. Hoy en día o en breve plazo, el estado de la técnica permitiría tener aviones totalmente automáticos, sin pilotos, como los UAV militares. Mantenemos y con bastante seguridad mantendremos pilotos durante mucho tiempo justamente por si la técnica falla, por si la situación se sale de la envolvente de diseño concebida por los ingenieros. Para cuando todo sale mal, porque aún no sabemos hacer máquinas que reaccionen igual o mejor que un humano en tales circunstancias. Se dice a veces que un piloto (o un conductor de cualquier otro transporte público) se gana todo el sueldo de su carrera en diez segundos malos, y es verdad. Diez segundos, o cuatro minutos y medio, pueden ser la diferencia entre la vida y la muerte para decenas o cientos de personas.

Simuladores de vuelo de CAE Inc.

Arriba: Simulador de vuelo CAE 7000 con control en todos los ejes para el Boeing 747-8F Jumbo. Abajo: Interior de un simulador de la misma compañía para el Airbus A320. Este tipo de formación puede llegar a ser costosa y consumir mucho tiempo de trabajo, pero es totalmente fundamental porque permite entrenar al piloto para situaciones extremas que difícilmente se dan en la realidad… hasta que se dan. Fotos: CAE Inc. (Clic para ampliar)

Pero para eso tienen que estar bien entrenados, y los pilotos del Air France 447 no habían sido bien entrenados. El “ecosistema” les traicionó. Tal entrenamiento, sobre todo cuando se realiza con simuladores realistas y ya no te digo con vuelo real, es caro y consume mucho tiempo durante el que el piloto “no está produciendo.” Así que siempre existe una presión para recortarlo o rebajarlo de cualquier otra manera. Es fundamental para la seguridad aérea que estas presiones no tengan éxito, por muy nerviosos que se pongan los contables.

Porque un personal insuficientemente entrenado, como los pilotos del AF447 o los operadores de Chernóbil, puede provocar el efecto opuesto: convertir un problema técnico conocido y documentado, y en el caso del AF447 relativamente menor, en una catástrofe. El accidente del AF447 no se inicia cuando se congelan los tubos Pitot, sino cuando el piloto al mando queda totalmente sorprendido y reacciona mal, sacando rápidamente al avión de la envolvente de vuelo seguro. Pero aún en ese momento podrían haberse salvado. Tuvieron casi cuatro minutos y medio antes de estrellarse. Al igual que en Chernóbil, la causa esencial del accidente fue la inmediata degradación cognitiva y la desestructuración rápida de la coordinación que se produjo como resultado de la sorpresa, la confusión y los nervios, a su vez consecuencia de un entrenamiento inadecuado.

Incluso aunque hubiesen hecho algo bien, habría sido por casualidad, como en “…sonó la flauta por casualidad.” Resulta imposible acertar si no sabes lo que está ocurriendo, si estás totalmente confundido y obcecado y ni siquiera eres consciente del hecho. Los seres humanos reaccionamos fatal ante la sorpresa y la acumulación rápida de tensión. Desde tiempo inmemorial, todo soldado sabe lo eficaces que son los ataques por sorpresa, cuanto más violentos mejor, precisamente porque confunden y obcecan al enemigo de tal modo que para cuando quiere reaccionar, ya ha sido derrotado. La única forma de evitarlo es, precisamente, un entrenamiento estricto, minucioso, motivador y eficaz que prevea el caso. El entrenamiento que no tuvieron los pilotos del Air France 447. Así, sufrieron un ataque por sorpresa de las circunstancias y ya no fueron capaces de reaccionar, atrapados entre el cielo y el mar. Más que ninguna otra cosa, eso fue lo que se los llevó y a las otras 225 personas que iban con ellos, también. Pues como es sabido desde muy viejo, del cielo y del mar no cabe esperar piedad.

***

NOTA IMPORTANTE: El accidente del Air France 447 y el del Malaysia Airlines 370 ocurrido este fin de semana, pese a todas sus similitudes aparentes, pueden obedecer a causas y circunstancias radicalmente distintas. Extrapolar conclusiones del uno al otro es una mala idea, al igual que formular conjeturas u opiniones antes de que se complete la investigación técnica. Nadie sabe todavía lo que le ha pasado al MH370, tardará algún tiempo en saberse y quien pretenda lo contrario, o miente o desconoce la profundidad de su ignorancia. Esta misma regla es aplicable a cualquier otro accidente de aviación y a todos los siniestros tecnológicos complejos en general. Muchas veces, incluso a los aparentemente simples, que luego resulta que no lo eran tanto.

***

A la pregunta: ¿Es seguro volar en un Airbus A330? Yo diría que sí, y de hecho yo mismo lo elijo si se da el caso. Precisamente, el éxito de la investigación técnica permitió introducir los cambios necesarios tanto en sus sistemas ADIRU como en la formación de los pilotos, de tal modo que es muy difícil que el mismo tipo de accidente pueda repetirse en este modelo. Me atrevería a decir que ahora antes sucedería en cualquier otro avión que en un A330, por lo demás una aeronave excelente. Justamente para eso sirven las buenas investigaciones técnicas: para corregir los problemas y así salvar incontables vidas futuras.

142 Comentarios Trackbacks / Pingbacks (7)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (63 votos, media: 4,94 de 5)
Loading ... Loading ...
Be Sociable, Share!

Air France 447: Buscando cajas negras a 4.000 metros de profundidad (1)

Y con montañas submarinas, y tiburones, y de todo.

Quizá recuerdes que el 1 de junio de 2009 ocurrió una catástrofe aérea que nos dejó helados a todos. Quiero decir especialmente helados, porque los grandes aviones de hoy en día no se caen de los cielos sin más. Que no, que no, que ni en broma. Que un gran avión de pasajeros desaparezca por las buenas es cosa de los viejos tiempos. Y sin embargo, eso fue exactamente lo que le pasó al vuelo regular Air France 447 de Río a París, un moderno Airbus A330-203 con apenas cuatro años y pico de antigüedad y 228 personas a bordo. Así, tal cual.

Air France F-GZCP, Airbus A330-203

El avión del vuelo Air France 447, un Airbus A330-203 con matrícula F-GZCP. Fotografía tomada en el aeropuerto París – Charles de Gaulle dos años antes de su desaparición. Foto: Pawel Kierzkowski vía Wikimedia Commons.

A ver, lo primero para los puristas (como yo): sí, ya sé que caja negra se pone en cursiva, porque en realidad se llaman grabadoras o registradoras de vuelo y tal. Pero es que esto no permite poner cursivas en el título y me sobraban las comillas. En los aviones suele haber dos, como mínimo: la grabadora de voz en cabina de vuelo (cockpit voice recorder, CVR) y la grabadora de datos de vuelo (flight data recorder, FDR). La última vez que lo miré eran obligatorias, por EU OPS, en todas las aeronaves multi-turbina, con capacidad para más de 9 pasajeros o con peso máximo al despegue superior a 5.700 kg, y deben cumplir la norma EUROCAE ED-112.

CVR, FDR y memoria SSFDR

Arriba: una grabadora de voz de cabina de vuelo (“caja negra de voz”, CVR). Registra las comunicaciones con el exterior y todos los sonidos de cabina a través de un sistema de micrófonos y una derivación de las radios. Al medio: una grabadora de datos de vuelo (“caja negra de datos”, FDR). Según modelos, almacenan entre decenas y cientos de parámetros del avión, desde la altitud hasta la configuración de los motores, a través de las unidades de adquisición de datos de vuelo (FDAU). Antiguamente grababan en cinta, pero ahora lo hacen en memorias de estado sólido (abajo, una SSFDR -solid state FDR-) con protecciones adicionales de extrema resistencia. Resisten impactos de 3.400 g, incendios de 1.100ºC durante 1 hora seguido de otro de 260ºC durante 10 horas, pueden permanecer sumergidas en agua o cualquier otro medio hasta 6.000 metros de profundidad durante 30 días y muchas otras cosas. Las “cajas negras” son en realidad de color naranja chillón para facilitar su localización entre los restos de un accidente. Fotos: NTSB / Meggar vía Wikimedia Commons y BAE. (Clic para ampliar)

Esto quiere decir que la gran mayoría de avionetas y pequeños helicópteros, por ejemplo, no suelen llevar (las grabadoras son caras y pesadas, así que resultan difícilmente compatibles con las aeronaves ligeras). Por el contrario, todos los jetliners de pasajeros cargan ambas y en ocasiones, también cosas más avanzadas como las QAR. En aviones de combate y eso, lo que mande la superioridad para cada país. Normalmente se montan en la cola, lejos de los puntos de impacto primarios más típicos, de los grandes depósitos de combustibles situados en las alas y protegidas por las fuertes estructuras que sujetan los timones y otras cosas sólidas.

Este hecho y alguna evidencia estadística circunstancial (basada únicamente en accidentes investigados por la NTSB estadounidense) hace pensar a algunos que la mítica parte más segura de un avión es exactamente esa, la cola. Claro que cada vez que alguien dice esto, sale un accidente a desmentirle. En el mundo real, la diferencia es mínima. Tus (y mis) probabilidades de supervivencia en caso de accidente aéreo dependen sobre todo de la naturaleza del mismo y la manera como esté construida tu aeronave en particular. Una de las leyes de hierro de la aviación dice que, desde que una persona acompañó a otra a los cielos, a bordo de las máquinas de volar vamos todos juntos desde el señor comandante hasta el último bebé y o volvemos todos juntos, o sólo vuelven quienes decida el azar.

Desde hace ya muchos años, las cajas negras no sólo van a bordo de los aviones. También se encuentran, por ejemplo, en gran cantidad de instalaciones terrestres, como los centros de control de tráfico aéreo. Y en muchos otros sitios que no tienen nada que ver con la aviación, desde los trenes hasta instalaciones críticas como las centrales nucleares (cada cual según sus propias necesidades, como es de suponer). La idea de que en el peor de los casos siempre quede un testigo objetivo, insobornable e inconfundible para contarnos lo que pasó y evitar así que vuelva a ocurrir es ciertamente brillante.

Resulta imposible saber cuántas vidas se han salvado gracias a eso pero yo no tengo la menor duda de que son millones. Es por eso que las personas que trabajan bajo su ojo implacable no oponen mucha discusión. Bueno, y porque va con el curro, claro. No te creas, representa una grave cesión de la privacidad personal. ¿A ti te haría alguna gracia que tus hijos, o tus padres, o quien te importe en esta vida pudieran oírte morir maldiciendo porque algún hideputa le ha filtrado la grabación a un Murdoch cualquiera?

Grabadoras de vuelo recuperadas del avión presidencial polaco 101. MAK, Moscú, Rusia.

Grabadoras recuperadas del avión presidencial 101 de la Fuerza Aérea de Polonia, un Tupolev 154M, que se estrelló en Smolensko (Rusia) el 10 de abril de 2010 con la muerte de todos sus ocupantes. Como puede verse, estas eran todavía grabadoras soviéticas antiguas de cinta. La práctica totalidad de las voces y datos datos fue recuperada en las instalaciones del MAK de Moscú. Foto: Comité Interestatal de Aviación MAK, Rusia. (Clic para ampliar)

Que a veces ha ocurrido, ¿eh? Que una cosa es la transcripción, que en muchos países es un documento público de la investigación y a veces ya son duras, ya, pero tira que te vas, no se puede evitar y son útiles para aprender. Y otra muy distinta, la grabación. Imagínate a tu abuelo favorito, ese que está tan delicado de salud, o a tu hija pequeña escuchándola porque anda por ahí subida por Internet y no se han podido resistir, que son las últimas palabras de su papá adorado o su nieto favorito o su mejor amigo, joder, a ver quién no se obsesiona con eso. Este que te escribe opina que una vez finalizadas las investigaciones deberían destruirse todas las copias del audio por ley salvo que las familias de quienes salgan en ellas quieran una. Ya no le sirven a nadie para nada ético y sólo pueden causar dolor.

Al grano. A decir verdad las cajas negras también resultan un poquito inquietantes para muchos otros porque, claro, cada vez que una aeronave aterriza en más de un trozo hay otra caja que empieza a sumar. Es una caja registradora. Y no sabes –bueno, a lo mejor sí– lo muy deprisa que pueden empezar a acumularse los ceros a la derecha. Para empezar, el avión, que puede costar desde unos pocos millones para los más viejos y pequeños hasta varios cientos en el caso de los más grandes y nuevos. Por ejemplo, un Airbus A330 como era el Air France 447 no baja de 165 millones de euros, nuevo. Cualquier 320 de estos de ir a por el pan se te puede poner en 68 millones. Y un 380 gigantón, de los que no se ha estrellado nunca ninguno, y esperemos que jamás lo haga, se te puede subir a la parra hasta los 300 millones. Boeing anda con unos precios muy parecidos para lo que ofrece. Ya sabes, es un mercado, hay competencia.

Primera clase de Emirates (A380) y clase única de Ryanair.

Arriba: Una de las legendarias suites de Primera Clase en los Airbus A380 de Emirates. Sí, eso es un avión y se puede viajar así si tienes la pasta. Abajo: Un bebé duerme en la clase única de una low-cost, en este caso Ryanair, con este que te escribe sentado detrás. En los aviones volamos gentes de todo pelaje, algunas muy, muy humildes y otras que pueden llegar a costar muchísimos millones hasta después de muertas. Pero la ley de hierro de la aviación viene a decir que a los cielos subimos todos juntos y o bajamos todos juntos o de ahí arriba no vuelve ni Dios. Fotos: Emirates / La Pizarra de Yuri (Clic para ampliar)

Por ahí andan también los seguros de vida de quienes van a bordo, que puede oscilar desde el mínimo obligatorio de la inmigrante que iba a ver a su primer nieto con el pasaje de clase turista más económica hasta los múltiples y multimillonarios de ese financiero tan importante que viajaba en primera tomando Dom Pérignon, pasando por mucha gente como tú y como yo. Que quien más y quien menos, además del obligatorio de viaje, ha pagado el billete con la Visa (lo que muchas veces incluye un seguro de viaje adicional), tiene el personal de la hipoteca por ahí y una cosita que se hizo para los hijos una vez, por si las moscas. En un país desarrollado, cada difunto cuesta como poco medio millón de media, más los gastos. Y si quedan heridos o inválidos o eso, pues a pagar atención médica e indemnizaciones varias para los restos.

Luego están los seguros de equipaje y carga, que pueden subir otro pico, y eso suponiendo que el avión no transportase algún objeto realmente valioso. Cosa que no es tan rara. Cuando un objeto es muy valioso y no muy pesado o voluminoso, sale muy a cuenta y muy seguro mandarlo por avión, o incluso que un segurata de fiar lo lleve encima. Yo me sé de algún paquete de diamantes de los buenos que acabó en una marisma con los piedros esparcidos por el cieno a lo largo de varios kilómetros junto con el resto del avión y quienes iban dentro, en pleno Tercer Mundo. Porque claro, entre dos paraísos de primerísimo Primer Mundo muchas veces hay subcontinentes enteros de Tercer Mundo. En ocasiones, hasta las mismísimas alambradas de la frontera esa desde donde los de siempre defienden a los de siempre contra los de siempre. A veces pasa que a tus diamantes como bellotas les da por acabar al otro lado de la alambrada. Ve y busca. Otras veces hay océanos y cosas así. El caso es que ya te puedes imaginar cuántos se recuperaron. Me han dicho que al del seguro diamantífero le entró como una risa tonta cuando vio la nota. Así como con un tic, ¿sabes o qué?

Ahora suma las indemnizaciones por daños en tierra, si los ha habido. La investigación, que algunas se te pueden poner en treinta millones o más. Los costes jurídicos, porque va a haber juicios, y muchos y muy caros. Las pérdidas de rentabilidad futura. Los intangibles. Y alguien va a tener que pagar todo eso. Imagínate qué facturón. Alguna vez en que las cosas se complicaron y hubo años de juicios intercontinentales, demandas tejidas y fuertes indemnizaciones, pasó de mil millones. Sí, de euros, claro.

Unidades brasileñas recuperan la FDR del Gol 1907 en la selva del Mato Grosso.

Un go-team brasileño recupera la grabadora de datos del vuelo 1907 de Gol Transportes Aéreos, un Boeing 737-8EH que se estrelló en la selva del Mato Grosso el 29 de septiembre de 2006, tras una colisión aérea con un jet privado Embraer Legacy. El Boeing se desintegró en el aire y cayó a plomo sobre la selva desde 37.000 pies de altitud, pereciendo las 154 personas que iban a bordo. No obstante, puedes observar que la “caja negra” sólo presenta unas abolladuras en la cubierta exterior. Así de duras son. Foto: Alessandro Silva / Força Aérea Brasileira vía Wikimedia Commons. (clic para ampliar)

Pack de memoria interno de una "caja negra" con sus protecciones.

Pack de memoria interno de una grabadora de vuelo con sus protecciones puestas. Foto: Jeffrey Milstein – www.jeffreymilstein.com

Por cierto, una cosita. Que vamos, que supongo que sobra decirlo, y más a ti, ¡qué tonterías tengo! Pero si alguna vez por una de aquellas que pasan en la vida te encuentras una cosa de estas por ahí, no se te vaya a venir ninguna idea rara a la cabeza. Lo de NE PAS OUVRIR – DO NOT OPEN, o sea NO ABRIR, o sea no manipular de ninguna manera, va en serio. Serio como una cárcel. Llamas a la autoridad pública que te merezca más confianza y se lo comunicas sin tocarla. Si puede ser y no hay peligro, te quedas al lado cuidándola para que nadie le meta mano. Y si no hay ninguna autoridad pública disponible, pero ninguna, tipo área blanca en zona de guerra, entonces, y sólo entonces, la llevas con mucho cariño a un lugar donde la haya lo antes posible. Cuando la tengas en las manos, recuerda que ahí dentro van muchas vidas futuras en juego. Que yo ya sé que tú no vas a hacer nada raro, vamos, ni de coña. Está claro que tú no eres la clase de miserable hideputa o la piedra ignorante que hay que ser para andar jodiendo con una caja negra. Fijo que tú eres buena gente y con cabeza y estarás diciendo “el Yuri este, que cósas tiene” con toda la razón. Pero por si no habías caído y eso. Si por ejemplo tienes hijos o alumnos o esas cosas, también se lo puedes contar.

Bien. Idealmente, la investigación técnica no puede usarse para establecer responsabilidades (Art. 3.1 del Anexo 13 de la OACI; Art. 4.3 de la Directiva Europea 94/56/CE; Art. 12.2 de la Ley española). Sólo y únicamente para saber lo que pasó y corregirlo. Es eso lo que ha salvado tantas vidas. Porque claro, en el momento en que empezamos a determinar responsabilidades, la investigación se convierte en persecución y la gente deja de buscar la verdad para ponerse a salvar el culo. Pero si quieres salvar vidas futuras, la investigación técnica necesita descubrir la verdad o lo más parecido que sea posible. Si no se sabe lo que ha fallado realmente, no se podrá corregir. Y si no se corrigen los fallos, otra ley de hierro dice que el accidente puede volver a ocurrir en cualquier momento, cobrándose decenas o cientos de vidas más. En ocasiones, una y otra vez.

Caja negra del vuelo 93 de United Airlines.

Grabadora extremadamente dañada del vuelo 93 de United Airlines, el “cuarto avión” de los atentados del 11 de septiembre de 2001. El avión, un Boeing 757-222, se estrelló en un área rural del estado de Pennsylvania a alta velocidad (906 km/h), 40º de picado y boca abajo, desintegrándose por completo. Formó un cráter de 12 metros de diámetro y sus 44 ocupantes resultaron pulverizados. Arriba puede verse lo que queda del cuerpo y abajo, la cápsula con los datos, arrancada de cuajo. La práctica totalidad de los datos fue recuperada. Fotos: Departamento de Justicia de los Estados Unidos de América.

En la práctica, las investigaciones judiciales –las de cargar culpas– se apoyan a menudo en la investigación técnica, directa o indirectamente, lo que constituye un verdadero problema que suele acabar matando a más gente. La actual tendencia a criminalizarlo todo y endurecer las penas de todo no hace sino empeorar las cosas. (Ver aquí, aquí , aquí o aquí también) En el momento en que un profesional se ve obligado a responder a otro profesional “lo siento, pero para contestarte a eso tengo que hablar primero con mi abogado” tú ya sabes que va a morir más gente.

Este es un dilema de difícil solución porque bien, obviamente hay que establecer las responsabilidades. Entre otras cosas, para determinar qué compañía de seguros y sus reaseguradoras van a pagar esa factura monumental. Y los tribunales no suelen tener ni la capacidad científico-técnica ni la proclividad a realizar complejas investigaciones aeronáuticas, tanto más cuanto menos recursos tienen. Cuando la cosa degenera a considerar las aportaciones de los peritos de las partes, ya puedes contar con que nadie está buscando la verdad. Sólo están viendo a ver quién se come el marrón. Y tú te vas a hacerte un cubatita con un sentimiento de fatalidad de lo más molesto, pensando en si irán muchas criaturas en el próximo avión.

Sin embargo, mal que bien, el sistema funciona por una diversidad de razones. Una de ellas, y lo siento por los más cínicos, es que cuando hay vidas en juego mucha gente tiende a comportarse honorablemente, aunque sea recurriendo a algún subterfugio. Va en serio, la gente normal no suele sen tan perra y los profesionales que lo son siempre dejan algún huequecito libre para pasar un dato esencial. Otra es que los profesionales del vuelo saben que su propia seguridad depende de que se corrijan los fallos verdaderos. Una más, que para los fabricantes de aeronaves y las aerolíneas un accidente no resuelto o mal resuelto es pésima publicidad, sobre todo si se repite. No sería la primera vez que un accidente o una serie de accidentes han acabado con una línea aérea. Cuando tienen algún estado detrás, la misma credibilidad y prestigio de ese estado pueden verse afectados. Air France o British Airways estarán privatizadas, pero nadie ha quitado las palabras France o British de sus aviones. Y no hace falta decir lo que representan Boeing o Airbus para Estados Unidos y la Unión Europea, respectivamente.

La misteriosa desaparición del Air France 447.

Hablando de Air France y Airbus, como te dije al principio, durante la madrugada del 1 de junio de 2009 les pasó algo espantoso. Y a las 228 personas que iban a bordo del vuelo AF447 desde Río de Janeiro a París, ni te cuento. Lo impensable. Lo que a estas alturas ya no puede suceder. Que no, que no, que te lo dice el tío Yuri, que los grandes aviones de pasajeros modernos no desaparecen en la noche y el mar en plan Madagascar. Qué va.

Configuración de clase turista 2-4-2 de un Airbus A340-300 de Air France.

Clase turista de un Airbus A340-300 de Air France (configuración 2-4-2 nº2, parecida a la del A330-200). Foto: Mr. Guillaume Grandin vía www.seatplans.com

De sus 228 ocupantes, tres eran tripulantes técnicos (2 pilotos a los mandos y 1 de reserva), nueve tripulantes de cabina y el resto pasaje, incluyendo a siete menores de 12 años (1 infant y 6 children). Como curiosidad, entre los pasajeros adultos se encontraba el príncipe Pedro Luís de Orléans-Bragança, tercero en la línea de sucesión al desaparecido trono imperial del Brasil; los músicos de fama internacional Silvio Barbato y Fatma Ceren; y el activista contra el tráfico ilegal de armas Pablo Dreyfus, acompañado por su esposa. 228 personas son un pueblo medianín entero de gente. Más o menos como Villasrubias o Villaherreros o Alba, todos bien juntitos y apretados en una máquina de volar junto con 140.000 litros de combustible Jet A1 para reactores de aviación.

Terminal 1 del aeropuerto internacional de Galeão, Río de Janeiro, Brasil ( GIG / SBGL ).

La última tierra que pisaron los ocupantes del Air France 447: Terminal 1 de salidas internacionales del aeropuerto internacional de Galeão, Río de Janeiro, Brasil (GIG / SBGL). Imagen: Google Street View. (Clic para ampliar)

Ruta prevista del vuelo Air France 447, 31 de mayo - 1 de junio de 2009.

Ruta prevista del vuelo Air France 447, 31 de mayo – 1 de junio de 2009. Gráfico: Wikimedia Commons modificado por la Pizarra de Yuri. (Clic para ampliar)

Toda esa humanidad pisó tierra por última vez una tarde magnífica de primavera tropical, con una temperatura de 26ºC, visibilidad total, el sol brillando en un cielo muy azul con pocas nubes y suavísima ventolina del Norte (METAR SBGL 312200Z 34002KT 9999 FEW035 SCT100 26/18 Q1009=). Con un peso al despegue de 233 toneladas, el vuelo AF447 partió de la gran metrópoli brasileña en torno a las siete y media del 31 de mayo, hora local (22:29 UTC). Comandaba el capitán Marc Dubois, de 58 años, con 10.988 horas de vuelo y 1.747 en ese tipo de Airbus. Su copiloto era el primer oficial Pierre-Cédric Bonin (32 años, 2.936 horas de vuelo, 807 en el tipo). El otro primer oficial, David Robert (37 años, 6.547 horas de vuelo, 4.479 en el tipo), descansaba en el área de reposo situada detrás.

Enseguida ascendieron por encima de las nubes hacia los 35.000 pies de altitud, lo que vienen siendo unos 10,7 kilómetros, bajo la blanca luz del sol estratosférico. No pudo ser un despegue mejor, sin turbulencia alguna a pesar de unos cumulonimbos lejanos en el cielo azul profundo. Tras activar el piloto automático nº 2, la autotransferencia de combustible y el autoempuje, tomaron rumbo Norte-Noreste (028º) hacia Recife y el Atlántico para el largo viaje oceánico de 9.200 kilómetros hasta París-Charles de Gaulle. Ahí les esperaban sus familias y amistades diez horas y media después, de buena mañana. Vamos, como el viaje de Marco Polo, pero en línea recta, en apenas una noche, viendo pelis, tomando algo y echando una cabezadita en una burbuja de aire acondicionado de alta tecnología con el mundo a tus pies. El progreso. Conforme atardecía, la tripulación de cabina de pasajeros empezó a servir las cenas. Todo iba bien.

Amanecer a gran altitud sobre España.

Un amanecer estratosférico. Gélido, bellísimo, despiadado, letal, si no fuese por esas máquinas de volar tan cojonudas que los humanos sabemos hacer. En este caso, un Boeing 737-800. Algo muy parecido tuvo que ser la última visión del mundo de las 228 personas que viajaban en el Air France 447, sólo que al anochecer. Foto: La Pizarra de Yuri. (Clic para ampliar)

Sobre las 21:30 hora local (00:30 del 1 de junio UTC), aún sobrevolando las playas del Brasil, los pilotos recibieron un mensaje del centro de control de operaciones de Air France. Les indicaban que iban a encontrarse con tormentas convectivas vinculadas a la Zona de Convergencia Intertropical. Esto ocurre normalmente en las regiones ecuatoriales y no se le dio más importancia. De hecho, el informe procedía de uno de los otros doce vuelos que circulaban por la misma ruta u otras cercanas en esos momentos. El avión puede agitarse un poco, pero se atraviesa sin problemas y no pasa nada. Así pues, siguieron adelante. Desde las playas de Recife, una mulata guapa vio pasar una estela muy alta, muy blanca, muy lejos. Pero ni se fijó, claro. Por ahí pasan aviones constantemente. Qué te vas a fijar.

Cabina de vuelo de un Airbus A330-200

Cabina de vuelo de un Airbus A330-200 de Swiss. Foto: © C. Galliker. (Clic para ampliar)

Los ocupantes del AF447 divisaron tierra por última vez mientras se ponía el sol sobre Natal, a las 21:54 hora local (00:54 del 1 de junio UTC, METAR SBNT 010100Z 00000KT 9999 FEW018 24/24 Q1012=). Después, el avión se adentró en el Océano Atlántico, hacia el punto INTOL y la noche. Sobrepasaron INTOL a las 22:35 (01:35 UTC), a Mach 0,82 de velocidad. Ahí se pusieron en contacto por alta frecuencia con el control brasileño de la FIR Atlántico para notificar sus intenciones y hacer una prueba de comunicaciones SELCAL que salió bien. Sin embargo, no dio resultado un intento de conectar por ADS-C con su siguiente destino, la FIR Dakar-Oceánica. ya en el lado africano del Charco. Pero esto no tiene mayor importancia y continuaron su camino. Los controladores brasileños de FIR Atlántico fueron los últimos humanos que oyeron la voz de otro humano a bordo del Air France 447.

Tal como les avisaron, el tiempo empeoraba, con una tormenta eléctrica bastante espectacular. Los pilotos constataron que estaban penetrando en las nubes y tuvieron que oscurecer las luces de cabina para ver mejor los instrumentos. Pero sólo hallarían algo de turbulencia a las 22:45 (01:45 UTC), que cesó siete minutos después. En realidad, no ocurría nada anormal en esa clase de vuelos intercontinentales entre hemisferio y hemisferio donde las comunicaciones son inciertas y la meteorología, difícil. Tanto era así, que poco después el comandante Dubois fue a despertar al primer oficial Robert para que ocupase su puesto como piloto al mando e irse él a descansar.  Tras conversar los tres sobre la mejor manera de atravesar la tormenta, así lo hizo. Quedaron, pues, David Robert al mando y Pierre-Cédric Bonin de copiloto. Eran las dos de la madrugada UTC, y el Air France 447 se aproximaba al punto TASIL, muy océano adentro. A las 01:49, salieron del alcance de los radares de FIR Atlántico, alejándose aún más mar adentro, hacia las tinieblas durante unos veinte minutos más.

Últimos mensajes ACARS transmidos por el vuelo Air France 447, 01/06/2009 02:11-02:14 UTC

La famosa última ráfaga de mensajes ACARS transmitida automáticamente por los ordenadores del  vuelo Air France 447 entre las 02:11 y las 02:14 del 1 de junio de 2009 UTC. Texto completo y significado por orden de recepción: AUTO FLT AP OFF – Desactivación automática del autopiloto | AUTO FLT REAC W/S DET FAULT – Perdida la detección y corrección automática del viento en cizalladura | F/CTL ALTN LAW – Conmutación automática del control de vuelo de ley normal a ley alterna | FLAG ON CAPT PFD SPD LIMIT, FLAG ON F/O PFD SPD LIMIT – Las pantallas principales de ambos pilotos han perdido la indicación de límites de velocidad | AUTO FLT A/THR OFF – Desactivación automática del autoempuje | NAV TCAS FAULT – El sistema anticolisiones TCAS ha dejado de operar | FLAG ON CAPT PFD FD, FLAG ON F/O PFD FD – Las pantallas principales de ambos pilotos han perdido las indicaciones del sistema director de vuelo (flight director) | F/CTL RUD TRV LIM FAULT – El sistema de control de vuelo no puede limitar las acciones de los pilotos sobre el timón | MAINTENANCE STATUS EFCS 2, MAINTENANCE STATUS EFCS 1 – Notificación de mantenimiento para ambos sistemas de control electrónico de vuelo (EFCS) | EFCS2 1,EFCS1,AFS,,,,,PROBE-PITOT 1X2 / 2X3 / 1X3 (9DA),HARD – Los sensores de velocidad con respecto al aire presentan discrepancias superiores a 30 nudos entre sí en menos de un segundo | EFCS1 X2,EFCS2X,,,,,,FCPC2 (2CE2) / WRG: ADIRU1 BUS ADR1-2 TO FCPC2,HARD – El ordenador de control de vuelo (FCPC) ha dejado de aceptar datos de los sistemas de tubos pitot (ADR) | FLAG ON CAPT PFD FPV, FLAG ON F/O PFD FPV – Las pantallas principales de ambos pilotos han dejado de mostrar las indicaciones del vector de ruta de vuelo (FPV, “bird”) | NAV ADR DISAGREE – Datos contradictorios en los sistemas de tubos pitot (ADR); el sistema electrónico de control de vuelo no los está aceptando | ISIS 1,,,,,,,ISIS(22FN-10FC) SPEED OR MACH FUNCTION,HARD – Datos de velocidad en el sistema de instrumentos combinados ISIS fuera de límites durante al menos 2 segundos | IR2 1,EFCS1X,IR1,IR3,,,,ADIRU2 (1FP2),HARD – La unidad de referencia de navegación inercial nº 2 considera que todos los datos de los sistemas de tubos pitot son inválidos | F/CTL PRIM 1 FAULT, F/CTL SEC 1 FAULT – Los ordenadores de control de vuelo primario y secundario han dejado de funcionar | MAINTENANCE STATUS ADR 2 – Notificación de mantenimiento para el sistema de tubos pitot (ADR) nº 2 | AFS 1,,,,,,,FMGEC1(1CA1),INTERMITTENT – Inconsistencias entre los canales del ordenador nº 1 de gestión, guiado y envolvente de vuelo (FMGEC) | ADVISORY CABIN VERTICAL SPEED – Aviso de velocidad vertical: cambio de altitud de más de 1.800 pies/minuto durante al menos 5 segundos. Pese a su tono ominoso, este tipo de transmisiones ocurrían a veces por problemas con los tubos pitot, se resolvían fácilmente y no dispararon ninguna alarma. Sin embargo, esta vez era una última transmisión. La máquina, que se lamentaba al morir. Imagen: Air France. (Clic para ampliar)

De pronto, algo ocurrió. Algo muy malo. Entre las 02:11 y las 02:14 UTC, los ordenadores de a bordo transmitieron automáticamente una ráfaga de mensajes de alerta a Air France por el sistema de telecomunicaciones ACARS, una especie de SMS aeronáutico que se recibe desde prácticamente todo el planeta. Fueron un total de 26 mensajes, indicando una serie de fallos y alertas en sistemas diversos, pero casi todos ellos relacionados con inconsistencias entre los sensores y las computadoras del avión que condujeron a una desactivación anómala del piloto automático. Dicho a lo sencillo: por una causa entonces desconocida los ordenadores están recibiendo datos contradictorios de los sensores, no saben a qué atenerse y devuelven el control a los pilotos humanos para que se aclaren.

Sin embargo, el centro de mantenimiento de Air France donde se recibieron estos mensajes tampoco les dio demasiada importancia. Al parecer, sucedía a veces cuando los aviones atravesaban tormentas, por problemas con los tubos Pitot. Ya hablaremos de esto. Así que no se activó ninguna alarma en ese momento.

Pasó un poco más de media hora. Noche en el Atlántico. A las 02:48 UTC los controladores de Dakar (Senegal) llaman a los de Sal (Archipiélago de Cabo Verde) para comunicarles que el Air France 447 debería estar llegando a su lado del océano, pero no tienen noticias. A las 03:54 Sal devuelve la llamada a Dakar. Dicen que tampoco está entrando a su zona a la hora prevista, ni se han puesto en contacto para modificar el horario. A las 04:07 Dakar y Sal vuelven a conversar, porque en sus pantallas están viendo llegar al siguiente vuelo (otro Air France, el AF459) pero no al AF447. Dakar pide al AF459 que intente contactar con sus compañeros a las 04:11. El AF459 lo intenta, pero no lo consigue, y a las 04:20 se lo notifica a Dakar y también a Air France, para que prueben ellos.

Durante la siguiente hora, las llamadas empiezan a multiplicarse entre Dakar-Oceánico, Sal, Canarias, Madrid, Francia y Brasil, cada vez más preocupadas. Air France lanza numerosos mensajes ACARS al AF447 y luego prueba a entrar en contacto con ellos por vía satélite. Los sistemas rechazan todos sus intentos. El receptor está offline. Ni personas ni máquinas saben nada del avión. Sobre las 05:20, Brasil-Atlántico dispara la primera alarma y pone en prealerta a su Servicio Aéreo de Rescate.

Poco a poco, la verdad sencilla se va volviendo evidente: el vuelo AF447 con sus 228 vidas ha desaparecido. Un escalofrío recorre tres continentes al amanecer. Lo impensable, que se esfume sin más un moderno jetliner lleno de gente dormida plácidamente, viendo pelis en sus sistemas de entretenimiento personal o llevando al baño a Clarita Eccard, de dos años de edad, acaba de suceder. Y nadie sabe ni dónde, ni cómo, ni por qué.

Próxima: Air France 447: Buscando cajas negras a 4.000 metros de profundidad (2)

94 Comentarios Trackbacks / Pingbacks (8)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (40 votos, media: 4,60 de 5)
Loading ... Loading ...
Be Sociable, Share!

25 kilómetros

Toda la vida compleja que conocemos se concentra en un tenue manto alrededor del planeta Tierra.

Imagen de la ISS con las capas atmosféricas

Fotografía tomada desde la Estación Espacial Internacional sobre el Océano Índico, al atardecer del 25 de mayo de 2010 (hora local en tierra). Debido a un efecto óptico, pueden distinguirse perfectamente las distintas capas de la atmósfera: de abajo arriba, troposfera (roja-naranja-amarilla), estratosfera (blanca), atmósfera superior (azul claro) y espacio exterior (azul oscuro a negro). Todo lo que somos existe en esa delgada franja de colores cálidos entre el barro y el cosmos. Y no conocemos ningún otro sitio adonde ir. Foto: NASA.

Y de la misma forma que la semana pasada te contaba que yo no veo ese apocalipsis profetizado una y otra vez, hoy quiero dar la de arena. ;-) La de arena es que, por difícil que sea extinguirnos, hay cosas que nos pueden hacer muchísimo daño a nosotros y a quienes nos acompañan en esta nave espacial que llamamos el planeta Tierra. Porque, ya lo he comentado alguna vez, casi todo lo que amamos, casi todo lo que nos importa, se concentra en una levísima franja entre el fuego y la nada, o casi nada. Hoy por hoy y durante al menos algún siglo más, no tenemos absolutamente ningún otro sitio adonde ir.

Zonas pelágicas

Si la imagen anterior nos muestra todo nuestro espacio disponible “hacia arriba”, esta otra nos muestra todo nuestro espacio disponible “hacia abajo”. Entre ambas, suman menos de 25 kilómetros. La vida compleja terrestre no puede existir normalmente fuera de estos dos delgados mantos. Imagen: Wikimedia Commons

Me refiero, naturalmente, a esos escasos veinticinco kilómetros de hidrógeno, oxígeno, nitrógeno y poco más que toleran la vida compleja. Es decir, las aguas y el aire hasta más o menos el borde de la estratosfera. Hay algunos animalitos capaces de vivir por el fondo de la Fosa de las Marianas, el punto natural más profundo de la Tierra (10.911 metros), a algo más de  mil atmósferas de presión. Por el otro extremo, el 29 de noviembre de 1973 un avión se tragó a un buitre de Rüppel a unos 11.000 metros de altitud sobre Costa de Marfil, donde la temperatura es de unos 50 grados bajo cero y la presión, de 0,25 atmósferas. Eso suman unos 22 kilómetros. Vamos a redondearlo a 25, para dejar un poco de margen, por si esas sorpresas que siempre nos da la vida.

Dije en el post anterior que veo difícil que los destrocemos tanto como para que nadie pueda sobrevivir, pero basta con empobrecerlos significativamente para ocasionar enorme sufrimiento y mortandad. Empezando, por supuesto, por los más pobres y los más débiles. Los más pobres y los más débiles van siempre los primeros en la lista mala. Eso nos incluye también a unos cuantos habitantes del llamado Primer Mundo. Como dije la semana pasada, yo no no creo que la supervivencia de la humanidad o incluso de su civilización estén amenazadas en el esquema grande de las cosas. Pero en el pequeño, pequeño como tú y como yo, el tema puede llegar a ponerse muy chungo.

Esos 25 kilómetros de hidrógeno, oxígeno y nitrógeno contienen nuestro aire, nuestra agua, nuestra comida, nuestra vida. Incluso alteraciones menores pueden provocar, por ejemplo, graves crisis alimentarias. Si te parece que la comida está cara, te asombrarías de lo mucho que puede llegar a subir, digamos, con un fallo grave de las cosechas de arroz. El arroz es el alimento básico de buena parte de la humanidad, que inmediatamente se verían obligadas a buscar (y pagar, los que puedan) otras alternativas, encareciendo todos los demás. Si ya tenemos los bolsillos como los tenemos, imagínate las consecuencias. Ahora imagínatelas para esos 2.400 millones de personas que viven con menos de dos dólares diarios.

Dije también en los comentarios del post anterior que antes me asustaban mucho más los peaks, como en peak oil, que ahora. Y no porque discuta el concepto en sí: es obvio que todos los recursos no renovables que se consumen y no se reponen acabarán enrareciéndose –encareciéndose– hasta agotarse por completo. No obstante, por todos los indicios que yo puedo colegir, veo más un aterrizaje suave con mucho tiempo de adaptación que los crash de que se hablaba cuando yo estaba aún tiernecito en vez de correoso como ahora, por la época en que se rodó Mad Max. Sin embargo, hay una escasez que me preocupa mucho más, porque ya está afectando a millones de personas y hasta la tenemos presente aquí en España: la del agua potable.

Envenenamiento por arsénico en Bangladesh.

Efectos cutáneos del envenenamiento por arsénico en el agua de boca de Bangladesh, ocasionado al tener que excavar pozos más y más profundos para extraerla. Todas esas personas dependen de sus manos y sus pies para sobrevivir. Foto: Mr. Manzurul Hassan.

El agua potable es, por fortuna, un recurso renovable. Pero la presión sobre el mismo que ejercemos los siete mil y pico millones que somos es extrema. En países como la India ya han ocurrido crisis del arsénico cuando la población tuvo que excavar pozos mucho más profundos para sacar agua, que resultaron estar contaminados por este veneno. Aquí en España todos conocemos las broncas que hemos tenido a estas alturas por los recursos hídricos. En extensas regiones del mundo, el agua potable económicamente accesible es un bien escaso. La menor alteración puede empujar a millones más hacia la sed. Y así con muchas cosas más. En todos los casos, con los más pobres y los más débiles encabezando la marcha esa hacia las tinieblas.

Una dislocación grave de esa tenue película de agua y aire y sus mecanismos puede causar enorme sufrimiento, enfermedad, miseria y muerte a partes significativas de la población, no todas las cuales están dispuestas a aceptar sumisamente su suerte mientras otros gastan decenas, cientos o hasta miles de dólares en sus botellas de agua mineral premium. Puede causar conflictos, guerras, genocidios. Del buen estado de esos 25 kilómetros depende, dependemos gran parte de la humanidad. Y no hay más. Todavía no conocemos ningún otro sitio donde haya más, en cantidades suficientes y accesibles. Si nos los cargamos, la liamos.

Atmósferas planetarias

En nuestro sistema solar hay muchos planetas y lunas que tienen atmósfera. Los gigantes gaseosos como Júpiter o Saturno, por ejemplo, son casi por completo una enorme atmósfera de densidad variable, con un núcleo rocoso muy pequeño. Venus tiene su conocido infierno que tanto nos costó atravesar. Una luna de Saturno, Titán, posee una densa atmósfera de nitrógeno, metano e hidrógeno, con posibles mares superficiales de hidrocarburos líquidos. Otros cuerpos celestes las tienen más débiles y algunos carecen prácticamente de ella, como el planeta Mercurio o nuestra propia Luna.

Europa de Júpiter

Europa de Júpiter (Júpiter-II). Su superficie visible está compuesta de hielo de agua y probablemente debajo hay un océano de agua líquida. Pero aún nos resulta francamente difícil acceder a ella. Imagen tomada por la sonda espacial Galileo. Foto: NASA / Deutsche Forschungsanstalt für Luft- und Raumfahrt e.V., Berlin.

Pero todas tienen algo en común: nosotros no podemos vivir ahí, al menos sin hábitats artificiales o terraformación extensiva, algo que está actualmente fuera del alcance de nuestra tecnología y, sobre todo, de nuestra economía. Y tampoco nos sirven para traernos, por ejemplo, agua. El agua no es rara en nuestro sistema solar, pero sí difícilmente accesible. Por ejemplo, no podemos echar una manguera desde el océano submarino de Europa de Júpiter hasta aquí. No sabemos aún.

El resto de posibles destinos están fuera del sistema solar, demasiado lejos para nuestra capacidad actual. Los exoplanetas confirmados más próximos de tipo terrestre andan por Gliese 876, en la constelación de Acuario, a 184,5 billones de kilómetros de aquí (sí, con B). Con algunas de las naves más veloces que hemos construido hasta ahora, suponiendo que fuésemos en linea recta –lo que es mucho suponer, esto no va como en las pelis sino por órbitas y cosas de esas–, tardaríamos 67.075 años en llegar. Incluso cuando dominemos la tecnología para construir naves relativistas, el viaje se nos pone en un mínimo de quince años y pico (aunque puede ser considerablemente menos para quienes vayan a bordo, si es que va alguien, debido a la dilatación temporal.)

Pero ni siquiera estos exoplanetas parecen contar con buenas urbanizaciones para montarnos el chalé. Por lo poco que sabemos todavía de ellos, no reúnen buenas condiciones para la vida compleja terrestre aunque hiciéramos adaptaciones importantes. El primer candidato bueno podría ser Gliese 667 Cc, a 223 billones de kilómetros, lo que vienen siendo 23,6 años-luz. Los siguientes andan bastante más lejos, en el orden de los cientos o miles de años-luz. Por otra parte, si tuviésemos la tecnología para mudarnos a 223 billones de kilómetros, seguramente nos resultaría bastante más sencillo adaptar o adaptarnos a algún otro planeta o luna de nuestro propio sistema solar.

Por desgracia y por maldito atraso, todo esto está aún mucho más allá de lo que somos capaces de hacer. De momento, vamos a permanecer una buena temporada encerrados como ratas en la Tierra y sus alrededores. Una Tierra que sólo tiene para nosotros, eso, 25 kilómetros de espacio vital.

Prisioneros entre el abismo y el fuego

Esquema interno de la Tierra

Estructura interna de la Tierra. 1. Corteza continental; 2. Corteza oceánica; 3. Manto superior; 4. Manto inferior; 5. Núcleo externo; 6. Núcleo interno; A. Discontinuidad de Mohorovičić; B. Discontinuidad de Gutenberg; C. Discontinuidad de Wiechert-Lehmann. Esquema: Wikimedia Commons

Bajo nuestros pies, está la corteza terrestre. Que, como su nombre indica, es eso: una cortecita, vamos a decir que sólida, que en algunos puntos de la corteza continental se extiende hasta los 70 kilómetros de profundidad. La oceánica, en cambio, no pasa de diez. Además, es una corteza hecha migas: junto con las capas más rígidas del manto superior, lo que en su conjunto constituye la litosfera, está dividida en grandes pedazos a los que llamamos placas tectónicas. Esto son como islas que rozan entre sí y flotan sobre casi tres mil kilómetros de unos silicatos tan viscosos que también los consideramos sólidos: el manto. Y éste, a su vez, sobre una capa líquida de unos 2.250 kilómetros de espesor: la parte exterior del núcleo. Luego, más para adentro, ya está el núcleo interno. Teniendo en cuenta que todo esto se mueve a distintas velocidades y con diferentes rumbos, eso de tierra firme no pasa de bonita fantasía.

Bueno, ¿y qué? Pues verás, sucede que la temperatura aumenta con la profundidad. Al principio, no mucho, pero luego acelera rápidamente. La mina más honda del mundo, la de oro de TauTona en Sudáfrica, alcanza los 55-60 ºC a 3.900 metros de profundidad y hay que instalar aire acondicionado para que los mineros puedan trabajar, no con poco peligro. Es decir, aproximadamente 8 ºC por kilómetro sobre el ambiente local. En la perforación más profunda de todas, la científica soviética de Kola, tuvieron que parar cuando la temperatura ascendió a 180 ºC llegando a los 12.262 metros: unos 14,7 ºC por kilómetro. Ese es el punto más bajo que hemos alcanzado los humanos. Proyectaron que aumentando a ese ritmo, alcanzaría los 300 ºC a 15.000 metros. A esto le pusimos el nombre de gradiente geotérmico.

Sabemos que más abajo la temperatura continúa subiendo hasta alcanzar unos 6000 ºC en la región de transición entre el núcleo exterior y el interior; tanto como en la superficie del Sol. ¿Y de dónde sale todo este calor? Bueno, pues de varias fuentes, pero sobre todo del calor residual de acreción de cuando el sistema solar estaba formándose y especialmente de la gran cantidad de isótopos radiactivos naturales que hay ahí bajo nuestros pies. Sí, estamos sentados sobre una especie de gigantesca piscina de Fukushima a la temperatura del Sol, en islotes de piedra que se mueven, aquí leyendo tranquilamente.

Por el momento, no hay nada para nosotros ahí debajo. Ni tierra hueca ni ningún otro de esos cuentos tan raros; sólo un infierno ardiente. Mirando hacia el otro lado, hacia donde siempre nos ha gustado más mirar, hacia arriba, ya sabemos lo que hay: abismales distancias de la casi-nada que llamamos medio interplanetario o la casi-casi-nada del medio interestelar, salpicada muy aquí y allá por algún pedrusco o bola de gas, encendida en forma de estrella o no, más nebulosas y tal. Todo está muy lejos, muy muy lejos o sobrecogedoramente lejos, al menos hasta que construyamos la nave esa relativista de la que te hablaba antes.

(A todo esto, sigo pensando que no sería totalmente estúpido irnos currando algún refugio de emergencia sostenible en algún cuerpo celeste próximo, en este mismo sistema solar. Por mucho que opine que no nos vamos a extinguir en ningún momento imaginablemente próximo, yo podría estar estupendamente equivocado como todo hijo de vecina. Y en ese caso, tener todos los huevos en la misma cesta, o sea en un solo planeta, resulta ciertamente inquietante. Buena parte de las tecnologías necesarias están ya disponibles. No digo que tengamos que hacerlo justamente ahora, con la que está cayendo y todo ese rollo, pero sí mantener la idea viva e ir trabajando poco a poco en esa dirección. Por muy seguro que sea tu barco, disponer de un bote salvavidas es siempre una buena idea.)

Remediación planetaria

Desastre ecológico del Rin, 1986

Desastre de Sandoz (hoy Novartis), Suiza, 1986. Un incendio en un almacén agroquímico y su subsiguiente extinción vertieron cantidades masivas de sustancias extremadamente tóxicas al río Rin, ya muy deteriorado por la gran cantidad de industria a su alrededor. Este vertido provocó gravísimos daños ecológicos y un colapso generalizado de sus ecosistemas. Esta imagen fue tomada en Holanda, 800 km río abajo. Se dijo que “el Rin estaba muerto.” Hoy en día el Rin, sin ser el río más limpio del mundo, está razonablemente regenerado.

Los barcos, además de no estropearlos, se pueden reparar. A este ya le hemos puesto algunos parches y no han ido mal del todo: desde la regeneración del Rin, al que casi matamos una vez, hasta la recuperación de Hiroshima y Nagasaki o la reforestación de Europa, en parte accidental y en parte voluntaria. Los humanos, igual que sabemos romper cosas, también sabemos repararlas; al menos, a veces, cuando hay ganas o necesidad de trabajar y gastar dinero. Suele salir bastante más caro que no haberlas roto en primer lugar, pero qué le vamos a hacer.

A este proceso de regenerar entornos naturales que hemos estropeado antes se le suele llamar remediación. En los países más o menos serios, es ya obligatorio por ley apartar dinero para arreglar al menos parte de lo que rompas. Quizá el más conocido de todos sea el Superfund estadounidense, pero no es el único, ni mucho menos. En general es una práctica, por fortuna, cada vez más extendida. Hasta en lugares con tan mala fama medioambiental como China –en buena parte justificada, si bien últimamente ya no hay ninguna localidad china en la lista de las diez peores– la remediación es incluso un negocio en alza. Sitios contaminados hasta extremos legandarios como Linfen, que muchos consideraban un lugar más tóxico para vivir que el mismísimo Chernóbil, han mejorado bastante últimamente.

Linfen todavía no es un ejemplo de remediación, porque remediar, lo que se dice remediar, apenas han empezado. Pero el mero hecho de prohibir las peores prácticas –como el paso de camiones cargados del carbón que se produce allí a través de la ciudad–, cerrar las cien industrias más contaminantes, apercibir a otras 150 y establecer ayudas estatales para instalar filtros en las fábricas, así como pasar el 85% de la calefacción urbana a gas natural, la cosa se ha arreglado un poco. Poco a poco, en algunos de los puntos más guarros, han comenzado a limpiar. Y eso ya es el principio de la remediación.

Lo idóneo, naturalmente, sería no tener que remediar. Nada permanece más limpio que aquello que no se ensucia. Por desgracia, nuestro nivel de desarrollo socio-tecno-económico actual aún no permite nada parecido en numerosos procesos que nos son esenciales como civilización. En estos casos, la remediación es lo mejor que se puede hacer.

Deforestación por tala y quema

Deforestación por tala y quema vista desde el espacio, Mato Grosso, Brasil. Esta práctica se remonta al momento en que aprendimos a usar el fuego y es uno de los más viejos y peores desastres ecológicos ocasionados por la humanidad, alterando por completo los ecosistemas de continentes enteros. Así desaparecieron los bosques de Europa en su práctica totalidad. Imagen: Tripulación de la Estación Espacial Internacional.

Los daños al medio ambiente causados por el ser humano no son ninguna novedad. Uno de los más graves de nuestra historia fue la invención de la agricultura, hace ya unos cuantos miles de años. ¿Y cómo es eso? Pues porque una de las formas más fáciles de obtener nuevas tierras de cultivo es meterle fuego a los bosques, sabanas y praderas que las ocupen. Esta práctica se llama agricultura de tala y quema, y viene usándose desde antes de la historia. Conllevó la destrucción sistemática del bosque ancestral en extensas regiones del planeta, como por ejemplo Europa, donde desapareció casi por completo. Sin embargo, hoy en día, el abandono de la agricultura pero también los programas de reforestación han hecho que el bosque en Europa no pare de crecer, como te conté más arriba. Esto podría considerarse una forma de remediación continental tardía.

Lógicamente, a algunas personas de las que piensan por alto se les ha ocurrido el concepto de remediación planetaria. La idea en sí es sencilla: si le estamos causando daños globales al medio ambiente, podemos plantearnos remediarlos a la misma escala. Por ejemplo, se han apuntado varias técnicas para limpiar masivamente todo ese carbono que le echamos a la naturaleza sin parar, que en su forma de CO2 ya ronda e incluso ha superado algún día las 400 partes por millón. Esto no había ocurrido en varios millones de años y, si seguimos al ritmo actual de añadirle una más cada seis meses, en menos de dos siglos andaremos por las 750. Esta cifra es la concentración mínima que pudo darse durante el Máximo Térmico del Paleoceno-Eoceno, hace 55 millones de años, cuando aparentemente se disparó el fusil de clatratos y la temperatura de la Tierra subió unos 6ºC a lo largo de varios milenios (puede que alcanzando las 26.000 ppm).

Incremento del CO2 atmosférico 1958-2013. NOAA / Scripps Institution of Oceanography / NASA.

Incremento del CO2 atmosférico 1958-2013. NOAA / Scripps Institution of Oceanography / NASA.

En el peor escenario de los que yo he visto publicados con una cierta credibilidad científica, se habla de unas 1.000 ppm en el año 2100, con un incremento de temperatura máximo en torno a los 4,5ºC sobre la actual. Un aumento de 4,5 – 6ºC no nos extinguirá, pero puede causar graves daños a los ecosistemas, incluyendo el ecosistema humano, especialmente los ecosistemas humanos más frágiles. Eso es, los pobres y los débiles, que ya se verá a ver cómo andamos de eso por entonces. En cualquier caso, es una maldita cochinada y una herencia envenenada por la que nuestros nietos, muy justamente, nos repudiarán. Entre otras cosas, porque les tocará pagar la factura de la que sus abuelos nos estamos escaqueando, pagándonos los vicios con su carbono. Una factura carísima de remediación planetaria.

Pero puede hacerse. En parte, incluso con nuestra tecnología actual. Por ejemplo, todo submarino y toda nave espacial tripulada lleva sus correspondientes depuradores de CO2, precisamente para que no se acumule el generado por sus ocupantes al respirar. Lo único que impide hacer esto a mucha mayor escala, como con este que financia Bill Gates, es el coste. Otra técnica ya existente es la bio-energía con captura y almacenamiento de carbono, de las que existen un puñado de plantas en operación y construcción. Este sistema permitiría capturar sosteniblemente 10.000 millones de toneladas de carbono al año y los 36.000 millones de toneladas que emitimos anualmente quemando combustibles fósiles a un coste adicional de entre 50 y 100 euros por tonelada. Entre las propuestas aún en estudio se encuentra la fertilización oceánica, con posibles efectos secundarios sobre los ecosistemas marinos, el biochar, ciertas bacterias modificadas por ingeniería genética o la simple reforestación.

Una combinación de estas técnicas y las que vayan surgiendo por el camino pueden mitigar o incluso remediar el desastre carbónico que estamos organizando. ¿A qué coste? Pues ese es el tema: alto, al menos en la situación actual. A lo mejor dentro de cien años nos parece tan normal como producir ordenadores, o penicilina, ambas cosas poco menos que ciencia-ficción hace ahora un siglo.

Evolución del radiocarbono atmosférico (12C/14C) 1955-1994.

Evolución del radiocarbono atmosférico (12C/14C) 1955-1994. Puede observarse cómo aumenta hasta el Tratado de Prohibición Parcial de Pruebas Nucleares (atmosféricas) y el descenso del mismo desde entonces. En su época también hubo propagandistas diciendo que no, que en realidad eso no era por los bombazos atómicos en plena atmósfera, sino por la actividad solar o “tormentas de rayos cósmicos” (al igual que pasaría con el peligro del tabaco y la gasolina con plomo). Fuente de los datos: Manning, M; Melhuish, W.H. (1994), Atmospheric 14C record from Wellington. In Trends: A Compendium of Data on Global Change. Carbon Dioxide Information Analysis Center, Oak Ridge National Laboratory, U.S. Department of Energy, Oak Ridge, USA. Imagen: Wikimedia Commons

Hay formas de polución que tienden a remediarse solas, por simple degradación o reabsorción natural del agente contaminante. En realidad, por ejemplo, bastaría con dejar de emitir carbono y otros gases de efecto invernadero al ambiente como tarados para que ese problema se arreglase solo en un tiempo. Otra forma de contaminación que tiende a remediarse por sí misma, al menos en parte, es la radiactiva. Los isótopos más radiactivos y peligrosos agotan su energía rápidamente, con lo que su capacidad de hacer daño se desploma a toda velocidad. Los menos radiactivos tardan mucho más en irse, pero claro, son mucho menos peligrosos. Con el tiempo todos ellos van suavizándose más y más hasta que al final se vuelven indistinguibles de la radiación natural de fondo, dejando “sólo” un problema de contaminación química convencional (algunas de esas sustancias, además de radiactivas durante un tiempo, son muy tóxicas.)

De hecho, en este planeta ya hemos tenido una gran guerra atómica a cámara lenta, con cientos de detonaciones, no pocas de ellas extremadamente potentes y sucias. Me estoy refiriendo, por supuesto, a la época de las pruebas nucleares atmosféricas entre 1945 y 1963: 215 estadounidenses, 219 soviéticas, 21 británicas, 50 francesas y 23 chinas. Algunas fueron enloquecidamente poderosas, como el mítico Emperador de las Bombas (Bomba Zar), una chulería sin ninguna utilidad militar práctica. Otras, errores que generaron inmensas cantidades de contaminación radiactiva, como la no menos mítica Castle Bravo. Sí, estamos hablando de petar grandes cargas nucleares al aire libre, en algunos casos a menos de ciento cincuenta kilómetros de la gran ciudad más próxima como Las Vegas (USA) o Semipalatinsk (URSS). En otras palabras: como si yo ahora mismo hiciera estallar varias bombas atómicas anticuadas y sumamente contaminantes sobre el Polígono de Tiro de las Bardenas Reales y luego dijese que maños, vascos, riojanos, navarros y sorianos son todos unos histéricos por quejarse.

Absorción de yodo-131 en tiroides por condados a consecuencia de las pruebas nucleares atmosféricas en los EEUU continentales.

Absorción de yodo-131 en tiroides por condados a consecuencia de las pruebas nucleares atmosféricas en los EEUU continentales. Imagen: National Cancer Institute, USA.

Hubo downwinders, hubo evacuaciones a la carrera, hubo daños, miserias y enfermedades jamás cuantificados, hubo abundantes materiales radiactivos que se diseminaron por todo el planeta… pero, con el tiempo, la radiación que emitió esta guerra atómica de 18 años de duración y medio millar de explosiones (más que los arsenales modernos completos de Francia, India y Pakistán juntos, con cargas mucho más potentes y guarras) se ha ido suavizando y diluyendo hasta que ahora es sólo detectable con algunos instrumentos específicos de gran sensibilidad. Como no estallaron en un periodo breve de tiempo, no hubo invierno nuclear.

Por cierto que con los fenómenos de invierno nuclear (o volcánico, o meteorítico, etcétera) pasa un poco lo mismo. Al principio es muy intenso, pero desde el día uno los humos y cenizas se van posando y en unos años o décadas se disipa totalmente por sí mismo, como ha ocurrido muchas veces en la larga historia de la Tierra. Sin embargo, hay otras fuentes de contaminación mucho más persistentes. Por ejemplo, los metales pesados no-radiactivos. Estos metales son básicamente estables y, por sí mismos, no desaparecen nunca. Como mucho se diluyen, en parte pasando a la cadena alimentaria. Al papeo, vamos. Pero, normalmente, sólo al de los pobres.

Hay otros agentes químicos a los que les cuesta mucho degradarse. Y luego hay cosas que hacen cisco ciertos ecosistemas frágiles, como las bolsas de plástico. No obstante todo ello, al menos una parte de la pupa que le hacemos al planeta se puede remediar. Sólo hace falta la pasta, la conciencia y las ganas de trabajar.

Habrá a quien le parezca que esto es jugar a los dioses, violar a la Madre Tierra y todas esas cosas frankensteinianas que al final habrán de costarnos caro. Pero mira, llevamos jugando a los dioses desde que inventamos el fuego, o antes. Esa es una de las características esenciales del ser humano como especie: más que adaptarse al medio, adaptamos el medio a nuestra conveniencia. Desde que nos pareció oportuno clarear el primer bosque, seguramente allá por el Paleolítico, le metimos antorcha y santas pascuas. Ahora que vamos siendo un poquito más conscientes de las consecuencias de hacer el animal como si no hubiera mañana, hablamos de mitigación y remediación. Es un avance.

Y aún así…

Punto azul pálido

El famoso “punto azul pálido”, en la banda marrón de la derecha, un poco hacia abajo del centro. Esa es nuestra Tierra vista desde 6.000 millones de kilómetros por la nave espacial Voyager-1. Ahí está, hoy por hoy, todo lo que somos. Foto: NASA.

…aún así, son sólo 25 kilómetros. Los recorro con el metro de mi ciudad por dos euros con ochenta céntimos, billete sencillo. Uno con cuarenta si me pillo el bono. A decir verdad, en nuestro estado de desarrollo actual es, en la práctica, mucho menos. Si de algún modo estropeamos gravemente los primeros tres kilómetros de aire, donde vivimos algo así como el 99% largo de la humanidad, tenemos un problema. Gordo. Tres kilómetros es la longitud de una avenida mediana puesta de pie. Si te asomas a la ventana, a menos que vivas entre edificios como yo, vas a ver más de tres kilómetros a tu alrededor. ¿Has viajado en avión? Bueno, pues esa es la altitud a la que sueles estar unos tres o cuatro minutos después de separar las ruedas del suelo. Y eso que los aviones de pasajeros suben tranquilitos. Si fueses en un cohete Soyuz-2, lo harías en unos treinta segundos, antes de acelerar en serio.

No tenemos muchas bases de operaciones a más de tres kilómetros de altitud. Está La Paz, Bolivia, y luego una serie de pueblos cada vez más pequeños e infértiles hasta llegar a una localidad minera muy contaminada que se llama La Rinconada, en Perú (interesante). A partir de ahí, ya sólo puedes encontrar algunos templos y puestos militares por la parte del Himalaya, cada vez soportando menos y menos población. Salvo aclimatación extrema, a esas altitudes ya andamos midiendo cosas como los tiempos de conciencia útil y engorros así.

Mar abajo, está claro: una persona inconsciente puede ahogarse en pocos centímetros de agua. Según el Guinness, un tipo puede resistir 22 minutos sin respirar, hiperventilándose primero con oxígeno y manteniéndose muy quieto. Pero no más. Para sumergirnos bajo el mar, necesitamos máquinas. Hay unas máquinas estupendas llamadas submarinos, algunos de los cuales pueden operar varios años a cientos de metros de profundidad con entre 60 y 150 personas a bordo. Como dije en el post anterior, aquellos que funcionan a propulsión nuclear e incluyen hombres y mujeres en su tripulación pueden convertirse en excelentes cápsulas de supervivencia de la humanidad. Lamentablemente, no disponen de muchas plazas y casi todas ellas están reservadas para tripulantes con una formación en extremo exigente. Seguro que siempre encontrarán algún hueco donde embutir a Su Excelencia y algún Excelentísimo Pariente, pero incluso los grandes submarinos atómicos no se caracterizan por disponer de mucho espacio libre o medios para mantener a mucha más gente que su tripulación. Por debajo del primer kilómetro pasamos ya a los batiscafos y cosas por el estilo, cuya autonomía (cuando son autónomos) suele medirse en decenas de horas.

Pero el tremendismo en estos temas es casi tan perjudicial como la acción perniciosa, las excusas ridículas y la perezosa inacción. Si hablamos de los grandes problemas planetarios, si hablamos de los grandes daños al medio ambiente, cualquiera de estas cosas importantes, y lo planteamos en términos de ¡vamos a morir todoooos!… bien, pues le estamos haciendo el juego a quienes la lían a conciencia y a quienes pasan de todo. Esto funciona como aquel cuento tan viejo del lobo. Si te pasas la vida avisando de que llega el día y el día nunca llega, porque no era realista, al final todo el mundo pasa de tu cara y, ya puestos, de las cuestiones incómodas verdaderamente graves.

Llevo oyendo hablar de escenarios cataclísmicos, tormentas perfectas, el colapso de esta civilización decadente, esa guerra que supuestamente nos tenía que tocar a cada generación, días del juicio varios y lobos que vienen desde que sólo tenía pelo en la cabeza. Y no, al final resultó que esto no va así. Por supuesto que hay lobos, pero se comen mayormente a los pobres y los débiles, como toda la santa vida. Hay muchas cosas que pueden llevarse por delante a un bebé mísero de los deltas de Bangladesh, que duerme a un metro de altura sobre el nivel del mar. Hay muy pocas cosas que puedan hacer lo mismo con un señor que desayuna en Nueva York y cena en Hong Kong tras un agradable viaje en su jet privado, como no sea que se estampe con él. Por no mencionar una vez más a los chicos, y chicas, del submarino. Esto no va de novedosos e improbabilísimos apocalipsis globales. Esto va de agravar o no injusticias viejas perfectamente reales hoy por hoy.

En último término, es que resulta que esos veinticinco kilómetros no son nuestros. Apenas tenemos ningún derecho sobre ellos; tan solo una minúscula parte proporcional, casi infinitesimal. Quien los estropea por la cara no sólo es un indeseable y un guarro a escala planetaria por mucho desodorante que se eche; es además un ladrón, porque está saqueando algo que no es suyo, y posiblemente un homicida.  Esos veinticinco kilómetros pertenecen a todos los vivientes y a todas las generaciones futuras, no a ninguno de nosotros. Aquí no hay nada gratis. Todas las cochinadas y estupideces que cometamos, ellos las pagarán. Al menos, hasta que encuentren la manera de largarse a sitios mejores y olvidar a sus patéticos antepasados para siempre jamás.

40 Comentarios Trackback / Pingback (1)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (39 votos, media: 4,74 de 5)
Loading ... Loading ...
Be Sociable, Share!

« Página anterior« Entradas anteriores « Página anterior · Página siguiente » Entradas siguientes »Página siguiente »