Archivo de Tecnología

Actualización 1: Estado de las centrales nucleares de Fukushima a las 19:00 (11:00 CET) del 15 de marzo de 2011

Nota 2 sobre los accidentes nucleares de Fukushima.

Ver también: Secuencia de acontecimientos en todas las centrales nucleares afectadas Video aéreo de los daños en Fukushima I Mediciones de radiación Estado de los reactores afectados

*** ATENCIÓN: Información caducada el 16/03/2011 ***

>>> INFORMACIÓN ACTUALIZADA AQUÍ <<<

Actualización 1 de la anterior: A las 19:00 hora de Japón (11:00 hora española) del 15 de marzo de 2011, según el Foro Industrial Atómico de Japón (JAIF), la situación en las centrales nucleares de Fukushima era la siguiente:

Estado de la central nuclear Fukushima I a las 19:00 (local) del 15/03/2011. Caducada el 16/03/2011. Fuente: JAIF. La Pizarra de Yuri.

Estado de la central nuclear Fukushima I a las 19:00 (local) del 15/03/2011. Caducada el 16/03/2011. Fuente: JAIF. La Pizarra de Yuri.

Estado de la central nuclear Fukushima II a las 19:00 (local) del 15/03/2011. Caducada el 16/03/2011. Fuente: JAIF. La Pizarra de Yuri.

Estado de la central nuclear Fukushima II a las 19:00 (local) del 15/03/2011. Caducada el 16/03/2011. Fuente: JAIF. La Pizarra de Yuri.

269 Comentarios Trackbacks / Pingbacks (4)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (30 votos, media: 4,80 de 5)
Loading...
Be Sociable, Share!

Estado de las centrales nucleares de Fukushima a las 20:30 (12:30 CET) del 14 de marzo de 2011

Primera nota sobre los accidentes nucleares de Fukushima.

Ver también: Secuencia de acontecimientos en todas las centrales nucleares afectadas Video aéreo de los daños en Fukushima I Mediciones de radiación Estado de los reactores afectados

A las 20:30 hora de Japón (12:30 hora española) del 14 de marzo de 2011, según el Foro Industrial Atómico de Japón (JAIF), la situación en las centrales nucleares de Fukushima era la siguiente:

***ATENCIÓN *** Esta información podría estar caducada. Actualización de las 01:45 CET del 15/03/2011 ***

***ATENCIÓN *** Esta información está caducada. Actualización de las 04:00 CET del 15/03/2011 ***

>>> *** INFORMACIÓN ACTUALIZADA AQUÍ *** <<<

Estado de la central nuclear Fukushima I a las 20:30 (local) del 14/03/2011. Fuente: JAIF. La Pizarra de Yuri. (Clic para ver mejor)

Estado de la central nuclear Fukushima I a las 20:30 (local) del 14/03/2011. Fuente: JAIF. La Pizarra de Yuri. Información caducada a las 04:00 CET del 15/03/2011 (Clic para ver mejor)

Estado de la central nuclear Fukushima I a las 20:30 (local) del 14/03/2011. Fuente: JAIF. La Pizarra de Yuri. (Clic para ver mejor)

Estado de la central nuclear Fukushima II a las 20:30 (local) del 14/03/2011. Fuente: JAIF. La Pizarra de Yuri. Información caducada a las 04:00 CET del 15/03/2011.

196 Comentarios Trackbacks / Pingbacks (6)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (49 votos, media: 4,82 de 5)
Loading...
Be Sociable, Share!

Así vuela un avión

…y un helicóptero, y un velero (“planeador”), y los pájaros también.
En general, cualquier cosa más pesada que el aire, excepto los cohetes y proyectiles.


El avión más grande del mundo, un Antonov-225 de 640.000 kg MTOW con matrícula UR-82060,
despega del aeropuerto de East Midlands en un día frío y
ventoso de diciembre de 2005.
¿Qué clase de fuerza hace que una maldita cosa de 640 toneladas vuele?
;-D

Circulan por ahí muchas explicaciones de los motivos por los que vuela un avión. Sin embargo, una buena parte son erróneas y otras, incompletas. Las razones por las que un ala (fija o rotativa) genera sustentación parecen bastante oscuras, empezando por el hecho asombroso de que un maquinón de cientos de toneladas vuele como un pájaro… o incluso mejor. Como siempre, trataremos de aportar un poquito de luz al respecto. ;-)

Las fuerzas básicas del vuelo: peso, sustentación, empuje y arrastre.

Las fuerzas básicas del vuelo: peso, sustentación, empuje y arrastre.

De la necesidad de las alas.

Vimos ya en el post sobre los aviones supersónicos que hay cuatro fuerzas básicas del vuelo: peso, empuje, resistencia al avance y sustentación.  El peso está bastante claro y se deriva de la fuerza de la gravedad, que es la atracción natural entre los objetos con masa; la aeronave y la Tierra se atraen entre sí, con una enorme desproporción a favor de la Tierra. Fue Newton quien describió por primera vez esta ley de la gravitación universal, y a Newton le debemos también la segunda y tercera leyes del movimiento que explican el empuje: el empuje es una fuerza reactiva producida cuando un objeto acelera o expulsa masa en una dirección, lo que ocasiona una fuerza proporcional en sentido contrario. La resistencia al avance o arrastre obedece a varios fenómenos a la vez, entre los que se encuentra el rozamiento, y que podríamos resumir como la suma de las fuerzas que actúan en sentido opuesto al empuje.

Nosotros vamos a concentrarnos hoy en la sustentación. La sustentación es una fuerza aerodinámica perpendicular al flujo del aire, que se produce cuando un objeto avanza a través del mismo. Cualquier objeto puede producir sustentación, pero sólo los objetos con un determinado perfil producen más sustentación que arrastre para vencer al peso eficientemente. Este perfil es el denominado perfil alar (airfoil). La eficiencia de un ala se mide mediante la relación sustentación-arrastre (lift-to-drag ratio).

El ala, pues, resulta de gran utilidad para el vuelo porque es capaz de producir mucha sustentación con muy poco arrastre, en un gorrioncillo o en un Airbus A380. Los cohetes no tienen alas porque toda su fuerza ascensional procede del empuje, lo que resulta muy costoso energéticamente (pero muy útil cuando vas a mandar algo a un lugar donde no hay aire, y por tanto no se pueden producir fuerzas aerodinámicas). Para que algo más pesado que el aire vuele con un consumo razonable de energía, necesita un ala o algo que desempeñe la función del ala para generar sustentación. Y ahora, al grano: ¿cómo se produce esta sustentación? ¿Por qué las alas quieren volar?

Partes del ala.

Partes del perfil alar (sección del ala). Utilizaremos los siguientes términos en el texto a continuación: extradós, intradós, cuerda, borde de ataque y borde de salida; si no los conoces, sería conveniente que los localizaras en el gráfico para tener claro de qué hablamos. ;-)

Explicación (incorrecta) de la sustentación por efecto Venturi.

Explicación (incorrecta) de la sustentación por efecto Venturi. El aire acelerara al tener que realizar un recorrido mayor por el extradós que por el intradós; supuestamente, eso actuaría como una “boquilla de Venturi”, reduciendo la presión del aire encima del ala. Sin embargo, no hay nada encima del ala que permita contener el aire para que esta “boquilla de Venturi virtual” pueda llegar a producirse: la superficie está “al aire”. Si este fuera el principio de funcionamiento de la sustentación, el vuelo invertido no sería posible con un ala simple y los aviones de papel caerían al suelo sin más.

Las explicaciones incorrectas (o incompletas).

Como apunté al principio, hay varias explicaciones muy populares para la sustentación que o son incorrectas, o son incompletas. Una de las más comunes es la que podríamos denominar la “explicación Venturi“, no porque la propusiera Venturi (que obviamente no lo hizo), sino porque se atribuye la sustentación al efecto Venturi. Según esta explicación (recordemos: incorrecta) la parte superior del ala o extradós estaría construida con una curvatura mayor y por tanto mayor longitud que la parte inferior o intradós. Cuando la aeronave pasa a través del aire, cortándolo, eso aceleraría el aire que pasa por la parte superior, reduciendo así su presión como en una boquilla de Venturi. Esta zona de baja presión generada encima del ala actuaría como una “ventosa”, produciendo la sustentación.

Esta explicación presenta varios problemas insuperables. El más fundamental, obviamente, es que el extradós de un ala no es una boquilla de Venturi: se trata de una superficie plana, no de ninguna clase de cilindro. Tendríamos sólo una pared de la boquilla y faltaría el resto; por tanto, no puede actuar de ese modo.

Como consecuencia de este error, se derivarían efectos curiosos que no se dan en la realidad. Uno de ellos es que un avión no podría volar boca abajo, puesto que en ese caso el extradós apuntaría hacia el suelo y la sustentación generada apuntaría hacia el suelo también, con lo que esta fuerza se sumaría al peso y el aparato se desplomaría más que como una piedra. Sin embargo, esto evidentemente no es así: los aviones pueden realizar vuelo invertido. Otro efecto curioso sería que la forma del intradós (la parte inferior) sería irrelevante, puesto que toda la sustentación se generaría en el extradós. Esto tampoco es así: la forma del intradós es tan importante como la del extradós y un perfil alar con un intradós de cualquier manera no funciona si intentamos construirlo en la práctica.


Un Sukhoi Su-31 acrobático, pilotado por Jurgis Kairys, pasa por debajo de un
puente en vuelo invertido. Esta maniobra no sería posible si la sustentación del
ala se generase únicamente en el extradós (por efecto Venturi o de cualquier otro modo),
puesto que al invertir el vuelo lanzaría a la aeronave hacia abajo junto con el peso.

Otra explicación parecida, que también supone que la sustentación se genera en el extradós (y por tanto haría igualmente imposible el vuelo invertido) podría denominarse como la conjetura del tiempo de tránsito igual. Esta conjetura se sustenta en la misma idea que la anterior y de hecho constituye una variante de la misma: la parte superior del perfil alar estaría diseñada para ser más larga que la inferior y cuando el ala corta el aire, éste tendría que viajar más deprisa por el extradós que por el intradós para encontrarse de nuevo en el borde de salida. Debido a esta velocidad mayor se produciría una zona de baja presión sobre el extradós, en este caso debida al principio de Bernoulli, lo que originaría la sustentación. Podemos ver que se parece mucho a la anterior, sustituyendo a Venturi por Bernoulli.

Conjetura (débil) de sustentación por efecto Bernoulli.

En la “variante Bernoulli”, la zona de baja presión se produciría laminarmente en la superficie del extradós debido a la mayor velocidad del aire que circula por él. Este efecto provoca algo de sustentación, pero mucho menos que la medida en la realidad, y tampoco explicaría ni el vuelo invertido ni el del avioncito de papel.

Tampoco funciona. ;-) Para ser más exactos, no funciona lo suficiente. En realidad, una vez las dos láminas de aire se han separado en el borde de ataque, no hay ningún motivo por el que tengan que encontrarse al mismo tiempo en el de salida y de hecho no lo hacen. En la práctica, ocurre algo curioso: las moléculas de aire que circulan sobre el extradós se aceleran muchísimo más de lo esperado en esta conjetura del tiempo de tránsito igual y escapan por el borde de salida mucho antes de que lo hagan las que circulan bajo el intradós. Se podría pensar: “bueno, pues estupendo, ¿no? ¡Así se magnifica el efecto Bernoulli y aumentará aún más la presión diferencial!”.

Lamentablemente, no. :-P De hecho, si se aplica la ecuación de Bernoulli para calcular las presiones así generadas, resulta que la sustentación final sería muchas veces menor que la observada en la realidad a pesar de la diferencia de velocidades. Y si esta fuera la causa fundamental de la sustentación, nos volveríamos a encontrar con que no puede explicar el vuelo invertido (cuando la aeronave se pusiera boca abajo, la fuerza “saliendo del extradós” la empujaría hacia abajo y se desplomaría a gran velocidad).

Ambas suposiciones se basan en principios físicos reales y sobradamente comprobados, lo que contribuye a la confusión porque no están “evidentemente mal”, violando las leyes de la física.  Bernoulli y Venturi estaban en lo cierto. Lo que pasa es que estos no son los principios fundamentales que producen la sustentación (y de hecho ninguno de los dos científicos propuso jamás cosa semejante, entre otras cosas porque ambos son muy anteriores al vuelo de máquinas más pesadas que el aire). Por Venturi no se produce ninguna sustentación (no hay boquilla de Venturi) y por Bernoulli se produce muy poquita, prácticamente despreciable en el conjunto del fenómeno.

Las dos explicaciones presentan además el problema del avioncito de papel (o del ala delta, por ejemplo). En un avioncito de papiroflexia, el ala es prácticamente un plano sin diferencia significativa alguna entre su parte inferior y su parte superior (una hoja de papel, vaya…). Si las aeronaves funcionasen por algún mecanismo de acción diferencial entre el intradós y el extradós, un avioncito de papel no volaría porque no hay distinción práctica entre los dos lados del ala. Ni un ala delta, ni ninguna otra cosa por el estilo. No. Nasti. Necesitamos una hipótesis mejor.

Avión de papel

Sí, parece una coña, pero no lo es. Cualquier hipótesis de la sustentación aerodinámica que no explique algo tan aparentemente sencillo como el vuelo de un avioncito de papel es probablemente errónea y con toda seguridad incompleta. En un avión de papel, el perfil alar es plano a efectos prácticos y el intradós y extradós, idénticos; con lo que todas las conjeturas sustentadas estrictamente en mecanismos de presión diferencial entre ambas superficies lo tienen muy mal. Cosas de la ciencia. :-P Pero si no explica el vuelo de un avioncito de papel, ¿cómo pretenderemos que explique el vuelo de un Airbus A380 de 569.000 kilos MTOW? :-D

Modelo (débil) de sustentación por acción-reacción.

La conjetura de sustentación por acción-reacción, producida cuando las moléculas del aire impactan en el intradós, sólo funciona a velocidades y altitudes muy grandes. Para la mayor parte de casos, tampoco basta.

Una tercera conjetura, un poco más correcta pero aún insuficiente, se diferencia de las dos anteriores en que supone que la sustentación se genera en el intradós (la parte inferior) mediante un mecanismo newtoniano de acción-reacción (tercera ley del movimiento). Según esta idea, las moléculas del aire golpean la parte inferior del ala (que está algo angulada sobre su eje transversal) y rebotan como una piedra rebotando sobre el agua; al hacerlo, la “empujan” hacia arriba y con ella al resto del aparato. Parece una proposición maja, ¿eh?

Aquí el problema radica en que también hay aire en la parte superior. Y por tanto, sus moléculas rebotan igualmente sobre el extradós, anulando cualquier sustentación significativa producida por este mecanismo en el intradós (una empuja hacia arriba y la otra hacia abajo). Dar por buena esta explicación supondría también imaginar que dos alas con el mismo perfil inferior y distinto perfil superior generarían exactamente la misma sustentación; en el mundo real, se observa enseguida que esto no va así. Tampoco tendrían sentido dispositivos de conocida utilidad práctica como los spoilers, que actúan completamente sobre la sustentación generada en el extradós (si en la parte superior no se produjera sustentación, entonces, ¿por qué intentar intervenir sobre la misma?). Por otra parte, si sacamos los cálculos de la sustentación producida por este método, tampoco cuadran con los registrados en el mundo real.

Esto tiene una excepción. En vuelo de muy-muy gran altitud y muy-muy alta velocidad, algo así como más de 270.000 pies y más de diez mil kilómetros por hora –vamos, un transbordador espacial reentrando hipersónico en la atmósfera terrestre o cosa parecida–, este efecto parece predecir correctamente la sustentación observada en la realidad. Se debería a que, en condiciones de avance muy rápido y muy baja presión y densidad del aire, la cantidad de moléculas de aire que “aprietan y golpean” sobre el extradós sería significativamente inferior a las que “aprietan y golpean” sobre el intradós (particularmente durante un vuelo descendente, como suele ocurrir en las reentradas…).

Sin embargo, en los vuelos más corrientes –por ejemplo el de un jetliner, típicamente a 30 o 35.000 pies de altitud y 800 a 900 km/h– este efecto se cancela a sí mismo porque las moléculas de aire golpean por igual en el extradós y el intradós y como resultado no genera ninguna sustentación significativa.

Adicionalmente, los dos primeros modelos no explican y el tercero no describe correctamente otro efecto significativo observado en el vuelo real: cuanto más baja es la velocidad y mayor es la carga, más alto debe ser el ángulo de ataque (hasta un cierto límite). El ángulo de ataque es el ángulo entre la cuerda y la dirección del aire incidente. De la “explicación Venturi” y la “explicación Bernoulli”, que dependen únicamente de la diferencia de longitud entre extradós e intradós, no se deduce ningún motivo por el que el ángulo de ataque deba variar en el vuelo a baja velocidad y/o con más carga. En la “explicación reactiva” podría encontrarse alguna justificación, pero si sacamos los cálculos, de nuevo resulta que no. Vamos a tener que pensar en algo mejor aún.

La máquina ala.

El elemento esencial para entender la sustentación no es la forma del ala, sino el ángulo de ataque. Acabamos de decir que esto es el ángulo entre la cuerda alar y la dirección del aire. Para que nos quede claro por completo, veámoslo en un dibujín:

Ángulo de ataque

El ángulo de ataque es el formado entre la cuerda alar y la dirección del aire.

¿Y por qué el ángulo de ataque es la clave? Pues porque los tres gráficos de arriba (los de las caritas :-D ) están mal. La parte de la derecha (la correspondiente al flujo de aire detrás del ala) está dibujada incorrectamente. En la realidad, cualquier ala que presente un ángulo de ataque distinto de 0º produce un flujo de aire más parecido al siguiente:

Flujo real de aire en torno a un ala en avance

Flujo real de aire en torno a un ala en avance.

Avión pasando cerca de una capa de nubes, lo que evidencia el downwash y los vórtices.

En esta foto se aprecia muy bien el “downwash” generado por un avión. Al pasar cerca de la capa de nubes, este aire desviado hacia abajo abre una especie de canal tras la aeronave. También se distinguen los vórtices producidos en las puntas de las alas, lo que ocasiona esa especie de “rizos” en la nube.

Puede observarse que al paso del ala hay una gran cantidad de aire que resulta desviada hacia abajo (en adelante, downwash). Si el ala está invertida, siempre que se mantenga el ángulo de ataque, el flujo de aire sigue circulando hacia abajo. De hecho, esto es exactamente lo que hace un piloto para volar en invertido: ajustar el ángulo de ataque. Y, por supuesto, el fenómeno también se produce con un ala totalmente plana como la de un avioncito de papel.

De hecho, el perfil alar es esencialmente irrelevante para la sustentación. La importancia del perfil alar está relacionada con el arrastre, y por tanto con la relación sustentación-arrastre (lift-to-drag ratio) que definirá finalmente la eficiencia del ala. Pero la sustentación a secas tiene muy poco que ver con el perfil alar y mucho con este ángulo de ataque y la formación del downwash.

¿Cuánto aire desvía hacia abajo el ala en forma de downwash? ¡Bastante! Una avioneta Cessna 172 de 1.045 kg volando a 220 km/h con un ángulo de ataque alar de 5º desvía unas trescientas toneladas por minuto; un avión grande a velocidades próximas a Mach 1, miles de toneladas por segundo. La manera exacta como se produce semejante fenómeno está muy bien explicada de forma bastante sencilla en este escrito (en inglés, me temo) redactado por David F. Anderson (que, además de físico retirado en el Laboratorio Nacional Fermi y el CERN, es piloto y entusiasta de la aviación) y Scott Eberhard, doctor en tecnología aeroespacial y diseñador para Boeing.

Flujo de aire en torno a un ala Kármán-Trefftz a 8º de ángulo de ataque.

Flujo potencial de aire en torno a un ala con perfil Kármán-Trefftz a 8º de ángulo de ataque.

¿Y por qué la formación del downwash produce sustentación? Cosas de Newton, y específicamente de su tercera ley del movimiento. Recordémosla:

“Con toda acción ocurre siempre una reacción igual y contraria: o sea, las acciones mutuas de dos cuerpos siempre son iguales y dirigidas en sentido opuesto.”

El ala provoca un cambio en el momento del aire que está desviando a razón de cientos o miles de toneladas por segundo (acción) y a cambio se produce en la misma una fuerza igual y opuesta (reacción). Si el aire está siendo desviado hacia el suelo, esta fuerza igual y opuesta empuja hacia el cielo. Eso es, exactamente, la sustentación. Así de simple.

La manera precisa como se desarrollan estos flujos de aire y la sustentación consiguiente es extremadamente compleja y se describe mediante las ecuaciones de Navier-Stokes. A pesar de esta complejidad en el detalle, algunos elementos principales de la sustentación se pueden describir de forma bastante sencilla, pues se derivan directamente de las leyes newtonianas que son centrales al fenómeno. Por ejemplo, los siguientes:

Alphajet y Mirage 2000.

Durante una exhibición en Cambrai, un caza Mirage 2000C acompaña a un avión táctico Alphajet, mucho más lento. Puede observarse cómo el piloto del Mirage ha tenido que aumentar notablemente el ángulo de ataque para mantener la sustentación a una velocidad tan baja (para su diseño). Este fenómeno no tendría sentido si la sustentación no fuera fundamentalmente dependiente del ángulo de ataque. Foto: Ian Older en airliners.net.

  • Hemos quedado en que la sustentación es una fuerza reactiva igual y opuesta a la transferencia de momento al aire ocasionada por el ala. Dado que el momento es igual a la masa por la velocidad, la sustentación es directamente proporcional a la cantidad de aire desviado y la velocidad vertical del mismo: cuanto más aire se desvíe a mayor velocidad vertical, más aumenta la sustentación, y viceversa. Por eso un ala de gran longitud a gran ángulo de ataque genera mucha más sustentación que un ala de poca superficie a poco ángulo de ataque: el ángulo de ataque determina cuál va a ser el componente vertical de la masa de aire desviada, mientras que la superficie alar define cuánto aire se desviará.
  • La masa de aire desviada es directamente proporcional a la velocidad del ala, a su longitud y la densidad del propio aire. Si la densidad del aire es baja (como sucede, por ejemplo, a gran altitud) hace falta un ala más grande o más veloz para desviar la misma masa de aire. Por este motivo, los aviones que deben volar a gran altitud tienen alas muy largas y/o motores muy potentes.
  • La velocidad vertical de la masa de aire desviada es directamente proporcional al ángulo de ataque (como ya hemos dicho) pero también a la velocidad del ala. A mayor velocidad de avance, se puede obtener la misma sustentación con un ángulo de ataque menor. Por eso, a poca velocidad (por ejemplo, durante un aterrizaje) el ángulo de ataque se incrementa mucho.
  • Conforme la carga de la aeronave aumenta, se requiere más sustentación. Eso significa que se requiere más velocidad del ala, más longitud del ala (en la práctica, más área, pues de lo contrario la carga alar será muy elevada y se romperá) y/o más ángulo de ataque.

En la sustentación aerodinámica actúa también otro efecto significativo: los vórtices. En la parte superior del ala la presión suele ser más baja que en la parte inferior. En la punta del ala, el aire tiene libertad para moverse de la zona de alta presión (debajo) a la zona de baja presión (arriba), lo que genera una fuerte turbulencia en espiral que son estos vórtices. Esto produce un componente de downwash adicional, muy intenso en el extremo del ala y más débil hacia el centro de la aeronave, que contribuye significativamente a la sustentación final (a favor o en contra dependiendo del tipo de vuelo; en los aviones, generalmente actúan en contra). Algunas aves ligeras como los colibrís y numerosos insectos son capaces de mantener vuelo estacionario exclusivamente mediante la generación de esta clase de turbulencias, batiendo sus alas (si bien a un coste energético elevado). El vuelo del frisbee es una combinación de efecto Bernoulli y sobre todo vórtices de borde de salida. Los vórtices de extremo alar son también el componente básico de la estela turbulenta que las aeronaves dejan detrás. Los winglets (esas aletitas en las puntas de las alas que llevan los aviones modernos) sirven para optimizar la generación de estos vórtices (minimizándolos, ya que en este caso actúan en contra).

Gráfica de ángulo de ataque frente a sustentación

La sustentación es una función directa del ángulo de ataque. El perfil alar, por su parte, es importante para determinar algunas de las características esenciales del vuelo, como la relación sustentación-arrastre o el ángulo crítico de entrada en pérdida.

Quisiera incidir en una cosa. Estoy diciendo todo el rato que la sustentación es fundamentalmente dependiente del ángulo de ataque, no del perfil alar, y así es. Pero eso no quiere decir que el perfil alar no tenga importancia en la fuerza ascensional final. Como ya apunté, el perfil alar es definitivo para el arrastre, que es la fuerza que se opone al empuje (recuerda el primer gráfico de este post). Si el arrastre aumenta mucho (si la relación sustentación-arrastre se reduce), el avión volará cada vez peor y finalmente no volará en absoluto. También es clave en la formación y desarrollo de la capa límite.

Vinculado con esto último, otro fenómeno de interés en este asunto es la entrada en pérdida (stall), relacionado al mismo tiempo con el ángulo de ataque y con el perfil alar. De lo dicho anteriormente podría pensarse que el ángulo de ataque se puede aumentar de manera ilimitada (hasta los 90º o cerca) para incrementar la sustentación. Sin embargo, esto no es así. La capacidad del ala para desviar el aire y producir el downwash depende de la incompresibilidad y de la viscosidad del aire; incomprensibilidad y viscosidad que tienen un límite. Dicho en términos sencillos, el ala sólo puede desviar el aire si éste se mantiene “adherido” a su superficie; a partir de cierto ángulo de ataque, el aire comienza a “desprenderse” del ala y la sustentación colapsa rápidamente. Este ángulo de ataque máximo a partir del cual el aire se separa significativamente de un determinado perfil alar se llama ángulo de ataque crítico.

La entrada en pérdida se produce habitualmente cuando una velocidad baja obliga a aumentar tanto el ángulo de ataque que éste supera al ángulo de ataque crítico (lo que a veces sucede porque las características de sustentación del ala han variado, por ejemplo mediante la acción –o inacción– de los flaps u otros dispositivos hipersustentadores). Esta velocidad mínima a la que un avión puede volar sin que el obligado ángulo de ataque supere al ángulo de ataque crítico es la velocidad de entrada en pérdida.

Una vez perdida, la única manera de recuperar la sustentación es que el ángulo de ataque caiga otra vez por debajo del ángulo de ataque crítico. Esto puede ser más complicado de hacer que de decir si a consecuencia de la pérdida el avión ha entrado también en barrena.

Un cohete Soyuz se aleja hacia el espacio por el interior de la atmósfera terrestre.

Un cohete Soyuz se aleja hacia el espacio, aún dentro de la atmósfera terrestre. La sustentación de un cohete es en su mayor parte no-aerodinámica, generada a pura fuerza de motores con un alto coste energético. Las naves espaciales sólo deben respetar las leyes de la aerodinámica mientras se encuentran en la atmósfera.

¿Y por qué vuela un helicóptero?

Se desprende de todo lo dicho que la sustentación aerodinámica depende de varias cosas. Una, de que haya un aire, esto es, un fluido gaseoso que desviar con un ala; por ejemplo, este que forma la atmósfera terrestre y que tenemos la costumbre de respirar. (Aún queda por ahí quien cree que el aire es “la nada” o “el vacío”, pero esto evidentemente no es así: aunque sea generalmente invisible al ojo, se trata de un gas compuesto por nitrógeno y oxígeno en su 99%) Aquellas naves cuyo propósito es viajar por lugares donde no hay aire, como las naves espaciales, sólo usan los principios aerodinámicos durante el lanzamiento o la reentrada en la atmósfera terrestre; durante el vuelo espacial propiamente dicho, se rigen por otra aplicación muy distinta de las leyes de Newton. Los proyectiles en general se rigen por las leyes de la balística.

Las aeronaves más ligeras que el aire, es decir los globos y dirigibles, no vuelan por sustentación aerodinámica sino por flotabilidad, siguiendo el principio de Arquímedes exactamente igual que un barco o un submarino hacen en el agua. De hecho, en inglés a los dirigibles se les llama airships: los barcos del aire. Del mismo modo, se podría decir que barcos y submarinos son los dirigibles del agua: generalmente flotan y no se van al fondo del mar matarilerilerile por flotabilidad, no por sustentación hidrodinámica. Algunos navíos en los que la sustentación hidrodinámica resulta importante para su funcionamiento son los hidroalas o, simplemente, una tabla de surf. Pero todos los buques, de superficie o submarinos, son esencialmente hidronaves más ligeras que el agua.

Entre unos y otros se encuentran los aerodeslizadores (hovercrafts) y los ekranoplanos. Ambos se comportan técnicamente como aeronaves, si bien su sustentación obedece a un efecto aerodinámico distinto: el efecto suelo. En el caso de los aerodeslizadores, se trata de un colchón de aire producido al disparar este gas directamente contra el suelo, en un efecto acción-reacción. Los ekranoplanos utilizan el efecto suelo de manera mucho más eficaz cuando se desplazan sobre el agua.

La sustentación aerodinámica (e hidrodinámica, que vienen a ser dos caras de la misma moneda) requiere además velocidad. Ya hemos visto por qué: la sustentación aerodinámica es dependiente de la velocidad del ala con respecto al aire. Si no hay velocidad, el aire no se puede desviar, no hay ángulo de ataque, no hay downwash, no hay vórtices y no hay sustentación que valga. Tanto los pájaros como los aviones, ambos más pesados que el aire, vuelan porque avanzan (si bien ya mencionamos que algunos animales muy ligeros, como los colibríes y varios insectos, pueden generar sustentación estática durante largo rato mediante la generación de vórtices de borde de ataque; eso sí, a gran coste energético).

Helicóptero a baja altitud

En este tipo de imágenes se aprecia bien el efecto causado por el “downwash” del ala rotativa (“hélice superior”) en el agua que hay debajo.

Los helicópteros no son una excepción y también obtienen su sustentación aerodinámica mediante el movimiento de su ala con respecto al aire. ¿Qué ala? Pues la pala o “hélice”, claro. Las palas de un helicóptero son sus alas, que se mueven en círculo con respecto al aire mediante un motor rotativo, generando así la sustentación exactamente igual que cualquier otra ala.

De hecho, todas las hélices son alas rotativas; incluyendo, por ejemplo, un ventilador. El airecito que nos da un ventilador no es sino el downwash aerodinámico inducido por el ala rotativa (y es bien sabido lo muy bien y muy peligrosamente que vuelan cuando se sueltan del eje, hasta que pierden velocidad). La primera máquina más pesada que el aire de la humanidad fue también un ala rotativa: el búmeran (boomerang) y diversos tipos de palos lanzables en general, mucho más antiguos que el arco y la flecha, cuyos orígenes se pierden en las sombras de la prehistoria.

De viejo fue sueño humano esto de volar, cosa de locos y visionarios. Y aunque ahora ya nos resulte natural por completo, hace apenas 227 años que los hermanos Montgolfier se elevaron al cielo con su globo, los fundamentos teóricos de la aerodinámica no fueron establecidos hasta 1799 y hubo que esperar hasta 1903 para que los hermanos Wright desarrollaran el vuelo controlado, autopropulsado y sostenido exclusivamente por fuerzas aerodinámicas de una máquina más pesada que el aire. Apenas 107 años después, volar de un lugar a otro parece haberse convertido en cosa corriente e incluso hablamos de las crisis de la aviación, olvidando a menudo que aún vive gente que conoció un mundo donde todavía no habíamos aprendido a volar.

Para más información y detalles:

Anderson, D. y Eberhardt, S. (2009), A physical description of flight, revisited (ex-Fermi National Laboratory / Boeing, resumen de  Understanding flight de McGraw-Hill, por los mismos autores). Disponible en inglés aquí.

203 Comentarios Trackbacks / Pingbacks (47)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (87 votos, media: 4,71 de 5)
Loading...
Be Sociable, Share!

Proliferación de armas de destrucción masiva

¿Qué son realmente las armas de destrucción masiva?
¿Cuántas hay? ¿Quién las tiene? ¿Qué pasa con su proliferación?

Gernika bombardeada.

El bombardeo de Gernika por la aviación nazifascista aliada de Franco, el 26 de abril de 1937, inspiró al arzobispo de Canterbury para acuñar la expresión "armas de destrucción masiva". Foto: Deutsches Bundesarchiv.

Ha sido uno de los clichés más determinantes en la política y la propaganda de esta primera década del siglo XXI: las llamadas armas de destrucción masiva y su posible proliferación a estados problemáticos o grupos terroristas se han convertido en una especie de mantra que vale para todo y lo justifica todo. Sin embargo, el asunto presenta muchos más matices y recovecos de lo que seguramente les gustaría a quienes utilizan esta expresión esperando que todo el mundo se obre encima de miedo y suplique salvapatrias. O salvamundos. Para empezar, ¿qué son realmente estas armas de destrucción masiva? ¿Cuántas hay? ¿Quién las tiene? ¿Y qué pasa exactamente con su proliferación?

Armas de destrucción masiva.

El primer uso documentado de la expresión armas de destrucción masiva corresponde al arzobispo anglicano de Canterbury y Primado de Inglaterra Cosmo Gordon, en 1937, refiriéndose al bombardeo nazifascista de la localidad vasca de Gernika y el inicio de la Segunda Guerra Sino-Japonesa:

¿Quién puede pensar en este momento, sin que el corazón se le enferme, sobre la masacre terrible, el sufrimiento, las múltiples miserias que la guerra ha llevado a España y a China? ¿Quién puede pensar sin horrorizarse sobre lo que significaría otra guerra generalizada, librada como sería con todas estas nuevas armas de destrucción masiva?

–”Llamamiento del arzobispo”, The Times (Londres) 28 de diciembre de 1937, pág. 9.

Durante los años siguientes, armas de destrucción masiva continuaría siendo prácticamente sinónimo de bombardeo en alfombra. Esta táctica bélica, consistente en el lanzamiento de un gran número de bombas convencionales de aviación contra un área general para alcanzar uno o varios objetivos particulares, presenta ya la característica principal del concepto: una notoria desproporción entre la fuerza empleada y la entidad del objetivo militar declarado, con enormes daños colaterales y el añadido de un factor sociológico de terror y desmoralización entre los civiles considerados enemigos. Estaríamos, pues, ante una forma de terrorismo de estado a gran escala.

La catedral de Coventry tras el bombardeo.

La catedral de Coventry tras el bombardeo alemán del 14 de noviembre de 1940. Los graves daños sufridos por esta localidad británica acuñaron el término "coventrizar una ciudad"; la decisión nazi de bombardear así las ciudades aliadas durante la primera fase de la Segunda Guerra Mundial desencadenaría una represalia colosal, que se saldó con las inmensas tragedias de Hamburgo, Dresde, Tokio, Hiroshima o Nagasaki. La frase "armas de destrucción masiva" adquiría así un significado nuevo y aún más terrible.

Hasta casi finales de la Segunda Guerra Mundial, se mantendría esta identificación de las armas de destrucción masiva con el bombardeo estratégico mediante aviones o cohetes convencionales de distintos tipos. De hecho, las máximas expresiones de destrucción masiva en un acto bélico siguen siendo ataques de este tipo realizados durante este conflicto, fundamentalmente por las fuerzas aéreas de los Estados Unidos y el Reino Unido. El bombardeo incendiario de Tokio a manos de la aviación norteamericana, en la noche del 9 al 10 de marzo de 1945, continúa siendo la mayor matanza concentrada de civiles en un solo acto destructivo de la historia de la humanidad: en torno a cien mil personas perecieron en menos de tres horas (cifra oficial: 83.000; según los bomberos de Tokio: 97.000), unas cuarenta o cincuenta mil resultaron heridas y un millón se quedaron sin casa.

Hamburgo bombardeada

Hamburgo tras los grandes bombardeos que sufrió. Foto: Imperial War Museum.

Nagasaki antes y después del ataque atómico.

Nagasaki antes (arriba) y después (abajo) del ataque atómico. Foto: United States Strategic Bombing Survey. (Clic para ampliar)

Como es sobradamente conocido, este conflicto terminó con otras dos grandes matanzas perpetradas por las fuerzas estadounidenses con un nuevo tipo de arma: los bombardeos atómicos de Hiroshima y Nagasaki, hasta el día de hoy el único uso de armamento nuclear en una guerra real. Aunque el número de víctimas inmediatas fue menor (entre otras cosas, porque se trataba de armas muy primitivas lanzadas sobre localidades más pequeñas), la cifra final por fallecimiento de heridos y enfermos resultó bastante mayor: entre 150.000 y 246.000 (de 90.000 a 166.000 en Hiroshima y de 60.000 a 80.000 en Nagasaki; aunque la bomba de Nagasaki era bastante más potente, se desvió hacia un área industrial, estalló más lejos del centro urbano y las colinas alrededor del río Urakami hicieron de escudo para zonas significativas de la ciudad). Las muertes instantáneas fueron de 70.000 a 80.000 personas en Hiroshima y de 40.000 a 70.000 en Nagasaki, civiles en su inmensa mayoría.

Sin embargo, la proporción de mortandad fue inmensamente mayor que en cualquier otro caso anterior. Durante la noche del gran bombardeo incendiario de Tokio, residían en la capital nipona unos seis millones de personas; aceptando la cifra de los bomberos (97.000 muertos), pereció el 1,61% de la población. En otros grandes bombardeos, las cifras fueron algo superiores: el 2% en Dresde (25.000 muertos de 1.250.000 habitantes: 645.000 de preguerra y unos 600.000 refugiados), el 3,3 % durante la Operación Gomorra contra Hamburgo (37.000 muertos de 1.130.000 habitantes) o el 4,2% en Kassel.

En el bombardeo atómico de Hiroshima fue aniquilado instantáneamente el 22% de la población y el 47% como resultado de los efectos secundarios (75.000 y 166.000, respectivamente, de 340.000-350.000 habitantes). Esto es, un orden de magnitud más que en los grandes bombardeos convencionales: entre once y veintitrés veces más que en Dresde, entre siete y catorce veces más que en Hamburgo. Aunque Nagasaki “salió peor” (desde el punto de vista de los atacantes), la mortandad instantánea fue del 15-28% y la total, del 30-32%. Todo ello, con bombas precarias llevadas a correprisas a la guerra.

Así se entiende fácilmente que el concepto arma de destrucción masiva pasó de ser sinónimo del bombardeo de alfombra a significar, en buena medida, “arma nuclear”. Parece que los primeros en definir así esta nueva clase de bombas fueron los soviéticos, con la expresión оружие массового поражения (literalmente, “armas de destrucción masiva”), aunque en los Estados Unidos había comenzado a utilizarse también armas adaptables para la destrucción masiva. En 1947, Oppenheimer establecería definitivamente la expresión en Occidente. Hoy en día, las armas nucleares y termonucleares siguen considerándose los máximos representantes de este tipo de armamento.

Pero no los únicos. Generalmente se acepta que las armas químicas y biológicas forman también parte de este concepto, por su carácter incluso más indiscriminado y su capacidad de matar o herir a numerosas personas y otros seres vivos más allá de la supresión del objetivo militar declarado. Las armas químicas son sustancias tóxicas que se dispersan para envenenar al enemigo, mientras que las biológicas consisten en microorganismos causantes de enfermedades que buscan su incapacitación. Ambas se han utilizado desde tiempos remotos. El envenenamiento de las flechas, que puede considerarse un tipo de arma química, data de la Prehistoria; lanzar cadáveres en descomposición a las ciudades sitiadas, o enviar a víctimas de enfermedades infecciosas a territorio del oponente para provocarle epidemias, son técnicas militares que se vienen usando al menos desde los orígenes de la civilización.

Víctimas del bombardeo químico de Halabja.

El último gran ataque químico contra civiles fue perpetrado por las fuerzas iraquíes contra la población kurda de Halabja, el 16 de marzo de 1988, en el contexto de la guerra Irán-Iraq. Aunque en un principio se intentó echar la culpa a Irán, finalmente quedó determinado que había sido realizado por el Iraq de Saddam Hussein, entonces aliado de Occidente. Para la masacre, que causó 15.000 víctimas, se usó tecnología química estadounidense, alemana y de otros países. En la foto, un periodista iraní documenta la matanza.

Las armas químicas y biológicas se consideran habitualmente menos eficaces y destructivas que las armas nucleares, y más fáciles de contrarrestar con técnicas modernas. La vacunación, la cuarentena y el simple reparto de máscaras antigás a la población reduce enormemente sus efectos. Excepto por algunas armas biológicas muy especiales, su diseminación efectiva resulta más complicada de lo que parece y exige algo parecido a un gran bombardeo convencional para hacerlo a escala significativa; en este blog ya hablamos, por ejemplo, del “ántrax” y sus peculiaridades.

Se incluye también normalmente a las armas radiológicas o bombas sucias entre las de destrucción masiva. Hay quien las considera un tipo de arma nuclear, pero en realidad se parecen muchísimo más a un arma química, sólo que sustituyendo la sustancia tóxica por una sustancia radioactiva; en todo lo demás, no se diferencian gran cosa de las químicas y presentan ventajas e inconvenientes muy similares. Aunque es posible diseñar un tipo de arma nuclear-radiológica extremadamente aniquiladora, la llamada bomba del juicio final, no consta que se haya construido nunca una y requiere disponer primero de un arma atómica para hacerlo. Por el extremo contrario, una bomba atómica pobremente diseñada o construida que diera lugar a un chisporroteo de baja o mediana energía podría considerarse técnicamente un tipo de arma radiológica.

Otras personas discrepan de que las armas nucleares, químicas-radiológicas y biológicas sean las únicas de destrucción masiva, o incluso las más representativas. Señalan que su uso resulta excepcional, prácticamente inexistente, y su espectacularidad contribuye a disimular los mecanismos más habituales de muerte violenta en el mundo. Organizaciones como Oxfam Internacional, Amnistía Internacional o IANSA aducen por ejemplo que la humilde bala sirve para matar a quinientas mil personas al año: una Hiroshima cada cuatro meses. Según el Comité Internacional de la Cruz Roja, las minas antipersonales matan y amputan a entre 8.000 y 24.000 personas al año, la mayoría niños, con el mismo carácter indiscriminado y mayor crueldad que las armas de destrucción masiva más glamurosas.

Por su parte, la munición de racimo olvidada tras los conflictos tiene efectos parecidos. Recientemente, la Convención contra las Municiones de Racimo ha sido firmada por 105 países y ratificada por 47; por desgracia, entre estos no se encuentra ninguno de los principales fabricantes de armamento. Lo mismo sucede con el Tratado de Ottawa contra las minas antipersonales.

Armas nucleares en el mundo, 2010.

Armas nucleares en el mundo, 2010. Rusia: 12.000 (4.650 activas, de las cuales 2.600 son estratégicas). Estados Unidos: 9.600 (2.468 activas, de las cuales 1.968 son estratégicas). Francia: ~300 (todas activas). China: 240 (~180 activas). Reino Unido: 225 (menos de 160 activas). Israel: 80 (estimadas). Pakistán: 70-90 (estimadas). India: 60-80 (estimadas). Corea del Norte: menos de 10 (estimadas). Fuente de los datos: Federation of American Scientists. (Clic para ampliar)

Proliferación y reducción.

Al igual que el concepto arma de destrucción masiva es discutido, el de proliferación también tiene sus detractores debido a una variedad de motivos. El más común es que parece restringir el “derecho de posesión” a los países que ya disponen de ellas, poniendo el foco –y el rechazo– de la opinión pública sobre países pequeños y relativamente indefensos mientras lo aleja de los grandes y poderosos que disponen de miles de ellas muchísimo más avanzadas. Esto crearía estados de primera con privilegios especiales, estados de segunda con los que se tiene tolerancia y estados de tercera a los que echar a los perros, una discriminación notablemente injusta.

Esta discrepancia no carece de mérito, si bien resulta oportuno hacer algunas precisiones. Por un lado es cierto que, por ejemplo, el Tratado de No-Proliferación Nuclear de 1968 reconoce el derecho de posesión de armas nucleares a cinco países: Estados Unidos, Rusia (como estado sucesor de la Unión Soviética), el Reino Unido, Francia y la República Popular China. Así expresado, parece claramente una injusticia y sorprende que lo haya firmado todo el mundo menos Israel, India y Pakistán (más Corea del Norte, que lo denunció en 2003): ¿qué tienen estos países que no tengan otros?

Bueno: es que el Tratado de No-Proliferación no se consideraba un fin en sí mismo, sino un medio para comenzar el proceso de desarme nuclear en conjunción con otros convenios internacionales. Es, por expresarlo de algún modo, un acuerdo de contención temporal; algo así como “impidamos que sigan surgiendo potencias nucleares, para facilitar que quienes ya lo son reduzcan o incluso eliminen en el futuro sus arsenales”. Sin duda resulta más imaginable el desarme nuclear en un mundo donde no hay amenazas atómicas por todas partes; además, poner de acuerdo a cinco es más fácil que poner de acuerdo a cincuenta.

No se puede olvidar que el Tratado de No-Proliferación se firmó durante los años más duros de la Guerra Fría. Habría sido poco realista esperar que los poseedores de armas nucleares renunciaran a ellas de la noche a la mañana. Sin embargo, funcionó, al menos en parte: inmediatamente a continuación vinieron los Acuerdos SALT (1969-1979) y el de Misiles Anti-Balísticos (1972), lo que después permitiría el de Misiles de Alcance Intermedio de 1987, los START I y II de 1991 y 1993, el SORT de 2003 o el nuevo START de 2010 (y la revisión de este mismo año al Tratado de No-Proliferación original). Así, hemos pasado de las 75.000 armas nucleares de la Guerra Fría a las 22.600 del presente (7.700 operacionales y el resto en almacenamiento). El nuevo START pretende reducir el número de cabezas estratégicas activas a la mitad. No es ninguna maravilla, pero probablemente resulta mejor que lo que había y difícilmente se habría logrado en un mundo con una proliferación generalizada.

Submunición estadounidense de dispersión biológica E120.

Submunición estadounidense de dispersión biológica E120, retirada del servicio a finales de los años '60. Los problemas de dispersión limitan significativamente la eficacia de las armas químicas y biológicas.

Más éxito parece estar teniendo la Convención de Armas Químicas de 1993, cuyo propósito es la erradicación completa de las mismas. Sólo quedan siete países que no hayan ratificado el tratado: Israel, Myanmar, Angola, Egipto, Corea del Norte, Somalia y Siria. El resto del mundo, incluyendo de forma muy significativa a los grandes poseedores (Estados Unidos y Rusia, con 31.500 y 40.000 toneladas respectivamente) participan en este proceso de desarme. Las sesenta y cinco fábricas de armas químicas letales declaradas han sido desactivadas; cuarenta y dos se han destruído y diecinueve se han reconvertido para uso civil; los arsenales existentes se están destruyendo a buen ritmo. Existen bastantes motivos para pensar que llegaremos a 2012 con una cantidad muy reducida de armamento químico en el mundo.

El estado del armamento biológico es más ambiguo. Si nos guiamos por las declaraciones públicas, nadie reconoce fabricarlo, nadie reconoce poseerlo y nadie lo ha usado en las últimas décadas. En ese sentido, la Convención de Armas Biológicas habría tenido un éxito notable. La pura verdad es que, salvo en algún periodo histórico, nunca fueron excesivamente populares; y con la llegada del arma nuclear, han ido quedando relegadas a un papel de arma de pobres. No obstante, existen motivos para sospechar que se mantienen activos al menos algunos programas de investigación defensiva que probablemente trasciendan los límites de la defensa (más detalles, sobre diversos países, en el artículo sobre el “ántrax”).

Una proliferación paralela a la de estas armas de destrucción masiva es la cada vez más ubicua presencia de misiles de largo alcance. A fin de cuentas, ningún arma sirve de gran cosa sin una manera eficaz de servírsela al enemigo; y en esta función, los misiles siguen sin tener rival. Son ya varios los países que disponen de un programa espacial y por tanto de misiles balísticos intercontinentales (ICBM/SLBM) con variado nivel tecnológico. Ya no sólo hablamos de Estados Unidos y Rusia (que los tienen de todos los sabores y capacidades), sino también del Reino Unido (con el Trident II del primo americano), China (DF-5 y DF-31, pronto los DF-41 y JL-2), Francia (M45, limitado a 6.000 km; se espera pronto el M51), Israel (Jericó III, aunque con algunas limitaciones), India (Agni V, también con limitaciones y restringido a 6.000 km) y probablemente Corea del Norte (Taepodong-2, si bien con severas limitaciones tecnológicas). El mundo de los MRBM (1.000 a 3.000 km de alcance) e IRBM (3.000 a 5.500) está mucho más poblado, e incluye también a Pakistán (Ghauri y Shaheen II) e Irán (Sajjil, Shahab 3 y Ashura). El Régimen de Control de Tecnologías Misilísticas y el Código de La Haya parecen estar teniendo algún efecto, pero no demasiado.

Camión lanzador del ICBM ruso Tópol-M.

Camión lanzador MZKT-79221 del ICBM ruso RT-2PM2 Tópol-M, durante el Desfile de la Victoria de 2010. (Nueva ventana o pestaña para ampliar)

Durante los últimos años ha llegado al público el debate sobre los misiles antimisil y muy ruidosamente sobre los distintos escudos propuestos sobre todo en los Estados Unidos (aunque la URSS y luego Rusia también tienen una larga experiencia al respecto). Ya he manifestado alguna vez en este blog mi hondo escepticismo ante tales sistemas de defensa de área extensa, los haga el yanqui, el ruso o el sursum corda: la espada es más poderosa y mucho más barata que el escudo; la espada elige el tiempo, el lugar y la sorpresa; la espada puede concentrar su fuerza en uno o varios puntos débiles mientras el escudo debe protegerlos a todos a la vez; el coste de una mejora tecnológica en la espada es muchas veces inferior al coste de mejorar el escudo para contrarrestarlo; siempre hay cosas que el escudo no puede parar, y una vez roto por un sitio, roto por todos. Es concebible que un escudo muy sofisticado pueda detener un número reducido de armas relativamente primitivas; pero no más.

Entre estas cosas que ningún escudo puede detener hoy por hoy, salvo que las pillaran por los pelos en la fase de despegue, se encuentra el pulso electromagnético de gran altitud o bomba del arco iris y los sistemas de bombardeo orbital fraccional de alcance global (FOBS); totalmente prohibidos, pero perfectamente disimulables en lanzadores espaciales y la solución obvia al problema planteado por un escudo antimisiles. Un satélite FOBS, que puede camuflarse como cualquier otra cosa, no tendría problemas significativos para soltar cabezas desde su órbita –incluso desde órbitas lejanas– por fuera del alcance de los radares del tipo BMEWS/PAVE PAWS/HEN HOUSE/Don/Daryal y lejos de la vista de los satélites DSP/Oko si el lanzamiento se produce con antelación al conflicto. No resulta evidente de qué manera podrían detectarse estas cabezas FOBS antes de que iniciaran la reentrada en la atmósfera terrestre o incluso antes de que hicieran impacto, ni cómo interceptarlas en caso de que opten por trayectorias remotas (y habría que ver cómo funcionan radares del tipo de AN-FPS-85 o GRAVES tras un ataque de pulso electromagnético o de oscurecimiento por ionización).

Proliferación a grupos particulares.

Cohete nuclear estadounidense M388 Davy Crockett.

Cohete nuclear estadounidense M388 Davy Crockett, con su lanzador. Contenía la cabeza nuclear W54, una de las más pequeñas que se han creado, usada también en la carga de demolición nuclear SADM (la "bomba en una maleta"). Con una potencia máxima de 20 tones, menos de la milésima parte que Nagasaki, se consideraba poco más que un arma radiológica. Algunas cabezas posteriores de tamaño similar elevaron la potencia a 0,6 kilotones. Existe el temor de que este tipo de armas miniaturizadas puedan caer en manos de grupos terroristas clandestinos.

El mantra propagandístico sobre los riesgos de la proliferación a que me refería al principio se ha orientado fundamentalmente contra la posibilidad de que esta clase de armas lleguen a estados problemáticos o grupos terroristas particulares. La probabilidad real de que una organización terrorista clandestina consiga u opere este tipo de armas, y especialmente armas nucleares, es muy baja por una diversidad de razones. La primera es que las armas nucleares, o las químico-biológicas avanzadas, evidentemente no están en venta. Las atómicas, además, incorporan sistemas criptográficos y otras medidas para impedir su uso indebido. Incluso aunque alguien consiguiera un arma nuclear aprovechando un colapso político como el que ocurrió en la URSS –y donde ninguna acabó fuera de su sitio; un día de estos te contaré cómo– o algún despiste como los que han tenido recientemente en los Estados Unidos, no podría usarla sin las correspondientes claves (si bien los misiles Minuteman norteamericanos tuvieron la clave 00000000 durante varios años y los británicos protegían sus bombas termonucleares WE.177 con cerrojos parecidos a los de las bicicletas).

Conseguir componentes de un arma nuclear para montársela uno mismo resulta muchísimo más difícil y exige disponer de especialistas experimentados más algunos instrumentos que no se pueden obtener con facilidad. Para un grupo clandestino, resolver la geometría del arma, asegurar la sincronía de inserción y mantener la seguridad físicanuclear para impedir que algunos materiales esenciales se echen a perder puede constituir un desafío imposible. Que no es como montar un mueble del IKEA, vaya. Si se quiere hacer pequeña y portable, menos aún. Por supuesto, es posible; pero muy improbable. En todo caso, nunca se ha encontrado un arma nuclear ni componentes sustanciales de las mismas en manos de un grupo terrorista particular.

En la práctica, la seguridad que rodea a las armas nucleares es excepcional. Hay incontables niveles de protección física, lógica y por la vía del espionaje para defenderlas. Si un tipo te propone comprarte una bomba atómica de las que cuidas en tu silo, lo más probable es que estés ante un agente provocador y la salida correcta es denunciarlo inmediatamente a tus superiores. Por otra parte, el tráfico de materiales nucleares militares es una actividad de alto riesgo y la probabilidad de que vivas el tiempo suficiente para disfrutar de tu dinero resulta próxima a cero. No esperes que nadie, en ningún lugar, haga muchas preguntas sobre lo que te pasó. Parafraseando a Vladimir Putin, “se hundió”.

Atentado con gas sarín contra el metro de Tokio.

Los equipos de emergencia acuden al atentado con gas sarín contra el metro de Tokio, perpetrado por la secta apocalíptica Aum Shinrikyō el 20 de marzo de 1995. Es el ataque terrorista con armas no convencionales más grave de la historia: causó 13 muertes y unas mil personas resultaron afectadas en distintos grados.

Algunos grupos han utilizado ocasionalmente armas químicas, si bien a muy bajo nivel. Fue muy destacado el ataque con gas sarín contra el metro de Tokio perpetrado por la secta apocalíptica japonesa Aum Shinrikyō; el saldo de víctimas ascendió a trece muertos, cincuenta heridos graves y mil afectados leves, mucho menos de lo previsto en un caso así. La insurgencia iraquí ha hecho estallar varios camiones cargados con gas cloro en diversos atentados; aparentemente, el gas no provocó mucho más que diversas molestias y todos los muertos fueron causados por la detonación de los explosivos. En general, el uso de agentes químicos de la naturaleza y en la cantidad que puede manejar una organización terrorista clandestina es extremadamente ineficaz. En una utilización militar normal, suelen hacer falta bastantes toneladas bien dispersadas para producir algún efecto útil.

Cosa parecida sucede con el terrorismo biológico. Descontando el caso del ataque con carbunco de 2001 en los Estados Unidos, que ya hemos visto que tuvo un origen muy extraño, los dos únicos bioatentados que se recuerdan en épocas recientes bordean el ridículo. El primero de ellos también fue cosa de los chalados de Aum Shinrikyō: en junio de 1993 liberaron un aerosol de carbunco en Tokio, sin provocar ni una sola infección; militarizar las esporas resulta más complicado de lo que parece. El segundo ocurrió en Oregón en 1984, donde otros tarados –esta vez seguidores de Osho– lo intentaron contaminando con salmonella los buffets de ensaladas de diez restaurantes. Sí, así de cutre, y el efecto estuvo a la altura: aunque 751 personas contrajeron salmonelosis y hubo que ingresar a 45, ni una sola perdió la vida. Vamos, que poniendo a un lado lo de 2001, todos los daños causados por el temido y temible bioterrorismo se reducen a… unas cagaleras.

No obstante, aquí sí resulta prudente hacer alguna consideración adicional. Un grupo decidido, con algunos especialistas cualificados y recursos paraestatales –o paraempresariales, de una compañía mediana e incluso relativamente pequeña– podría diseñar y militarizar un arma biológica de manera relativamente sencilla a poco que contase con una buena cepa base. Evitaremos entrar en detalles, pero los materiales necesarios resultan relativamente sencillos de obtener y operar con un grado razonable de seguridad. Más complicado sería ponerlo todo en marcha sin levantar sospechas.

Una bomba sucia es fácil de construir mediante el sencillo procedimiento de envolver una carga explosiva en materiales radioactivos, por ejemplo basura nuclear o una fuente radiológica estilo Goiânia. Sin embargo, un arma así tendría un efecto predominantemente local, con el área de mayor peligrosidad reducida a unas decenas de metros; si nadie resulta herido por la explosión, sería bastante raro que llegara a ocasionar alguna muerte directa. Como mucho, algún cáncer con el paso de los años y muchísimas gracias.Vale, el efecto económico resultaría notable si por ejemplo estallara en un centro financiero importante, pero en unas semanas serían noticias antiguas.

Emblema oficial de la Information Awareness Office estadounidense.

Emblema oficial de la Information Awareness Office estadounidense. ¿Una broma orwelliana? No. Era real. Su alcance resultaba tan excesivo que fue públicamente cancelada en 2003, pero varios de sus proyectos siguen adelante por otras vías.

En suma: que en la inmensa mayoría de usos posibles para las organizaciones terroristas clandestinas, las armas de destrucción masiva son más bien armas de destrucción chiquitina. Para idear alguna situación en que uno de estos dispositivos causara por sí mismo más mal que –por ejemplo– un camión bomba bien cebado, hay que imaginar una trama un tanto novelesca. Esto no quiere decir que resulte imposible, claro: es bien sabido que la realidad, en ocasiones, supera a la ficción. Pero la vida en la clandestinidad ya es lo bastante complicada como para liarse con operaciones muy complejas e impredecibles; y salvo que a alguien le surja alguna ocasión de oro, la gente prefiere dejar las gollerías de destrucción masiva a los estados y concentrar sus recursos –siempre limitados– en algo barato y que mate mucho de forma bien comprobada y conocida. Eso son, exactamente, los explosivos convencionales. El vulgarísimo ANFO (básicamente, fertilizante nitrogenado y gasoil) se ha demostrado mucho más efectivo para las organizaciones ilegales que todas las armas de destrucción masiva del mundo; y si le pueden echar mano a un poco de ciclonita o cosa así para ponerle la guinda al petardo, ya tienen el día hecho. Y a las pruebas me remito: eso es lo que ocurre día sí, día no en este planeta viejo.

Por todo ello, las armas de destrucción masiva son temibles en manos de estados u organizaciones de similar poder, pero la probabilidad de que le sirvan de algo a un grupo clandestino es francamente reducida. Como fenómeno sociopolítico global, resulta de lo más intrigante observar cómo un gran número de países se están cargando una montaña de libertades en nombre de defendernos contra una amenaza… que nunca se ha plasmado de ninguna manera significativa. Es casi como subir los impuestos para montar un ejército que nos defienda de una invasión extraterrestre; cosa que tampoco resulta técnicamente imposible pero sin duda es poco probable. La verdad, suena a excusa o a paranoia para hacernos tragar con cosas que seguramente no tragaríamos sin ese miedo. Las armas de destrucción masiva fueron siempre armas de terror, incluso aunque no se utilizaran, y parece que siguen siéndolo en la actualidad. Aunque no de la manera que dicen.

100 Comentarios Trackbacks / Pingbacks (28)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (120 votos, media: 4,84 de 5)
Loading...
Be Sociable, Share!

Así funciona una central nuclear

Energía nuclear de fisión.


La película El Síndrome de China (1979) sigue conteniendo una de las mejores explicaciones sencillas del funcionamiento de una central nuclear.
Sin embargo, hoy intentaremos profundizar un poquito más.

Pues… que me he dado cuenta de que aquí hemos hablado con detalle sobre armas nucleares, termonucleares e incluso del juicio final. Y sobre las perspectivas de la fisión y de la fusión, sobre los héroes y mitos de Chernóbyl, sobre la central nuclear más grande del mundo, mil cosas… pretendo incluso elaborar un todavía futuro post sobre lo sucedido de verdad en Chernóbyl (ya te dije, resulta más difícil distinguir la paja del grano de lo que parece, y ese quiero que sea riguroso y documentado hasta el extremo)… pero aún no he explicado cómo funciona realmente una central nuclear y el ciclo de su combustible. Yo, que soy así de chulo. :-/

La central nuclear de Cofrentes vista desde el pueblo. Foto de la Pizarra de Yuri.

La central nuclear de Cofrentes (Valencia) vista desde el pueblo. Contiene bajo la cúpula un reactor de agua en ebullición (BWR) que produce 1.092 MWe. (Clic para ampliar)

Producción, demanda y balance de importación - exportación de la Red Eléctrica de España

Producción, demanda y balance importador/exportador de la Red Eléctrica de España, 1995-2010. Datos tomados de los informes mensuales en www.ree.es/operacion/balancediario.asp (Clic para ampliar)

Seguramente sabrás, y si no ya te lo cuento yo, que una central nuclear es una fábrica de electricidad. Cualquier día típico en España, las centrales nucleares producen uno de cada cinco vatios que consumimos para mover nuestras vidas (¿te imaginas un mundo sin electricidad?). Esta cifra del 19%, que antes era mayor (hace quince años era del 35%), es ahora similar a la de los Estados Unidos o el Reino Unido. Por el momento, vamos servidos: España es, desde hace más de un lustro, exportador neto de electricidad (sí, exportador; y sí, desde mucho antes de la crisis: si te han dicho otra cosa, te han mentido. Observa que en los informes de la REE el saldo importador aparece en positivo y el exportador en negativo).

Una central nuclear es, además, un tipo particular de central térmica. Es decir: la energía eléctrica se produce generando calor. En las centrales térmicas corrientes se utilizan grandes quemadores a carbón, gas natural o derivados del petróleo como el gasoil, bien sea en ciclo convencional o en ciclo combinado, con o sin cogeneración. En todo caso se trata, básicamente, de calentar agua en unas calderas hasta que ésta se convierte en vapor con fuerza suficiente como para hacer girar una turbina según los ciclos de Carnot y Rankine. El eje rotativo de la turbina impulsa a su vez el de uno o varios alternadores, que son los que producen la energía eléctrica en sí. Cuando hablamos de estos grandes generadores instalados en las centrales eléctricas y conectados a potentes turbinas de vapor, se suelen denominar turboalternadores.

La pura verdad es que no resulta un método muy eficiente: se pierde aproximadamente entre una tercera parte y las dos terceras partes de la energía térmica producida (y por tanto del combustible consumido) debido a las ineficiencias acumulativas de estos mecanismos y a las limitaciones teóricas del ciclo de Carnot. Toda central térmica del presente, nuclear o convencional, necesita producir entre dos y tres vatios térmicos para generar un vatio eléctrico. Esto es: uno o dos de cada tres kilos o litros de su valioso combustible –petróleo, gas natural, carbón, uranio– se malgastan en estropear cosas caras dentro de la instalación y ocasionar contaminación térmica en el exterior. Típicamente, una central nuclear capaz de generar mil megavatios eléctricos debe producir tres mil térmicos. Es lo que hay. Si se te ocurre alguna manera de mejorarlo, no dejes de comentármelo, que tú y yo tenemos que hablar de negocios. :-D

Así pues, la clave de toda central térmica consiste en calentar agua para producir vapor que haga girar unas turbinas y con ellas unos alternadores eléctricos. En el caso particular de una central nuclear, este calor se origina por medios… eso, nucleares. :-) Específicamente, hoy por hoy, mediante la fisión de átomos pesados e inestables como algunos isótopos del uranio. Veámoslo.


Cualquier cosa capaz de hacer girar el eje de un alternador producirá energía eléctrica.
Arriba, un alternador manual;
abajo, el eje de un gigantesco generador hidroeléctrico en la Presa Hoover, Estados Unidos.

Fisión nuclear y reacción en cadena.

Ya te conté un poquito de cómo va esto de la fisión y la reacción en cadena en Así funciona un arma nuclear. Vamos a repasarlo por encima, centrándonos en esta aplicación civil. Como sabes, existen algunas sustancias en la naturaleza que son radioactivas. ¿Qué quiere decir esto? Bueno, su propio nombre nos da una pista: radio-activas. O sea: no son totalmente inertes desde el punto de vista físico, como cualquier otro piedro, líquido o gas. Por el contrario, los núcleos de sus átomos presentan una actividad física que se expresa en forma de radiación; para ser más exactos, en forma de radiaciones ionizantes. Estas radiaciones son más energéticas y pueden causar más alteraciones en la materia que las no ionizantes, como las que emite una televisión de tubo, una antena de radio o un teléfono móvil.

¿Por qué se produce esta radioactividad? Para contestar a eso hay que responder primero a otra pregunta: ¿por qué algunos núcleos atómicos no son estables? Esto se debe a que la configuración de protones y neutrones en su núcleo es anómala y tiende a un estado de menor energía. Veámoslo con un ejemplo, que ya introdujimos en Así funciona un arma termonuclear. La mayor parte del carbono que nos compone (a nosotros y a otro buen montón de cosas en este universo) es carbono-12 (12C). Se llama así porque tiene en su núcleo seis protones y seis neutrones: en total, doce partículas. Este es un núcleo estable, que no tiende espontáneamente a un estado de menor energía bajo condiciones corrientes. El hecho de tener seis protones en su núcleo es lo que hace que sea carbono; este número no debe variar o pasará a ser otra cosa.

Algunos isótopos del carbono: carbono-12, carbono-13 y carbono-14.

Algunos isótopos del carbono: carbono-12, carbono-13 y carbono-14.

Sin embargo, su número de neutrones sí que puede variar, y seguirá siendo carbono. Por ejemplo, cuando tiene seis protones y siete neutrones (total, trece partículas) estamos ante el carbono-13 (13C). El carbono-13 es también estable en condiciones estándar y, de hecho, aproximadamente el 1,1% del carbono natural (incluyendo el que forma nuestro cuerpo) pertenece a esta variante. Como sigue siendo carbono, sus propiedades químicas (y bioquímicas) son prácticamente idénticas; las físicas varían un poquito, pero muy poco.

Si este núcleo presenta un neutrón más, entonces estamos ante el carbono-14 (14C), que constituye una billonésima parte del carbono natural y está compuesto por seis protones y ocho neutrones. ¡Ah! Aquí cambia la cosa. Esta combinación ya no es estable: tiende a perder energía (y algún neutrón) para transformarse en otra cosa. Sus propiedades químicas y bioquímicas siguen siendo las mismas, pero las físicas difieren sustancialmente. Entre estas diferencias, de manera muy notoria, surge la radioactividad. Con el paso del tiempo, estos núcleos de carbono-14 van a sufrir transmutación espontánea para convertirse en otra cosa. Por ejemplo, en una muestra de carbono-14, la mitad de sus átomos transmutarán en 5.730 años aproximadamente. Cualquiera de ellos puede hacerlo en cualquier momento, por mero azar.

El carbono-14 lo hace por desintegración beta negativa: uno de sus neutrones se reajusta, pierde una carga negativa (en forma de un electrón) y con eso deja de ser neutrón (sin carga) y pasa a tener una carga positiva, con lo que ahora es un protón. Dicho en términos sencillos: un neutrón (neutro, como su nombre indica) “expulsa un negativo” para “quedarse en positivo”. Y al “quedarse en positivo” ya no es un neutrón, porque ya no es neutro: se ha convertido en protón (que es positivo). Con lo que ahora tenemos en el núcleo siete protones y siete neutrones. ¿Hemos dicho siete protones? ¡Entonces ya no puede ser carbono! Acaba de transformarse en nitrógeno, un gas en condiciones estándar con propiedades físico-químicas totalmente distintas; para ser exactos, en nitrógeno-14 (14N), el nitrógeno común. Sí, como en la transmutación que soñaban los alquimistas y que finalmente resolvió la física nuclear. (Observa que durante este último proceso el número de partículas en el núcleo no ha cambiado. Lo que ha cambiado es su naturaleza y configuración.)

Uranio-235 altamente enriquecido.

Uranio-235 altamente enriquecido. Rebajado con uranio-238 y dispuesto en forma de pastillas, constituye el combustible más frecuente de las centrales nucleares.

¿Y qué pasa con el electrón (“el negativo”) que ha emitido? Pues que escapa hacia el exterior, y además lo hace con una cierta energía: 156.000 electronvoltios. Estamos ante la radiación beta. Ya tenemos nuestra radioactividad.

Los núcleos atómicos pueden decaer y desintegrarse de distintas maneras, lo que ocasiona los distintos tipos de radioactividad. Pueden hacerlo en forma de un pequeño grupo de dos protones y dos neutrones (o sea, un núcleo de helio-4), que se llama partícula alfa y constituye la radiación alfa. O como acabamos de ver, emitiendo un electrón o un positrón, lo que forma la radiación beta. O en forma de fotones muy energéticos, de naturaleza electromagnética, que da lugar a la radiación gamma y X. O lanzando neutrones libres, en lo que viene a ser la radiación neutrónica. Cada una de ellas tiene unos efectos y una peligrosidad diferentes, pero todas son distintas manifestaciones del mismo fenómeno: la radioactividad. Todas estas emisiones son capaces de desarrollar trabajo, hacer cosas; entre otras, producen calor. Este calor es el que vamos a utilizar para calentar el agua que moverá las turbinas y con ellas los generadores de electricidad.

Algunos núcleos resultan tan inestables que además son fisionables. Es decir: no se conforman con hacerse retoques aquí y allá, sino que se parten en otros núcleos más pequeños. Al hacerlo, despiden una notable cantidad de energía en forma de energía cinética de los fragmentos, fotones (radiación gamma) y neutrones libres. De manera espontánea, esto sólo ocurre con núcleos muy grandes y pesados, que pueden contener unas configuraciones de lo más raro. Entre estos se encuentra el torio-232 (232Th) o el uranio-238 (238U).

Unos pocos núcleos fisionables son además fisibles. Es decir: la energía que emiten cuando se rompen es tan alta, su estabilidad resulta tan pobre y su sensibilidad al impacto de los neutrones libres es tan elevada que pueden fisionarse entre sí muy rápidamente, intecambiando neutrones una y otra vez. Cuando esto sucede, estamos ante la reacción en cadena: la fisión espontánea de un solo núcleo puede romper varios más, que a su vez rompen muchos más, y así hasta que se agote el material fisible. Hay muy pocos isótopos que reúnan estas condiciones; en la práctica, sólo dos sirven para producir energía de fisión a gran escala. Uno está presente en la naturaleza: el uranio-235 (235U). El otro hay que producirlo artificialmente: se trata del plutonio-239 (239Pu). Hay algunos más, todos ellos sintéticos, como el uranio-233 (233U).


La reacción en cadena. Un neutrón fragmenta un núcleo fisible, lo que produce más neutrones que fisionan los de alrededor, y así sucesivamente hasta que se agota el material o la reacción se contamina demasiado. Cada una de estas fisiones produce energía que se plasma, entre otras cosas, en forma de calor.

Es posible que hayas oído también hablar del torio como combustible para la fisión nuclear. Hablaré de ello con más detalle próximamente, pero ya te adelanto que no es ni con mucho la “solución mágica” que algunos pretenden.

Pila Chicago 1

La Pila Chicago-1, en Estados Unidos, donde Enrico Fermi y Leó Szilárd consiguieron la primera reacción en cadena autosostenida de la historia.

Masa crítica.

Hecho este inciso, sigamos. ¿Cómo se consigue la reacción en cadena? Pues es muy sencillo: simplemente acumulando el suficiente material fisible. Sí, sí, si echas el suficiente uranio-235 enriquecido o plutonio-239 en un cubo, él solito se activará y comenzará a producir energía. De hecho, así ocurren los accidentes de criticidad, como los dos del famoso núcleo del demonio en el Laboratorio Nacional Los Álamos.

¿Cómo es esto posible? Sencillo. En cualquier masa de material fisible hay siempre algún átomo sufriendo fisión espontánea, que vimos más arriba. Si no hay mucho material, los neutrones generados escapan al medio exterior y la reacción en cadena no se produce. Pero cuando se alcanza cierta cantidad de material fisible, la probabilidad de que estos neutrones alcancen a otros núcleos durante su fuga se incrementa; entonces, estos núcleos fisionan y producen más neutrones. Ya tenemos la reacción en cadena.

En consecuencia, por el simple hecho de echar suficiente material fisible en una piscina de agua, éste sufrirá una reacción en cadena y el agua se calentará. Usando uranio-235 puro, bastaría con unir las dos mitades de una esfera de 52 kg dentro de una balsa y tendrías tu reactor nuclear. Claro, la cosa no es tan sencilla. Para empezar, tú no quieres hacer eso; porque si lo haces, obtendrás una excursión instantánea de energía nuclear y con ella uno de esos bonitos accidentes de criticidad abierta que se parecen a una bomba atómica floja aunque no sean realmente una bomba atómica. Y luego, ¿cómo lo paras?

El primer reactor nuclear de la historia fue la Pila Chicago-1, creada por Enrico Fermi y Leó Szilárd: un precario montaje de madera que soportaba capas alternas de grafito mezclado con seis toneladas de uranio puro junto a otras 34 de óxido de uranio. El grafito es un potente moderador neutrónico capaz de ralentizar los neutrones rápidos producidos por la fisión y transformarlos en neutrones térmicos (los alemanes tuvieron un error con el grafito y por eso no pudieron completar nucna un reactor operativo).  Esto tiene dos efectos. El primero es que facilita la fisión entre todo ese material disperso: los neutrones rápidos son demasiado energéticos y tienden a escapar al exterior, mientras que los térmicos están en su punto justo para mantener la reacción en cadena. El segundo es que lo puedes utilizar para acelerar y decelerar la reacción a tu gusto. Sin embargo, la Pila Chicago-1 sólo usaba el grafito para la primera función; la segunda quedaba asegurada mediante unas barras de cadmio, que absorbe los neutrones. Esto dio lugar al peculiar puesto de trabajo del hombre del hacha, quien debía cortar la cuerda para que estas barras cayeran de golpe si todo saliera mal. A las 3:25 de la tarde del día 2 de diciembre de 1942, esta Pila Chicago-1 situada en la ciudad estadounidense del mismo nombre produjo la primera reacción en cadena sostenida de la historia de la humanidad. Comenzaba así la Era Atómica.

Gráfica de intensidad neutrónica de la Pila Chicago-1

Gráfica de intensidad neutrónica de la Pila Chicago-1, el 2 de diciembre de 1942. Puede observarse el momento en que la reacción en cadena neutrónica se dispara por sí misma y no deja de aumentar hasta que se insertan las barras de control.

Las centrales nucleares modernas.

Tomemos como ejemplo la Central Nuclear de Cofrentes (Valencia), que me pilla cerca de casa. Cofrentes es un diseño estadounidense, desarrollado por General Electric, que se llama de reactor de agua en ebullición (BWR). Es el segundo diseño más popular entre los utilizados comúnmente en Occidente,  sólo por detrás del reactor de agua a presión (PWR). Veamos una representación esquemática de este BWR:

Diseño esquemático BWR de la Central Nuclear de Cofrentes (Valencia)

Diseño esquemático BWR de la Central Nuclear de Cofrentes (Valencia). (Iberdrola) (Clic para ampliar)

Vamos a concentrarnos en la parte central derecha de la imagen anterior, que es donde se genera la energía y se halla distribuida del siguiente modo:

Distribución general de los edificios de reactor, combustible y turbinas en la Central Nuclear de Cofrentes

Distribución general de los edificios de reactor, combustible y turbinas en la Central Nuclear de Cofrentes. (Iberdrola) (Clic para ampliar)

…y específicamente en el reactor, donde se produce la energía térmica que luego convertiremos en eléctrica. Ya dijimos que las centrales térmicas son muy poco eficientes: este reactor en particular genera 3.237 megavatios térmicos; sin embargo, la potencia final resultante es de 1.092 megavatios eléctricos. Eso es un 33,7%, apenas un pelín más de la tercera parte. Expresado de otra manera, el 66,3% de la producción (o sea, del valioso combustible nuclear) se pierde por las vías ya mencionadas (sin contar la emisión neutrínica que se funde casi el 5% antes incluso de empezar a producir energía térmica).

Detalle esquemático del reactor nuclear de Cofrentes.

Detalle esquemático del reactor nuclear de Cofrentes. 1.- Venteo y rociador de la tapa. 2.- Barra para izado del secador. 3.- Conjunto del secador de vapor. 4.- Salida de vapor. 5.- Entrada para rociadores del núcleo. 6.- Conjunto de separadores de vapor. 7.- Entrada de agua de alimentación. 8.- Distribuidor de agua de alimentación. 9.- Entrada de la inyección de refrigerante. 10.- Tubería de rociadores del núcleo. 11.- Distribuidor para rociadores del núcleo. 12.- Guía superior. 13.- Bombas de chorro. 14.- Envolvente del núcleo. 15.- Elementos combustibles. 16.- Barra de control. 17.- Placa soporte del núcleo. 18.- Entrada de agua de recirculación. 19.- Salida de agua de recirculación. 20.- Soporte de la vasija. 21.- Blindaje del reactor. 22.- Accionadores de las barras de control. 23.- Tuberías de accionamiento hidráulico de las barras de control. 24.- Detectores internos de neutrones. (Iberdrola)

El reactor es una vasija de acero SA-533 GrB con revestimiento interior inoxidable, de 21,3 metros de altura por 5,53 de diámetro; el grosor mínimo del acero asciende a 13,6 cm, para soportar una presión máxima de 87,5 kg/cm2 (unas 84,7 atmósferas). Los reactores BWR utilizan agua destilada corriente como refrigerante y como moderador, por lo que aquí no nos encontramos con grafito ni agua pesada ni nada de eso; pero, por esta razón, requiere para funcionar uranio ligeramente enriquecido en el isótopo fisible 235U. En el caso particular de Cofrentes, utiliza uranio enriquecido al 3,6% (el llamado uranio natural tiene un 0,7% de 235U).

Este combustible está organizado en forma de pequeñas esferas o perdigones de dióxido de uranio, introducidos en varillas y ensamblajes de un material que se llama zircaloy. El zircaloy es una aleación compuesta en su gran mayoría por zirconio. El zirconio, un metal, tiene una característica peculiar: es muy transparente a los neutrones. O sea: los neutrones que aseguran el sostenimiento de la reacción en cadena pueden pasar libremente a su través, saltando de barra en barra.

Para el uranio natural, el agua corriente (agua ligera) es un absorbente neutrónico y bloquea la reacción en cadena. Sin embargo, con este uranio enriquecido al 3,6%, la radiación neutrónica es lo bastante intensa para mantenerla y entonces el agua ligera actúa de moderador como si fuera grafito o agua pesada. Esto presenta varias ventajas significativas. La primera es que el agua ligera destilada sale enormemente más barata y accesible que el agua pesada. Al mismo tiempo, no presenta el riesgo de incendio del grafito (en Chernóbyl, el incendio principal fue un incendio de grafito). Sirve para transportar el calor producido. Y, adicionalmente, el flujo y temperatura del agua se pueden utilizar en el control de la reacción.

Pero el control principal corre por cuenta de 154 barras de carburo de boro, un poderoso absorbente neutrónico con poca tendencia a crear isótopos raros como resultado de esta absorción. Cuando se insertan estas barras entre las de combustible, atrapan los neutrones producidos por la fisión del uranio presente en estas últimas y deceleran o interrumpen la reacción en cadena. Al extraerlas, permiten la circulación de los neutrones y el reactor se acelera.

La lógica del invento resulta bastante sencilla. Hemos quedado en que la mera acumulación de un material fisible como el uranio-235 inicia espontáneamente una reacción en cadena, cuya intensidad depende fundamentalmente del enriquecimiento y de la densidad; esta reacción se produce porque los neutrones emitidos en cada fisión espontánea pueden alcanzar otros átomos de uranio-235, haciéndolos fisionar a su vez, y así sucesivamente.

En un reactor recién cargado pero aún parado tenemos las barras de combustible introducidas en el agua, lo que debería iniciar de inmediato esta reacción en cadena espontánea; sin embargo, hemos metido por entre medias las barras de control, el absorbente neutrónico, con lo que los neutrones no pueden saltar de barra en barra y por tanto la reacción no se produce o lo hace con una intensidad muy pobre.

Entonces, para poner en marcha la central comenzamos a extraer las barras de control (de absorbente neutrónico). Las fisiones espontáneas en los núcleos de uranio-235 (o, para el caso, plutonio-239) comienzan a lanzar neutrones en todas direcciones, y específicamente hacia las demás barras de combustible.

Estos neutrones producidos por la fisión son mayoritariamente neutrones rápidos. Los neutrones rápidos tienen una capacidad relativamente pobre de provocar nuevas fisiones; ya dijimos que, por explicarlo de algún modo, pasan demasiado deprisa para tener un efecto. Pero entonces se encuentran con el moderador, que tradicionalmente era grafito o agua pesada y aquí es agua destilada corriente. Cuando el uranio está poco enriquecido, el agua actúa como absorbente neutrónico –igual que si fuera una enorme barra de control– y los detiene por completo, interrumpiendo la reacción. Pero cuando el uranio está algo más enriquecido (como en este caso, al 3,6%), el agua actúa como moderador neutrónico: es decir, los ralentiza hasta convertirlos en neutrones térmicos, óptimos para provocar nuevas fisiones.

Así que al extraer las barras de control y dejar a las de combustible envueltas en agua, la reacción en cadena comienza a acelerar, calentando este agua de su alrededor. Mediante una compleja combinación de barras de control y flujo del agua, se puede ajustar la reacción en cada zona exacta del núcleo con gran precisión.

De este modo, la temperatura del agua circundante aumenta rápidamente. En la gran mayoría de los reactores nucleares, esta agua moderadora-controladora-transportadora se encuentra contenida en un circuito cerrado con circulación forzada que nunca entra en contacto directo con el exterior (o no debe hacerlo, vamos). Este circuito cerrado que pasa por dentro del reactor se llama circuito primario.

En un reactor de agua en ebullición, el agua de este circuito primario se halla a unas 70 o 75 atmósferas de presión (en Cofrentes está a 70,1). Esto permite que entre en ebullición cuando la temperatura alcanza unos 285ºC (los reactores de agua a presión se mantienen a casi 160 atmósferas, lo que no deja que haya ebullición). Así se forma rápidamente vapor en la parte superior de la vasija, que circula por unas canalizaciones hacia la turbina de alta presión. Ya tenemos energía. Ahora hay que convertirla en electricidad.

Central nuclear de Cofrentes desde una loma cercana.

La central nuclear de Cofrentes vista desde una loma cercana, con las torres de refrigeración proyectando los característicos –e inocuos– penachos de vapor.

Cuando este vapor a elevada presión y temperatura llega a la turbina de alta presión, la hace girar sobre su eje siguiendo las leyes de Carnot y Rankine que mencionamos más arriba. Y con ello hace girar un alternador que produce energía eléctrica, exactamente como cualquier otra clase de central térmica y la inmensa mayoría de los generadores. De ahí, el vapor –que aún mantiene una cantidad importante de energía aprovechable– pasa a las turbinas de baja presión, cuyos alternadores producen más electricidad. Toda esta corriente es remitida a los transformadores exteriores y de ahí a la red de 400.000 voltios para su distribución comercial.

Ahora ya sólo queda asegurarnos de que el agua vuelve al reactor para mantener el ciclo sin fin, más fría y de nuevo en estado líquido. Esta es la función de los condensadores, que son, en esencia, cambiadores de calor. Los condensadores se mantienen fríos con agua procedente de algún río o mar próximo, que viaja por su propio circuito: el circuito secundario. Así, cuando el agua del circuito primario pasa por estos condensadores, pierde temperatura suficiente como para volver al estado líquido por completo y regresar al reactor. Ambos circuitos no entran nunca en contacto, garantizando que la contaminación radioactiva ocasionada al pasar por el reactor permanezca contenida en el primario.

Finalmente, el agua del secundario –que se ha calentado al pasar por los condensadores– es enfriada en las torres de refrigeración. Así se forman esas características nubes de vapor blanco que podemos ver en la imagen de la izquierda.

En mi opinión, las centrales nucleares de fisión son una buena manera de producir la muy necesaria electricidad. Lo que pasa es que tienen sus limitaciones. En realidad, no son ni la pesadilla que creen unos ni la panacea que creen otros. Ya apunté las razones en el post El renacimiento nuclear, en la incubadora. De manera muy resumida, es cara, es incierta, tiene sus riesgos y resulta poco flexible en los mercados liberalizados. Resulta tremendamente significativo que el 89% de los reactores que se construyen en la actualidad pertenezcan a empresas monopolísticas estatales o paraestatales, mientras sólo seis unidades representan una apuesta privada.

De hecho, la energía nuclear de fisión ha sido la más subvencionada de toda la historia: sólo en los Estados Unidos, representó el 96% de los subsidios totales al desarrollo energético entre 1947 y 1999. El coste de instalación por kilovatio es varias veces mayor que el de, por ejemplo, una central de ciclo combinado a gas natural. El precio en el mercado del kilovatio final no sale tan ventajoso. Y tampoco garantiza la independencia en tecnologías energéticas: por razones de liberalización y deslocalización de los mercados, existen componentes esenciales de las centrales nucleares que únicamente se fabrican en Japón, China y Rusia. Las mayores minas de uranio sólo están en Canadá, Australia, Kazajstán, Rusia, Namibia y Níger: muchos menos países que productores de petróleo o gas. Si se opta por combustible reprocesado, únicamente quedan reactores regeneradores a gran escala en Rusia. (Los datos de todo esto están en el post mencionado sobre el renacimiento nuclear)

En suma: después de décadas de cultura de la seguridad, ni milagro ni diablo. Sólo una fuente de energía más, al menos en el presente orden socioeconómico, que nos obliga a seguir investigando otras maneras de extraerle a la naturaleza la energía que necesitamos. Y necesitaremos.


Otra explicación básica del funcionamiento de una central nuclear.

Próximamente: El ciclo del combustible nuclear.

129 Comentarios Trackbacks / Pingbacks (40)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (78 votos, media: 4,85 de 5)
Loading...
Be Sociable, Share!

Así te persigue un misil.

¿Cómo lo hace una máquina para perseguirte con la furia gélida de los robots?


Un UAV georgiano Hermes 450 de fabricación israelí graba el instante en que fue derribado por un caza ruso MiG-29,
el 20 de abril de 2008, durante los prolegómenos de la última guerra entre ambos países.
El derribo, probablemente con un misil R-73 “Arquero”, se produjo frente a la costa de la disputada Abjasia.
Ministerio del Interior de Georgia, Reuters

El bífaz Excalibur, hallado en la sima de Atapuerca.

El bífaz Excalibur, un hacha de 400.000 años de antigüedad hallada en Atapuerca. ¿Una ofrenda, un utensilio, un arma...? En todo caso, una herramienta.

A ojos extraterrestres, probablemente el rasgo más distintivo de la especie humana con respecto a los demás animales sería nuestra capacidad para construir herramientas. Somos mucho más capaces de construir herramientas –materiales e intelectuales– que cualquier otro de los terrestres, y encima sabemos utilizarlas para crear herramientas aún más complejas, en una carrera sin fin llamada tecnología. La historia de la humanidad es, sobre todo, la historia de su tecnología y del conocimiento acertado o equivocado que hay detrás: la filosofía, la religión, la ciencia.

Desde el principio, aplicamos esta capacidad a la construcción de armamento. Como cualquier otra especie biológica, la gente humana necesitamos cazar, defendernos, atacar. En esto no nos diferenciamos en absoluto de los demás vivientes: la violencia forma parte sustancial de nuestra naturaleza. Eso no es ni bueno ni malo; simplemente, es. Toda la historia de la civilización es la historia de cómo aprendimos a ir contra natura; a limitar, articular e incluso suprimir nuestra naturaleza en favor de un bien percibido mayor –la colectividad, el progreso, la justicia, la ley, el orden social, la prosperidad–, que a su vez forman parte de estas herramientas intelectuales con las que sabemos dotarnos.

Así, los actos de violencia adquieren en las sociedades humanas una dualidad extraña. Matar por razones individuales, egoístas, se convierte en un crimen: el homicidio, el asesinato. Matar por razones colectivas –la tribu, la nación, la religión, la clase, la política, la ley– pasa a ser un acto de heroísmo. El mismo individuo al que las turbas gritan “¡asesino!” durante su camino al juzgado para ser condenado por matar a veinte personas es llamado “héroe” durante el desfile de la victoria, por esas mismas masas, si sus veinte víctimas pertenecían al enemigo. Por lo que hoy es un espantoso crimen, mañana dan medallas. En ausencia de una ética universal, los actos humanos carecen de sentido y de valor moral por sí mismos: todo depende del contexto, de la ética local, de la narrativa, de la propaganda.

De este modo los creadores de armas nuevas –herramientas nuevas para la violencia– se suelen considerar geniales y magníficos cuando son de los nuestros o pérfidos y diabólicos cuando son de los ellos. Esto se observa desde que existen registros escritos, y sigue viéndose en la actualidad sin cambio alguno; por ejemplo, en las condenas a los países que intentan crear armas de destrucción masiva… por parte de países que poseen decenas de miles de armas de destrucción masiva. El argumento es siempre igual: lo nuestro está justificado (por nuestro contexto, nuestra ética local, nuestra narrativa, nuestra propaganda); lo de ellos no. Y viceversa, claro.

Siendo un poco más eclécticos, se comprende que el afán de crear armas nuevas capaces de aportarnos una ventaja decisiva contra ellos ha sido una constante en todas las sociedades humanas. Con alguna perspectiva histórica, la verdad es que a estas alturas nos importan bien poco los valores que defendía el bífaz Excalibur de Atapuerca, suponiendo que defendiese alguno. Los viejos lamentos de que la reintroducción de la ballesta en Occidente iba a acabar con la nobleza medieval, al permitir al plebeyo infante perforar la coraza del caballero montado, se nos antojan hoy anticuados y hasta risibles; entre otras cosas, porque los valores de la aristocracia feudal –que la ballesta, en efecto, contribuyó a destruir– ya no nos parecen dignos de mantener. Y qué decir de la pólvora. O la dinamita. O la industrialización de la guerra, que nos llevó al concepto moderno de guerra total. La historia de las armas es la historia de la tecnología, de la ciencia y del pensamiento de las sociedades que las crearon.

La literatura está llena de referencias a toda clase de anheladas armas mágicas a caballo entre la religión, la ciencia, la filosofía y la leyenda. Por ejemplo, las distintas espadas con nombre propio capaces de derrotar a incontables ellos: Tizona, Colada, Zulfiqar, Durandarte, Kladenets, Taming Sari, Kusanagi, la Excalibur artúrica. O las defensas mitológicas: Égida, Svalinn, los escudos de Ajax y Lancelot, el baño de Aquiles en el río Estigia. Y, por supuesto, lanzas y flechas que jamás fallaban su blanco: Gungnir, Gandiva, Gáe Bulga, el arco de Hércules. Inevitablemente fue la ciencia, y su hija la tecnología, quienes terminaron por crearlas. O al menos, cosas parecidas.

Soldados alemanes preparan un misil de crucero V-1 para su lanzamiento. Deutsches Bundesarchiv.

Soldados alemanes preparan una "bomba volante" o misil de crucero V-1 para su lanzamiento. Probablemente la V-1 nazi fue el primer misil operacional verdadero de la historia. Deutsches Bundesarchiv.

La flecha que nunca falla. O eso se pretende.

La idea de crear una especie de flecha capaz de perseguir a su blanco por sí sola habría puesto sin duda los ojos como platos a cualquier guerrero antiguo. Si además le hubiéramos contado que esa flecha se propulsaría a sí misma y destruiría el más grande de los barcos, la más resistente de las murallas y la más impresionante máquina bélica de ellos en un destello de fuego deslumbrador, o nos habría tomado por locos o nos habría pedido que siguiéramos contándole esa leyenda tan chula. Durante milenios, lo más parecido que tuvo la humanidad a un arma autoguiada fueron los perros de caza y combate y otros animales de uso militar.

Las primeras armas capaces de guiarse a sí mismas aparecieron durante la Primera Guerra Mundial. Se trataba, básicamente, de complicados mecanismos de relojería capaces de hacer que un avión o torpedo describiese una trayectoria prefijada antes de precipitarse sobre su blanco. Entre estos intentos primitivos se cuentan el torpedo volante del inventor estadounidense del piloto automático Lawrence Sperry, el Kettering Bug de este mismo país –a caballo entre lo que hoy en día llamaríamos un misil de crucero y un UAV– o los blancos aéreos británicos guiados por radio. Parece que los alemanes también intentaron alguna clase de torpedo guiado para su lanzamiento desde zepelines.

Durante el periodo de entreguerras fueron surgiendo conceptos cada vez más sofisticados, pero aún insuficientes para ser tomados seriamente en consideración por los militares. Entre estos se encuentran el Larynx británico y el GIRD-06 soviético de Sergei Korolev, que además de un autopiloto giroscópico incorporaba ya un pequeño cohete como impulsor. Pero no fue hasta mediados de la Segunda Guerra Mundial cuando las armas autopropulsadas y autoguiadas encontraron definitivamente su camino al frente de batalla. Sucedió en 1943, de modo casi simultáneo, con el torpedo alemán G7e/T4 Falke y el Mark 24 FIDO estadounidense. Ambos seguían el ruido subacuático emitido por sus blancos –buques y submarinos– y se demostraron tan eficaces que ya no hubo marcha atrás. Al año siguiente, 1944, la Alemania nazi ponía en servicio el primer misil de crucero real: la V-1. Y en septiembre de ese mismo año, el primer misil balístico eficaz: la V-2.

Tanto la V-1 como la V-2 utilizaban pilotos automáticos para alcanzar un punto determinado del territorio enemigo, por lo que no seguían al blanco, sino que atacaban objetivos estáticos (los misiles de crucero y los ICBM actuales siguen haciendo exactamente lo mismo, si bien con ayudas mejoradas a la navegación y mucha mayor precisión y eficacia). Su enorme visibilidad hizo que otros inventos alemanes capaces de perseguir a su blanco pasaran bastante desapercibidos en el imaginario colectivo. Así, pocos recuerdan al Fritz X, que hundió al acorazado Roma –buque insignia de la flota italiana– cuando ya se estaba pasando a los aliados; sin embargo, el Fritz X era un arma de telecomando, que seguía a su blanco gracias a las acciones de un operador humano, no de un sistema de guía autónomo.

Corbeta Komar disparando un misil P-15 Termit (SS-N-2 Styx).

Durante la Guerra de los Seis Días, el 21 de octubre de 1967, la Armada Egipcia hundió al destructor israelí Eilat con tres misiles P-15 Termit (SS-N-2 Styx). El lanzamiento fue realizado por dos corbetas Komar, sin salir del puerto de Port Said, a 17 millas de distancia. Fue la primera vez en que un buque resultaba hundido por misiles completamente autopropulsados y autoguiados, cambiando así la historia de la guerra naval. En la imagen, una corbeta Komar lanza un misil P-15 Termit. (Mały okręt rakietowy, Wydawnictwo MON, Varsovia, 1974)

El Ruhrstal X-4, que no llegó a entrar en servicio, pretendía derribar bombarderos también bajo el comando de un ser humano. Lo mismo cabe decir del Hs 293, que consiguió algunos éxitos antes de que los aliados aprendieran a interferir la señal de telecomando. Los antiaéreos Wasserfall y Feuerlilie también eran teleguiados, no autoguiados; ninguno de los dos estaba terminado cuando acabó la guerra. Más interesante resulta el Enzian. Aunque aún telecomandado, iba provisto con una guía final infrarroja denominada Madrid que dependía igualmente de la acción humana pero ya empezaba a apuntar hacia el futuro. Ninguno de todos estos conceptos llegó a tiempo para tener una influencia significativa en la Segunda Guerra Mundial.

Resulta difícil decir cuál fue el primer misil moderno verdadero, pues fueron el resultado de una evolución progresiva durante la Guerra Fría. También depende del tipo de misil del que hablemos. Se puede afirmar que la V-2 alemana ya era un misil balístico moderno verdadero; aunque le faltaban algunas características de los actuales (etapas y cabezas múltiples, guía astroinercial…), ya “hacía lo que tenía que hacer” y era dispara-y-olvida por completo. En sentido estricto, la V-1 también entraría en esta clasificación, como misil de crucero. Entre los misiles aire-aire, probablemente el honor corresponda a alguna versión del estadounidense AIM-9 Sidewinder.

Los tierra-aire, en cambio, tardaron más en desprenderse del telecomando humano; sistemas legendarios de la Guerra Fría como el SA-2 soviético o los Nike norteamericanos dependían por completo de sus operadores. Incluso las primeras versiones del S-300 y el Patriot utilizaban teleguiado parcial, que sigue usándose actualmente en algunos modos de operación. La mayor parte de misiles genéricamente llamados antitanque, contra blancos móviles terrestres, siguen dependiendo de algún sistema de puntería manejado por una persona. Los antibuque, en cambio, se independizaron desde por lo menos el P-15 Termit soviético (SS-N-2 Styx, en denominación OTAN). Y entre los aire-superficie hubo y hay una diversidad de soluciones, dependiendo de su función exacta. Veámoslo.

Misilística básica.

En sus idiomas originales –francés e inglés– la palabra missile viene del latín missilis (“lanzable”) y puede referirse a cualquier proyectil, incluso una piedra, arrojado deliberadamente o no. Sin embargo, hoy en día decimos que un misil es un tipo de arma aeroespacial autopropulsada y autoguiada. Así, se distinguen de los torpedos guiados (que no son aeroespaciales, sino submarinos), de las bombas guiadas o inteligentes (que carecen de propulsión autónoma), de los cohetes no guiados (artillería de cohetes, cohetes sin guía como los RPG, los LAW, los Zuni o las series S rusas) y de los lanzadores espaciales (aeroespaciales, autopropulsados y autoguiados, pero no armas en sí mismos).

Por centrar el post, vamos a estudiar los misiles que son capaces de seguir autónomamente a un blanco. Es decir, eso de las pelis: apuntas a algo, le lanzas un misil y te olvidas mientras el otro tipo hace lo que puede por evitarlo. ¿De qué manera puede una máquina perseguir a su oponente cual Terminator con trastorno obsesivo-compulsivo? Bien: todas ellas lo hacen husmeando sus emisiones.

Todo lo que existe, emite. Y además, emite radiación electromagnética. Tu cuerpo, por ejemplo, emite calor debido a sus procesos metabólicos; es decir, radiación térmica, en la banda del infrarrojo. También refleja la luz visible procedente del sol, la luna, las estrellas o cualquier fuente de iluminación artificial. Por eso se nos puede ver: los ojos son receptores de radiación electromagnética en la banda de la luz visible. Esta es, de hecho, la manera más antigua de localizar al enemigo utilizada por la humanidad: verlo.

Guía Avtomatika L-112E para el misil anti-radiación ruso Kh-31P (MAKS 2009).

Guía Avtomatika L-112E para el misil anti-radiación ruso Kh-31P de 1988. Actualmente han sido reemplazadas por las L-130. (MAKS 2009)

Empecemos con uno de los conceptos más fáciles: el misil anti-radiación. Los misiles anti-radiación se usan para atacar objetivos que están emitiendo voluntariamente, como los radares o los transmisores de radio y radiotelefonía. Los ejércitos modernos y las sociedades modernas en general dependen de una montaña de emisiones, desde los grandes radares de alerta temprana hasta los teléfonos móviles. Y todo lo que emite se delata a sí mismo. Usando tecnología similar a la de tu oponente, tú puedes detectar una emisora enemiga como mínimo al doble de distancia a la que esa emisora es eficaz, y por lo tanto atacarla desde el doble de distancia si tienes un arma con ese alcance. ¿Cómo puede ser esto?

Veámoslo con un ejemplo sencillo. Supongamos que tú vienes en un avión a atacarme a mí y yo quiero detectarte con un radar; ambos tenemos un nivel tecnológico similar. Yo enciendo mi radar, tú vienes hacia mí. Como las señales de radio (el radar usa señales de radio) reducen su intensidad con el cuadrado de la distancia, al principio estamos demasiado lejos y la señal pierde potencia hasta el punto en que no puede excitar un receptor a ninguno de los dos lados: ninguno detecta al otro. Tú sigues acercándote. A una distancia dada, mi señal mantiene intensidad suficiente para excitar los receptores que llevas a bordo: tú acabas de detectarme a mí. Pero la señal aún tiene que rebotar sobre ti y hacer el viaje de vuelta hasta mi radar, con lo que pierde demasiada intensidad durante el retorno y sigo sin detectarte: tú me estás detectando a mí, yo no te estoy detectando a ti. Me estoy delatando yo solito y tú puedes utilizar técnicas de radiogoniometría para ubicarme con gran precisión, y yo aún no te veo. Tendrás que acercarte mucho más, al menos a la mitad de distancia, para que mi señal rebote sobre ti y vuelva a mi radar con la intensidad suficiente para excitar mis receptores: sólo entonces te detectaré. Mientras te mantengas en la “segunda mitad” de la distancia que nos separaba en el momento en que me detectaste por primera vez, estás a salvo por completo salvo que mis receptores fueran mucho más sensibles que los tuyos.

Con receptores iguales, un blanco puede detectar al radar antes de que el radar lo detecte a él.

El cazador cazado: con receptores iguales, un blanco puede descubrir al radar antes de que el radar lo descubra a él. Teóricamente, aplicando la ley del inverso del cuadrado, al doble de distancia exacta. El blanco puede aprovechar esa diferencia para atacar al radar desde una distancia de seguridad donde no está siendo detectado. Si el avión encendiera su radar, perdería esta ventaja de inmediato. (Clic para ampliar)

Misil antirradiación estadounidense AGM-88 HARM.

Misil antirradiación estadounidense AGM-88 HARM, aire-superficie. La Fuerza Aérea Española equipa estos proyectiles con los cazabombarderos EF-18.

Evidentemente, desde esa “segunda mitad” de distancia puedes dispararme un arma con toda la tranquilidad del mundo. Y yo seguiré sin detectarte. Lo primero que veré de ti será… tu misil, directamente hacia mi posición. En un caso como este, decimos que mi radar está en modo activo (porque emite y recibe) mientras que tu avión está en modo pasivo (porque sólo recibe); mientras la cosa se mantenga así, tu avión tendrá una ventaja decisiva sobre mi radar.

Para ti, sería idóneo llevar ahora un misil anti-radiación de alcance suficiente para atacar mi radar sin entrar en su zona de detección. Un misil anti-radiación, en sus modelos más básicos, es un cohete con un receptor de radio que tiende a volar hacia el punto en que la radiación electromagnética (o sea, la emisión de radio o radar) es más intensa. Si siempre se dirige hacia el punto donde la radiación es más intensa, pues al final se encontrará… con la antena del radar, lógicamente. Bum.

Hay cosas que yo puedo hacer para evitar que tu misil anti-radiación me alcance. Por ejemplo, cambiar de frecuencia, a alguna que su receptor no logre captar. O simplemente apagar el radar unos minutos, con lo cual ya no podrá seguirme y se perderá. Debido a eso, los misiles anti-radiación modernos llevan receptores mejorados y sistemas de guía adicionales; por ejemplo, una segunda guía de tipo infrarrojo que “se enganche” al calor residual disipado por los equipos electrónicos del radar aún cuando ya esté apagado. E incluso un sencillo navegador inercial que mantenga la dirección de vuelo hacia las coordenadas donde detectó mayor emisión antes de que el radar se apagara.

Pero en términos generales, el ejemplo del misil anti-radiación nos sirve muy bien para entender el principio en el que se sustentan todos los misiles que persiguen al blanco: viajan hacia el punto donde la radiación característica emitida (o reflejada) por su objetivo es más intensa. Por simple teoría de campos, ese punto es el propio objetivo: un radar, una radio, un teléfono celular o satelitario, su estación base, cualquier cosa que emita de manera identificable.

El misil anti-radiación básico es también un buen ejemplo de un sistema de guía completamente pasivo. Esto es: la guía del misil no emite nada para localizar a su objetivo. Es el objetivo quien lo emite todo, delatándose así y ofreciéndole en bandeja una trayectoria al misil.

Misil anti-AWACS ruso R-37.

Misil aire-aire anti-AWACS ruso R-37. Fue desarrollado para destruir aviones-radar AWACS y otros C4ISTAR desde largas distancias (supuestamente hasta 400 km), tras detectar sus emisiones.

Quiero tu calor.

Este es el principio de funcionamiento de todos los misiles (y torpedos) provistos con guías pasivas: aprovechar una emisión inherente al blanco para localizarlo y perseguirlo. Desde el principio, se observó que las emisiones inherentes más interesantes desde el punto de vista militar eran el calor y el sonido. Todo lo que lleva un motor a bordo emite necesariamente calor y sonido; los equipos eléctricos y electrónicos también disipan calor.

Perfil de emisión térmica del MiG-27.

Perfil de emisión térmica de un avión táctico MiG-27 de 1975. La luz solar incidente es reflejada y re-emitida por la estructura y el material de la cabina, con intensidad dependiente de sus acabados. La parte posterior de la estructura, calentada por el motor, hace que el fuselaje trasero emita en banda de 4μ y la tobera en torno a 2μ. La "pluma" del reactor se expande y enfría detrás de la aeronave, absorbiendo algunas de las longitudes de onda más cortas emitidas por la tobera pero emitiendo en banda infrarroja más larga (de 4 a 8μ). La intensidad de la emisión viene generalmente definida por la temperatura, que a veinte metros detrás de la cola viene a ser de unos 100ºC sin posquemador y de 300ºC con posquemador. (Clic para ampliar)

Las ondas sonoras se transmiten mucho mejor en el agua que en el aire, y esa es la razón de que la mayor parte de los torpedos con guía pasiva se apoyen sobre todo en el sonido emitido por el blanco para alcanzarlo. La radiación térmica del calor, una forma de radiación electromagnética, se difunde mucho mejor por el aire que por el agua; y ese es el motivo de que un gran número de misiles aéreos aprovechen las emisiones infrarrojas del objetivo para atacarlo en el cielo o en la superficie. Casi todos los misiles pasivos aire-aire y una parte significativa de los aire-superficie utilizan guías infrarrojas para perseguir a sus blancos.

Las máquinas de volar son grandes emisores de radiación infrarroja. Un motor a reacción militar, por ejemplo, desprende mucho calor durante el vuelo; algunas partes del mismo alcanzan más de 1.000 ºC. A los ojos de una guía infrarroja, esto es un “destello en el cielo” casi tan brillante como el sol. Al igual que ocurre con los misiles anti-radiación en la banda de radio, un misil básico de guía infrarroja tiende a volar hacia la fuente de emisión electromagnética en la frecuencia infrarroja más intensa dentro de su cono de detección.

Uno de los trucos más antiguos para despistar a un misil de guía infrarroja fue posicionar tu avión contra el sol, de tal modo que el arma tendiese a buscar el punto más caliente (con más emisión térmica) del cielo: el astro rey. Así, el misil se olvidaba de tus reactores y se iba a perseguir un punto imposible del espacio exterior, quedándose sin energía rápidamente. En buena lógica, una de las primeras mejoras que se aplicaron a las guías infrarrojas de los misiles fue diseñarlas de tal modo que ignoraran al sol como fuente de radiación infrarroja.

Un misil aire-aire moderno de guía infrarroja pasiva está compuesto por cinco secciones principales. La sección de empuje es un motor-cohete de alta aceleración; los más avanzados disponen de tobera vectorizada para multiplicar su maniobrabilidad. La sección aerodinámica está compuesta por diversas aletas, canards y alerones móviles más sus mecanismos de control, encargadas de orientarlo constantemente en la dirección precisa; algunos disponen de desestabilizadores, con el propósito de incrementar la velocidad de reacción en maniobras ultrarrápidas. La cabeza explosiva consta de un cartucho detonante envuelto en metralla, normalmente provista con una espoleta de impacto convencional. También tenemos la espoleta de proximidad, que se encarga de hacer estallar la cabeza explosiva cuando no hay impacto directo, en el instante en que la distancia al blanco deja de reducirse. Y, por supuesto, el sistema de guía, con su sensor infrarrojo y toda la electrónica de control.

Esquema del misil aire-aire ruso R-73 (AA-11 Archer).

Esquema del misil aire-aire ruso con guía infrarroja pasiva todo-aspecto Vympel R-73 (llamado en Occidente AA-11 Arquero). La versión original de 1982 tenía 20 km de alcance, mientras que la más moderna R-73M2 es efectiva hasta a 40 km de distancia, con una velocidad de Mach 2.5; cada unidad cuesta entre 50.000 y 60.000 dólares (por el Sidewinder norteamericano, con 18 km de alcance, cobran $85.000). Este fue, probablemente, el misil empleado en el video que abre este post por el MiG-29 para derribar al UAV georgiano; los UAV, con su minúsculo motor a hélice, dejan una traza infrarroja muy débil y resulta conveniente acercarse para asegurar el tiro.

Buscador infrarrojo de un misil europeo Iris-T.

Buscador infrarrojo de un misil europeo Iris-T de 2005. Puede observarse el montaje en cárdan.

Los sensores infrarrojos modernos suelen ir montados en un cardán (gimbal) para incrementar su capacidad de detección fuera de eje (off-boresight). Así no es preciso que el misil o el avión lanzador estén apuntando en la dirección general del blanco todo el tiempo, sino que pueden desviarse para optimizar la aproximación o atacar desde un lateral o desde altitudes muy distintas. El R-73 original de 1982 tenía una capacidad off-boresight de 60º, el Sidewinder AIM-9X de 2003 la mejora a 90º y el R-73M2 llega hasta 120º. Esto les permite también mejorar su navegación proporcional, aumentando las posibilidades de derribar blancos en alcances extremos o ángulos difíciles.

Las guías infrarrojas del presente son también todo-aspecto. Antiguamente, la guía tenía que apuntar directamente a la fuente de calor para “engancharse” (blocar) adecuadamente al blanco; esto significaba que era preciso lanzar el misil desde un estrecho cono detrás del objetivo, donde la emisión térmica de sus motores resulta más intensa. Las actuales, mucho más sensibles, pueden ver el calor del blanco desde cualquier ángulo; esto permite, por ejemplo, disparos frontales de gran alcance o realizados durante fuertes maniobras donde el ángulo relativo al eje del blanco varía brutalmente. Para lograrlo, han sustituido los tradicionales sensores infrarrojos de sulfuro de plomo (PbS) por otros fabricados con antimoniuro de indio (InSb) o telururo de mercurio-cadmio (HgTeCd, MerCad), refrigerados con nitrógeno líquido u otros gases comprimidos. Junto a una aerodinámica y un cobertor frontal mejorados, que reducen el calentamiento del propio misil al acelerar a velocidades supersónicas, estos nuevos sensores les permiten ver señales más tenues y/o a mayor distancia.

La mejor manera de engañar a un misil de guía infrarroja es enfrentándolo a otras fuentes de calor que se confundan con las del blanco. Además del truco solar mencionado más arriba, la más clásica era instalar una rejilla desprendible en la tobera, que se separaba durante la aproximación de un misil mientras el avión realizaba un brusco viraje para salirse de su campo de búsqueda. Así, el misil tendía a seguir persiguiendo la rejilla caliente, en vez de al avión. Poco después llegaron las bengalas, que arden a miles de grados y por tanto ofrecen al buscador una fuente térmica mucho más intensa que el blanco.


Dos cargueros C-130 Hércules de la Fuerza Aérea Estadounidense disparan bengalas durante una exhibición,
con su característica forma de “alas de ángel”.
El propósito de estas bengalas es ofrecer fuentes de calor alternativas a los misiles de guía infrarroja para confundirlos.

Los avances en las cabezas buscadoras infrarrojas han ido convirtiendo progresivamente estas defensas en obsoletas. Por ejemplo: los sensores antiguos eran monocromáticos, esto es, ajustados para ver en una sola frecuencia; típicamente en torno a la longitud de onda de 4,2 μm, correspondiente a la emisión característica del CO2 caliente a la salida de un reactor. Esto era relativamente sencillo de confundir con bengalas que emitían calor en una frecuencia muy parecida. Después aparecieron los sensores bicromáticos, que ven también en la longitud de onda entre 8 y 13 μm, donde la absorción del aire es menor y por tanto la radiación llega más lejos. En la actualidad, claro, ya los hay policromáticos: observan en estas dos bandas y en otras donde las bengalas responden peor, por lo que se distinguen mejor de los gases y el fuselaje caliente del blanco.

Contramedida infrarroja direccional AN/AAQ-24V Nemesis.

Contramedida infrarroja direccional (DRCM) AN/AAQ-24(V) "Nemesis" de Northrop Grumman, para inducir confusión en los misiles con guía infrarroja mediante el uso de señales direccionales láser. Se suele equipar en cargueros, aviones ligeros y helicópteros, especialmente frágiles a esta amenaza.

Otro problema tradicional con estas guías se producía al aproximarse al objetivo. Los buscadores antiguos utilizaban modulación por amplitud para determinar la posición angular del blanco con respecto a la del misil, y por tanto indicar a éste cuánto debía virar para echársele encima. Durante el tramo final, esta técnica daba problemas porque el mayor tamaño percibido del blanco provocaba una señal más fuerte, conduciendo a errores de cálculo que además podían utilizarse para engañar al proyectil con bruscas maniobras que cambiaban el aspecto del objetivo. Este problema se resolvió cambiando a frecuencia modulada, que permite discriminar correctamente la distancia sin dejarse confundir por el tamaño aparente.

En cuanto a la manera como el sensor busca, del barrido por giro se pasó al barrido cónico y hoy en día a la composición digital; en estas guías de última generación, el sensor es una especie de cámara CCD infrarroja-ultravioleta que compone constantemente un mapa tridimensional de la posición del misil y la de su blanco en el ordenador de a bordo del primero. El perfil de vuelo de un avión o un helicóptero es muy distinto al de una bengala, por lo que el misil puede distinguir entre ambos y atacar al correcto.

Más allá de las bengalas, existen perturbadores para inducir errores en el análisis de la señal infrarroja del misil. Estos sistemas, llamados genéricamente contramedidas infrarrojas o IRCM, constan de una fuente de radiación infrarroja modulada con una intensidad mayor que la de los motores y superficies del blanco. Esta señal de modulación alterada introduce confusión en la cabeza buscadora y puede provocar un desblocaje; entonces, es más probable que el misil vuelva a blocarse contra una de las bengalas que se disparan simultáneamente. El problema es que, si este truco no sale bien, la guía del misil tiene una fuente infrarroja inmejorable en la propia contramedida, típicamente fijada al objetivo. Los misiles modernos están diseñados para hacer un blocaje contra el perturbador (lock-on-jam) en cuanto detectan esto, conduciendo a un derribo prácticamente seguro.

DRCM Sukhogruz montada en la cola de un Sukhoi Su-25T.

Otra DRCM: la Sukhogruz, montada en la cola de un Sukhoi Su-25T.

Para mejorar esto se están creando nuevas contramedidas, las DRCM y CRCM, que utilizan a su vez un sensor infrarrojo para detectar el calor del misil en aproximación y un láser para inducirle directamente las señales espurias en el sensor. Y los diseñadores de guías infrarrojas para misiles disponen ya de nuevas técnicas con el propósito de suprimirlas e incluso aprovecharlas. En general, el más mínimo cambio o error puede transformar una de estas contramedidas por emisión (IRCM, DRCM, CRCM) en una estupenda baliza infrarroja que atraiga al misil con mucha más eficacia que si no se estuviera usando; por ello, el uso de estas contramedidas debe medirse cuidadosamente, caso por caso y situación por situación.

Guías activas.

Como hemos visto, las guías pasivas dependen de las emisiones inherentes al blanco para perseguirlo hasta su destrucción. Son extremadamente eficaces y, más importante todavía, no se delatan de ninguna manera hasta que ya están prácticamente encima del objetivo. Sin embargo, tienen sus limitaciones. Aunque resultan óptimas para atacar blancos que emiten intensamente (como un radar terrestre o áereo, tipo AWACS), presentan más problemas a la hora de perseguir objetivos que no emiten tan intensamente de manera natural. Por ello, los misiles infrarrojos más avanzados y de mayor alcance pueden atacar a un máximo de 40 km aproximadamente. A distancias superiores, las emisiones inherentes al blanco se disipan demasiado como para poderse detectar.

La solución resulta obvia: forzar al blanco a emitir con más intensidad o al menos de una manera que se pueda localizar a mayor distancia. Esto se consigue realizando nosotros una emisión que rebote en el blanco y retorne a nuestros receptores: el radar en el aire (aprovechando la mejor difusión aérea de las ondas electromagnéticas), el sonar bajo el agua (aprovechando la mejor difusión submarina de las ondas sonoras). Ya dijimos más arriba que todo lo que emite voluntariamente está en modo activo; y, en el momento en que lo hace, se puede detectar a su vez.

Componentes de un sistema antiaéreo ruso Almaz-Antey S-400.

Componentes de un sistema antiaéreo ruso Almaz-Antey S-400, que entró en servicio en 2007. De izquierda a derecha, vehículo de mando 55K6E, radar móvil de adquisición 96L6, radar móvil de tiro 92N2E y vehículo TEL lanzamisiles 5P85TE2. Además de este "set básico", hay otros componentes adicionales, entre ellos el radar pasivo ucranio Kolchuga. El S-400 podría atacar blancos hasta a 400 km de distancia con el misil hipersónico 40N6.

Los sistemas de telelocalización y seguimiento activos presentan una ventaja sustancial: yo controlo las características de la señal, lo que incrementa enormemente el alcance y precisión a largas distancias. Todas las guías pasivas tienen que pelearse con un montón de incertidumbres sobre la naturaleza del blanco y las señales que emite bajo una multitud de circunstancias distintas; por ello, sólo se aclaran bien a una distancia relativamente corta, donde esas señales llegan ya con mucha nitidez e intensidad. Usando un radar o un sonar, en cambio, obligo al objetivo a reflejar y re-emitir una señal conocida y bien determinada cuyas alteraciones puedo estudiar para mayor información.

Y la desventaja ya mencionada: todo sistema activo se delata a sí mismo al menos al doble de distancia de la que puede detectar y/o atacar. En el campo de batalla moderno, encender un radar (o cualquier otro transmisor) equivale a chillar: “¡estoy aquí!”. En la actualidad existen los llamados radares de baja probabilidad de intercepción (“radares furtivos”), como los que equipan el caza norteamericano F-22 Raptor (el AN/APG-77) o los antiaéreos rusos S-300PMU2 y S-400. Estos “radares furtivos” utilizan una diversidad de técnicas para reducir la posibilidad de que los detecten, localicen o ataquen, como el uso de onda continua con ancho espectral ampliado mediante rápidos saltos de frecuencia, reducir la potencia al mínimo imprescindible, usar un haz muy estrecho con gran control sobre los lóbulos laterales y posteriores o introducir los llamados radares pasivos (que no son un verdadero radar porque no emiten nada, pero pueden detectar señales emitidas por otros a grandes distancias).

Guía por radar activo del R-77 original.

Guía por radar activo del R-77 (RVV-AE, AA-12 Adder) original de 1994 (MAKS 2009).

Existen dos grandes categorías de misiles con guía radar: los activos y los semi-activos. Los misiles activos son del tipo “dispara y olvida” por completo: van provistos de su propio radar y lo usan para localizar y perseguir al blanco. Normalmente van equipados con un sistema adicional de navegación inercial, para recorrer partes de su trayectoria sin delatarse encendiendo el radar. Entre estos se encuentran algunos de los misiles más conocidos: los aire-aire de alcance medio AMRAAM y R-77 o antibuques como el Exocet,  el Harpoon o el Raduga Kh-15.

Estos misiles tan chulos y famosos tienen un problema: son pequeños. Más exactamente: sus antenas son pequeñas para que quepan en ese diámetro, y tampoco pueden cargar una enorme cantidad de electrónica, al menos en comparación con sus blancos. Por ello, cuando el “dispara y olvida” no resulta estrictamente necesario, se utilizan guías semiactivas. En una guía semiactiva, la señal principal es suministrada por un radar grande (un radar terrestre, naval o aéreo; por ejemplo, el radar del avión lanzador o un AWACS) y el misil se limita a captar el rebote y dirigirse hacia él. Así son, por ejemplo, los famosos antiaéreos Patriot y S-300/S-400. Ambos utilizan diversas combinaciones de modos semiactivos y activos; en la más básica, el misil es guiado hacia su blanco por una señal semiactiva emitida por sus potentes emisores terrestres  o áereos y usa su propio radar sólo para la aproximación final (homing).

La contramedida más antigua frente a este tipo de sensores es el chaff, ya utilizado contra los primeros radares, durante la Segunda Guerra Mundial. Sigue siendo sorprendentemente eficaz, y hasta los ICBM más avanzados lo incorporan tal cual o en forma gaseosa. Básicamente, se trata de cintas o hilillos metálicos que producen una miriada de rebotes en el radar, haciendo desaparecer la imagen en una neblina de incertidumbre. O, cuando se usa en un vehículo, generando un “segundo blanco” producido por los reflejos de la nube de chaff detrás del auténtico.

Casi setenta años después, sigue sin existir un método totalmente seguro para contrarrestar la eficacia del chaff. El más básico es medir la velocidad de los blancos detectados: la nube de chaff tiende a decelerar rápidamente detrás del blanco, lo que ayuda a distinguirla. Esto funciona bien con aviones pero mal con objetivos más lentos, como los barcos. Otro método consiste en hacer que el buscador del misil reaccione sólo ante las señales que proceden de un pequeño espacio alrededor del blanco, ignorando así el chaff que queda detrás; pero esto, además de reducir las capacidades todo-aspecto del buscador, se puede confundir utilizando lo que se llama un gate-stealer, que desplaza la señal rebotada por el blanco hacia la nube de chaff.

Este gate-stealer (¡es que no hay forma de traducirlo!) es una de las varias contramedidas posibles contra un misil guiado por radar. Casi todas ellas se basan en inducir señales falsas en el radar atacante y adolecen del mismo problema que ya vimos en los infrarrojos: cuando funcionan bien, funcionan muy bien; pero cuando funcionan mal, constituyen una emisión adicional que regala al misil un blanco perfecto (home-on-jam). Y, claro, no es posible predecir cuándo va a salir bien y cuándo va a salir mal.

En los años ’80 del pasado siglo, el misil francés Exocet se labró una fama curiosa atacando con éxito diversos buques civiles y militares; estos últimos iban equipados, obviamente, con numerosas contramedidas. Durante la Guerra de las Malvinas (1982), el destructor británico HMS Sheffield resultó destruido por uno de estos misiles y el HMS Glamorgan, gravemente dañado a manos de otro. También destruyeron al portacontenedores MV Atlantic Conveyor, cargado hasta las antenas con material militar, y los argentinos juran y perjuran que lograron al menos un impacto parcial en un portaaviones. Sea cierto esto último o no, el Exocet fue la única arma verdaderamente eficaz para la Argentina durante este conflicto. Tanto el Sheffield como el Glamorgan y los portaaviones estaban provistos con lanzadores de chaff, contramedidas electrónicas diversas y primitivos misiles anti-misil Sea Dart.

Durante la Guerra entre Irán e Iraq (1980-1988) Saddam era aún uno de nuestros chicos y estaba provisto con gran cantidad de armamento occidental. Sus misiles Exocet causaron una pesadilla en la navegación del Golfo Pérsico que vino a conocerse como la Guerra de los Petroleros; entre otros, hundieron al buque más grande jamás construido, un superpetrolero ULCC entonces llamado Seawise Giant. El 17 de mayo de 1987, un Mirage F1 iraquí –aparentemente por error– le endiñó dos de estos Exocets a la fragata estadounidense USS Stark, matando a 37 ocupantes. El gringo no se hundió por el sencillo hecho de que le arrearon bastante por encima de la línea de flotación y sus tripulantes lograron hacerse con los incendios y las vías de agua, pero el buque había quedado inutilizado por completo y la chapa y pintura costó 142 millones de dólares. La USS Stark iba provista con un sistema de defensa terminal Phalanx, un módulo de chaff y contramedidas automatizadas SRBOC, así como misiles Standard con posible uso marginal como defensa antimisil. Le sirvieron de lo mismo que al Sheffield y al Glamorgan: de nada.

La fragata estadounidense USS Stark escora tras ser alcanzada por dos misiles Exocet.

La fragata estadounidense USS Stark escora a babor tras ser alcanzada por dos misiles iraquíes Exocet de fabricación francesa, el 17 de mayo de 1987. (US Navy)

¿Cuál fue la clave del éxito del Exocet? Fácil: ninguno de sus blancos lo vio llegar. En todos los casos, el único preaviso fue un marinerito berreando despavorido aquello de “¡misil por babor!”. Bueno, en todos no: el Glamorgan pudo detectarlo por radar en el último momento, lo que le permitió ejecutar un brusco viraje para ponerle la popa. Así, el Exocet sólo le atizó en el hangar de helicópteros, haciendo estallar al Westland Wessex que estaba dentro, provocando un fuerte incendio y matando a trece tripulantes. Pero logró alejarse, renqueando.

¿Cómo es posible que no lo vieran llegar? Bueno, es que el Exocet es un misil rozaolas (sea-skimming). Y, diga lo que diga la propaganda habitual, los misiles rozaolas eran y siguen siendo muy difíciles de detectar con tiempo suficiente para hacer algo. Es que la Tierra es curva, sabeusté. Cuando algo vuela a muy poca altitud, queda por debajo del horizonte según se ve desde su objetivo, y eso vale tanto para los ojos como para el radar. Al aproximarse por debajo del horizonte radar, el Exocet simplemente no es detectado hasta que está ya encima como quien dice. Y si ya está encima, como recitamos en román paladino, te queda el tiempo justo para besarte el trasero y decirle adiós.

Lo que nos conduce a la defensa más eficaz en guerra moderna: que no te vean, ve tú al enemigo antes que el enemigo a ti. Esto ha sido efectivo desde siempre, pero en la actualidad es ley e incumplirla se castiga con la muerte. Atrás quedaron los tiempos de andar buscándose las vueltas con clarines, trompetas y banderones. Si puedes ver al enemigo antes de que el enemigo te vea a ti, puedes dispararle antes de que te disparen a ti. Y si tu arma hace lo que tiene que hacer, es probable que ellos sólo la vean llegar cuando ya estén a punto de comérsela sin patatas ni nada.

Para que no te vean, lo más eficaz es mantenerse disimulado en el ruido de fondo hasta que llegue el momento de atacar. Con las tecnologías de detección contemporáneas, mantenerse oculto por completo resulta casi siempre muy difícil e incluso imposible. Pero un buen camuflaje, una buena maskirovka, puede obrar efectos asombrosos. Disimularse en el ruido suele ser mucho mejor que pretender absurdamente que no estás allí en absoluto. La otra alternativa es, obviamente, mantenerse a distancia suficiente e ir recopilando pacientemente la información necesaria para lanzar un buen ataque por sorpresa desde fuera del alcance del enemigo.

En general, la espada ha demostrado históricamente ser mucho más poderosa que el escudo. La espada elige arma, táctica, espacio y tiempo; el escudo tiene que permanecer ahí todo el rato, gastando energía y recursos, esperando a ver si viene alguien o no, siempre expuesto a discreta observación y análisis para hallar sus puntos débiles. Los misiles, la última evolución de la flecha o la lanza, se acoplan perfectamente a este papel de espada. La única defensa segura es inutilizarlos antes de que lleguen a atacar, o mantenerse lejos de su radio de acción. Una vez en el aire, resultan muy difíciles de detener y su efecto es devastador. Por eso y por lo que decía al principio, los veremos cada vez más, durante mucho tiempo más.


Ejercicios de tiro con antiaéreos S-300 (ca. año 2000).

76 Comentarios Trackbacks / Pingbacks (23)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (63 votos, media: 4,92 de 5)
Loading...
Be Sociable, Share!

Qantas y Rolls Royce: Segundo incidente grave de motor en 65 días (A380 y B747)

Hoy, un Airbus A380 de la aerolínea australiana Qantas ha sufrido un grave fallo de motor, obligándole a realizar un aterrizaje de emergencia.
El pasado 30 de agosto, ocurrió exactamente lo mismo en un Boeing-747 de esta misma compañía, equipado también con un motor Rolls-Royce.

Breve nota preliminar.

Hoy, el Airbus A380 ha sufrido su primer incidente grave en la unidad matrícula VH-OQA de la aerolínea australiana Qantas. Tras unos primeros momentos en que las principales agencias de noticias hablaban de accidente, la situación se ha saldado con un regreso de emergencia al aeropuerto de partida: Singapur. Esto es inevitable: toda máquina fabricada por el ser humano, por extraordinaria que sea, tendrá algún fallo tarde o temprano. En las primeras imágenes del incidente se observa una desintegración probablemente explosiva del motor Rolls-Royce Trent 900. También hay una rotura de menor importancia en el ala de babor, aparentemente por proyectil producido durante esta desintegración.

Desintegración parcial del motor RR Trent 900 en un Airbus A380 de Qantas, 04/11/2010

Desintegración parcial del motor RR Trent 900 en un Airbus A380 de Qantas, matrícula VH-OQA, el 4 de noviembre de 2010. (Público TV)

Cabe reseñar que, pese a las enormes fuerzas implicadas en una desintegración de esta clase, no se observan más daños significativos. En una prueba realizada antes de su puesta en servicio, Rolls Royce ya demostró que la probabilidad de que un fragmento proyectado durante la desintegración parcial de un Trent 900 escapara y causase daños mayores en los sistemas de alrededor era baja; podemos verlo en el siguiente video:


Prueba de contención en desintegración parcial de un motor Rolls Royce Trent 900 para el Airbus A380.

Aunque en el incidente de hoy se ha producido claramente una pérdida completa de contención en la parte trasera de la góndola, aparentemente esto sólo se ha traducido en la perforación moderada del borde de ataque que se observa en las imágenes; lo que viene a reforzar la idea de que esta clase de incidente en un A380 no compromete gravemente la seguridad del vuelo.

Desintegración parcial de un reactor RR RB211 en un Boeing 747 de Qantas, 30 de agosto de 2010

Desintegración parcial del motor RR RB211 en un Boeing 747 de Qantas, matrícula VH-OJP, 30 de agosto de 2010.

Más peculiar resulta que este es el segundo motor de envergadura que le revienta a Qantas y a Rolls Royce en apenas 65 días. El pasado 30 de agosto de 2010 sucedió un incidente muy parecido en un Boeing-747 Jumbo de la misma compañía, matrícula VH-OJP, también tras despegar de su aeropuerto de partida; en este caso, San Francisco. Se trataba igualmente de un motor Rolls Royce, modelo RB211-524, número de serie 13247: un modelo de motor antiguo, muy distinto al Trent 900, cuyo desarrollo le costó la ruina a esta empresa británica.

En esta ocasión nadie se planteó aterrizar la flota de Boeing-747, ni siquiera los equipados con motores Rolls Royce RB211.

La agencia australiana de seguridad aérea ATSB ha publicado ya un informe preliminar sobre lo sucedido en este incidente de agosto, donde también hubo afectación menor del ala, pero los fragmentos tampoco alcanzaron ningún otro elemento de importancia. El informe aún no establece una causa del incidente, aunque realiza las siguientes observaciones:

  • El cojinete de la turbina de baja presión resultó destruido, junto con la rueda fónica y las sondas de velocidad adyacentes.
  • El eje de la turbina de presión intermedia estaba partido en su segmento posterior.
  • Todos los álabes se habían separado del disco de la turbina de presión intermedia.
  • Los álabes de las tres etapas de la turbina de baja presión se habían separado del disco o estaban fracturados.
  • Los álabes guía del inyector de la primera etapa de baja presión estaban destruídos y los restantes, sustancialmente dañados.

Según los testigos, estos daños en el motor del B747 se produjeron en forma de detonación, al igual que parece haber sucedido en el Trent del A380. En ambos casos, a primera vista, los daños parecen concentrarse en su parte posterior. Dos incidentes tan similares ocurridos en dos motores del mismo fabricante operados por la misma compañía aérea, pero en aviones radicalmente distintos, sugerirían concentrar la atención preliminar en Rolls Royce y Qantas más que en el Boeing 747 o el Airbus A380.

Esta singular coincidencia ha conseguido despertar mi interés, por lo que iremos viendo en este blog lo que vaya saliendo al respecto de ambos sucesos. Por cierto, que hace tiempo que no sale gran cosa sobre el accidente del avión presidencial polaco, que también seguimos aquí. Poco a poco.

(Continuará)

52 Comentarios Trackbacks / Pingbacks (6)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (31 votos, media: 4,48 de 5)
Loading...
Be Sociable, Share!

« Página anterior« Entradas anteriores « Página anterior · Página siguiente » Entradas siguientes »Página siguiente »