más dañinas que en el pasado, puesto que los frentes de playa se hallan en la
actualidad mucho más construidos y poblados desde la Segunda Guerra Mundial, y
aunque no existe un conocimiento claro de la posición y movimientos de dichas
tormentas, sí resulta cierto que la pérdida de vidas y propiedades sería muchas veces
mayor de lo que es ahora. (Respecto a la utilidad y valor del programa espacial, el
rastreo mediante satélites de los huracanes por sí solo ya representa un precio mayor
de lo que cuesta el programa en sí.)
Otros empleos terrestres de los satélites se han desarrollado asimismo. Ya en 1945, el
escritor de ciencia-ficción británico Arthur C. Clarke había señalado que los satélites
podrían emplearse como relés en los que los mensajes de radio se esparcirían por
continentes y océanos, y que únicamente tres satélites estratégicamente situados
podrían hacer frente a una cobertura a nivel mundial. Lo que parecía un sueño
descabellado comenzó a hacerse real quince años después. El 12 de agosto de 1961,
Estados Unidos lanzó el Echo I, un tenue globo de poliéster forrado de aluminio, que
fue inflado en el espacio hasta ocupar un diámetro de 33 metros para servir como
reflector pasivo de las ondas de radio. Una figura eminente en este exitoso proyecto
fue Robinson Pierce de «Bell Telephone Laboratories», que él mismo fue un escritor de
historias de ciencia-ficción bajo seudónimo.
El 10 de julio de 1962 fue lanzado el Telstar I, otro satélite estadounidense, el cual
hizo algo más que reflejar ondas. Las recibió y amplificó, para retransmitirlas
173
seguidamente. Gracias al Telstar, los programas de televisión cruzaron los océanos por
vez primera (aunque, desde luego, el nuevo ingenio no pudo mejorar su calidad). El 26
de julio de 1963 se lanzó el Syncom II, satélite que orbitaba la superficie terrestre a
una distancia de 35.880 km. Su período orbital era de 24 horas exactas, de modo que
«flotaba» fijamente sobre el océano Atlántico, sincronizado con la Tierra. El Syncom
III, «colocado» sobre el océano índico y con idéntica sincronización, retransmitió a
Estados Unidos, en octubre de 1964, La Olimpiada del Japón.
El 6 de abril de 1965 se lanzó otro satélite de comunicaciones más complejo aún: el
Early-Bird, que permitió el funcionamiento de 240 circuitos radiofónicos y un canal de
televisión. (Durante dicho año, la Unión Soviética empezó a lanzar también satélites de
comunicación.) Hacia los años 1970, televisión, radio y radiotelefonía se habían
convertido en esencialmente globales, gracias a los relés por satélite.
Tecnológicamente, la Tierra se ha convertido en «un mundo», y las fuerzas políticas
que trabajan contra este hecho ineludible son crecientemente arcaicas, anacrónicas y
mortíferamente peligrosas.
El hecho de que los satélites puedan usarse para realizar un mapa de la superficie de
la Tierra y estudiar sus nubes resulta algo obvio. No del todo tan obvio pero asimismo
igual de cierto es el hecho de que los satélites pueden estudiar el manto de nieve, los
movimientos de los glaciares, detalles geológicos en amplia escala. A partir de detalles
geológicos, pueden señalarse las regiones en que es probable que exista petróleo.
Cabe estudiar las cosechas a gran escala, así como los bosques, y también señalar las
regiones donde reinan la anormalidad y las enfermedades. Es posible localizar los
incendios forestales y asimismo las necesidades de irrigación. Pueden estudiarse los
océanos, así como las corrientes de agua y los movimientos de los peces. Tales
satélites de recursos terrestres constituyen la respuesta inmediata a aquellos críticos
que pusieron en tela de juicio el dinero gastado en el espacio ante los grandes
problemas del tipo «aquí y ahora, y en nuestra casa». A menudo es desde el espacio
donde esos problemas pueden estudiarse mejor y demostrar los métodos de la
solución.
Finalmente, existen en órbita numerosos satélites espía diseñados para ser capaces de
detectar movimientos militares, concentraciones y almacenamientos militares,
etcétera. No faltan personas que planean convertir el espacio en otra arena para la
guerra, o para desarrollar satélites asesinos que destruyan los satélites enemigos, o
para situar armas avanzadas en el espacio que se empleen con mayor rapidez que las
armas terrestre. Esto constituye un lado demoníaco de la exploración del espacio, y el
simple hecho de pensar en ello, aunque sea de forma marginal, aumenta la velocidad a
que una guerra termonuclear a una escala total puede llegar a destruir la civilización.
El propósito declarado de «mantener la paz» desalentando a la otra parte de llevar a
cabo la guerra, es algo proclamado por ambas superpotencias, tanto Estados Unidos
como la Unión Soviética. El acrónimo de esta teoría de la paz a través de «una
destrucción mutua asegurada», con cada lado sabiendo que comenzar una guerra
aportaría la destrucción propia, así como la del otro bando, es una locura, y lo es
porque aumentar la cantidad y lo mortífero de los armamentos hasta ahora jamás ha
impedido la guerra.
LOS GASES EN EL AIRE
La atmósfera inferior
Hasta los tiempos modernos se consideraba el aire como una sustancia simple y
homogénea. A principios del siglo XVII, el químico flamenco Jan Baptista van Helmont
empezó a sospechar que existía cierto número de gases químicamente diferenciados.
Así, estudió el vapor desprendido por la fermentación de los zumos de fruta (anhídrido
carbónico) y lo reconoció como una nueva sustancia. De hecho, Van Helmont fue el
primero en emplear el término «gas» —voz que se supone acuñada a partir de «caos»,
que empleaban los antiguos para designar la sustancia original de la que se formó el
Universo—. En 1756, el químico escocés Joseph Black estudió detenidamente el
anhídrido carbónico y llegó a la conclusión de que se trataba de un gas distinto del
174
aire. Incluso demostró que en el aire había pequeñas cantidades del mismo. Diez años
más tarde, Henry Cavendish estudió un gas inflamable que no se encontraba en la
atmósfera. Fue denominado hidrógeno. De este modo se demostraba claramente la
multiplicidad de los gases.
El primero en darse cuenta de que el aire era una mezcla de gases fue el químico
francés Antoine-Laurent Lavoisier. Durante unos experimentos realizados en la década
de 1770, calentó mercurio en una retorta y descubrió que este metal, combinado con
aire, formaba un polvo rojo (óxido de mercurio), pero cuatro quintas partes del aire
permanecían en forma de gas. Por más que aumentó el calor, no hubo modo de que se
consumiese el gas residual. Ahora bien, en éste no podía arder una vela ni vivir un
ratón.
Según Lavoisier, el aire estaba formado por dos gases. La quinta parte, que se
combinaba con el mercurio en su experimento, era la porción de aire que sostenía la
vida y la combustión, y a la que dio el nombre de «oxígeno». A la parte restante la
denominó «ázoe», voz que, en griego, significa «sin vida». Más tarde se llamó
«nitrógeno», dado que dicha sustancia estaba presente en el nitrato de sodio, llamado
comúnmente «nitro». Ambos gases habían sido descubiertos en la década anterior: el
nitrógeno, en 1772, por el físico escocés Daniel Rutherford, y el oxígeno, en 1774, por
el ministro unitario inglés Joseph Priestley.
Esto sólo es suficiente para demostrar que la atmósfera terrestre constituye un caso
único en el Sistema Solar. Aparte de la Tierra, seis mundos en el Sistema Solar se
sabe que poseen una atmósfera apreciable. Júpiter, Saturno, Urano y Neptuno (los
primeros dos de una forma segura; los otros dos con cierta probabilidad) poseen
atmósferas de hidrógeno, con helio como constituyente menor. Marte y Venus tienen
atmósferas de dióxido de carbono, con nitrógeno como constituyente menor. Sólo la
Tierra posee una atmósfera uniformemente repartida entre dos gases, y sólo la Tierra
posee el oxígeno como constituyente principal. El oxígeno es un gas activo y, desde
unas consideraciones químicas ordinarias, puede esperarse que se combine con otros
elementos y llegue a desaparecer de la atmósfera en su forma libre. Esto es algo sobre
lo que volveremos más adelante en este capítulo, pero, por ahora, continuemos
tratando con los ulteriores detalles de la composición química del aire.
A mediados del siglo XIX, el químico francés Henri-Victor Regnault analizó muestras de
aire de todo el Planeta y descubrió que la composición del mismo era idéntica en todas
partes. El contenido en oxígeno representaba el 20,9 %, y se presumía que el resto (a
excepción de indicios de anhídrido carbónico) era nitrógeno.
Comparativamente, el nitrógeno es un gas inerte, o sea, que no se combina
rápidamente con otras sustancias. Sin embargo, puede ser forzado a combinarse, por
ejemplo, calentándolo con metal de magnesio, lo cual da nitrato de magnesio sólido.
Años después del descubrimiento de Lavoisier, Henry Cavendish intentó consumir la
totalidad del nitrógeno combinándolo con oxígeno, bajo la acción de una chispa
eléctrica. No tuvo éxito. Hiciera lo que hiciese, no podía liberarse de una pequeña
burbuja de gas residual, que representaba menos del 1 % del volumen original.
Cavendish pensó que éste podría ser un gas desconocido, incluso más inerte que el
nitrógeno. Pero como no abundan los Cavendish, el rompecabezas permaneció como
tal largo tiempo, sin que nadie intentara solucionarlo, de modo que la naturaleza de
este aire residual no fue descubierta hasta un siglo más tarde.
En 1882, el físico británico John W. Strutt (Lord Rayleigh) comparó la densidad del
nitrógeno obtenido a partir de ciertos productos químicos, y descubrió, con gran
sorpresa, que el nitrógeno del aire era definitivamente más denso. ¿Se debía esto a
que el gas obtenido a partir del aire no era puro, sino que contenía pequeñas
cantidades de otro más pesado? Un químico escocés, Sir William Ramsay, ayudó a
Lord Rayleigh a seguir investigando la cuestión. Por aquel entonces contaban ya con la
ayuda de la espectroscopia. Al calentar el pequeño residuo de gas que quedaba tras la
combustión del nitrógeno y examinarlo al espectroscopio, encontraron una nueva serie
de líneas brillantes, líneas que no pertenecían a ningún elemento conocido. Este nuevo
y muy inerte elemento recibió el nombre de «argón» (del término griego que significa
175
«inerte»).
El argón suponía casi la totalidad del 1 % del gas desconocido contenido en el aire.
Pero seguían existiendo en la atmósfera diversos componentes, cada uno de los cuales
constituía sólo algunas partes por millón. Durante la década de 1890, Ramsay
descubrió otros cuatro gases inertes: «neón» (nuevo), «criptón» (escondido), «xenón»
(extranjero) y «helio»», gas este último cuya existencia en el Sol se había descubierto
unos 30 años antes. En décadas recientes, el espectroscopio de rayos infrarrojos ha
permitido descubrir otros tres: el óxido nitroso («gas hilarante»), cuyo origen se
desconoce; el metano, producto de la descomposición de la materia orgánica y el
monóxido de carbono. El metano es liberado por los pantanos, y se ha calculado que
cada año se incorporan a la atmósfera unos 45 millones de toneladas de dicho gas,
procedentes de los gases intestinales de los grandes animales. El monóxido de carbono
es, probablemente, de origen humano, resultante de la combustión incompleta de la
madera, carbón, gasolina, etc.
La estratosfera
Desde luego, todo esto se refiere a la composición de las capas más bajas de la
atmósfera. ¿Qué sucede en la estratosfera? Teisserenc de Bort creía que el helio y el
hidrógeno podrían existir allí en determinada cantidad, flotando sobre los gases más
pesados subyacentes. Estaba en un error. A mediados de la década de 1930, los
tripulantes de globos rusos trajeron de la estratosfera superior muestras de aire
demostrativas de que estaba constituida por oxígeno y nitrógeno en la misma
proporción de 1 a 4 que se encuentra en la troposfera.
Pero había razones para creer que en la atmósfera superior existían algunos gases
poco corrientes, y una de tales razones era el fenómeno llamado «claridad nocturna».
Se trata de una débil iluminación general de todo el cielo nocturno, incluso en ausencia
de la Luna. La luz total de la claridad nocturna es mucho mayor que la de las estrellas,
pero tan difusa que no puede apreciarse, excepto con los instrumentos fotodetectores
empleados por los astrónomos.
La fuente de esta luz había sido un misterio durante muchos años. En 1928, el
astrónomo V. M. Slipher consiguió detectar en la claridad nocturna algunas líneas
espectrales, que habían sido ya encontradas en las nebulosas por William Huggins en
1864 y que se pensaba podían representar un elemento poco común, denominado
«nebulio». En 1927, y en experimentos de laboratorios, el astrónomo americano Ira
Sprague Bowen demostró que las líneas provenían del «oxígeno atómico», es decir,
oxígeno que existía en forma de átomos aislados y que no estaba combinado en la
forma normal como molécula de dos átomos. Del mismo modo, se descubrió que otras
extrañas líneas espectrales de la aurora representaban nitrógeno atómico. Tanto el
oxígeno atómico como el nitrógeno atómico de la atmósfera superior son producidos
por la radiación solar, de elevada energía, que escinde las moléculas en átomos
simples, lo cual fue sugerido ya, en 1931, por Sydney Chapman. Afortunadamente,
esta radiación de alta energía es absorbida o debilitada antes de que llegue a la
atmósfera inferior.
Por tanto, la claridad nocturna —según Chapman— proviene de la nueva unión,
durante la noche, de los átomos separados durante el día por la energía solar. Al
volverse a unir, los átomos liberan parte de la energía que ha absorbido en la división,
de tal modo que la claridad nocturna es una especie de renovada emisión de luz solar,
retrasada y muy débil, en una forma nueva y especial. Los experimentos realizados
con cohetes en la década de 1950 suministraron pruebas directas de que esto ocurre
así. Los espectroscopios que llevaban los cohetes registraron las líneas verdes del
oxígeno atómico con mayor intensidad a 96 km de altura. Sólo una pequeña
proporción de nitrógeno se encontraba en forma atómica, debido a que las moléculas
de este gas se mantienen unidas más fuertemente que las del oxígeno; aun así, la luz
roja del nitrógeno atómico seguía siendo intensa a 144 km de altura.
Slipher había encontrado también en la claridad nocturna líneas sospechosamente
parecidas a las que emitía el sodio. La presencia de éste pareció tan improbable, que
176
se descartó el asunto como algo enojoso. ¿Qué podía hacer el sodio en la atmósfera
superior? Después de todo no es un gas, sino un metal muy reactivo, que no se
encuentra aislado en ningún lugar de la Tierra. Siempre está combinado con otros
elementos, la mayor parte de las veces en forma de cloruro de sodio (sal común). Pero
en 1938, los científicos franceses establecieron que las líneas en cuestión eran, sin
lugar a dudas, idénticas a las de sodio. Fuera o no probable, tenía que haber sodio en
la atmósfera superior. Los experimentos realizados nuevamente con cohetes dieron la
clave para la solución: sus espectroscopios registraron inconfundiblemente la luz
amarilla del sodio, y con mucha más fuerza, a unos 88 km de altura. De dónde
proviene este sodio, sigue siendo un misterio; puede proceder de la neblina formada
por el agua del océano o quizá de meteoros vaporizados. Más sorprendente aún fue el
descubrimiento, en 1958, de que el litio —un pariente muy raro del sodio— contribuía
a la claridad nocturna.
En 1956, un equipo de científicos norteamericanos, bajo la dirección de Murray
Zelikov, produjo una claridad nocturna artificial. Dispararon un cohete que, a 96 km de
altura, liberó una nube de gas de óxido nítrico, el cual aceleró la nueva combinación de
átomos de oxígeno en la parte superior de la atmósfera. Observadores situados en
tierra pudieron ver fácilmente el brillo que resultaba de ello. También tuvo éxito un
experimento similar realizado con vapor de sodio: originó un resplandor amarillo
claramente visible. Cuando los científicos soviéticos lanzaron hacia nuestro satélite el
Lunik III, en octubre de 1959, dispusieron las cosas de forma que expulsara una nube
de vapor de sodio como señal visible de que había alcanzado su órbita.
A niveles más bajos de la atmósfera, el oxígeno atómico desaparece, pero la radiación
solar sigue teniendo la suficiente energía como para formar la variedad de oxígeno
triatómico llamada «ozono». La concentración de ozono alcanza su nivel más elevado a
24 km de altura. Incluso aquí, en lo que se llama «ozonosfera» (descubierta en 1913
por el físico francés Charles Fabry), constituye sólo una parte en 4 millones de aire,
cantidad suficiente para absorber la luz ultravioleta y proteger así la vida en la Tierra.
El ozono está formado por la combinación del oxígeno de un solo átomo con las
moléculas ordinarias de oxígeno (de dos átomos). El ozono no se acumula en grandes
cantidades, puesto que es inestable. La molécula de tres átomos puede romperse con
facilidad en la forma mucho más estable de dos átomos a través de la acción de la luz
solar, por el óxido de nitrógeno que se presenta de forma natural en pequeñas
cantidades en la atmósfera y por otros productos químicos. El equilibrio entre la
formación y la destrucción deja, siempre en la ozonosfera, la pequeña concentración a
la que nos hemos referido; y su escudo contra los rayos ultravioleta del Sol (que
destruiría gran parte de las delicadas moléculas tan esenciales para el tejido vivo), ha
protegido la vida desde que el oxígeno penetró por primera vez en grandes cantidades
en la atmósfera terrestre.
La ozonosfera no está muy por encima de la tropopausa y varía en altura de la misma
manera, siendo más baja en los polos y más elevada en el ecuador. La ozonosfera es
más rica en ozono en los polos y más pobre en el ecuador, donde el efecto destructor
de la luz solar es más elevado.
Sería peligroso si la tecnología humana llegase a producir una aceleración de la ruptura
del ozono en la atmósfera superior y debilitase el escudo de la ozonosfera. El
debilitamiento del mencionado escudo incrementaría la incidencia ultravioleta en la
superficie terrestre, lo cual, a su vez, aumentaría la incidencia del cáncer de piel,
especialmente entre las personas de piel clara. Se ha estimado que una reducción del
5 % del escudo de ozono acarrearía 500.000 casos adicionales de cáncer de piel cada
año, en todo el mundo en general. La luz ultravioleta, si aumentase en concentración,
también afectaría a la vida microscópica (plancton) en la superficie del mar con
posibles consecuencias fatales, dado que el plancton forma la base de la cadena
alimentaria en el mar y, hasta cierto punto, también en tierra.
Existe en realidad cierto peligro de que la tecnología humana afecte a la ozonosfera.
De una forma creciente, los aviones de reacción vuelan a través de la estratosfera, y
los cohetes se abren camino por toda la atmósfera y por el espacio. Los productos
177
químicos vertidos en la atmósfera superior por los tubos de escape de los mencionados
vehículos pueden, concebiblemente, acelerar la ruptura del ozono. La posibilidad fue
empleada como un argumento contra el desarrollo de aviones supersónicos a principios
de la década de los setenta.
En 1974, se encontró de forma inesperada que los esprays constituyen un posible
peligro. Esos recipientes albergan freón (un gas del que volveré a hablar en este libro)
como fuente de presión para hacer salir el contenido de los recipientes (atomizadores
para el cabello, desodorantes, ambientadores del aire, y cosas de este tipo) en un fino
chorro pulverizado. El mismo freón es, químicamente, tan inofensivo como quepa
imaginar en un gas: incoloro, inodoro, inerte, sin reacciones, y sin ningún efecto sobre
los seres humanos. Unos 800 millones de kilos fueron liberados a la atmósfera a partir
de atomizadores y otros utensilios cada año en el momento en que se señaló su
posible peligro.
El gas, al no reaccionar con nada, se extiende lentamente a través de la atmósfera y
finalmente alcanza la ozonosfera, donde puede servir para acelerar la ruptura del
ozono. Esta posibilidad fue sugerida sobre la base de pruebas de laboratorio. El que
actúe de esta forma en las condiciones de las capas superiores de la atmósfera es en
cierto modo inseguro, pero la posibilidad representa un gran peligro que no puede
descartarse a la ligera. El uso de recipientes de espray con freón ha decrecido en gran
manera desde que comenzara esta discusión.
Sin embargo, el freón se emplea aún en mayor extensión en acondicionadores de aire
y en refrigeración, donde es imposible prescindir de él o remplazarle. Así, la ozonosfera
sigue pendiente del azar puesto que, una vez formado, el freón es proclive más pronto
o más tarde a descargarse en la atmósfera.
La ionosfera
El ozono no es el único constituyente atmosférico que es más importante a grandes
alturas que en las proximidades de la superficie. Posteriores experimentos con cohetes
mostraron que las especulaciones de Teisserenc de Bort, referentes a las capas de
helio y de hidrógeno, no estaban equivocadas, sino meramente mal ubicadas. De 350
a 900 kilómetros hacia arriba, donde la atmósfera es tan tenue que linda casi con el
vacío, existe una capa de helio, región a la que ahora se llama heliosfera. La existencia
de esta capa de helio fue deducida por primera vez en 1961, por el físico belga Marcel
Nicolet, a causa de la resistencia encontrada por el satélite Echo I. Esta deducción fue
confirmada por el análisis del tenue gas que rodeó al Explorer XVII, lanzado el 2 de
abril de 1963.
Por encima de la heliosfera existe una aún más tenue capa de hidrógeno, la protosfera,
que puede extenderse hacia arriba hasta unos 60.000 kilómetros antes de extinguirse
del todo en la densidad general del espacio interplanetario.
Las elevadas temperaturas y la radiación energética hacen algo más que forzar a los
átomos a separarse en nuevas combinaciones. Pueden mellar los electrones de los
átomos y de esta forma ionizar los átomos. Lo que queda del átomo se llama ion y
Dostları ilə paylaş: |