difiere de un átomo ordinario en poseer una carga eléctrica. La palabra ion, fue
acuñada en primer lugar en los años 1930 por el estudioso inglés William Whewell, y
procede de una voz griega que significa «viajero». En su origen se apoyó en el hecho
de que, cuando una corriente eléctrica pasa a través de una solución que contiene
iones, los iones cargados positivamente viajan en una dirección y los iones cargados
negativamente en la otra.
Un joven estudiante de Química sueco, Svante August Arrhenius, fue el primero en
sugerir que los iones eran átomos cargados, lo cual explicaría el comportamiento de
ciertas soluciones conductoras de corriente eléctrica. Sus teorías —expuestas en 1884
en su tesis doctoral de Ciencias— eran tan revolucionarias, que el tribunal examinador
mostró cierta reticencia a la hora de concederle el título. Aún no se habían descubierto
las partículas cargadas en el interior del átomo, por lo cual parecía ridículo el concepto
de un átomo cargado eléctricamente. Arrhenius consiguió su doctorado, pero con una
178
calificación mínima.
Cuando se descubrió el electrón, a últimos de la década de 1890, la teoría de Arrhenius
adquirió de pronto un sentido sorprendente. En 1903 fue galardonado con el Premio
Nobel de Química por la misma tesis que 19 años antes casi le costara su doctorado.
(Debo admitir que esto parece el guión de una película, pero la historia de la Ciencia
contiene muchos episodios que harían considerar a los guionistas de Hollywood como
faltos de imaginación.)
El descubrimiento de iones en la atmósfera no volvió al primer plano hasta después de
que Guillermo Marconi iniciara sus experimentos de telegrafía sin hilos. Cuando, el 12
de diciembre de 1901, envió señales desde Cornualles a Terranova, a través de 3.378
km del océano Atlántico, los científicos se quedaron estupefactos. Las ondas de radio
viajan sólo en línea recta. ¿Cómo podían haber superado, pues, la curvatura de la
Tierra, para llegar hasta Terranova?
Un físico británico, Oliver Heaviside, y un ingeniero electrónico americano, Arthur
Edwin Kennelly, sugirieron, poco después, que las señales de radio podían haber sido
reflejadas por una capa de partículas cargadas que se encontrase en la atmósfera, a
gran altura. La «capa Kennelly-Heaviside» —como se llama desde entonces— fue
localizada, finalmente, en la década de 1920. La descubrió el físico británico Edward
Víctor Appleton, cuando estudiaba el curioso fenómeno del amortiguamiento (fading)
de la transmisión radiofónica. Y llegó a la conclusión de que tal amortiguamiento era el
resultado de la interferencia entre dos versiones de la misma señal, la que iba
directamente del transmisor al receptor y la que seguía a ésta después de su reflexión
en la atmósfera superior. La onda retrasada se hallaba desfasada respecto a la
primera, de modo que ambas se anulaban parcialmente entre sí; de aquí el
amortiguamiento.
Partiendo de esta base resultaba fácil determinar la altura de la capa reflectante. Todo
lo que se había de hacer era enviar señales de una longitud de onda tal que las
directas anulasen por completo a las reflejadas, es decir, que ambas señales llegasen
en fases contrapuestas. Partiendo de la longitud de onda de la señal empleada y de la
velocidad conocida de las ondas de radio, pudo calcular la diferencia en las distancias
que habían recorrido los dos trenes de ondas. De este modo determinó que la capa
Kennelly-Heaviside estaba situada a unos 104 km de altura.
El amortiguamiento de las señales de radio solía producirse durante la noche. Appleton
descubrió que, poco antes del amanecer, las ondas de radio eran reflejadas por la capa
Kennelly-Heaviside sólo a partir de capas situadas a mayores alturas (denominadas
hoy, a veces, «capas Appleton») que empezaban a los 225 km de altura (fig. 5.3).
Por todos estos descubrimientos, Appleton recibió, en 1947, el Premio Nobel de Física.
Había definido la importante región de la atmósfera llamada «ionosfera», término
introducido en 1930 por el físico escocés Robert Alexander Watson-Watt. Incluye la
mesosfera y la termosfera, y hoy se la considera dividida en cierto número de capas.
Desde la estratopausa hasta los 104 km de altura aproximadamente se encuentra la
«región D». Por encima de ésta se halla la capa Kennelly-Heaviside, llamada «capa D».
Sobre la capa D, hasta una altura de 235 km, tenemos la «región E», un área
intermedia relativamente pobre en iones, la cual va seguida por las capas de Appleton:
la «capa F1», a 235 km, y la «capa F2», a 321 km. La capa F1 es la más rica en iones,
mientras que la F2 es significativamente intensa durante el día. Por encima de estos
estratos se halla la «región F».
Estas capas reflejan y absorben sólo las ondas largas de radio empleadas en las
emisiones normales. Las más cortas, como las utilizadas en televisión, pasan, en su
mayor parte, a través de las mismas. Ésta es la causa de que queden limitadas, en su
alcance, las emisiones de televisión, limitación que puede remediarse gracias a las
estaciones repetidoras situadas en satélites como el Early Bird (o Pájaro del Alba),
lanzado en 1965, el cual permite que los programas de televisión atraviesen océanos y
continentes. Las ondas de radio procedentes del espacio (por ejemplo, de las estrellas)
pasan también a través de la ionosfera; y podemos decir que, por fortuna, pues, de lo
179
contrario, no existiría la Radioastronomía.
La ionosfera tiene mayor potencia al atardecer, después del efecto ejercido por las
radiaciones solares durante todo el día, para debilitarse al amanecer, lo cual se debe a
que han vuelto a unirse muchos iones y electrones. Las tormentas solares, al
intensificar las corrientes de partículas y las radiaciones de alta energía que llegan a la
Tierra, determinan un mayor grado de ionización en las capas, a la vez que dan más
espesor a las mismas. Las regiones situadas sobre la ionosfera se iluminan también
cuando originan las auroras. Durante estas tormentas eléctricas queda interrumpida la
transmisión de las ondas de radio a larga distancia, y, en ocasiones, desaparecen
180
totalmente.
La ionosfera ha resultado ser sólo uno de los cinturones de radiación que rodea la
Tierra. Más allá de la atmósfera, en lo que antes se consideraba espacio «vacío», los
satélites artificiales mostraron algo sorprendente en 1958. Mas, para entenderlo,
hagamos antes una incursión en el tema del magnetismo.
IMANES
Los imanes (magnetos) recibieron su nombre de la antigua ciudad griega de Magnesia,
cerca de la cual se descubrieron las primeras «piedras-imán. La piedra-imán
(magnetita) es un óxido de hierro que tiene propiedades magnéticas naturales. Según
la tradición, Tales de Mileto, hacia el 550 a. de J.C. fue el primer filósofo que lo
describió.
Magnetismo y electricidad
Los imanes se convirtieron en algo más que una simple curiosidad cuando se descubrió
que una aguja, al entrar en contacto con una piedra-imán, quedaba magnetizada, y
que si se permitía que la aguja pivotase libremente en un plano horizontal, señalaba
siempre la línea Norte-Sur. Desde luego, la aguja era de gran utilidad para los
marinos; tanto, que se hizo indispensable para la navegación oceánica, a pesar de que
los polinesios se las arreglaban para cruzar el Pacífico sin necesidad de brújula.
No se sabe quién fue el primero en colocar una aguja magnetizada sobre un pivote y
encerrarla en una caja, para obtener la brújula. Se supone que fueron los chinos,
quienes lo transmitieron a los árabes, los cuales, a su vez, lo introdujeron en Europa.
Esto es muy dudoso, y puede ser sólo una leyenda. Sea como fuere, en el siglo XII la
brújula fue introducida en Europa y descrita con detalle, en 1269, por un estudiante
francés más conocido por su nombre latinizado de Petrus Peregrinus, el cual llamó
«polo Norte» al extremo de la aguja imantada que apuntaba al Norte, y «polo Sur» al
extremo opuesto.
Como es natural, la gente especulaba acerca del motivo por el que apuntaba al Norte
una aguja magnetizada. Como quiera que se conocía el hecho de que los imanes se
atraían entre sí, algunos pensaron que debía de existir una gigantesca montaña
magnética en el polo Norte, hacia el que apuntaba la aguja. Otros fueron más
románticos y otorgaron a los imanes un «alma» y una especie de vida.
El estudio científico de los imanes inicióse con William Gilbert, médico de la Corte de
Isabel I de Inglaterra. Fue éste quien descubrió que la Tierra era, en realidad, un
gigantesco imán. Gilbert montó una aguja magnetizada de modo que pudiese pivotar
libremente en dirección vertical (una «brújula de inclinación»), y su polo Norte señaló
entonces hacia el suelo («inclinación magnética»). Usando un imán esférico como un
modelo de la Tierra, descubrió que la aguja se comportaba del mismo modo cuando
era colocada sobre el «hemisferio Norte» de su esfera. En 1600, Gilbert publicó estos
descubrimientos en su clásica obra De Magnete. En los tres siglos que han transcurrido
desde los trabajos de Gilbert, nadie ha conseguido explicar el magnetismo de la Tierra
de forma satisfactoria para todos los especialistas. Durante largo tiempo, los científicos
especularon con la posibilidad de que la Tierra pudiese tener como núcleo un
gigantesco imán de hierro. A pesar de que, en efecto, se descubrió que nuestro
planeta tenía un núcleo de hierro, hoy sabemos que tal núcleo no puede ser un imán,
puesto que el hierro, cuando se calienta hasta los 760° C, pierde sus grandes
propiedades magnéticas, y la temperatura del núcleo de la Tierra debe de ser, por lo
menos, de 1.000° C.
La temperatura a la que una sustancia pierde su magnetismo se llama «temperatura
Curie», en honor a Pierre Curie, que descubrió este fenómeno en 1895. El cobalto y el
níquel, que en muchos aspectos se parecen sensiblemente al hierro, son también
ferromagnéticos. La temperatura Curie para el níquel es de 356° C; para el cobalto, de
1.075° C. A temperaturas bajas son también ferromagnéticos otros metales. Por
ejemplo, lo es el disprosio a -188° C.
181
En general, el magnetismo es una propiedad inherente del átomo, aunque en la mayor
parte de los materiales los pequeños imanes atómicos están orientados al azar, de
modo que resulta anulado casi todo el efecto. Aun así, revelan a menudo ligeras
propiedades magnéticas, cuyo resultado es el «paramagnetismo». La fuerza del
magnetismo se expresa en términos de «permeabilidad». La permeabilidad en el vacío
es de 1,00, y la de las sustancias paramagnéticas está situada entre 1,00 y 1,01.
Las sustancias ferromagnéticas tienen permeabilidades mucho más altas. La del níquel
es de 40; la del cobalto, de 55, y la del hierro, de varios miles. En 1907, el físico
francés Pierre Weiss postuló la existencia de «regiones» en tales sustancias. Se trata
de pequeñas áreas, de 0,001 a 0,1 cm de diámetro (que han sido detectados), en las
que los imanes atómicos están dispuestos de tal forma que sus efectos se suman, lo
cual determina fuertes campos magnéticos exteriores en el seno de la región. En el
hierro normal no magnetizado, las regiones están orientadas al azar y anulan los
efectos de las demás. Cuando las regiones quedan alineadas por la acción de otro
imán, se magnetiza el hierro. La reorientación de regiones durante el magnetismo da
unos sonidos sibilantes y de «clic», que pueden ser detectados por medio de
amplificadores adecuados, lo cual se denomina «efecto Barkhausen», en honor a su
descubridor, el físico alemán Heinrich Barkhausen.
En las «sustancias antiferromagnéticas», como el manganeso, las regiones se alinean
también, pero en direcciones alternas, de modo que se anula la mayor parte del
magnetismo. Por encima de una determinada temperatura, las sustancias pierden su
antiferromagnetismo y se convierten en paramagnéticas.
Si el núcleo de hierro de la Tierra no constituye, en sí mismo, un imán permanente,
por haber sido sobrepasada su temperatura Curie, debe de haber otro modo de
explicar la propiedad que tiene la Tierra de afectar la situación de los extremos de la
aguja. La posible causa fue descubierta gracias a los trabajos del científico inglés
Michael Faraday, quien comprobó la relación que existe entre el magnetismo y la
electricidad.
En la década de 1820, Faraday comenzó un experimento que había descrito por vez
primera Petrus Peregrinus —y que aún sigue atrayendo a los jóvenes estudiantes de
Física—. Consiste en esparcir finas limaduras de hierro sobre una hoja de papel situada
encima de un imán y golpear suavemente el papel. Las limaduras tienden a alinearse
alrededor de unos arcos que van del polo norte al polo sur del imán. Según Faraday,
estas «líneas magnéticas de fuerza» forman un «campo» magnético.
Faraday, que sintiéndose atraído por el tema del magnetismo al conocer las
observaciones hechas, en 1820, por el físico danés Hans Christian Oersted —según las
cuales una corriente eléctrica que atraviese un cable desvía la aguja de una brújula
situada en su proximidad—, llegó a la conclusión de que la corriente debía de formar
líneas magnéticas de fuerza en torno al cable.
Estuvo aún más seguro de ello al comprobar que el físico francés André-Marie Ampére
había proseguido los estudios sobre los cables conductores de electricidad
inmediatamente después del descubrimiento de Oersted. Ampére demostró que dos
cables paralelos, por los cuales circulara la corriente en la misma dirección, se atraían.
En cambio, se repelían cuando las corrientes circulaban en direcciones opuestas. Ello
era muy similar a la forma en que se repelían dos polos norte magnéticos (o dos polos
sur magnéticos), mientras que un polo norte magnético atraía a un polo sur
magnético. Más aún, Ampére demostró que una bobina cilindrica de cable atravesada
por una corriente eléctrica, se comportaba como una barra imantada. En 1881, y en
honor a él, la unidad de intensidad de una corriente eléctrica fue denominada,
oficialmente, «ampere» o amperio.
Pero si todo esto ocurría así —pensó Faraday (quien tuvo una de las intuiciones más
positivas en la historia de la Ciencia)—, y si la electricidad puede establecer un campo
magnético tan parecido a uno real que los cables que transportan una corriente
eléctrica pueden actuar como imanes, ¿no sería también cierto el caso inverso? ¿No
debería un imán crear una corriente de electricidad que fuese similar a la producida
182
por pilas?
En 1831, Faraday realizó un experimento que cambiaría la historia del hombre. Enrolló
una bobina de cable en torno a un segmento de un anillo de hierro, y una segunda
bobina, alrededor de otro segmento del anillo. Luego conectó la primera a una batería.
Su razonamiento era que si enviaba una corriente a través de la primera bobina,
crearía líneas magnéticas de fuerza, que se concentrarían en el anillo de hierro,
magnetismo inducido que produciría, a su vez, una corriente en la segunda bobina.
Para detectarla, conectó la segunda bobina a un galvanómetro, instrumento para
medir corrientes eléctricas, que había sido diseñado, en 1820, por el físico alemán
Johann Salomo Christoph Schweigger.
El experimento no se desarrolló tal como había imaginado Faraday. El flujo de
corriente en la primera bobina no generó nada en la segunda. Pero Faraday observó
que, en el momento en que conectaba la corriente, la aguja del galvanómetro se movía
lentamente, y hacía lo mismo, aunque en dirección opuesta, cuando cortaba la
corriente. En seguida comprendió que lo que creaba la corriente era el movimiento de
las líneas magnéticas de fuerza a través del cable, y no el magnetismo propiamente
dicho. Cuando una corriente empezaba a atravesar la primera bobina, se iniciaba un
campo magnético que, a medida que se extendía, cruzaba la segunda bobina, en la
cual producía una corriente eléctrica momentánea. A la inversa, cuando se cortaba la
corriente de la batería, las líneas, a punto de extinguirse, de la fuerza magnética,
quedaban suspendidas de nuevo en el cable de la segunda bobina, lo cual determinaba
un flujo momentáneo de electricidad en dirección opuesta a la del primero.
De este modo, Faraday descubrió el principio de la inducción eléctrica y creó el primer
«transformador». Procedió a demostrar el fenómeno de una forma más clara, para lo
cual empleó un imán permanente, que introducía una y otra vez en el interior de una
bobina de cable, para sacarlo luego del mismo; pese a que no existía fuente alguna de
electricidad, se establecía corriente siempre que las líneas de fuerza del imán
atravesaban el cable (fig. 5.4).
Los descubrimientos de Faraday condujeron directamente no sólo a la creación de la
dínamo para generar electricidad, sino que también dieron base a la teoría
«electromagnética» de James Clerk Maxwell, la cual agrupaba la luz y otras formas de
radiación —tales como la radioeléctrica— en una sola familia de «radiaciones
electromagnéticas».
El campo magnético de la Tierra
La estrecha relación entre el magnetismo y la electricidad ofrece una posible
explicación al magnetismo de la Tierra. La brújula ha puesto de relieve sus líneas de
fuerza magnéticas, que van desde el «polo norte magnético», localizado al norte del
183
Canadá, hasta el «polo sur magnético», situado en el borde de la Antártida, cada uno
de ellos a unos 15° de latitud de los polos geográficos. (El campo magnético de la
Tierra ha sido detectado a grandes alturas por cohetes provistos de «magne tome
tros».) Según la nueva teoría, el magnetismo de la Tierra puede originarse en el flujo
de corrientes eléctricas situadas profundamente en su interior.
El físico Walter Maurice Elsasser ha sugerido que la rotación de la Tierra crea lentos
remolinos, que giran de Oeste a Este, en el núcleo de hierro rundido. Estos remolinos
generan una corriente eléctrica que, como ellos, circula de Oeste a Este. Del mismo
modo que la bobina de cable de Faraday producía líneas magnéticas de fuerza en su
interior, la corriente eléctrica circulante lo hace en el núcleo de la Tierra. Por tanto,
crea el equivalente de un imán interno, que se extiende hacia el Norte y el Sur. A su
vez, este imán es responsable del campo magnético general de la Tierra, orientado,
aproximadamente, a lo largo de su eje de rotación, de modo que los polos magnéticos
están situados muy cerca de los polos geográficos Norte y Sur (fig. 5.5).
El Sol posee también un campo magnético general, dos o tres veces más intenso que
el de la Tierra, así como campos locales, aparentemente relacionados con las manchas
solares, que son miles de veces más intensos. El estudio de estos campos —que ha
sido posible gracias a que el intenso magnetismo afecta a la longitud de onda de la luz
emitida— sugiere que en el interior del Sol existen corrientes circulares de cargas
eléctricas.
En realidad hay hechos verdaderamente chocantes en lo que se refiere a las manchas
solares, hechos a los cuales se podrá encontrar explicación cuando se conozcan las
184
causas de los campos magnéticos a escala astronómica. Por ejemplo, el número de
manchas solares en la superficie aumenta y disminuye en un ciclo de 11 años y medio.
Esto lo estableció, en 1843, el astrónomo alemán Heinrich Samuel Schwabe, quien
estudió la superficie del Sol casi a diario durante 17 años. Más aún, las manchas
solares aparecen sólo en ciertas latitudes, las cuales varían a medida que avanza el
ciclo. Las manchas muestran cierta orientación magnética, que se invierte en cada
nuevo ciclo. Se desconoce aún la razón de todo ello.
Pero no es necesario examinar el Sol para hallar misterios relacionados con los campos
magnéticos. Ya tenemos suficientes problemas aquí en la Tierra. Por ejemplo, ¿por qué
los polos magnéticos no coinciden con los geográficos? El polo norte magnético está
situado junto a la costa norte del Canadá, a unos 1.600 km del polo Norte geográfico.
Del mismo modo, el polo sur magnético se halla cerca de los bordes de la Antártida, al
oeste del mar de Ross, también a unos 1.600 km del polo Sur. Es más, los polos
magnéticos no están exactamente opuestos el uno al otro en el Globo. Una línea que
atravesase nuestro planeta para unirlos (el «eje magnético»), no pasaría a través del
centro de la Tierra.
La desviación de la brújula respecto al «Norte verdadero» (o sea la dirección del polo
Norte) varía de forma irregular a medida que nos movemos hacia el Este o hacia el
Oeste. Así, la brújula cambió de sentido en el primer viaje de Colón, hecho que éste
ocultó a su tripulación, para no causar un pánico que lo hubiese obligado a regresar.
Ésta es una de las razones por las que no resulta enteramente satisfactorio el empleo
de la brújula para determinar una dirección. En 1911, el inventor americano Elmer
Ambrose Sperry introdujo un método no basado en el magnetismo para indicar la
dirección. Se trata de una rueda, de borde grueso, que gira a gran velocidad (el
«giroscopio», que estudió por vez primera Foucault, quien había demostrado la
rotación de la Tierra) y que tiende a resistir los cambios en su plano de rotación. Puede
utilizarse como una «brújula giroscópica», ya que es capaz de mantener una referencia
fija de dirección, lo cual permite guiar las naves o los cohetes.
Pero si la brújula magnética es imperfecta, ha prestado un gran servicio durante
muchos siglos. Puede establecerse la desviación de la aguja magnética respecto al
Norte geográfico. Un siglo después de Colón, en 1581, el inglés Robert Norman
preparó el primer mapa que indicaba la dirección actual marcada por la brújula
(«declinación magnética») en diversas partes del mundo. Las líneas que unían todos
los puntos del Planeta que mostraban las mismas declinaciones («líneas isogónicas»)
seguían una trayectoria curvilínea desde el polo norte al polo sur magnéticos.
Por desgracia, tales mapas habían de ser revisados periódicamente, ya que, incluso
para un determinado lugar, la declinación magnética cambia con el tiempo. Por
ejemplo, la declinación, en Londres, se desvió 32° de arco en dos siglos; era de 8°
Nordeste en el año 1600, y poco a poco se trasladó, en sentido inverso a las agujas del
reloj, hasta situarse, en 1800, en los 24° Noroeste. Desde entonces se ha desplazado
en sentido inverso, y en 1950 era sólo de 8° Noroeste. La inclinación magnética
cambia lentamente con el tiempo para cualquier lugar de la Tierra, y, en consecuencia,
debe ser también constantemente revisado el mapa que muestra las líneas de la
misma inclinación («líneas isoclinas»). Además, la intensidad del campo magnético de
la Tierra aumenta con la latitud, y es tres veces más fuerte cerca de los polos
magnéticos que en las regiones ecuatoriales. Esta intensidad se modifica asimismo de
forma constante, de modo que deben someterse, a su vez, a una revisión periódica,
los mapas de las «líneas isodinámicas».
Tal como ocurre con todo lo referente al campo magnético, varía la intensidad total del
campo. Hace ya bastante tiempo que tal intensidad viene disminuyendo. Desde 1670,
el campo ha perdido el 15 % de su potencia absoluta; si esto sigue así, alcanzará el
cero alrededor del año 4000. ¿Y qué sucederá entonces? ¿Seguirá decreciendo, es
decir, invirtiéndose con el polo norte magnético en la Antártida y el polo sur magnético
en el Ártico? Planteándolo de otra forma: ¿Es que el campo magnético terrestre
disminuye, se invierte y se intensifica, repitiendo periódicamente la misma secuencia?
185
Un procedimiento para averiguar si puede ser posible tal cosa es el estudio de las rocas
volcánicas. Cuando la lava se enfría, los cristales se alinean de acuerdo con el campo
magnético. Nada menos que hacia 1906, el físico francés Bernard Brunhes advirtió ya
que algunas rocas se magnetizaban en dirección opuesta al campo magnético real de
la Tierra. Por aquellas fechas se desestimó tal hallazgo, pero ahora nadie niega su
importancia. Las rocas nos lo hacen saber claramente: el campo magnético terrestre
se invierte no sólo ahora, sino que lo ha hecho ya varias veces —para ser exactos
nueve—, a intervalos irregulares durante los últimos cuatro millones de años.
El hallazgo más espectacular a este respecto se efectuó en el fondo oceánico. Como
quiera que la roca fundida que sale, sin duda, a través de la Hendidura del Globo, y se
desparrama, si uno se mueve hacia el Este o el Oeste de tal Hendidura, pasará por
rocas que se han ido solidificando progresivamente hace largo tiempo. Si estudiamos la
alineación magnética, advertiremos inversiones de determinadas fajas, que van
alejándose de la Hendidura a intervalos cuya duración oscila entre los 50.000 años y
los 20 millones de años. Hasta ahora, la única explicación racional de semejante
fenómeno consiste en suponer que hay un suelo marino que se desparrama
incesantemente y unas inversiones del campo magnético.
Sin embargo, resulta más fácil admitir tales inversiones que averiguar sus causas.
Además de las variaciones del campo magnético a largo plazo, se producen también
pequeños cambios durante el día, los cuales sugieren alguna relación con el Sol. Es
más, hay «días agitados» en los que la aguja de la brújula salta con una viveza poco
usual. Se dice entonces que la Tierra está sometida a una «tormenta magnética». Las
tormentas magnéticas son idénticas a las eléctricas, y, en general, van acompañadas
de un aumento en la intensidad de las auroras, observación esta hecha ya en 1759 por
el físico inglés John Cantón.
La aurora boreal (término introducido en 1621 por el filósofo francés Fierre Gassendi)
es un maravilloso despliegue de inestables y coloreadas corrientes u ondulaciones de
luz, que causan un efecto de esplendor extraterrestre. Su contrapartida en el Antartico
recibe el nombre de aurora austral. Las corrientes de la aurora parecen seguir las
líneas de fuerza magnética de la Tierra y concentrarse, para hacerse visibles, en los
puntos en que las líneas están más juntas, es decir, en los polos magnéticos. Durante
las tormentas magnéticas, la aurora boreal puede verse en puntos tan meridionales
como Boston y Nueva York.
No fue difícil entender el porqué de la aurora boreal. Una vez descubierta la ionosfera
se comprendió que algo —presuntamente, alguna radiación solar de cualquier tipo—
comunicaba energía a los átomos en la atmósfera superior y los transformaba en iones
cargados eléctricamente. Por la noche, los iones perdían su carga y su energía; esto
último se hacía perceptible mediante la luz de la aurora. Era una especie de singular
resplandor aéreo, que seguía las líneas magnéticas de fuerza y se concentraba cerca
de los polos magnéticos, porque ése era el comportamiento que se esperaba de los
iones cargados eléctricamente. (El resplandor aéreo propiamente dicho se debe a los
átomos sin carga eléctrica, por lo cual no reaccionan ante el campo magnético.)
El viento solar
Pero, ¿qué decir de los días agitados y las tormentas magnéticas? Una vez más, el
dedo de la sospecha apunta hacia el Sol.
La actividad de las manchas solares parece generar tormentas magnéticas. Hasta qué
punto una perturbación que tiene lugar a 150 millones de kilómetros de distancia
puede afectar a la Tierra, es algo que no resulta fácil de ver, pero debe ser así, puesto
que tales tormentas son particularmente comunes cuando la actividad de las manchas
solares es elevada.
El principio de una respuesta llegó en 1859, cuando un astrónomo inglés, Richard
Christopher Carrington, observó que un punto de luz semejante a una estrella que
ardía en la superficie solar, duraba 5 minutos y desaparecía. Fue la primera
186
observación registrada de una erupción solar. Carrington especuló respecto de que un
gran meteoro había caído en el Sol, y dio por supuesto que se trataba de un fenómeno
en extremo infrecuente.
Sin embargo, en 1889 George E. Hale inventó el espectroheliógrafo, que permitió
fotografiar al Sol a la luz de una particular región espectral. Se pudo recoger así con
facilidad las erupciones solares, y se demostró que las mismas eran comunes y se
hallan asociadas con las regiones de manchas solares. De una forma clara, las
erupciones solares eran irrupciones de infrecuente energía que en cierta forma
implicaba el mismo fenómeno que produce las manchas solares (de todos modos, la
causa de las erupciones sigue siendo desconocida). Cuando la erupción solar está cerca
del disco solar, se enfrenta a la Tierra, y cualquier cosa que surja de allí se mueve en
dirección de la Tierra. Tales erupciones centrales es seguro que se ven seguidas de
tormentas magnéticas en la Tierra al cabo de unos días, cuando las partículas
disparadas por el Sol alcanzan la atmósfera superior terrestre. Ya en 1896, semejante
sugerencia fue efectuada por el físico noruego Olaf Kristian Birkeland.
En realidad, existían muchas evidencias de que, viniesen de donde viniesen las
partículas, la Tierra quedaba bañada en un aura de las mismas que se extendían hasta
muy lejos en el espacio. Las ondas de radio generadas por los rayos se ha descubierto
que viajan a lo largo de las líneas magnéticas terrestres de fuerza a grandes alturas.
(Esas ondas, llamadas silbadoras porque fueron captadas por los receptores como unos
ruidos raros tipo silbidos, fueron descubiertas accidentalmente por el físico alemán
Heinrich Barkhausen durante la Primera Guerra Mundial.) Las ondas de radio no
pueden seguir la línea de fuerza a menos que estén presentes partículas cargadas.
Sin embargo, no pareció que tales partículas cargadas emergiesen sólo a ráfagas.
Sydney Chapman, al estudiar la corona solar, allá por 1931, se mostró cada vez más
impresionado al comprobar su extensión. Todo cuanto podíamos ver durante un eclipse
total de Sol era su porción más interna. Las concentraciones mensurables de partículas
cargadas en la vecindad de la Tierra —pensó— deberían formar parte de la corona.
Esto significaba, pues, en cierto modo, que la Tierra giraba alrededor del Sol dentro de
la atmósfera externa y extremadamente tenue de nuestro astro. Así, pues, Chapman
imaginó que la corona se expandía hacia el espacio exterior y se renovaba
incesantemente en la superficie solar, donde las partículas cargadas fluirían
continuamente y perturbarían el campo magnético terrestre a su paso por la zona.
Tal sugerencia resultó virtualmente irrefutable en la década de 1950 gracias a los
trabajos del astrofísico alemán Ludwig Franz Biermann. Durante medio siglo se había
creído que las colas de los cometas —que apuntaban siempre en dirección contraria al
Sol y se alargaban paulatinamente cuanto más se acercaba el cometa al Sol— se
formaban a causa de la presión ejercida por la luz solar. Pero, aunque existe tal
presión, Biermann demostró que no bastaba para originar la cola cometaria. Ello
requería algo más potente y capaz de dar un impulso mucho mayor; y ese algo sólo
podían ser las partículas cargadas. El físico americano Eugene Norman Parker abogó
también por el flujo constante de partículas, además de las ráfagas adicionales que
acompañarían a las fulguraciones solares, y en 1958 dio a tal efecto el nombre de
«viento solar». Finalmente, se comprobó la existencia de ese viento solar gracias a los
satélites soviéticos Lunik I y Lunik II, que orbitaron la Luna durante el bienio de 1959-
1960, y al ensayo planetario americano del Mariner II, que pasó cerca de Venus en
1962.
El viento solar no es un fenómeno local. Todo induce a creer que conserva la densidad
suficiente para hacerse perceptible por lo menos hasta la órbita de Saturno. Cerca de
la Tierra, las partículas del viento solar llevan una velocidad variable, que puede oscilar
entre los 350 y los 700 km/seg. Su existencia representa una pérdida para el Sol —
millones de toneladas de materia por segundo—; pero aunque esto parezca
descomunal a escala humana, constituye una insignificancia a escala solar. Desde su
nacimiento, el Sol ha cedido al viento solar sólo una centésima parte del 1 % de su
masa.
Es muy posible que el viento solar afecte a la vida diaria del hombre. Aparte su
187
influencia sobre el campo magnético, las partículas cargadas de la atmósfera superior
pueden determinar ulteriores efectos en la evolución meteorológica de la Tierra. Si
fuera así, el flujo y reflujo del viento solar podrían constituir elementos adicionales de
ayuda para el pronóstico del tiempo.
La magnetosfera
Los satélites artificiales descubrieron un efecto imprevisto del viento solar. Una de las
primeras misiones confiadas a los satélites artificiales fue la de medir la radiación en
los niveles superiores de la atmósfera y en el espacio próximo, particularmente la
intensidad de los rayos cósmicos (partículas cargadas de energía especialmente
elevada). ¿Qué intensidad tiene esta radiación más allá del escudo atmosférico? Los
satélites iban provistos de «contadores Geiger» —desarrollados, en 1928, por el físico
alemán Hans Geiger—, los cuales miden de la siguiente forma las partículas
radiactivas: El géiger consta de una caja que contiene gas a un voltaje no lo
suficientemente elevado como para desencadenar el paso de una corriente a través de
él. Cuando la partícula, de elevada energía, de una radiación, penetra en la caja,
convierte en un ion un átomo del gas. Este ion, impulsado por la energía del impacto,
incide sobre los átomos vecinos y forma más iones, los cuales, a su vez, chocan con
sus vecinos, para seguir el proceso de formación. La lluvia de iones resultante puede
transportar una corriente eléctrica, y durante una fracción de segundo fluye una
corriente a través del contador. Este impulso eléctrico es enviado a la Tierra
telemétricamente. De este modo, el instrumento cuenta las partículas, o flujo de
radiación, en el lugar en que éste se ha producido.
Cuando se colocó en órbita, el 31 de enero de 1958, el primer satélite americano, el
Explorer I, su contador detectó aproximadamente las esperadas concentraciones de
partículas a alturas de varios centenares de kilómetros. Pero a mayores alturas —el
Explorer I llegó hasta los 2.800 km— descendió el número de partículas detectadas,
número que, en ocasiones, llegó hasta cero. Creyóse que esto se debería a algún fallo
del contador. Posteriormente se comprobó que no ocurrió esto, pues el Explorer III,
lanzado el 26 de marzo de 1958, y con un apogeo de 3.378 km, registró el mismo
fenómeno. Igualmente sucedió con el satélite soviético Sputnik III, lanzado el 15 de
mayo de 1958.
James A. van Alien, de la Universidad de lowa —director del programa de radiación
cósmica— y sus colaboradores sugirieron una posible explicación. Según ellos, si el
recuento de partículas radiactivas descendía virtualmente a cero, no era debido a que
hubiese poca o ninguna radiación, sino, por el contrario, a que había demasiada. El
instrumento no podía detectar todas las partículas que entraban en el mismo y, en
consecuencia, dejaba de funcionar. (El fenómeno sería análogo a la ceguera
momentánea del ojo humano ante una luz excesivamente brillante.)
El Explorer IV, lanzado el 26 de julio de 1958, iba provisto de contadores especiales,
diseñados para responder a grandes sobrecargas. Por ejemplo, uno de ellos iba
recubierto por una delgada capa de plomo —que desempeñaría una función similar a la
de las gafas de sol—, la cual lo protegía de la mayor parte de la radiación. Esta vez los
contadores registraron algo distinto. Demostraron que era correcta la teoría de
«exceso de radiación». El Explorer IV, que alcanzó los 2.200 km de altura, envió a la
Tierra unos recuentos que, una vez descartado el efecto protector de su estado,
demostraron que la intensidad de la radiación en aquella zona era mucho más alta que
la imaginada por los científicos. Era tan intensa, que suponía un peligro mortal para los
futuros astronautas.
Se comprobó que los satélites Explorer habían penetrado sólo en las regiones más
bajas de este inmenso campo de radiación. A finales de 1958, los dos satélites
lanzados por Estados Unidos en dirección a la Luna (llamados por ello «sondas
lunares») —el Pioneer I, que llegó hasta los 112.000 km, y el Pioneer III, que alcanzó
los 104.000—, mostraron que existían dos cinturones principales de radiación en torno
a la Tierra. Fueron denominados «cinturones de radiación de Van Alien». Más tarde se
les dio el nombre de «magnetosiera», para equipararlos con otros puntos del espacio
en los contornos de la Tierra (fig. 5.6).
188
Al principio se creyó que la magnetosfera estaba dispuesta simétricamente alrededor
de la Tierra —o sea, que era algo así como una inmensa rosquilla—, igual que las
líneas magnéticas de fuerzas. Pero esta noción se vino abajo cuando los satélites
enviaron datos con noticias muy distintas. Sobre todo en 1963, los satélites Explorer
XIV e Imp-I describieron órbitas elípticas proyectadas con objeto de traspasar la
magnetosfera, si fuera posible.
Pues bien, resultó que la magnetosfera tenía un límite claramente definido, la
«magnetopausa», que era empujada hacia la Tierra por el viento solar en la parte
iluminada de nuestro planeta; pero ella se revolvía y, contorneando la Tierra, se
extendía hasta enormes distancias, en la parte ocupada por la oscuridad. La
magnetopausa está a unos 64.000 km de la Tierra en dirección al Sol, pero las colas
que se deslizan por el otro lado tal vez se extiendan en el espacio casi 2 millones de
kilómetros. En 1966, el satélite soviético Lunik X detectó, mientras orbitaba la Luna,
un débil campo magnético en torno a aquel mundo, que probablemente sería la cola de
la magnetosfera terrestre que pasaba de largo.
La captura, a lo largo de las líneas de fuerza magnética, de las partículas cargadas
había sido predicha, en la década de 1950, por un griego aficionado a la Ciencia,
Nicholas Christofilos, el cual envió sus cálculos a científicos dedicados a tales
investigaciones, sin que nadie les prestase demasiada atención. (En la Ciencia, como
en otros campos, los profesionales tienden a despreciar a los aficionados.) Sólo cuando
los profesionales llegaron por su cuenta a los mismos resultados que Christofilos, éste
obtuvo el debido reconocimiento científico y fue bien recibido en los laboratorios
americanos. Su idea sobre la captura de las partículas se llama hoy «efecto
Christofilos».
Para comprobar si este efecto se producía realmente en el espacio, Estados Unidos
lanzó, en agosto y setiembre de 1958, tres cohetes, provistos de bombas nucleares,
cohetes que se elevaron hasta los 482 km, donde se hizo estallar los artefactos. Este
189
experimento recibió el nombre de «proyecto Argus». El flujo de partículas cargadas
resultante de las explosiones nucleares se extendió a todo lo largo de las líneas de
fuerza, en las cuales quedó fuertemente atrapado. El cinturón radiactivo originado por
tales explosiones persistió un lapso de tiempo considerable; el Explorer IV lo detectó
en varias de sus órbitas alrededor de la Tierra. La nube de partículas provocó asimismo
débiles auroras boreales y perturbó durante algún tiempo las recepciones de radar.
Éste era el preludio de otros experimentos que afectaron e incluso modificaron la
envoltura de la Tierra próxima al espacio y algunos de los cuales se enfrentaron con la
oposición e indignación de ciertos sectores de la comunidad científica. El 9 de julio de
1962, una bomba nuclear, que se hizo estallar en el espacio, introdujo importantes
cambios en los cinturones Van Alien, cambios que persistieron durante un tiempo
considerable, como habían predicho algunos científicos contrarios al proyecto (entre
ellos, Fred Hoyle). Estas alteraciones de las fuerzas de la Naturaleza pueden interferir
nuestros conocimientos sobre la magnetosfera, por lo cual es poco probable que se
repitan en fecha próxima tales experimentos.
Posteriormente se realizaron intentos de esparcir una tenue nube de agujas de cobre
en una órbita alrededor de la Tierra, para comprobar su capacidad reflectante de las
señales de radio y establecer así un método infalible para las comunicaciones a larga
distancia. (La ionosfera es distorsionada de vez en cuando por las tormentas
magnéticas, por lo cual pueden fallar en un momento crucial las comunicaciones de
radio.)
Pese a las objeciones hechas por los radioastrónomos —quienes temían que se
produjeran interferencias con las señales de radio procedentes del espacio exterior—,
el plan (llamado «Proyecto West Ford», de Westford, Massachusetts, lugar donde se
desarrollaron los trabajos preliminares) se llevó a cabo el 9 de mayo de 1963. Se puso
en órbita un satélite cargado con 400 millones de agujas de cobre, cada una de ellas
de unos 18 mm de longitud y más finas que un cabello humano. Las agujas fueron
proyectadas y se esparcieron lentamente en una faja en torno al planeta, y, tal como
se esperaba, reflejaron las ondas de radio. Sin embargo, para que resultara práctico se
necesitaría un cinturón mucho más espeso, y creemos muy poco probable que en este
caso se pudiesen vencer las objeciones de los radioastrónomos.
Magnetosferas planetarias
Naturalmente, los científicos tuvieron curiosidad por averiguar si existía un cinturón de
radiaciones en los cuerpos celestes distintos a la Tierra. Si la teoría de Elsasser era
correcta, un cuerpo planetario debería cumplir dos requerimientos a fin de poseer una
magnetosfera apreciable: debe existir un núcleo líquido y eléctricamente conductor, en
que pueda establecerse este remolino. Por ejemplo, la Luna es de baja densidad y lo
suficientemente pequeña como para no ser muy cálida en su centro, y casi ciertamente
no contiene ningún núcleo metálico en fusión. Y aunque así fuese, la Luna gira
demasiado despacio para establecer un remolino. Por lo tanto, la Luna no debía tener
un campo magnético de cualquier consideración en amplios núcleos. Sin embargo, por
clara que pudiese ser dicha deducción, siempre ayuda practicar una medición directa, y
las sondas de cohetes pueden llevar a cabo con facilidad semejantes mediciones.
En efecto, las primeras sondas lunares, las Lunik I lanzadas por los soviéticos (2 de
enero de 1959) y Lunik II (setiembre de 1959), no encontraron señales de cinturones
de radiación en la Luna, y el descubrimiento fue confirmado a partir de entonces en
cualquier tipo de enfoque de la Luna.
Venus es un caso más interesante. Tiene casi igual masa y es casi tan densa como la
Tierra, y ciertamente debe poseer un núcleo metálico líquido parecido al terrestre. Sin
embargo, Venus gira con gran lentitud, incluso más lentamente que la Luna. La sonda
de Venus, Mariner II, en 1962, y todas las sondas venusinas desde entonces han
estado de acuerdo en que, virtualmente, Venus carece de campo magnético. Éste
(resultante posiblemente de los efectos conductores de la ionosfera de su densa
atmósfera) es ciertamente de menos de 1/20.000 respecto de la intensidad del de la
Tierra.
190
Mercurio es también denso y debe de tener un núcleo metálico, pero, al igual que
Venus, gira muy lentamente. El Mariner X, que pasó rozando Mercurio en 1973 y en
1974, detectó un débil campo magnético, en cierto modo más fuerte que el de Venus,
y sin atmósfera como elemento coadyuvante. Por débil que sea, el campo magnético
de Mercurio es demasiado fuerte como para adscribirse al efecto Elsasser. Tal vez a
causa del tamaño de Mercurio (considerablemente menor que el de Venus o el de la
Tierra), su núcleo metálico está lo suficientemente frío como para ser ferromagnético y
poseer alguna ligera propiedad como imán permanente. No obstante, no podemos aún
decir si es de este modo.
Marte gira razonablemente de prisa, pero es más pequeño y menos denso que la
Tierra. Probablemente no posee un núcleo metálico líquido de cualquier tamaño, pero
incluso uno muy pequeño puede producir algún efecto, y Marte parece tener un
pequeño campo magnético, más fuerte que el de Venus aunque mucho más débil que
el de la Tierra.
Júpiter es algo muy distinto. Su masa gigante y su rápida rotación podrían hacer de él
un obvio candidato a poseer un campo magnético, si fuesen ciertos los conocimientos
de las características conductoras de su núcleo. Sin embargo, en 1955, cuando tales
conocimientos no existían y las sondas no se habían aún construido, dos astrónomos
norteamericanos, Bernard Burke y Kenneth Franklin, detectaron ondas de radio desde
Júpiter que no eran térmicas: es decir, que no surgían meramente por efectos de la
temperatura. Debían aparecer por alguna otra causa, tal vez por partículas de alta
energía atrapadas en un campo magnético. En 1959, Donald Drake interpretó así las
ondas de radio procedentes de Júpiter.
Las primeras sondas de Júpiter, Pioneer X y Pioneer XI, dieron una amplia confirmación
de la teoría. No tuvieron problemas en detectar un campo magnético (en comparación
con el de la Tierra, resultó gigantesco), incluso mucho más de lo que se esperaba en
este enorme planeta. La magnetosfera de Júpiter es unas 1.200 veces mayor que la de
la Tierra. Si fuese visible al ojo, llenaría una zona del cielo (tal y como lo vemos desde
la Tierra) que sería varias veces mayor que cuando se nos aparece la Luna. La
magnetosfera de Júpiter es 19.000 veces más intensa que la de la Tierra, y si unos
navios espaciales tripulados consiguen alguna vez llegar hasta el planeta, constituiría
una barrera mortífera para una aproximación más cercana, incluyendo a la mayoría de
los satélites galileanos.
Saturno posee asimismo un intenso campo magnético, uno intermedio en tamaño
entre el de Júpiter y el de la Tierra. No podemos decirlo aún a través de una
observación directa, pero parece razonable suponer que Urano y Neptuno también
poseen campos magnéticos que pueden ser más potentes que el de la Tierra. En todos
los gigantes gaseosos, la naturaleza de un núcleo líquido y conductor, sería o bien de
metal líquido o de hidrógeno metálico líquido, este último con mayor seguridad en el
caso de Júpiter y Saturno.
METEOROS Y METEORITOS
Ya los griegos sabían que las «estrellas fugaces» no eran estrellas en realidad, puesto
que, sin importar cuántas cayesen, su número permanecía invariable. Aristóteles creía
que una estrella fugaz, como fenómeno temporal, debía de producirse en el interior de
la atmósfera (y esta vez tuvo razón). En consecuencia, estos objetos recibieron el
nombre de «meteoros», o sea, «cosas en el aire». Los meteoros que llegan a alcanzar
la superficie de la Tierra se llaman «meteoritos».
Los antiguos presenciaron algunas caídas de meteoritos y descubrieron que eran
masas de hierro. Se dice que Hiparco de Nicea informó sobre una de estas caídas.
Según los musulmanes, la Kaaba la piedra negra de La Meca, es un meteorito que
debe su carácter sagrado a su origen celeste. Por su parte, La Iliada menciona una
masa de hierro tosco, ofrecida como uno de los premios en los juegos funerarios en
honor de Patroclo. Debió de haber sido de origen meteórico, puesto que en aquellos
tiempos se vivía aún en la Edad del Bronce y no se había desarrollado la metalurgia del
hierro. En realidad, en épocas tan lejanas como el año 3000 a. de J.C. debió de
191
emplearse hierro meteórico.
Durante el siglo XVIII, en pleno auge de la Ilustración, la Ciencia dio un paso atrás en
este sentido. Los que desdeñaban la superstición se reían de las historias de las
«piedras que caían del cielo». Los granjeros que se presentaron en la Academia
Francesa con muestras de meteoritos, fueron despedidos cortésmente, aunque con
visible impaciencia. Cuando, en 1807, dos estudiantes de Connecticut declararon que
habían presenciado la caída de un meteorito, el presidente, Thomas Jefferson —en una
de sus más desafortunadas observaciones—, afirmó que estaba más dispuesto a
aceptar que los profesores yanquis mentían, que el que las piedras cayesen del cielo.
Sin embargo, el 13 de noviembre de 1833, Estados Unidos se vieron sometidos a una
verdadera lluvia de meteoros del tipo llamado «leónidas» porque, al parecer, proceden
de un punto situado en la constelación de Leo. Durante algunas horas, el cielo se
convirtió en un impresionante castillo de fuegos artificiales. Se dice que ningún
meteorito llegó a alcanzar la superficie de la Tierra, pero el espectáculo estimuló el
estudio de los meteoros, y, por vez primera, los astrónomos lo consideraron
seriamente.
Hace unos años, el químico sueco Jóns Jakob Berzelius se trazó un programa para el
análisis químico de los meteoritos. Tales análisis han proporcionado a los astrónomos
una valiosa información sobre la edad general del Sistema Solar e incluso sobre la
composición química del Universo.
Meteoros
Anotando las épocas del año en que caía mayor número de meteoros, así como las
posiciones del cielo de las que parecían proceder, los observadores pudieron trazar las
órbitas de diversas nubes de meteoros. De este modo se supo que las lluvias de tales
objetos estelares se producían cuando la órbita de la Tierra interceptaba la de una
nube de meteoros.
¿Es posible que estas nubes de meteoros sean, en realidad, los despojos de cometas
desintegrados?
Cuando semejante polvo cometario penetra en la atmósfera, puede llevar a cabo una
enorme exhibición, como' ya sucediera en 1833. Una estrella fugaz tan brillante como
Venus penetra en la atmósfera como una mota que sólo pesa 1 gramo. Y algunos
meteoros visibles no llegan ni a 1/10.000 de esta masa.
El número total de meteoros que alcanzan la atmósfera de la Tierra puede calcularse, y
ha demostrado ser increíblemente amplio. Cada día existen más de 20.000 que pesan,
por lo menos, 1 gramo, y casi 200 millones más lo suficientemente grandes como para
formar un resplandor visible al ojo desnudo, y muchos miles de millones más de
tamaños más reducidos. Conocemos esos muy pequeños micrometeoros porque el J
aire se ha descubierto que contiene partículas de polvo de unas formas
desacostumbradas y con un elevado contenido en níquel, muy diferente al polvo
terrestre. Otra evidencia de la presencia de micrometeoros en vastas cantidades radica
en el leve resplandor en los cielos llamado luz zodiacal (que fue descubierto por
primera vez hacia 1700 por G. D. Cassini), así llamado porque es evidente sobre todo
en las proximidades del plano de la órbita terrestre, donde se presentan las
constelaciones del zodíaco. La luz zodiacal es muy poco luminosa y no puede verse
siquiera en una noche sin luna, a menos que las condiciones sean favorables. Es más
brillante cerca del horizonte donde el Sol se pone, o está a punto de salir, y en el lado
contrario del firmamento, donde existe una iluminación secundaria llamada el
Gegenscien (voz alemana para «luz opuesta»). La luz zodiacal difiere del resplandor
del aire: su espectro no tiene líneas de oxígeno atómico o de sodio atómico, pero es
únicamente luz solar reflejada y nada más. El agente reflectante responsable es el
polvo concentrado en el espacio en el plano de las órbitas planetarias: en resumen, de
los micrometeoros. Su número y tamaño pueden estimarse a partir de la intensidad de
la luz zodiacal. Los micrometeoros se cuentan en la actualidad con una nueva precisión
por medio de satélites como el Explorer XVI, lanzado en diciembre de 1962, y el
192
Pegasus I, lanzado el 16 de febrero de 1965. Para detectarlos, algunos de los satélites
se hallan recubiertos con bandas de un material sensible que señala cada golpe de
meteorito a través de una carga en la resistencia eléctrica. Otros registran estos
impactos a través de unos micrófonos sensibles detrás de la cobertura, y que captan
los sonidos claros y metálicos. Los conteos del satélite han indicado que unas 3.000
toneladas de materia meteórica penetran cada día en nuestra atmósfera, y las cinco
sextas partes de la misma consisten en micrometeoros demasiado pequeños para
detectarse como estrellas fugaces. Ésos micrometeoros pueden formar una tenue nube
de polvo encima de la Tierra, que se extiende, en decreciente densidad, durante unos
160.000 kilómetros, más o menos, antes de desvanecerse en la usual densidad de
materia en el espacio interplanetario.
La sonda de Venus Mariner II mostró que la concentración de polvo en el espacio es
sólo de 1/10.000 de la concentración cerca de la Tierra, que parece ser el centro de
una esfera de polvo. Fred Whipple sugiere que la Luna puede ser la fuente de la nube,
y que el polvo surgiría de la superficie lunar a causa de los impactos de meteoritos que
ha de resistir.
El geógrafo Hans Petterson, que ha estado particularmente interesado en el polvo
meteórico, tomó algunas muestras de aire, en 1957, en la cumbre de una montaña en
Hawai, que se encontraba muy alejada de las zonas de producción de polvo industrial,
respecto de lo que se puede conseguir en la Tierra. Sus descubrimientos le permitieron
averiguar que unos 5 millones de toneladas de polvo meteórico caen cada año sobre la
Tierra. (Existe una medición similar por parte de James M. Rosen, en 1964, empleando
instrumentos llevados a bordo de globos, y que da unas cifras de 4 millones de
toneladas, aunque algunos otros encuentran razonable situar las cifras en sólo unas
100.000 toneladas al año.) Hans Petterson trató de conseguir una idea acerca de la
caída en el pasado, analizando núcleos extraídos del fondo oceánico, de un polvo muy
rico en níquel. Descubrió que, en conjunto, existía más de todo ello en los sedimentos
superiores que en los inferiores; así, aunque la evidencia sea aún escasa, el índice de
bombardeo meteórico puede haber aumentado en épocas recientes. Este polvo
meteórico puede ser de directa importancia para todos nosotros, pues, según una
teoría adelantada por el físico australiano Edward George Bowen, en 1953, este polvo
sirve como núcleo para las gotas de agua. De ser así, la pauta de las lluvias terrestres
reflejaría los aumentos y disminuciones en la intensidad con que.nos bombardean los
micrometeoritos.
Meteoritos
Ocasionalmente, trozos de materia de un grosor como pequeñas partículas de grava,
incluso sustancialmente mayores, penetran en la atmósfera de la Tierra. Pueden ser
del tamaño suficiente como para sobrevivir al calor de la resistencia del aire mientras
se precipitan a través de la atmósfera a una velocidad de 12 a 65 kilómetros por
segundo, llegando al suelo. Ésos, como ya he mencionado antes, son los meteoritos.
Tales meteoritos se cree que son pequeños asteroides, específicamente los rozadores
de la Tierra, que se han acercado demasiado y han sufrido un accidente...
La mayoría de los meteoritos encontrados en el suelo (se conocen unos 1.700 en total,
de los cuales 35 pesan una tonelada cada uno) poseen hierro, y al parecer los
meteoritos férricos superan en número a los del tipo rocoso. Sin embargo, esta teoría
demostró ser errónea. Un trozo de hierro que yace medio enterrado en un campo
pedregoso es muy fácil de notar, mientras que una piedra entre otras piedras no lo es:
un meteorito rocoso, sin embargo, una vez investigado muestra diferencias
características en comparación con las rocas terrestres.
Cuando los astrónomos hicieron recuentos de los meteoritos, que en realidad eran
vistos caer, descubrieron que los meteoritos rocosos superaban a los férricos en la
proporción de 9 a 1. (Durante un tiempo, la mayoría de los meteoritos pétreos fueron
descubiertos en Kansas, lo cual puede parecer raro hasta que uno se percata de que,
en el suelo sedimentario y sin rocas de Kansas, una piedra es tan perceptible como lo
sería un fragmento de hierro en cualquier otra parte.)
193
Esos dos tipos de meteoritos se cree que se originan de la siguiente manera. En la
juventud del Sistema Solar, los asteroides pueden haber sido más grandes, de
promedio, de como lo son ahora. Una vez formados, e impedida cualquier posterior
consolidación por las perturbaciones de Júpiter, sufrieron colisiones entre ellos mismos
y roturas. Sin embargo, antes de que esto sucediese, los asteroides pueden haber
estado lo suficiente calientes, en su formación, como para permitir cierta separación de
sus componentes, hundiéndose el hierro en el centro y forzando a la roca a situarse en
la capa exterior. Luego, cuando tales asteroides se fragmentaron, aparecieron como
restos tanto pétreos como metálicos, por lo que se encuentran en la actualidad en la
Tierra meteoritos de ambos tipos.
Sin embargo, los meteoritos tienen realmente un poder devastador. Por ejemplo, en
1908, el impacto de uno de ellos en el norte de Siberia abrió un cráter de 45 m de
diámetro y derribó árboles en un radio de 32 km. Por fortuna cayó en una zona
desierta de la tundra. Si hubiese caído, a partir del mismo lugar del cielo, 5 horas más
tarde, teniendo en cuenta la rotación de la Tierra, podría haber hecho impacto en San
Petersburgo, a la sazón capital de Rusia. La ciudad habría quedado entonces devastada
como por una bomba de hidrógeno. Según uno de los cálculos hechos, el meteorito
tendría una masa de 40.000 t. Este caso Tunguska (así llamado por la localidad en que
se produjo la colisión), presenta ciertos misterios. La inaccesibilidad de este lugar, y la
confusión de la guerra y de la revolución que tuvieron lugar poco después, hicieron
imposible el investigar la zona durante muchos años. Una vez investigada, no
aparecieron trazas de material meteórico. En años recientes, un escritor soviético de
ciencia-ficción inventó la radiactividad en el lugar como parte de una historia, una
invención que fue tomada como un descubrimiento muy sobrio por muchas personas,
que tenían un afecto natural por los sensacionalismos. Como resultado de todo ello, se
desarrollaron muchas teorías disparatadas, desde la de una colisión con un
miniagujero negro hasta la de una explosión nuclear extra terrestre. La explicación
racional más plausible es que el meteoro que cayó era de naturaleza gélida y,
probablemente, un cometa muy pequeño, o un trozo de otro mayor (posiblemente el
cometa Encke). Estalló en el aire poco antes de la colisión y produjo daños inmensos
sin producir materia meteórica de roca o metal. Desde entonces, el impacto más
importante fue el registrado, en 1947, cerca de Vladivostok (como vemos, otra vez en
Siberia). Hay señales de impactos aún más violentos, que se remontan a épocas
prehistóricas. Por ejemplo, en Coconino County (Arizona) existe un cráter, redondo, de
unos 1.260 m de diámetro y 180 m de profundidad, circuido por un reborde de tierra
de 30 a 45 m de altura. Tiene el aspecto de un cráter lunar en miniatura. Hace tiempo
se pensaba que quizá pudiera tratarse de un volcán extinguido; pero un ingeniero de
minas, Daniel Moreau Barringer, insistió en que era el resultado de una colisión
meteórica, por lo cual el agujero en cuestión lleva hoy el nombre de «cráter
Barringer». Está rodeado por masas de hierro meteórico, que pesan miles o quizá
millones de toneladas en total. A pesar de que hasta ahora se ha extraído sólo una
pequeña parte, esa pequeña parte es superior al hierro meteórico extraído en todo el
mundo. El origen meteórico de este cráter fue confirmado, en 1960, por el
descubrimiento de formas de sílice que sólo pudieron producirse como consecuencia de
las enormes presiones y temperaturas que acompañaron al impacto meteórico.
El cráter Barringer, que se abriría en el desierto hace unos 25.000 años, se conserva
bastante bien. En otros lugares del mundo, cráteres similares hubiesen quedado
ocultos por la erosión del agua y el avance de la vegetación. Por ejemplo, las
observaciones realizadas desde el aire, han permitido distinguir formaciones circulares,
que al principio pasaron inadvertidas, llenas, en parte, de agua y maleza, que son
también, casi con certeza, de origen meteórico. Algunas han sido descubiertas en
Canadá, entre ellas, el cráter Brent. en el Ontario Central y el cráter Chubb en el norte
de Quebec —cada uno de ellos, con un diámetro de más de 3 km—, así como el cráter
Ashanti en Ghana, cuyo diámetro mide más de 9 km. Todos ellos tienen, por lo menos,
un millón de años de antigüedad. Se conocen 14 de estos «cráteres fósiles», y algunos
signos geológicos sugieren la existencia de otros muchos.
Los tamaños de los cráteres lunares que podemos contemplar con los telescopios
oscilan entre agujeros no mayores que el cráter Barringer hasta gigantes de 240 km
de diámetro. La Luna, que no tiene aire, agua ni vida, es un museo casi perfecto para
194
los cráteres, puesto que no están sometidos a desgaste alguno, si exceptuamos la
lenta acción de los violentos cambios térmicos, resultantes de la alteración, cada dos
semanas, del día y la noche lunares. Quizá la Tierra estaría tan acribillada como la
Luna si no fuese por la acción «cicatrizante» del viento, el agua y los seres vivientes.
Al principio se creía que los cráteres de la Luna eran de origen volcánico, pero en
realidad no se parecen, en su estructura, a los cráteres volcánicos terrestres.
Hacia la década de 1890 empezó a imponerse la teoría de que los cráteres se habían
originado como resultado de impactos meteóricos, y hoy goza de una aceptación
general.
Según esta teoría, los grandes «mares» o sea, esas inmensas llanuras, más o menos
circulares y relativamente libres de cráteres, habrían sido formados por el impacto de
meteoros excepcionalmente voluminosos. Se reforzó tal opinión en 1968, cuando los
satélites que daban vueltas en torno a la Luna experimentaron inesperadas
desviaciones en sus órbitas. La naturaleza de tales desviaciones hizo llegar a esta
conclusión: Algunas partes de la superficie lunar tienen una densidad superior al
promedio; ello hace que se incremente levemente la atracción gravitatoria en dichas
partes, por lo cual reaccionan los satélites que vuelan sobre ellas. Estas áreas de
mayor densidad, que coinciden, aparentemente, con los mares, recibieron la
denominación de mascones (abreviatura de mass-concentrations, o concentraciones de
masas). La deducción más lógica fue la de que los grandes meteoros férricos se
hallaban enterrados bajo la superficie y eran más densos que la materia rocosa, cuyo
porcentaje es el más alto en la composición de la corteza lunar. Apenas transcurrido un
año desde este descubrimiento, se había detectado ya por lo menos una docena de
mascones.
Por otra parte, se disipó el cuadro de la Luna como «mundo muerto», donde no era
posible la acción volcánica. El 3 de noviembre de 1958, el astrónomo ruso N. A.
Kozyrev observó una mancha rojiza en el cráter Alphonsus. (Mucho antes, nada menos
que en 1780, William Herschel informó sobre la aparición de manchas rojizas en la
Luna.) Los análisis espectroscópicos de Kozyrev revelaron claramente, al parecer, que
aquello obedecía a una proyección de gas y polvo. Desde entonces se han visto otras
manchas rojas durante breves instantes, y hoy se tiene casi la certeza de que en la
Luna se produce casi ocasionalmente actividad volcánica. Durante el eclipse total de
Luna, en diciembre de 1964, se hizo un significativo descubrimiento: nada menos que
300 cráteres tenían una temperatura más alta que los parajes circundantes, aunque no
emitían el calor suficiente para llegar a la incandescencia.
Por lo general, los mundos carentes de aire, como Mercurio y los satélites de Marte,
Júpiter y Saturno, se hallan ampliamente esparcidos de cráteres que conmemoran el
bombardeo que tuvo lugar hace 4 mil millones de años, e incluso antes, cuando los
mundos se formaron por acreción de planetesimales. Nada ha ocurrido desde entonces
que eliminara dichas señales.
Venus es pobre en cráteres, tal vez a causa de los efectos erosivos de su densa
atmósfera. Un hemisferio de Marte es pobre en cráteres, tal vez debido a que la acción
volcánica ha construido una corteza nueva, ío no tiene virtualmente cráteres, a causa
de la lava elaborada por sus volcanes en actividad. Europa carece de cráteres, pues los
impactos meteóricos se abrieron paso a través del glaciar circundante hasta el líquido
que se encontraba debajo, mientras que el líquido expuesto se hiela de nuevo con
rapidez y «sana» la abertura.
Los meteoritos, como las únicas piezas de materia extraterrestre que podemos
examinar, resultan excitantes no sólo para los astrónomos, geólogos, químicos y
metalúrgicos, sino también para los cosmólogos, que se hallan preocupados por los
orígenes del Universo y del Sistema Solar. Entre los meteoritos figuran
desconcertantes objetos vitreos, encontrados en varios lugares de la Tierra. El primero
fue hallado en 1787, en lo que es ahora la Checoslovaquia occidental. Los ejemplos
australianos fueron detectados en 1864. Recibieron el nombre de tectitas, de una
palabra griega que significa «fundido», a causa de que parecen haberlo hecho así a su
195
paso a través de la atmósfera.
En 1936 un astrónomo norteamericano, Harvey Harlow Ninninger sugirió que las
tectitas eran los restos de material salpicado forzado a abandonar la superficie de la
Luna a causa del impacto de grandes meteoros y captados por el campo gravitatorio
de la Tierra. Una particularmente difundida serie de tectitas fue encontrada en
Australia y en el Sudeste asiático (con muchos de ellos dragados del fondo del océano
índico). Al parecer son las más jóvenes de las tectitas, con sólo una edad de 700.000
años. De forma concebible, pueden haberse producido por el gran impacto meteórico
que formó el cráter Tycho (el más joven de los espectaculares cráteres lunares) en la
Luna. El hecho de que esta colisión parezca haber coincidido con la más reciente
inversión del campo magnético terrestre, ha dado origen a algunas especulaciones de
que las fuertemente irregulares series de dichas inversiones puedan señalar otra de
tales catástrofes Tierra-Luna.
Otra inusual clasificación de los meteoritos son los que se han encontrado en la
Antártida. En realidad, cualquier meteorito, ya sea pétreo o metálico, que yazga en el
vasto casquete antartico, constituye inevitablemente algo muy perceptible. En efecto,
un objeto sólido en cualquier parte de dicho continente, que no sea hielo o de origen
humano, ha de ser por fuerza un meteorito. Y una vez aterriza, permanece intocado
(por lo menos durante los últimos 20 millones de años), a menos que quede enterrado
en la nieve o lo haya encontrado algún pingüino emperador.
Nunca muchos seres humanos se han hallado presentes en cualquier momento en la
Antártida, y nunca el continente ha sido avizorado demasiado de cerca, por lo que,
hasta 1969, sólo se han encontrado cuatro meteoritos, todos ellos por accidente. En
1969, un grupo de geólogos japoneses topó con nueve meteoritos esparcidos muy
cerca. Los mismos suscitaron el interés general de los científicos, por lo que se
encontraron más meteoritos. En 1983, ya se habían hallado más de 5.000 fragmentos
meteóricos sobre el helado continente, en realidad muchos más que en el resto del
mundo. (La Antártida no es un sitio especialmente buscado para la colisión, sino que
los meteoritos son mucho más fáciles de localizar allí.)
Algunos de los meteoritos de la Antártida son asimismo extraños. En enero de 1982,
se descubrió un fragmento meteorítico de color pardoverdoso y, en los análisis
correspondientes, demostró tener una composición notablemente parecida a alguna de
las rocas lunares traídas a la Tierra por los astronautas. No existe una manera fácil de
demostrar cómo un trozo de material lunar pudo haber sido proyectado al espacio y
alcanzado la Tierra, pero ciertamente existe esa posibilidad.
Asimismo, algunos fragmentos meteóricos de la Antártida, cuando se calentaron,
despidieron gases, que demostraron tener una composición muy parecida a la
atmósfera marciana. Y lo que es más, esos meteoritos al parecer sólo tenían una
antigüedad de 1.300 millones de años, en vez de los 4.500 millones de los meteoritos
ordinarios. Hace 1.300 millones de años, los volcanes de Marte permanecían en
violenta actividad. Es posible que algunos de esos meteoritos sean trozos de lava
volcánica marciana que de algún modo resultaron despedidos hasta la Tierra.
La edad de los meteoritos (computada por métodos que describiré en el capítulo 7)
constituye una importante herramienta, todo hay que decirlo, para la determinación de
la edad de la Tierra y del Sistema Solar en general.
EL AIRE: CÓMO SE CONSERVA Y CÓMO SE CONSIGUE
Quizá no debería sorprendernos tanto la forma en que la Tierra consiguió su
atmósfera, como la manera en que ha logrado retenerla a través de los períodos en
que ha estado girando sobre sí misma y corriendo a través del espacio. La respuesta a
este último problema requiere la ayuda del concepto «velocidad de escape».
Velocidad de escape
Si un objeto es lanzado desde la Tierra hacia arriba, la fuerza de la gravedad va
196
aminorando gradualmente el empuje del objeto hacia arriba, hasta determinar,
primero, una detención momentánea, y luego su caída. Si la fuerza de la gravedad
fuese la misma durante todo el recorrido, la altura alcanzada por el objeto sería
proporcional a su velocidad inicial; es decir, que lanzado a más de 3 km/hora,
alcanzaría una altura 4 veces superior a la que conseguiría si fuese disparado a sólo
1.600 m/hora (pues la energía aumenta proporcionalmente al cuadrado de la
velocidad).
Pero, como es natural, la fuerza de la gravedad no permanece constante, sino que se
debilita lentamente con la altura. (Para ser exactos, se debilita de acuerdo con el
cuadrado de la distancia a partir del centro de la Tierra.) Por ejemplo, si disparamos
hacia arriba un objeto a la velocidad de 1.600 m/ seg, alcanzará una altura de 129 km
antes de detenerse y caer (si prescindimos de la resistencia del aire). Y si
disparásemos el mismo objeto a 3.200 m/seg, se elevaría a una altura 4 veces mayor.
A los 129 km de altura, la fuerza de la gravedad terrestre es sensiblemente inferior
que a nivel del suelo, de modo que el posterior vuelo del objeto estaría sometido a una
menor atracción gravitatoria. De hecho, el objeto alcanzaría los 563 km, no los 514.
Dada una velocidad centrífuga de 10 km/seg, un objeto ascenderá hasta los 41.500
km de altura. En este punto, la fuerza de la gravedad es unas 40 veces menor que
sobre la superficie de la Tierra. Si añadimos sólo 160 m/seg a la velocidad inicial del
objeto (por ejemplo, lanzado a 10,6 km/seg), alcanzaría los 55.000 km.
Puede calcularse que un objeto lanzado a la velocidad inicial de 11,23 km/seg, no
caerá nunca a la Tierra. A pesar de que la gravedad terrestre irá aminorando
gradualmente la velocidad del objeto, su efecto declinará poco a poco, de modo que
nunca conseguirá detenerlo por completo (velocidad cero) respecto a la Tierra. (Y ello,
pese a la conocida frase de «todo lo que sube tiene que bajar».) El Lunik I y el Pioneer
IV, disparados a velocidades de más de 11,26 km/seg, nunca regresarán.
Por tanto, la «velocidad de escape» de la Tierra es de 11,23 km/seg. La velocidad de
escape de cualquier cuerpo astronómico puede calcularse a partir de su masa y su
tamaño. La de la Luna es de sólo 2.400 m/seg; la de Marte, de 5.148 m/seg; la de
Saturno, de 37 km/seg; la de Júpiter, el coloso del Sistema Solar, de 61 km/seg.
Todo esto se halla relacionado directamente con la retención, por parte de la Tierra, de
su atmósfera. Los átomos y las moléculas del aire están volando constantemente como
pequeñísimos cohetes. Sus velocidades particulares están sometidas a grandes
variaciones, y sólo pueden describirse estadísticamente: por ejemplo, dando la fracción
de las moléculas que se mueven a velocidad superior a la fijada, o dando la velocidad
media en determinadas condiciones. La fórmula para realizarlo fue elaborada, en 1860,
por James Clerk Maxwell y el físico austríaco Ludwig Boltzmann, por lo cual recibe el
nombre de «ley de Maxwell-Boltzmann».
La velocidad media de las moléculas de oxígeno en el aire a la temperatura ambiente
es de 0,4 km/seg. La molécula de hidrógeno, 16 veces menos pesada, suele moverse a
una velocidad 4 veces mayor, es decir, 1,6 km/seg, ya que, de acuerdo con la citada
ley de Maxwell-Boltzmann, la velocidad de una determinada partícula a una
temperatura dada es inversamente proporcional a la raíz cuadrada de su peso
molecular.
Es importante recordar que se trata sólo de velocidades medias. La mitad de las
moléculas van más de prisa que el promedio; un determinado porcentaje de las
mismas va dos veces más rápido que el promedio; un menor porcentaje va 3 veces
más rápido, etc. De hecho, un escaso porcentaje de las moléculas de hidrógeno y
oxígeno de la atmósfera se mueve a velocidades superiores a los 11,26 km/seg, o sea,
la velocidad de escape.
Estas partículas no pueden escapar en los niveles bajos de la atmósfera, porque
aminoran su marcha las colisiones con sus vecinas más lentas; en cambio, en la
atmósfera superior son mucho mayores sus probabilidades de escape. Ello se debe, en
primer lugar, a que la radiación del Sol, al llegar hasta allí sin traba alguna, estimula a
197
buen número de partículas, que adquieren una enorme energía y grandes velocidades.
En segundo lugar, a que la probabilidad de colisiones queda muy reducida en un aire
más tenue. Mientras que, en la superficie de la Tierra, una molécula se desplaza, por
término medio, sólo unos 0,001 mm, antes de chocar con una molécula vecina, a 104
km de altura, el camino que pueden recorrer sin entrar en colisión es de 10 cm, en
tanto que a los 225 km es ya de 1 km. Aquí, el promedio de colisiones sufridas por un
átomo o una molécula es sólo de 1/seg, frente a las 5.000 millones por segundo a
nivel del mar. De este modo, una partícula rápida a 160 km o más de altura, tiene
grandes posibilidades de escapar de la Tierra. Si se mueve hacia arriba, se va
desplazando por regiones cada vez menos densas y, por tanto, con menores
probabilidades de colisión, de modo que, al fin, puede escapar a veces al espacio
interplanetario, para no volver nunca más.
En otras palabras: la atmósfera de la Tierra tiene «fugas», aunque por lo general, de
las moléculas más ligeras. El oxígeno y el nitrógeno son bastante pesados, por lo cual,
sólo una pequeña fracción de las moléculas de este tipo consigue la velocidad de
escape. De aquí que no sea mucho el oxígeno y el nitrógeno que ha perdido la Tierra
desde su formación. Por su parte, el hidrógeno y el helio llegan fácilmente a la
velocidad de escape. Así, no debe sorprendernos que nuestra atmósfera no contenga
prácticamente hidrógeno ni helio.
Los planetas de mayor masa, como Júpiter y Saturno, pueden retener bien el
hidrógeno y el helio, por lo cual sus atmósferas son más amplias y consistentes y
están compuestas, en su mayor parte, por estos elementos, que, a fin de cuentas, son
las sustancias más corrientes en el Universo. El hidrógeno, que existe en enormes
cantidades, reacciona en seguida con los demás elementos presentes, por lo cual el
carbono, el nitrógeno y el oxígeno sólo pueden presentarse en forma de compuestos
hidrogenados, es decir, metano (CH4), amoníaco (NH3) y agua (H2O), respectivamente.
Aunque en la atmósfera de Júpiter el amoníaco y el metano se hallan presentes a una
concentración relativamente mínima de impurezas, logró descubrirlos, en 1931, el
astrónomo germanoamericano Rupert Wildt, gracias a que estos compuestos dan en el
espectro unas bandas de absorción muy claras, lo cual no ocurre con el helio y el
hidrógeno. La presencia de helio e hidrógeno se detectó en 1952 con ayuda de
métodos indirectos. Y, naturalmente, las sondas de Júpiter, a partir de 1973, han
confirmado esos hallazgos y nos han proporcionado ulteriores detalles.
Moviéndose en dirección opuesta, un planeta pequeño como Marte tiene menos
capacidad para retener las moléculas relativamente pesadas, por lo cual, la densidad
de su atmósfera equivale a una décima parte de la nuestra. La Luna, con su reducida
velocidad de escape, no puede retener una atmósfera propiamente dicha y, por tanto,
carece de aire.
La temperatura es un factor tan importante como la gravedad. La ecuación de
Maxwell-Boltzmann dice que la velocidad media de las partículas es proporcional a la
raíz cuadrada de la temperatura absoluta. Si la Tierra tuviese la temperatura de la
superficie del Sol, todos los átomos y moléculas de su atmósfera aumentarían la
velocidad de 4 a 5 veces y, en consecuencia, la Tierra no podría retener ya sus
moléculas de oxígeno y nitrógeno, del mismo modo que no puede hacerlo con las de
hidrógeno y helio.
Así, Mercurio tiene 2,2 veces la gravedad superficial de la Luna y debería hacerlo mejor
para conservar una atmósfera. Sin embargo, Mercurio se encuentra considerablemente
más caliente que la Luna y ha acabado tan sin aire como ésta.
Marte posee una gravedad superficial sólo levemente mayor que la de Mercurio, pero
se halla en extremo más frío que éste, e incluso que la Tierra o la Luna. El que Marte
se las apañe para tener una tenue atmósfera es más a causa de su baja temperatura
que de su moderadamente elevada gravedad superficial. Los satélites de Júpiter se
hallan aún más fríos que Marte, pero poseen asimismo una gravedad superficial del
mismo calibre que la de la Luna, y por lo tanto no pueden retener una atmósfera.
Titán, el satélite mayor de Saturno, está tan frío, no obstante, que puede conservar
una densa atmósfera de nitrógeno. Tal vez Tritón, el satélite mayor de Neptuno, pueda
198
conseguir lo mismo.
La atmósfera original
El hecho que la Tierra tenga atmósfera constituye un poderoso argumento en contra
de la teoría de que tanto ella como los demás planetas del Sistema Solar tuvieron su
origen a partir de alguna catástrofe cósmica, como la colisión entre otro sol y el
nuestro. Más bien argumenta en favor de la teoría de la nube de polvo y planetesimal.
A medida que el polvo y el gas de las nubes se condensaron para formar
planetesimales, y éstos, a su vez, se unieron para constituir un cuerpo planetario, el
gas quedó atrapado en el interior de una masa esponjosa, de la misma forma que
queda el aire en el interior de un montón de nieve. La subsiguiente contracción de la
masa por la acción de la gravedad pudo entonces haber obligado a los gases a escapar
de su interior. El que un determinado gas quedase retenido en la Tierra se debió, en
parte, a su reactividad química. El helio y el neón, pese a que debían figurar entre los
gases más comunes en la nube original, son tan químicamente inertes, que no forman
compuestos, por lo cual pudieron escapar como gases. Por tanto, las concentraciones
de helio y neón en la Tierra son porciones insignificantes de sus concentraciones en
todo el Universo. Se ha calculado, por ejemplo, que la Tierra ha retenido sólo uno de
cada 50.000 millones de átomos de neón que había en la nube de gas original, y que
nuestra atmósfera tiene aún menos —si es que tiene alguno— de los átomos de helio
originales. Digo «si es que tiene alguno» porque, aun cuando todavía se encuentra
algo de helio en nuestra atmósfera, éste puede proceder de la desintegración de
elementos radiactivos y de los escapes de dicho gas atrapado en cavidades
subterráneas.
Por otra parte, el hidrógeno, aunque más ligero que el helio o el neón, ha sido mejor
captado por estar combinado con otras sustancias, principalmente con el oxígeno, para
formar agua. Se calcula que la Tierra sigue teniendo uno de cada 5 millones de átomos
de hidrógeno de los que se encontraban en la nube original.
El nitrógeno y el oxígeno ilustran con mayor claridad este aspecto químico. A pesar de
que las moléculas de estos gases tienen una masa aproximadamente igual, la Tierra ha
conservado 1 de cada 6 de los átomos originales del oxígeno (altamente reactivo),
pero sólo uno de cada 800.000 del inerte nitrógeno. Al hablar de los gases de la
atmósfera incluimos el vapor de agua, con lo cual abordamos, inevitablemente, una
interesante cuestión: la del origen de los océanos. Durante las primeras fases de la
historia terrestre, el agua debió de estar presente en forma de vapor, aun cuando su
caldeamiento fue sólo moderado. Según algunos geólogos, por aquel entonces el agua
se concentró en la atmósfera como una densa nube de vapor, y al enfriarse la Tierra se
precipitó de forma torrencial, para formar el océano. En cambio, otros geólogos opinan
que la formación de nuestros océanos se debió mayormente al rezumamiento de agua
desde el interior de la Tierra. Los volcanes demuestran que todavía hay gran cantidad
de agua bajo la corteza terrestre, pues el gas que expulsan es, en su mayor parte,
vapor de agua. Si esto fuera cierto, el caudal de los océanos seguiría aumentando aún,
si bien lentamente.
Pero aquí cabe preguntarse si la atmósfera terrestre ha sido, desde su formación, tal
como lo es hoy. Nos parece muy improbable. En primer lugar, porque el oxígeno
molecular —cuya participación en el volumen de la atmósfera equivale a una quinta
parte— es una sustancia tan activa, que su presencia en forma libre resulta
extremadamente inverosímil, a menos que existiera una producción ininterrumpida del
mismo. Por añadidura, ningún otro planeta tiene una atmósfera comparable con la
nuestra, lo cual nos induce a pensar que su estado actual fue el resultado de unos
acontecimientos únicos, como, por ejemplo, la presencia de vida en nuestro planeta,
pero no en los otros. Harold Urey ha presentado elaborados argumentos para respaldar
el supuesto de que la atmósfera primigenia estaba compuesta por amoníaco y metano.
Los elementos predominantes en el Universo serían el hidrógeno, helio, carbono,
nitrógeno y oxígeno, si bien el hidrógeno superaría ampliamente a todos. Ante esta
preponderancia del hidrógeno, es posible que el carbono se combinara con él para
formar metano (CH4); seguidamente, el nitrógeno e hidrógeno formarían amoníaco
(NH3), y el oxígeno e hidrógeno, agua (H2O). Desde luego, el helio y el hidrógeno
199
sobrantes escaparían; el agua formaría los océanos; el metano y el amoníaco
constituirían la mayor parte de la atmósfera, pues al ser gases comparativamente
pesados, quedarían sometidos a la gravitación terrestre.
Aunque los planetas poseyeran, en general, la gravitación suficiente para formar una
atmósfera semejante, no todos podrían retenerla, ya que la radiación ultravioleta
emitida por el Sol introduciría ciertos cambios, cambios que serían ínfimos para los
planetas externos, que, por una parte, reciben una radiación comparativamente escasa
del lejano Sol, y, por otra, poseen vastas atmósferas, capaces de absorber una
radiación muy considerable sin experimentar cambios perceptibles. Quiere ello decir
que los planetas exteriores seguirán conservando su compleja atmósfera de hidrógenohelio-
amoníaco-metano.
Pero no ocurre lo mismo en los mundos interiores, como Marte, la Tierra, la Luna,
Venus y Mercurio. Entre éstos, la Luna y Mercurio son demasiado pequeños, o
demasiado cálidos, o ambas cosas, para retener una atmósfera perceptible. Por otro
lado, tenemos a Marte, la Tierra y Venus, todos ellos con tenues atmósferas,
integradas, principalmente, por amoníaco, metano y agua. ¿Qué habrá ocurrido aquí?
La radiación ultravioleta atacaría la atmósfera superior de la Tierra primigenia,
desintegrando las moléculas de agua en sus dos componentes: hidrógeno y oxígeno
(«fotodisociación»). El hidrógeno escaparía, y quedaría el oxígeno. Ahora bien, como
sus moléculas son reactivas, reaccionaría frente a casi todas las moléculas vecinas. Así
pues, se produciría una acción recíproca con el metano (CH4), para formar el anhídrido
carbónico (CO2) y el agua (H2O); asimismo, se originaría otra acción recíproca con el
amoníaco (NH3), para producir nitrógeno libre (N2) y agua.
Lenta, pero firmemente, la atmósfera pasaría del metano y el amoníaco al nitrógeno y
el anhídrido carbónico. Más tarde el nitrógeno tendería a reaccionar poco a poco con
los minerales de la corteza terrestre, para formar nitratos, cediendo al anhídrido
carbónico la mayor parte de la atmósfera.
Pero ahora podemos preguntarnos: ¿Proseguirá la fotodisociación del agua?
¿Continuará el escape de hidrógeno al espacio y la concentración de oxígeno en la
atmósfera? Y si el oxígeno se concentra sin encontrar ningún reactivo (pues no puede
haber una reacción adicional con el anhídrido carbónico), ¿no se agregará cierta
proporción de oxígeno molecular al anhídrido carbónico existente? La respuesta es:
¡No!
Cuando el anhídrido carbónico llega a ser el principal componente de la atmósfera, la
radiación ultravioleta no puede provocar más cambios mediante la disociación de la
molécula de agua. Tan pronto como empieza a concentrarse el oxígeno libre, se forma
una sutil capa de ozono en la atmósfera superior, capa que absorbe los rayos
ultravioleta y, al interceptarles el paso hacia la atmósfera inferior, impide toda
fotodisociación adicional. Una atmósfera constituida por anhídrido carbónico tiene
estabilidad.
Pero el anhídrido carbónico produce el efecto de invernadero. Si la atmósfera de
anhídrido carbónico es tenue y dista mucho del Sol, dicho efecto será inapreciable.
Éste es el caso de Marte, por ejemplo.
Supongamos, empero, que la atmósfera de un planeta tiene más semejanza con la
terrestre y dicho planeta se halla a la misma distancia del Sol o más cerca. Entonces el
efecto de invernadero sería enorme: la temperatura se elevaría y vaporizaría los
océanos con intensidad creciente. El vapor de agua se sumaría al efecto de
invernadero, acelerando el cambio y librando cantidades cada vez mayores de
anhídrido carbónico, a causa de los efectos térmicos sobre la corteza. Por último, el
planeta se caldearía enormemente, toda su agua pasaría a la atmósfera en forma de
vapor, su superficie quedaría oculta bajo nubes eternas y circuida por una densa
atmósfera de anhídrido carbónico.
Éste fue precisamente el caso de Venus, que tuvo que soportar un galopante efecto
200
invernadero. El poco calor adicional que recibió a través de encontrarse más cerca del
Sol que la Tierra, sirvió como detonante y para empezar el proceso.
Las cosas no se desarrollaron en la Tierra de la misma forma que en Marte o en venus.
El nitrógeno de su atmósfera no caló en la corteza para depositar una capa fina y fría
de anhídrido carbónico. Tampoco actuó el efecto de invernadero, para convertirla en
un asfixiante mundo desértico, aquí sucedió algo inopinado, y ese algo fue la aparición
de la vida, cuyo desarrollo se hizo ostensible incluso cuando la atmósfera estaba aún
en su fase de amoníaco-metano.
Las reacciones desencadenadas por la vida en los océanos de la Tierra desintegraron
los compuestos nitrogenados, los hicieron liberar el nitrógeno molecular y mantuvieron
grandes cantidades de este gas en la atmósfera. Por añadidura, las células adquirieron
una facultad especial para disociar el oxígeno e hidrógeno en las moléculas de agua,
aprovechando la energía de esa luz visible que el ozono no puede interceptar. El
hidrógeno se combinó con el anhídrido carbónico para formar las complicadas
moléculas que constituyen una célula, mientras que el oxígeno liberado se diluyó en la
atmósfera. Así, pues, gracias a la vida, la atmósfera terrestre pudo pasar del nitrógeno
y anhídrido carbónico, al nitrógeno y oxígeno. El efecto de invernadero se redujo a una
cantidad ínfima, y la Tierra conservó la frialdad suficiente para retener sus
inapreciables posesiones: un océano de agua líquida y una atmósfera dotada con un
gran porcentaje de oxígeno libre.
En realidad, nuestra atmósfera oxigenada afecta sólo a un 10 % aproximadamente de
la existencia terrestre, y es posible incluso que, unos 600 millones de años atrás, esa
atmósfera tuviera únicamente una décima parte del oxígeno que posee hoy.
Pero hoy lo tenemos, y debemos mostrarnos agradecidos por esa vida que hizo posible
la liberación del oxígeno atmosférico, y por ese oxígeno que, a su vez, hizo posible la
vida.
Dostları ilə paylaş: |