Isaac Asimov nueva guía de la ciencia ciencias físicas



Yüklə 3,98 Mb.
səhifə35/42
tarix10.12.2017
ölçüsü3,98 Mb.
#14975
1   ...   31   32   33   34   35   36   37   38   ...   42

Por su esclarecimiento del efecto fotoeléctrico (no por su teoría de la relatividad),

Einstein obtuvo el premio Nobel de Física en 1921.

En su Teoría especial de la relatividad —presentada el año 1905 y desarrollada en sus

ratos libres mientras trabajaba como perito técnico en la oficina suiza de patentes—

Einstein expuso una opinión fundamental inédita del Universo basándose en una

ampliación de la teoría sobre los cuantos. Adujo que la luz se trasladaba por el espacio

en forma cuántica (el «fotón»), y así hizo resucitar el concepto de la luz integrada por

partículas. Pero ésta era una nueva especie de partícula. Reunía las propiedades de

ondas y partículas, mostrando indistintamente unas u otras, según los casos.

Ello pudiera parecer una paradoja e incluso una especie de misticismo, como si la

verdadera naturaleza de la luz desbordara todo conocimiento imaginable. Sin embargo,

no es así. Para ilustrarlo con una analogía, digamos que el hombre puede ofrecer

muchos aspectos: marido, padre, amigo o negociante. Todo depende de su ambiente

momentáneo, y según sea éste, se comportará como marido, padre, amigo o

negociante. Sería improcedente que exhibiera su comportamiento conyugal con una

cliente o el comportamiento comercial con su esposa, y, de todos modos, ello no

301


implicaría un caso paradójico ni un desdoblamiento de personalidad.

De la misma forma, la radiación posee propiedades corpusculares y ondulatorias. En

ciertas condiciones resaltan las propiedades corpusculares; en otras, las ondulatorias.

Este carácter binario nos da una aclaración más satisfactoria que cualquier conjunto de

propiedades por separado.

Cuando se descubrió la naturaleza ondulatoria de la luz, se allanó el camino para los

sucesivos triunfos de la óptica decimonónica, incluyendo la espectroscopia. Pero este

descubrimiento exigió también que los físicos imaginaran la existencia del éter. Luego,

la teoría einsteniana partícula-onda mantuvo todas las victorias del siglo XIX (incluidas

las ecuaciones de Maxwell), pero estimó innecesario presuponer la existencia del éter.

La radiación podía trasladarse por el vacío en virtud de sus hábitos corpusculares, y

desde aquel instante se pudo enterrar la teoría del éter, teoría con la que acabara ya el

experimento Michelson-Morley.

Einstein introdujo una segunda idea trascendental con su Teoría especial de la



relatividad: la velocidad de la luz no varía jamás, cualquiera que sea el origen del

movimiento. Según el concepto newtoniano del Universo, un rayo luminoso procedente

de un foco en movimiento hacia el observador, se mueve más aprisa que otro

procedente de un foco que se aleja en dirección contraria. A juicio de Einstein, eso era

inexacto; y basándose en tal suposición consiguió derivar las ecuaciones Lorentz-

FitzGerald. Einstein demostró que el aumento de la masa con la velocidad —aplicado

por Lorentz sólo a las partículas cargadas— era aplicable a todo objeto conocido. Y,

ampliando su razonamiento, dijo que los aumentos de velocidad no sólo acortarían la

longitud y acrecentarían la masa, sino que también retrasarían el paso del tiempo: en

otras palabras, los relojes se retrasarían con el acortamiento de la vara medidora.



La teoría de la relatividad

Un aspecto fundamental de la teoría einsteniana fue la negación de la existencia de

«espacio absoluto» y «tiempo absoluto». Tal vez parezca descabellado a primera vista:

¿Cómo puede la mente humana escrutar lo que ocurre en el Universo si no tiene una

base de partida? Einstein repuso que todo cuanto necesitamos hacer es tomar una

«estructura de referencia» para poder relacionar con ella los acontecimientos

universales. Cualquier estructura de referencia (la Tierra inmóvil, el Sol inmóvil o, si a

mal no viene, nosotros mismos, inmóviles) sería válida; sólo nos restaba elegir aquélla

que nos pareciera más conveniente. Tal vez sea preferible, pero no más «verídico»,

calcular los movimientos en una estructura donde el Sol esté inmóvil, que en otra

donde la Tierra esté inmóvil.

Así, pues, las medidas de espacio y tiempo son «relativas» respecto a una estructura

de referencia elegida arbitrariamente..., y de aquí que se haya llamado a la idea

einsteniana «teoría de la relatividad».

Para ilustrar este punto, supongamos que estamos observando desde la Tierra una

extraño planeta («Planeta X»), una copia exacta del nuestro por su tamaño y masa

que pasa silbando ante nuestra vista a 262.000 km/seg en relación con nosotros. Si

pudiéramos medir sus dimensiones cuando pasa lanzado, descubriríamos que muestra

un escorzo del 50 % en la dirección de su movimiento. Sería un elipsoide más bien que

una esfera, y las mediciones adicionales nos dirían que parece tener dos veces más

masa que la Tierra.

Sin embargo, un habitante del Planeta X tendría la impresión de que él y su propio

mundo estaban imóviles. Él creería ver pasar la Tierra ante su vista a 262.000 km/seg

y se diría que tenía forma elipsoidal y dos veces la masa de su planeta.

Uno cae en la tentación de preguntar cuál de los dos planetas estaría realmente

escorzado y tendría doble masa, pero la única respuesta posible es ésta: ello depende

de la estructura de referencia. Y si la encontráis decepcionante, considerad que un

hombre es pequeño comparado con una ballena, pero grande al lado de un insecto.

¿Solucionaríamos algo preguntando si el hombre es realmente grande, o bien

302


pequeño?

Aunque sus consecuencias sean desusadas, la relatividad explica todos los fenómenos

conocidos del Universo, tan bien por lo menos como cualquiera otra teoría precedente.

Pero va aún más lejos: explica lúcidamente ciertos fenómenos que la visión

newtoniana no enfoca bien, o si acaso lo hace con muy pobres recursos. De resultas,

Einstein ha sido preferido a Newton, no como un relevo, sino más bien cual un

perfeccionamiento. La visión newtoniana del Universo es todavía utilizable a modo de

aproximación simplificada cuyo funcionamiento es aceptable para la vida corriente e

incluso la Astronomía ordinaria, tal como colocar satélites en órbita. Pero cuando se

trata de acelerar partículas en un sincrotrón, por ejemplo, comprendemos que es

preciso, si se quiere poner en marcha la máquina, hacer entrar en juego el

acrecentamiento einsteniano de la masa con la velocidad.



Espacio-tiempo y la paradoja del reloj

La visión einsteniana del Universo combinó tan profundamente el espacio y el tiempo

que cualquiera de los dos conceptos carecía de significado por sí solo.

El Universo es cuatridimensional, y el tiempo figura entre sus cuatro dimensiones (pero

sin comportarse como las dimensiones espaciales ordinarias de longitud, anchura y

altura). Frecuentemente se hace referencia a la fusión cuatridimensional con la relación

«espacio-tiempo». El matemático germano-ruso Hermann Minkowski, uno de los

maestros de Einstein, fue quien utilizó por primera vez esa noción en 1907.

Una vez promovidos los conceptos tiempo y espacio de extraños artificios en la

relatividad, otro aspecto de éste que suscita polémicas entre los físicos es la noción

einsteniana sobre el retraso de los relojes. Un reloj en movimiento —dijo él— marca el

tiempo con más lentitud que uno estacionario. A decir verdad, todos los fenómenos

que evolucionan con el tiempo lo hacen más lentamente cuando se mueven que

cuando están en reposo, lo cual equivale a decir que el propio tiempo se retrasa. A

velocidades ordinarias, el efecto es inapreciable, pero a 262.000 km/seg, un reloj

parecería (a un observador que lo viera pasar fugazmente ante sí) que tarda dos

segundos en marcar un segundo. Y, a la velocidad de la luz, el tiempo se paralizaría.

La dimensión «tiempo» es más perturbadora que las otras dos relacionadas con la

longitud y el peso. Si un objeto se reduce a la mitad de su longitud y luego recupera el

tamaño normal o su peso para volver seguidamente al peso normal, no dejará rastro

de ese cambio temporal y, por tanto, no puede haber controversia entre los criterios

opuestos.

Sin embargo, el tiempo es una cosa acumulativa. Por ejemplo, un reloj sobre el

planeta X parece funcionar a media marcha debido a la gran velocidad de traslación; si

lo mantenemos así durante una hora y luego lo llevamos a un lugar estático, su

maquinaria reanudará la marcha ordinaria pero habrá quedado una marca: ¡media

hora de retraso! Veamos otro ejemplo. Si dos barcos se cruzan y los observadores de

cada uno estiman que el otro se traslada a 262.000 km/seg y su reloj funciona a

media marcha, cuando las dos naves se crucen otra vez los observadores de cada una

pensarán que el reloj de la otra lleva media hora de retraso con respecto al suyo. Pero,

¿es posible que cada reloj lleve media hora de retraso con respecto al otro? ¡No! ¿Qué

pensar entonces? Se ha denominado a este problema «la paradoja del reloj».

Realmente no existe tal paradoja. Si un barco pasase cual un rayo ante el otro y las

tripulaciones de ambos jurasen que el reloj del otro iba retrasado, poco importaría

saber cuál de los dos relojes era «verdaderamente» el retrasado porque ambos barcos

se separarían para siempre. Los dos relojes no concurrirían jamás en el mismo lugar ni

a la misma hora para permitir una comprobación y la paradoja del reloj no se

plantearía nunca más. Ciertamente, la Teoría especial de la relatividad de Einstein es

aplicable tan sólo al movimiento uniforme, y por tanto aquí estamos hablando

únicamente de una separación definitiva.

Supongamos, empero, que los dos barcos se cruzasen nuevamente después del fugaz

303


encuentro y entonces fuese posible comparar ambos relojes. Para que sucediese tal

cosa debería mediar un nuevo factor: sería preciso que uno de los barcos acelerase su

marcha. Supongamos que lo hiciera el barco B como sigue: primero reduciendo la

velocidad para trazar un inmenso arco y orientarse en dirección de A, luego avanzando

aceleradamente hasta el encuentro con A. Desde luego, B podría considerarse en una

posición estacionaria, pues, teniendo presente su forma de orientarse, sería A el autor

de todo el cambio acelerado hacia atrás para encontrarse con B. Si esos dos barcos

fueran lo único existente en el Universo, la simetría mantendría viva ciertamente la

paradoja del reloj.

Ahora bien, A y B no son lo único existente en el Universo, y ello desbarata la simetría.

Cuando B acelera no toma solamente A como referencia, sino también el resto del

Universo. Si B opta por verse en posición estacionaria no debe considerar que

solamente A acelera respecto a él, sino también todas las galaxias sin excepción.

Resumiendo: es el enfrentamiento de B con el Universo. En tales circunstancias el reloj

atrasado será el de B, no el de A.

Esto afecta a las nociones sobre viajes espaciales. Si los astronautas se trasladaran a

la velocidad de la luz cuando abandonasen la Tierra, el transcurso de su tiempo sería

más lento que el del nuestro.

Los viajeros del espacio podrían alcanzar un destino remoto y regresar al cabo de una

semana —según lo entenderían ellos—, aunque verdaderamente habrían transcurrido

muchos siglos sobre la Tierra. Si el tiempo se retarda realmente con el movimiento,

una persona podrá hacer el viaje de ida y vuelta hasta una estrella distante. Pero,

desde luego, deberá despedirse para siempre de su propia generación y del mundo

que conoció, pues cuando regrese encontrará un mundo del futuro.



La gravedad y la teoría general de Einstein

En la Teoría especial de la relatividad, Einstein no abordó la gravitación. Trató ese

tema en su Teoría general de la relatividad, publicada el año 1915. Esta Teoría general

presentó un panorama insólito de la gravitación. Allí se la conceptuó como una

propiedad del espacio más bien que una fuerza actuando entre los cuerpos. La

presencia de materia hace curvarse al espacio, por así decirlo, y los cuerpos siguen la

línea de menor resistencia entre las curvas. Aunque la idea de Einstein parecía

sobremanera extraña, sirvió para explicar lo que no había logrado esclarecer la ley

newtoniana de la gravedad.

La ley de la gravedad de Newton se apuntó su mayor triunfo en 1846 con el

descubrimiento de Neptuno (véase capítulo 3).

Tras aquel hallazgo, la ley newtoniana de gravedad pareció irrefutable. ¡Nada podría

desvirtuarla! Sin embargo, quedó sin explicación cierto movimiento planetario. El

punto más cercano al Sol («perihelio») del planeta Mercurio cambiaba de un paso al

siguiente: no ocupaba nunca dos veces seguidas el mismo lugar en sus revoluciones

«anuales» alrededor del Sol. Los astrónomos sólo pudieron atribuir esa irregularidad a

las «perturbaciones» causadas en su órbita por la atracción de los planetas vecinos.

Ciertamente, durante los primeros trabajos con la ley de gravitación se había temido

hasta cierto punto que las perturbaciones ocasionadas por la atracción de un planeta

sobre otro pudieran desequilibrar algún día el delicado mecanismo del Sistema Solar.

Sin embargo, en las primeras décadas del siglo XIX el astrónomo francés Pierre-Simon

Laplace demostró que el Sistema Solar no era tan delicado como todo eso. Las

perturbaciones eran sin excepción cíclicas, y las irregularidades orbitales no

sobrepasaban nunca ciertos márgenes en cualquier dirección. El Sistema Solar parecía

ser estable a largo plazo, y los astrónomos estaban cada vez más convencidos de que

sería posible analizar todas las irregularidades específicas tomando en cuenta dichas

perturbaciones.

Sin embargo, esto no fue aplicable a Mercurio. Una vez presupuestas todas las

perturbaciones quedó todavía sin explicar la desviación del perihelio de Mercurio en

304


una cantidad equivalente a 43 segundos de arco cada siglo. Este movimiento,

descubierto por Leverrier en 1845, no representó gran cosa: dentro de 4.000 años

será igual a la anchura de la Luna. Pero sí fue suficiente para causar inquietud entre

los astrónomos.

Leverrier opinó que tal desviación podría ser ocasionada por algún planeta pequeño e

ignoto más próximo al Sol que Mercurio. Durante varias décadas, los astrónomos

buscaron el supuesto planeta (llamado «Vulcano»), y se presentaron numerosos

informes anunciando su descubrimiento. Pero todos los informes resultaron ser

erróneos. Finalmente se acordó que Vulcano era inexistente.

Entonces la Teoría general de la relatividad aportó la respuesta. Einstein demostró que

el perihelio de un cuerpo rotatorio debe tener cierto movimiento adicional aparte del

predicho por la ley newtoniana. Cuando se aplicó ese nuevo cálculo a Mercurio, la

desviación de su perihelio concordó exactamente con la fórmula general. Otros

planetas más distantes del Sol que Mercurio mostrarían una desviación de perihelio

progresivamente menor. El año 1960 se descubrió, estudiando la órbita de Venus, que

el perihelio avanzaba 8 segundos de arco por siglo aproximadamente; esta desviación

concuerda casi exactamente con la teoría de Einstein.

Pero aún fueron más impresionantes dos fenómenos insospechados que sólo habían

sido previstos por la teoría einsteiniana. Primero, Einstein sostuvo que un campo

gravitatorio intenso debe refrenar las vibraciones de los átomos. Ese refrenamiento se

manifestaría mediante un corrimiento de las rayas espectrales hacia el rojo

(«corrimiento de Einstein»). Escudriñando el firmamento en busca de un campo

gravitatorio suficientemente potente para ejercer tal efecto, los astrónomos pensaron

en las densas y blancas estrellas enanas. Analizaron el espectro de las enanas blancas

y encontraron ese corrimiento de las rayas espectrales.

La verificación del segundo pronóstico einsteiniano fue todavía más espectacular. Su

teoría decía que un campo gravitatorio hace curvarse los rayos luminosos. Einstein

calculaba que si un rayo de luz rozase la superficie solar se desviaría en línea recta

1,75 seg. de arco (fig. 8.4) ¿Cómo comprabarlo? Pues bien, si se observaran durante

un eclipse solar las estrellas situadas más allá del Sol, enfiladas con su borde, y se

compararan sus posiciones con las que ocupaban al fondo cuando el Sol no se

interponía, se evidenciaría cualquier desviación por la curvatura de la luz. El ensayo se

aplazó desde 1915, es decir, cuando Einstein publicara su tesis sobre la relatividad

general, hasta el fin de la Primera Guerra Mundial. En 1919, la Brítish Royal



Astronomical Society organizó una expedición para proceder al ensayo observando un

eclipse total visible desde la isla del Príncipe, una pequeña posesión portuguesa frente

a la costa de África Occidental. Y, en efecto, las estrellas se desviaron de su posición.

Una vez más se acreditó Einstein.

Con arreglo al mismo principio, si una estrella está directamente detrás de otra, la luz

de la estrella más distante contorneará a la más cercana, de tal modo que el astro más

lejano aparentará tener mayor tamaño. La estrella más cercana actuará cual una

«lente gravitatoria». Infortunadamente, el tamaño aparente de las estrellas es tan

diminuto que el eclipse de una estrella distante por otra mucho más cercana (visto

desde la Tierra) es sobremanera raro. Sin embargo, el descubrimiento de los cuasares

proporcionó a los astrónomos otra oportunidad. A principios de los años 1980,

detectaron unos cuasares dobles cada miembro de los cuales poseía exactamente

idéntica propiedad. Constituía una razonable suposición el que estemos viendo un solo

305


cuasar con su luz distorsionada por una galaxia (o posiblemente un agujero negro),

que existe en la línea de la visión pero que es invisible para nosotros. La imagen del

cuasar está distorsionada y la hace aparecer doble. (Una imperfección en el espejo

tendría el mismo efecto sobre nuestra imagen reflejada.)



Comprobando la Teoría general

Los tres grandes triunfos de la teoría general einsteiniana, fueron todos de naturaleza

astronómica. Los científicos buscaron afanosamente algún medio para comprobarlos en

el laboratorio donde ellos pudieran hacer variar a voluntad las condiciones requeridas.

La clave para semejante demostración de laboratorio surgió en 1958 cuando el físico

alemán Rudolf Ludwig Móssbauer demostró que en ciertas condiciones un cristal puede

irradiar rayos gamma cuya longitud de onda queda definida específicamente. Y un

cristal similar al emisor, puede absorber los rayos gamma de esa longitud de onda. Si

los rayos gamma difirieran levemente por su longitud de onda de aquéllos emitidos

naturalmente por el cristal, el otro cristal no los absorbería. Esto es lo que se llama el

«efecto Móssbauer».

Si esa emisión de rayos gamma sigue una dirección de arriba abajo para caer con la

gravedad, ganará energía —según prescribe la Teoría general de la relatividad— de tal

modo que su longitud de onda se acortará. Al caer unos cuantos centenares de

centímetros adquirirá suficiente energía para el decrecimiento en la longitud de onda

de los rayos gamma, aunque esa disminución debe ser muy reducida, pues la onda

necesita conservar suficiente amplitud con el fin de evitar que el cristal absorbente siga

absorbiendo el rayo.

Por añadidura, si el cristal emisor de rayos gamma se mueve hacia arriba durante este

proceso, el efecto de Doppler-Fizeau acrecentará la longitud de onda de los rayos

gamma. Entonces se ajustará la velocidad del cristal ascendente para neutralizar el

efecto de gravitación sobre el rayo gamma descendente, y de resultas éste será

absorbido por el cristal sobre cuya superficie incide.

Tales experimentos realizados en 1960 más el empleo ulterior del efecto Móssbauer,

confirmaron la Teoría general con suma precisión. Constituyeron la demostración más

impresionante conocida hasta ahora de su velidez; como consecuencia de ello se

otorgóo el premio Nobel de Física a Móssbauer en 1961.

Otras delicadas mediciones también tienden a apoyar la relatividad general: el paso de

los rayos del radar por un planeta, la conducta de los pulsares binarios mientras giran

en torno de un centro mutuo de gravedad, etc. Todas las mediciones son dudosas y los

físicos han realizado numerosos intentos de sugerir teorías alternativas. No obstante,

de todas las teorías sugeridas, la de Einstein es la más simple desde un punto de vista

matemático. Cualesquiera que sean las mediciones que se efectúen para distinguir

entre las teorías (y las diferencias son siempre mínimas), las mismas parecen apoyar

la de Einstein. Después de casi tres cuartos de siglo, la teoría general de la relatividad

sigue inconmovible, aunque los científicos continúen (muy apropiadamente) poniéndola

en tela de juicio. (No se preocupen, es la teoría general la que es puesta en tela de

juicio. La teoría especial de la relatividad ha sido comprobada una y otra vez, de

formas tan variadas, que no existe ningún físico que la ponga en tela de juicio.)

CALOR


Hasta este punto del capítulo he dejado al margen un fenómeno que usualmente

acompaña a la luz en nuestras experiencias cotidianas. Casi todos los objetos

luminosos, desde una estrella hasta una vela, desprenden calor junto con la luz.

Medición de la temperatura

Antes de los tiempos modernos no se estudiaba el calor, si se exceptúa el aspecto

cualitativo. A una persona le bastaba con decir «hace calor», o «hace frío», o «esto

está más caliente que aquello». Para someter la temperatura a una medición

cuantitativa fue necesario, ante todo, encontrar algún cambio mensurable que

306


pareciera producirse regularmente con los cambios de temperatura. Se encontró esa

variación en el hecho de que las sustancias se dilatan con el calor y se contraen con el

frío.

Galileo fue quien intentó por primera vez aprovechar tal hecho para observar los



cambios de temperatura. En 1603 invirtió un tubo de aire caliente sobre una vasija de

agua. Cuando el aire en el tubo se enfrió hasta igualar la temperatura de la habitación

dejó subir el agua por el tubo, y de este modo consiguió Galileo su «termómetro» (del

griego thermes y metron, «medida del calor»). Cuando variaba la temperatura del

aposento cambiaba también el nivel de agua en el tubo. Si se caldeaba la habitación, el

aire en el tubo se dilataba y empujaba el agua hacia abajo; si se la enfriaba, el aire se

contraía y el nivel del agua ascendía. La única dificultad fue que aquella vasija de agua

donde se había insertado el tubo, estaba abierta al aire libre y la presión de éste era

variable. Ello producía ascensos y descensos de la superficie líquida, es decir,

variaciones ajenas a la temperatura que alteraban los resultados.

En 1654, el gran duque de Toscana, Fernando II, ideó un termómetro independiente

de la presión atmosférica. Este aparato contenía un líquido en una ampolla a la cual se

unía un tubo recto. La contracción y dilatación del propio líquido señalaba los cambios

de temperatura. Los líquidos cambian de volumen con la temperatura mucho menos

que los gases, pero si se emplea la cantidad justa de líquido para llenar una ampolla,

de modo que el líquido sólo pueda dilatarse a lo largo de un tubo muy estrecho, los

ascensos y descensos dentro de ese tubo pueden ser considerables incluso para

ínfimos cambios de volumen.

El físico inglés Robert Boyle hizo algo muy parecido sobre la misma cuestión, y fue el

primero en demostrar que el cuerpo humano tiene una temperatura constante

bastante superior a la del medio ambiente. Otros probaron que bajo una temperatura

fija se producen siempre fenómenos físicos concretos. Cuando aún no había terminado

el siglo XVII se comprobó esa verdad en el caso del hielo derretido y el agua hirviente.

Los primeros líquidos empleados en termometría fueron el agua y el alcohol. Dado que

el agua se hiela tan pronto y el alcohol hierve con tanta facilidad, el físico francés

Guillaume Amontons recurrió al mercurio. En su aparato, como en el de Galileo, la

expansión y contracción del aire causa que el mercurio ascienda o descienda.

Por fin, en 1714, el físico alemán Gabriel Daniel Fahrenheit combinó las investigaciones

del gran duque y de Amontons introduciendo mercurio en un tubo y utilizando sus

momentos de dilatación y contracción como inicadores de la temperatura. Fahrenheit

incorporó al tubo una escala graduada para poder apreciar la temperatura bajo el

aspecto cuantitativo.

Se ha argumentado no poco sobre el método empleado por Fahrenheit para establecer

su escala particular. Según algunos, asignó el cero a la temperatura más baja que

pudo crear en su laboratorio mezclando sal y hielo. Sobre esa base fijó la solidificación

del agua a 32° y la ebullición a 212°. Esto ofreció dos ventajas: primera, el margen de

temperatura donde el agua se mantiene en estado líquido era de 180°, el cual parece

un número natural para su uso en conexión con los «grados». (La medida en grados

del semicírculo.) Segunda, la temperatura del cuerpo se aproximaba a los 100°;

aunque para ser exactos es, normalmente, de 98,6° Fahrenheit.

Ordinariamente, la temperatura del cuerpo es tan constante que si sobrepasa en un

grado o dos el nivel normal se dice que el cuerpo tiene fiebre y, por tanto, muestra

síntomas evidentes de enfermedad. En 1858, el médico alemán Karl August

Wunderlich implantó las frecuentes comprobaciones de la temperatura corporal como

nuevo procedimiento para seguir el curso de una enfermedad. En la década siguiente,

el médico británico Thomas Clifford Allbutt inventó el «termómetro clínico» cuyo

estrecho tuvo lleno de mercurio tiene un estrangulamiento en la parte inferior. El

mercurio se eleva hasta las cifras máximas cuando se coloca el termómetro dentro de

la boca, pero no desciende al retirarlo para leer la temperatura. El hilo de mercurio se

divide simplemente por el estrangulamiento, dejando fija la porción superior para una

lectura constante. En Gran Bretaña y los Estados Unidos se emplea todavía la escala

307


Fahrenheit y están familiarizados con ella en todas las observaciones cotidianas, tales

como informes meteorológicos y utilización de termómetros clínicos.

Sin embargo, en 1742 el astrónomo sueco Anders Celsius adoptó una escala diferente.

En su forma definitiva, este sistema estableció el punto O para la solidificación del

agua y el 100 para la ebullición. Con arreglo al margen de división centesimal donde el

agua conserva su estado líquido, se denominó a esta escala, «centígrada», del latín



centum y gradus, significando «cien peldaños». Casi todas las personas hablan de

«grados centígrados» cuando se refieren a las medidas de esta escala, pero los

científicos rebautizaron la escala con el nombre del inventor —siguiendo el precedente

Fahrenheit— en una conferencia internacional celebrada el año 1948. Oficialmente,

pues, se debe hablar de «escala Celsius» y «grados Celsius». Todavía se conserva el

signo «C». Entretanto, la escala «Celsius» ha ganado preponderancia en casi todo el

mundo civilizado. Los científicos, en particular, encuentran muy conveniente esta

escala.


Las dos teorías del calor

La temperatura mide la intensidad del calor pero no su cantidad. El calor fluye siempre

desde un lugar de altas temperaturas hacia un lugar de bajas temperaturas, hasta que

ambas temperaturas se igualan, tal como el agua fluye de un nivel superior a otro

inferior hasta que se equilibran los dos niveles. Eso es válido, cualesquiera que sean

las cantidades relativas de calor contenidas en los cuerpos. Aunque una bañera de

agua tibia contenga mucho más calor que una cerilla encendida, si metemos la cerilla

en el agua, el calor fluye de la cerilla hacia el agua y no al contrario.

Joseph Black, quien hizo un importante estudio sobre los gases (véase capítulo 5), fue

el primero en establecer la distinción entre temperatura y calor. En 1760 anunció que

varias sustancias daban temperaturas diferentes cuando se les aplicaba la misma

cantidad de calor. El elevar en un grado Celsius la temperatura de un gramo de hierro

requería tres veces más calor que el calentar en la misma proporción un gramo de

plomo. Y el berilio necesitaba tres veces más calor que el hierro.

Por añadidura, Black demostró la posibilidad de introducir calor en una sustancia sin

elevar lo más mínimo su temperatura. Cuando se calienta el hielo, éste se derrite

lentamente, desde luego, pero no hay aumento de temperatura. A su debido tiempo, el

calor liquidará todo el hielo, pero la temperatura del hielo no rebasa jamás los 0°. Lo

mismo ocurre en el caso del agua hirviente a 100° C. Cuando el calor se transmite al

agua, ésta escapa en cantidades cada vez mayores en forma de vapor, pero la

temperatura del líquido no varía.

El invento de la máquina de vapor (véase capítulo 9), coincidente más o menos con los

experimentos de Black, sirvió para que los científicos sintieran más interés hacia el

calor y la temperatura. Muchos empezaron a cavilar especulativamente sobre la

naturaleza del calor, tal como lo hicieran sobre la naturaleza de la luz.

En ambos casos —calor y luz— hubieron dos teorías. Una mantuvo que el calor era una

sustancia material que podía verterse o transmitirse de una sustancia a otra. Se la

denominó «calórico» del latín caloris, «calor». Según este criterio, cuando la madera

arde, su calórico pasa a la llama, y de ésta a la olla sobre la llama, y de ahí al agua

dentro de la olla. Cuando el agua se llena de calórico, se convierte en vapor.

Hacia fines del siglo XVIII dos famosas observaciones dieron nacimiento a la teoría de

que el calor es una forma de vibración. Una fue publicada por el físico y aventurero

americano Benjamin Thompson, un tory que abandonó el país durante la Revolución,

se ganó el título de conde de Rumgord, y luego vagabundeó por toda Europa. En el

año 1798, cuando se hallaba un momento inspeccionando la limpieza de unos cañones

en Baviera, percibió que se producían grandes cantidades de calor. Calculó que allí se

generaba suficiente calor para hacer hervir dieciocho libras de agua en menos de tres

horas. ¿De dónde procedía todo ese calórico? Thompson decidió que debía ser una

vibración provocada e intensificada por la fricción mecánica de la baqueta contra el

ánima.


308

Al año siguiente, el químico Humphrey Davy realizó un experimento más significativo

todavía. Manteniendo dos trozos de hielo bajo el punto de congelación los frotó uno

con otro, no a mano, sino mediante un artificio mecánico de modo que ningún calórico

pudiera transmitirse al hielo. La mera fricción bastó para derretir parte del hielo. Él

llegó también a la conclusión de que el calor debía ser una vibración y no una materia.

Realmente, aquel experimento debiera haber sido determinativo, pero la teoría del

calórico, aunque errónea a todas luces, subsistió hasta mediados del siglo XIX.



El calor como energía

No obstante, y aun cuando se desfiguró la naturaleza del calor, los científicos

puntualizaron algunos hechos importantes sobre él, tal como los investigadores de la

luz habían revelado interesantes facetas sobre la reflexión y la refracción de los rayos

luminosos antes de desentrañar su naturaleza. Jean-Baptiste-Joseph Fourier y

Nicholas-Léonard Sadi Carnot estudiaron en Francia el flujo del calor y dieron

importantes pasos adelante. De hecho se considera generalmente a Carnot como el

padre de la «termodinámica» (del griego therme y dynamiké, «movimiento del calor»).

Él proporcionó un firme fundamento teórico al funcionamiento de las máquinas de

vapor.


Carnot realizó su tarea en la década de 1820 a 1830. Hacia 1840, los físicos se

interesaron por dos cuestiones acuciantes: ¿Cómo aprovechar el calor transformado en

vapor para hacerle realizar el trabajo mecánico de mover un pistón? ¿Habría algún

límite para la cantidad de trabajo que pudiera obtenerse de una cantidad determinada

de calor? ¿Y qué pasaba con el proceso inverso? ¿Cómo convertir el trabajo en calor?

Joule pasó treinta y cinco años transformando diversas clases de trabajo en calor,

haciendo con sumo cuidado lo que Rumford había hecho antes muy a la ligera. Midió la

cantidad de calor producida por una corriente eléctrica. Calentó agua y mercurio

agitándolo con ruedas de paletas o haciendo entrar el agua a presión en estrechos

tubos. Calentó el aire comprimiéndolo, y así sucesivamente. En cada caso calculó

cuánto trabajo mecánico se había realizado con el sistema y cuánto calor se había

obtenido como resultado. Entonces descubrió que una cantidad determinada de

trabajo, cualquiera que fuese su clase, producía siempre una cantidad determinada de

calor, lo cual se denominaba «equivalente mecánico del calor».

Puesto que se podía convertir el calor en trabajo, justo era considerarlo como una

forma de «energía» (del griego enérgueia, «que contiene trabajo»). Electricidad,

magnetismo, luz y movimiento eran aplicables al trabajo y por tanto también formas

de energía. Y el propio trabajo, al ser transformable en calor, era asimismo una forma

de energía.

Todo ello hizo resaltar lo que se había sospechado más o menos desde los tiempos de

Newton: a saber, que la energía se «conservaba», y que no era posible crearla ni

destruirla. Así, pues, un cuerpo móvil tiene «energía cinética» («energía del

movimiento») término introducido por Lord Kelvin en 1856. Puesto que la gravedad

frena el movimiento ascendente de un cuerpo, la energía cinética de éste desaparece

lentamente. Sin embargo, mientras el cuerpo pierde energía cinética, gana energía de

posición, pues, en virtud de su elevada situación sobre la superficie terrestre, tiene

posibilidades de caer y recuperar la energía cinética. En 1853, el físico escocés William

John Macquorn Rankine denominó «energía potencial» a esa energía de posición. Al

parecer, la energía cinética de un cuerpo más su energía potencial (su «energía

mecánica») permanecían casi invariables durante el curso de su movimiento, y

entonces se llamó a este fenómeno «conservación de la energía mecánica». Sin

embargo, la energía mecánica no se conservaba perfectamente. Siempre había

pérdidas con la fricción, la resistencia al aire, etcétera.

Lo que el experimento de Joule demostró por encima de todo fue que semejante

conservación sería exacta cuando el calor se tomase en cuenta puesto que, cuando la

energía mecánica se pierde en fricción o por resistencia del aire, aparece como calor.

Si tomamos en cuenta el calor, se puede mostrar, sin cualificación, que no se crea una

nueva energía y que no se destruye ninguna energía antigua. El primero en dejar esto

309

claro fue un físico alemán, Julius Robert Mayer, en 1842, pero su respaldo



experimental fue reducido y carecía de unos importantes credenciales académicos.

(Incluso Joule, que era cervecero de profesión y que carecía asimismo de títulos

académicos, tuvo dificultades para ver publicado su meticuloso trabajo.)

No fue hasta 1847 cuando una suficientemente respetable figura académica dio

contenido a esa noción. En dicho año, Heinrich von Helmholtz enunció la ley de la

conservación de la energía: siempre que una cantidad de energía parezca desaparecer

de un lugar, una cantidad equivalente aparecerá en otro sitio. A esto se le llamó

también la primera ley de la termodinámica. Sigue siendo un poderoso cimiento de la

física moderna, al que no afectan ni la teoría de los cuantos ni la relatividad.

Ahora bien, aunque sea posible convertir en calor cualquier forma de trabajo, no puede

darse el proceso inverso. Cuando el calor se transforma en trabajo, una parte de él es

inservible y se pierde irremisiblemente. Al hacer funcionar una máquina de vapor, el

calor de éste se transforma en trabajo solamente cuando la temperatura del vapor

queda reducida a la temperatura del medio ambiente; una vez alcanzado ese punto ya

será posible convertirlo en trabajo, aunque haya todavía mucho calor remanente en el

agua fría formada por el vapor. Incluso al nivel de temperatura donde sea posible

extraer trabajo, una parte del calor no trabajará, sino que se empleará para caldear la

máquina y el aire circundante, para superar la fricción entre pistones y cilindros,

etcétera.

En toda conversión de energía —por ejemplo, energía eléctrica en energía luminosa,

energía magnética en energía cinética— se desperdicia parte de la energía. Pero no se

pierde; pues ello desvirtuaría la primera ley. Sólo se convierte en calor que se dispersa

por el medio ambiente.

La capacidad de cualquier sistema para desarrollar un trabajo se denomina «energía

libre». La cantidad de energía que se pierde inevitablemente como energía

inaprovechable se refleja en las mediciones de la «entropía», término creado en 1850

por el físico alemán Rudolf Julius Emmanuel Clausius.

Clausius indicó que en cualquier proceso relacionado con el flujo de energía hay

siempre alguna pérdida, de tal forma que la entropía del Universo aumenta sin cesar.

Este continuo aumento entrópico constituye la «segunda ley de la termodinámica».

Algunas veces se ha aludido a ella asociándola con los conceptos «agotamiento del

Universo» y «muerte calorífica del Universo». Por fortuna, la cantidad de energía

aprovechable (facilitada casi enteramente por las estrellas, que, desde luego, «se

desgastan» a un ritmo tremendo) es tan vasta que resultará suficiente para todos los

propósitos durante muchos miles de millones de años.



Calor y movimiento molecular

Finalmente, se obtuvo una noción clara sobre la naturaleza del calor con la noción

sobre la naturaleza atómica de la materia. Se fue perfilando cuando los científicos

percibieron que las moléculas integrantes de un gas estaban en continuo movimiento,

chocando entre sí y contra las paredes de su recipiente. El primer investigador que

intentó explicar las propiedades de los gases desde ese ángulo visual fue el

matemático suizo Daniel Bernoulli, en 1738, pero sus ideas se adelantaron a la época.

Hacia mediados del siglo XIX, Maxwell y Boltzmann (véase cap. 5) elaboraron

adecuadamente las fórmulas matemáticas y establecieron la «teoría cinética de los

gases» («cinética» proviene de una palabra griega que significa «movimiento»). Dicha

teoría mostró la equivalencia entre el calor y el movimiento de las moléculas. Así,

pues, la teoría calórica del calor recibió un golpe mortal. Se interpretó el calor cual un

fenómeno de vibratilidad; es decir, el movimiento de las moléculas en los gases y

líquidos o su agitado temblor en los sólidos.

Cuando se calienta un sólido hasta que el agitado temblor se intensifica lo suficiente

como para romper los lazos sustentadores entre moléculas vecinas, el sólido se funde

y pasa al estado líquido. Cuanto más resistente sea la unión entre las moléculas

vecinas de un sólido, tanto más calor se requerirá para hacerlas vibrar violentamente

310

hasta romper dichos lazos. Ello significará que la sustancia tiene un punto muy elevado



de fusión.

En el estado líquido, las moléculas pueden moverse libremente dentro de su medio.

Cuando se calienta gradualmente el líquido, los movimientos de las moléculas son al

fin lo bastante enérgicos para liberarlas del cuerpo líquido y entonces éste hierve.

Nuevamente el punto de ebullición será más elevado allá donde las fuerzas

intermoleculares sean más potentes.

Al convertir un sólido en líquido, toda la energía calorífica se aplica a romper los lazos

intermoleculares. De ahí que el calor absorbido por el hielo al derretirse no eleve la

temperatura del hielo. Lo mismo cabe decir de un líquido cuando hierve.

Ahora ya podemos ver fácilmente la diferencia entre calor y temperatura. Calor es la

energía total contenida en los movimientos moleculares de una determinada materia.

Temperatura representa la velocidad promedio del movimiento molecular en esa

materia. Así, pues, medio litro de agua a 60° C contiene dos veces más calor que un

cuarto de agua a 60° C (están vibrando doble número de moléculas), pero el medio

litro y el cuarto tienen idéntica temperatura, pues la velocidad promedio del

movimiento molecular es el mismo en ambos casos.

Hay energía en la propia estructura de un compuesto químico, es decir, en las fuerzas

aglutinantes que mantienen unidos los átomos o las moléculas a sus vecinos. Si esos

lazos se rompen para recomponerse en nuevos lazos implicando menos energía, la

energía sobrante se manifestará como calor, o luz, o ambas cosas. Algunas veces se

libera la energía tan rápidamente que se produce una explosión.

Se ha hecho posible calcular la energía química contenida en una sustancia y mostrar

cuál será la cantidad de calor liberada en una reacción determinada. Por ejemplo, la

combustión del carbón entraña la ruptura de los lazos entre los átomos de carbono y

entre los átomos de las moléculas de oxígeno, con los cuales se vuelve a combinar el

carbono. Ahora bien, la energía de los lazos en el nuevo compuesto (dióxido de

carbono) es inferior a la de los lazos en las sustancias originales que lo formaron. Esta

diferencia mensurable se libera bajo la forma de calor y luz.

En 1876, el físico norteamericano Josiah Willard Gibbs desarrolló con tal detalle la

teoría de la «termodinámica química» que esta rama científica pasó súbitamente de la

inexistencia virtual a la más completa madurez.

La enjundiosa tesis donde Gibbs expuso sus razonamientos superó con mucho a otras

de cerebros norteamericanos, y, no obstante, fue publicada tras muchas vacilaciones

en las Transactions ofthe Connecticut Academy ofArts and Sciences. Incluso algún

tiempo después sus minuciosos argumentos matemáticos y la naturaleza introvertida

del propio Gibbs se combinaron para mantener oculto el tema bajo otros muchos

documentos hasta que el físico y químico alemán Wilhelm Ostwald descubrió la tesis en

1883, la tradujo al alemán y proclamó ante el mundo la grandeza de Gibbs.

Como ejemplo de la importancia de ese trabajo baste decir que las ecuaciones Gibbs

expusieron las reglas simples, pero rigurosas, bajo cuyo gobierno se establece el

equilibrio entre sustancias diferentes que intervienen a la vez en más de una fase (por

ejemplo, forma sólida y en solución, en dos líquidos inmiscibles y un vapor, etc.). Esta

«regla de fases» es un soplo vital para la metalurgia y otras muchas ramas de la

Química.


RELACIÓN MASA-ENERGÍA

Con el descubrimiento de la radiactividad en 1896 (véase capítulo 6) se planteó una

nueva cuestión sobre energía. Las sustancias radiactivas uranio y torio desprendían

partículas dotadas de sorprendente energía. Por añadidura, Marie Curie descubrió que

el radio emitía incesantemente calor en cantidades sustanciales: una onza de radio

proporcionaba 4.000 calorías por hora, y esa emisión se prolongaba hora tras hora,

semana tras semana, década tras década. Ni la reacción química más energética

311


conocida hasta entonces podía producir una millonésima parte de la energía liberada

por el radio. Y aún había algo más sorprendente: a diferencia de las reacciones

químicas, esa producción de energía no estaba asociada con la temperatura.

¡Proseguía sin variación a la muy baja temperatura del hidrógeno líquido como si ésta

fuera una temperatura ordinaria!

Evidentemente había aparecido una especie insólita de energía sin relación alguna con

la energía química. Por fortuna los físicos no tardaron mucho en conocer la respuesta.

Una vez más la dio Einstein con su Teoría especial de la relatividad.

El tratamiento matemático einsteiniano de la energía evidenció que se podía considerar

la masa como una forma de energía, y por cierto muy concentrada, pues una ínfima

cantidad de masa se convertía en inmensas cantidades de energía.

La ecuación de Einstein, relacionando masa y energía, figura hoy entre las más

famosas del mundo. Dice así:

e = mc2


Aquí, e representa la energía (en ergios); m, la masa (en gramos), y c, la velocidad de

la luz (expresada en centímetros por segundo).

Puesto que la luz se traslada a treinta mil millones de centímetros por segundo, el

valor de c2 es 900 mil millones de millones. Ello significa que la conversión de 1 gramo

de masa en energía producirá 900 mil millones de ergios. El ergio es una pequeña

unidad de energía inexpresable en términos corrientes, pero podemos imaginar su

significado si sabemos que la energía contenida en 1 g de masa basta para mantener

encendida una bombilla eléctrica de 1.000 W durante 2.850 años. O, expresándolo de

otra forma, la conversión completa de 1 g de masa en ergio dará un rendimiento

equivalente al de 2.000 toneladas de gasolina.

La ecuación de Einstein destruyó una de las sagradas leyes científicas de conservación.

En efecto, la «ley de conservación de masas», establecida por Lavoisier, decretaba que

no se podía crear ni destruir la materia. A decir verdad, toda reacción química

liberadora de energía transforma una pequeña cantidad de masa en energía: si

pudiéramos pesar con absoluta precisión sus productos, la suma total de éstos no sería

igual a la materia original. Pero la masa perdida en las reacciones químicas ordinarias

es tan ínfima, que los químicos del siglo XIX no habrían podido detectarla con sus

limitados procedimientos técnicos. Sin embargo, ahora los físicos afrontaron un

fenómeno totalmente distinto: la reacción nuclear de la radiactividad, y no la reacción

química del carbón combustible. Las reacciones nucleares libraron tanta energía, que la

pérdida de masa fue lo suficientemente grande como para hacer mediciones.

Abogando por el intercambio de masa y energía, Einstein fundió las leyes de

conservación de energía y de masa en una sola ley: La conservación de masa-energía.

La primera ley de termodinámica no sólo se mantuvo incólume, sino que fue también

más inexpugnable que nunca.

Francis W. Aston confirmó experimentalmente la conversión de masa en energía

mediante su espectrógrafo de masas. Éste podía medir con gran precisión la masa de

núcleos atómicos tomando como base la magnitud de su deflexión por un campo

magnético. Lo que realmente hizo Aston fue demostrar que los diversos núcleos no

eran múltiplos exactos de las masas de neutrones y protones incorporados a su

estructura.

Consideremos por un momento las masas de esos neutrones y protones. Durante un

siglo se han medido generalmente las masas de átomos y partículas subatómicas

dando por supuesto, como base, que el peso atómico del oxígeno es exactamente de

16,00000 (véase capítulo 6). Sin embargo, en 1929, William Giauque demostró que el

oxígeno estaba constituido por 3 isótopos: el oxígeno 16, el oxígeno 17 y el oxígeno

18, y que su peso atómico era el peso promedio de los números másicos de esos tres

312


isótopos.

A buen seguro, el oxígeno 16 era el más abundante de los tres, con el 99,759 % en

todos los átomos de oxígeno. Ello significaba que si el oxígeno tenía un peso atómico

general de 16,00000, el isótopo oxígeno 16 debería tener un número másico de casi

16. (Las masas de las cantidades menores de oxígeno 17 y oxígeno 18 completaban al

valor total, hasta 16.) Una generación después del descubrimiento, los químicos

siguieron comportándose como si no existiera, ateniéndose a la antigua base, es decir,

lo que se ha dado en llamar «pesos atómicos químicos».

Sin embargo, la reacción de los físicos fue distinta. Prefirieron asignar exactamente el

valor 16,0000 a la masa del isótopo oxígeno 16 y determinar las restantes masas

sobre tal base. Ésta permitiría especificar los «pesos atómicos físicos». Tomando, pues,

como base el oxígeno 16 igual al patrón 16, el peso atómico del propio oxígeno, con

sus indicios de isótopos más pesados, fue 16,0044. En general, los pesos atómicos

físicos de todos los elementos serían un 0,027 % más elevados que los de sus

sinónimos, los pesos atómicos químicos.

En 1961, los físicos y los químicos llegaron a un compromiso. Se acordó determinar los

pesos atómicos sobre la base del isótopo carbono 12, al que se daría una masa

12,0000. Así, los números atómicos se basaron en un número másico característico y

adquirieron la mayor solidez fundamental posible. Por añadidura, dicha base mantuvo

los pesos atómicos casi exactamente como eran antes con el antiguo sistema. Por

ejemplo, sobre la base del carbono 12 igual al patrón 12, el peso atómico del oxígeno

es 15,9994.

Bien. Comencemos entonces por el átomo del carbono 12, cuya masa es igual a

12,0000. Su núcleo contiene 6 protones y 6 neutrones. Por las medidas

espectrográficas de masas resulta evidente que, sobre la base del carbono 12 igual al

patrón 12, la masa del protón en 1,007825, y la de un neutrón, 1,008665. Así, pues, 6

protones deberán tener una masa de 6,046950 y 6 neutrones, 6,051990. Los 12

nucleones juntos tendrán una masa de 12,104940. Pero la masa del carbono 12 es

12,00000. ¿Dónde ha ido a parar esa fracción de 0,104940?

La masa desaparecida es el «defecto de masa», el cual, dividido por el número másico,

nos da el defecto de masa por nucleón o la «fracción empaquetadora». Realmente la

masa no ha desaparecido, claro está. Se ha convertido en energía según la ecuación

de Einstein y, por tanto, el defecto de masa es también la «energía aglutinadora» del

núcleo. Para desintegrar el núcleo en protones y neutrones individuales se requiere

una cantidad entrante de energía igual a la energía aglutinadora, puesto que se deberá

formar una cantidad de masa equivalente a esa energía.

Aston determinó la «fracción empaquetadora» de muchos núcleos, y descubrió que

ésta aumentaba desde el hidrógeno hasta los elementos próximos al hierro y luego

disminuía con lentitud en el resto de la tabla periódica. Dicho de otra forma: la energía

aglutinadora por nucleón era más elevada en el centro de la tabla periódica. Ello

significaba que la conversión de un elemento situado en un extremo u otro de la tabla

en otro próximo al centro, debería liberar energía.

Tomemos por ejemplo el uranio 238. Este núcleo se desintegra mediante una serie de

eslabones en plomo 206. Durante tal proceso emite 8 partículas alfa. (También cede

partículas beta, pero éstas son tan ligeras, que se las puede descartar.) Ahora bien, la

masa del plomo 206 es 205,9745, y las 8 partículas alfa dan una masa total de

32,0208. Estos productos juntos totalizan 237,9953 de masa. Pero la del uranio 238,

de donde proceden, es 238,0506. La diferencia o pérdida de masa es 0,0553. Esta

pérdida de masa tiene la magnitud suficiente como para justificar la energía liberada

cuando se desintegra el uranio.

Al desintegrarse el uranio en átomos todavía más pequeños, como le ocurre con la

fisión, libera una cantidad mucho mayor de energía. Y cuando el hidrógeno se

convierte en helio, tal como se encuentra en las estrellas, hay una pérdida fraccional

aún mayor de masa y, consecuentemente, un desarrollo más rico de energía.

313

Por entonces, los físicos empezaron a considerar la equivalencia masa-energía como



una contabilidad muy fiable.

Citemos un ejemplo. Cuando se descubrió el positrón en 1934, su aniquilamiento

recíproco con un electrón produjo un par de rayos gamma cuya energía fue

precisamente igual a la masa de las dos partículas. Por añadidura, se pudo crear masa

con las apropiadas cantidades de energía. Un rayo gamma de adecuada energía,

desaparecería en ciertas condiciones, para originar una «pareja electrón-positrón»

creada con energía pura. Mayores cantidades de energía proporcionadas por partículas

cósmicas o partículas expulsadas de sincrotones protón (véase capítulo 7),

promoverían la creación de más partículas masivas, tales como mesones y

antiprotones.

A nadie puede sorprender que cuando el saldo contable no cuadre, como ha ocurrido

con la emisión de partículas beta poseedoras de una energía inferior a la esperada, los

físicos inventen el neutrino para nivelar las cuentas de energía en vez de atrepellar la

ecuación de Einstein (véase capítulo 7).

Y si alguien requiriera una prueba adicional sobre la conversión de masa en energía,

bastaría con referirse a la bomba atómica, la cual ha remachado ese último clavo.

PARTÍCULAS Y ONDAS

En la década de los años veinte de nuestro siglo, el dualismo reinó sin disputa sobre la

Física. Planck había demostrado que la radiación tenía carácter de partícula y onda a

partes iguales. Einstein había demostrado que la masa y energía eran dos caras de la

misma moneda y que espacio y tiempo eran inseparables. Los físicos empezaban a

buscar otros dualismos.

En 1923, el físico francés Louis-Víctor de Broglie consiguió demostrar que así como una

radiación tenía características de partículas, las partículas de materia tal como los

electrones presentaban características de ondas. Las ondas asociadas a esas partículas

—predijo Broglie— tendrían una longitud inversamente proporcional al momento de la

partícula. Las longitudes de onda asociadas a electrones de velocidad moderada deben

hallarse, según calculó Broglie, en la región de los rayos X.

Hasta esa sorprendente predicción pasó a la historia en 1927. Clinton Joseph Davisson

y Lester Halbert Germer, de los «Bell Telephone Laboratories», bombardearon níquel

metálico con electrones. Debido a un accidente de laboratorio que había hecho

necesario el calentamiento del níquel durante largo tiempo, el metal había adoptado la

forma de grandes cristales, una estructura ideal para los ensayos de difracción porque

el espacio entre átomos en un cristal es comparable a las cortísimas longitudes de

onda de los electrones. Y, efectivamente, los electrones, al pasar a través de esos

cristales, no se comportaron como partículas, sino como ondas. La película colocada

detrás del níquel mostró esquemas de interferencia, bandas alternativas opacas y

claras, tal como habrían aparecido si hubieran sido rayos X y no electrones los que

atravesaron el níquel.

Los esquemas de interferencias eran precisamente los que usara Young más de un

siglo antes para probar la naturaleza ondulatoria de la luz. Ahora servían para probar

la naturaleza ondulatoria de los electrones. Midiendo las bandas de interferencia se

pudo calcular la longitud de onda asociada con los electrones, y esta longitud resultó

ser de 1,65 unidades Angstróm (casi exactamente lo que había previsto Broglie).

Durante aquel mismo año, el físico británico George Paget Thomson, trabajando

independientemente y empleando métodos diferentes, demostró asimismo que los

electrones tienen propiedades ondulatorias.

De Broglie recibió el premio Nobel de Física en 1929; Davisson y Thomson

compartieron ese mismo galardón en 1937.

314


El microscopio electrónico

El descubrimiento, totalmente inesperado, de ese nuevo dualismo, recibió casi

inmediata aplicación en las observaciones microscópicas. Según he mencionado ya, los

microscopios ópticos ordinarios pierden toda utilidad cuando se llega a cierto punto,

porque hay un límite dimensional más allá del cual las ondas luminosas no pueden

definir claramente los objetos. Cuanto más pequeños sean los objetos, más indistintos

serán sus perfiles, pues las ondas luminosas empezarán a contornearlos —algo

señalado, en primer lugar, por el físico alemán Ernst Karl Abbe en 1878—. (Por

idéntica razón; la onda larga radioeléctrica nos transmite un cuadro borroso incluso de

grandes objetos en el cielo.) Desde luego, el remedio consiste en buscar longitudes de

onda más cortas para investigar objetos ínfimos. Los microscopios de luz corriente

pueden distinguir dos franjas de 1/5.000 de milímetro, pero los microscopios de luz

ultravioleta pueden distinguir franjas separadas de 1/10.000 de mm. Los rayos X

serían más eficaces todavía, pero no hay lentes para rayos X. Sin embargo, se podría

solventar este problema usando ondas asociadas con electrones que tienen más o

menos la misma longitud de onda que los rayos X, pero se dejan manejar mucho

mejor, pues, por lo pronto, un campo magnético puede curvar los «rayos electrónicos»

porque las ondas se asocian con una partícula cargada.

Así como el ojo humano ve la imagen amplificada de un objeto si se manejan

apropiadamente con lentes los rayos luminosos; una fotografía puede registrar la

imagen amplificada de un objeto si se manejan apropiadamente con campos

magnéticos las ondas electrónicas. Y como quiera que las longitudes de ondas

asociadas a los electrones son mucho más pequeñas que las de la luz ordinaria, es

posible obtener con el «microscopio electrónico» una enorme amplificación, y, desde

luego, muy superior a la del miscroscopio ordinario (fíg. 8.5).

En 1932, Ernst Ruska y Max Knoll, de Alemania, construyeron un microscopio

electrónico rudimentario, pero el primero realmente utilizable se montó, en 1937, en la

Universidad de Toronto, y sus diseñadores fueron James Hillier y Albert F. Prebus.

Aquel instrumento pudo ampliar 7.000 veces un objeto, mientras que los mejores

microscopios ópticos tienen su máximo poder amplificador en la cota 2.000. Allá por

1939, los microscopios electrónicos fueron ya asequibles comercialmente; más tarde,

Hillier y otros diseñaron microscopios electrónicos con suficiente potencia para

amplificar 2.000.000 de veces un objeto.

Mientras que un microscopio electrónico enfoca a los electrones en el objetivo y los

hace pasar a través del mismo, otra clase la constituyó un rayo de electrones que

pasaba rápidamente por encima del objetivo, barriéndolo de la misma forma en que lo

hace un rayo electrónico en el tubo de imagen de un televisor. Tal microscopio

electrónico de barrido fue sugerido ya en 1938 por Knoll, pero el primer aparato

práctico de esta clase lo construyó el físico britániconorteamericano Albert Víctor

Crewe hacia 1970. El microscopio electrónico de barrido daña menos el objetivo

observado, muestra el objeto con un mayor efecto tridimensional y se consiguen así

más informaciones, e incluso se muestra la posición de los átomos individuales de las

variedades mayores.

315

Electrones y ondas

Nadie se habría sorprendido si ese dualismo partícula-onda funcionara a la inversa, de

tal forma que los fenómenos conceptuados ordinariamente como de naturaleza

ondulatoria tuvieran asimismo características corpusculares. Planck y Einstein habían

mostrado ya que la radiación se componía de cuantos, los cuales, a su manera, son

también partículas. En 1923, Compton, el físico que probaría la naturaleza corpuscular

316

de los rayos cósmicos (véase capítulo 7), demostró que esos cuantos poseían algunas



cualidades corpusculares comunes. Descubrió que los rayos X, al dispersarse en la

materia, perdían energía y adquirían mayor longitud de onda. Eso era justamente lo

que cabía esperar de una radiación «corpuscular» que rebotara contra una materia

corpuscular; la materia corpuscular recibe un impulso hacia delante y gana energía, y

el rayo X, al desviarse, la pierde. El «efecto Compton» contribuyó al establecimiento

del dualismo onda-partícula.

Las ondas corpusculares dejaron entrever también importantes consecuencias para la

teoría. Por lo pronto esclarecieron algunos enigmas sobre la estructura del átomo.

En 1913, Niels Bohr había descrito el átomo de hidrógeno cual un núcleo central

rodeado por un electrón que podía girar en torno suyo siguiendo cualquiera de diversas

órbitas. Estas órbitas ocupaban posiciones fijas; cuando un electrón de hidrógeno

pasaba de una órbita externa a otra interna, perdía energía, que luego era emitida en

forma de un cuanto de longitud de onda fija. Si el electrón se movía de una órbita

interna a otra externa, absorbía un cuanto de energía, pero sólo uno de longitud de

onda y tamaño específicos, es decir, lo suficiente para hacerle moverse en la medida

adecuada. Ésa era la razón de que el hidrógeno pudiera absorber o emitir sólo

radiaciones de determinadas longitudes de onda, produciendo raras características en

el espectro. El esquema de Bohr, cuya complejidad se acentuó paulatinamente durante

la siguiente década, evidenció suma utilidad para explicar muchos hechos sobre el

espectro de varios elementos. Esta teoría le valió a Bohr el premio Nobel de Física en

1922. Los físicos alemanes James Franck y Gustav Ludwig Hertz (este último, sobrino

de Heinrich Hertz) —cuyos estudios sobre las colisiones entre átomos y electrones

dieron unos fundamentos experimentales a las teorías de Bohr— compartieron el

premio Nobel de Física en 1925.

Bohr no supo explicar por qué las órbitas ocupaban posiciones fijas. Se limitó a elegir

las órbitas que dieran resultados correctos respecto a la absorción y emisión de las

longitudes de ondas luminosas sometidas a observación.

En 1926, el físico alemán Erwin Schródinger decidió echar otra ojeada al átomo

inspirándose en la teoría de De Broglie sobre la naturaleza ondulatoria de las

partículas. Considerando el electrón como una onda, se dijo que éste no giraba

alrededor del núcleo como lo hace un planeta alrededor del Sol, sino constituyendo una

onda, que se curvaba alrededor del núcleo de tal forma que estaba a un tiempo, por

así decirlo, en todas las partes de su órbita. Resultó que, tomando como base la

longitud de onda predicha por De Broglie para un electrón, un número entero de ondas

electrónicas se ajustaba exactamente a las órbitas delineadas por Bohr. Entre estas

órbitas, las ondas no se ajustaron en un número entero, sino que se incorporaron

«desfasadas», y tales órbitas carecieron de estabilidad.

Schródinger ideó una descripción matemática del átomo, denominada «mecánica

ondulatoria» o «mecánica cuántica», un método bastante más satisfactorio que el

sistema de Bohr para contemplar el átomo. Schródinger compartió el premio Nobel de

Física en 1933 con Dirac, quien concibiera la teoría de las antipartículas (véase capítulo

7) y contribuyera al desarrollo de ese nuevo panorama del átomo. El físico alemán Max

Born, que coadyuvó al desarrollo matemático de la mecánica cuántica, compartió el

premio Nobel de Física en 1954 (con Bethe).



El principio de incertibumbre

Por aquellas fechas, el electrón se había convertido en una «partícula» bastante difusa.

Y esa ambigüedad habría de empeorar muy pronto. Werner Heisenberg, de Alemania,

planteó una profunda cuestión, que casi proyecto las partículas y la propia Física al

reino de lo incognoscible.

Heisenberg había presentado su propio modelo de átomo renunciando a todo intento

de describir el átomo como un compuesto de partículas y ondas. Pensó que estaba

condenado al fracaso cualquier intento de establecer analogías entre la estructura

atómica y la estructura del mundo. Prefirió describir los niveles de energía u órbitas de

317


electrones en términos numéricos puros, sin la menor traza de esquemas. Como quiera

que usó un artificio matemático denominado «matriz» para manipular sus números, el

sistema se denominó «mecánica de matriz».

Heisenberg recibió el premio Nobel de Física en 1932 por sus aportaciones a la

mecánica ondulatoria de Schródinger, pues esta última pareció tan útil como las

abstracciones de Heisenberg, y siempre es difícil, incluso para un físico, desistir de

representar gráficamente las propias ideas.

Hacia 1944, los físicos parecieron dispuestos a seguir el procedimiento más correcto,

pues el matemático húngaro-estadounidense John von Neumann expuso una línea

argumental que pareció evidenciar la equivalencia matemática entre la mecánica

matriz y la mecánica ondulatoria. Todo cuanto demostraba la una, lo podía demostrar

igualmente la otra. ¿Por qué no elegir, pues, la versión menos abstracta?

Una vez presentada la mecánica matriz (para dar otro salto atrás en el tiempo)

Heisenberg pasó a considerar un segundo problema: cómo describir la posición de la

partícula. ¿Cuál es el procedimiento indicado para determinar dónde está una

partícula? La respuesta obvia es ésta: observarla. Pues bien, imaginemos un

microscopio que pueda hacer visible un electrón. Si lo queremos ver debemos

proyectar una luz o alguna especie de radiación apropiada sobre él. Pero un electrón es

tan pequeño, que bastaría un solo fotón de luz para hacerle cambiar de posición

apenas lo tocara. Y en el preciso instante de medir su posición, alteraríamos ésta.

Éste es un fenómeno bastante frecuente en la vida ordinaria. Cuando medimos la

presión de un neumático con un manómetro, dejamos escapar algo de aire y, por

tanto, cambiamos la presión ligeramente en el mismo acto de medirla. Asimismo,

cuando metemos un termómetro cambia levemente esa temperatura al absorber calor.

Un contador de corriente eléctrica roba un poco de corriente para mover la manecilla

sobre la esfera. Y así ocurre siempre en cada medida que tomemos.

Sin embargo, el cambio del sujeto es tan ínfimo en todas nuestras mediciones

ordinarias, que podemos despreciarlo. Ahora bien, la situación varía mucho cuando

intentamos calibrar el electrón. Aquí nuestro artificio medidor es por lo menos tan

grande como el objeto que medimos; y no existe ningún agente medidor más pequeño

que el electrón. En consecuencia, nuestra medición debe surtir, sin duda, un efecto

nada desdeñable, un efecto más bien decisivo en el objeto medido. Podríamos detener

el electrón y determinar así su posición en un momento dado. Pero si lo hiciéramos, no

sabríamos cuál es su movimiento ni su velocidad. Por otra parte, podríamos gobernar

su velocidad, pero entonces no podríamos fijar su posición en un momento dado.

Heisenberg demostró que no nos será posible idear un método para localizar la

posición de la partícula subatómica mientras no estemos dispuestos a aceptar la

incertidumbre absoluta respecto a su posición exacta. Es un imposible calcular ambos

datos con exactitud al mismo tiempo.

Siendo así, no podrá haber una ausencia completa de energía ni en el cero absoluto

siquiera. Si la energía alcanzara el punto cero y las partículas quedaran totalmente

inmóviles, sólo sería necesario determinar su posición, puesto que la velocidad

equivaldría a cero. Por tanto, sería de esperar que subsistiera alguna «energía residual

del punto cero», incluso en el cero absoluto, para mantener las partículas en

movimiento y también, por así decirlo, nuestra incertidumbre. Esa energía «punto

cero» es lo que no se puede eliminar, lo que basta para mantener líquido el helio

incluso en el cero absoluto (véase capítulo 6).

En 1930, Einstein demostró que el principio de incertidumbre —donde se afirma la

imposibilidad de reducir el error en la posición sin incrementar el error en el

momento— implicaba también la imposibilidad de reducir el error en la medición de

energía sin acrecentar la incertidumbre del tiempo durante el cual se toma la medida.

Él creyó poder utilizar esta tesis como trampolín para refutar el principio de

incertidumbre, pero Bohr procedió a demostrar que la refutación tentativa de Einstein

era errónea.

318

A decir verdad, la versión de la incertidumbre, según Einstein, resultó ser muy útil,



pues significó que en un proceso subatómico se podía violar durante breves lapsos la

ley sobre conservación de energía siempre y cuando se hiciese volver todo al estado de

conservación cuando concluyesen esos períodos: cuanto mayor sea la desviación de la

conservación, tanto más breves serán los intervalos de tiempo tolerables. Yukawa

aprovechó esta noción para elaborar su teoría de los piones (véase capítulo 7). Incluso

posibilitó la elucidación de ciertos fenómenos subatómicos presuponiendo que las

partículas nacían de la nada como un reto a la conservación de la energía, pero se

extinguían antes del tiempo asignado a su detección, por lo cual eran sólo «partículas

virtuales». Hacia fines de la década 1940-1950, tres hombres elaboraron la teoría

sobre esas partículas virtuales: fueron los físicos norteamericanos Julián Schwinger y

Richard Phillips Feynman y el físico japonés Sinitiro Tomonaga. Para recompensar ese

trabajo, se les concedió a los tres el premio Nobel de Física en 1965.

A partir de 1976 se han producido especulaciones acerca de que el Universo comenzó

con una pequeña pero muy masiva partícula virtual que se expandió con extrema

rapidez y que aún sigue existiendo. Según este punto de vista, el Universo se formó de

la Nada y podemos preguntarnos acerca de la posibilidad de que haya un número

infinito de Universos que se formen (y llegado el momento acaben) en un volumen

infinito de Nada.

El «principio de incertidumbre» afectó profundamente al pensamiento de los físicos y

los filósofos. Ejerció una influencia directa sobre la cuestión filosófica de «casualidad»

(es decir, la relación de causa y efecto). Pero sus implicaciones para la Ciencia no son

las que se suponen por lo común. Se lee a menudo que el principio de incertidumbre

anula toda certeza acerca de la naturaleza y muestra que, al fin y al cabo, la Ciencia

no sabe ni sabrá nunca hacia dónde se dirige, que el conocimiento científico está a

merced de los caprichos imprevisibles de un Universo donde el efecto no sigue

necesariamente a la causa. Tanto si esta interpretación es válida desde el ángulo visual

filosófico como si no, el principio de incertidumbre no ha conmovido la actitud del

científico ante la investigación. Si, por ejemplo, no se puede predecir con certeza el

comportamiento de las moléculas individuales en un gas, también es cierto que las

moléculas suelen acatar ciertas leyes, y su conducta es previsible sobre una base

estadística, tal como las compañías aseguradoras calculan con índices de mortalidad

fiables, aunque sea imposible predecir cuándo morirá un individuo determinado.

Ciertamente, en muchas observaciones científicas, la incertidumbre es tan

insignificante comparada con la escala correspondiente de medidas, que se la puede

descartar para todos los propósitos prácticos. Uno puede determinar simultáneamente

la posición y el movimiento de una estrella, o un planeta, o una bola de billar, e incluso

un grano de arena con exactitud absolutamente satisfactoria.

Respecto a la incertidumbre entre las propias partículas subatómicas, cabe decir que

no representa un obstáculo, sino una verdadera ayuda para los físicos. Se la ha

empleado para esclarecer hechos sobre la radiactividad, sobre la absorción de

partículas subatómicas por los núcleos, así como otros muchos acontecimientos

subatómicos, con mucha más racionabilidad de lo que hubiera sido posible sin el

principio de incertidumbre.

El principio de incertidumbre significa que el Universo es más complejo de lo que se

suponía, pero no irracional.


Yüklə 3,98 Mb.

Dostları ilə paylaş:
1   ...   31   32   33   34   35   36   37   38   ...   42




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©genderi.org 2024
rəhbərliyinə müraciət

    Ana səhifə