Isaac Asimov nueva guía de la ciencia ciencias físicas



Yüklə 3,98 Mb.
səhifə38/42
tarix10.12.2017
ölçüsü3,98 Mb.
#14975
1   ...   34   35   36   37   38   39   40   41   42

Allá por 1877, un año después de inventarse el teléfono, Edison patentó su

«fonógrafo». En las primeras grabaciones se marcó el surco sobre papel de estaño,

que servía como envoltura de un cilindro rotatorio. En 1885, el inventor americano

Charles Sumner Tainter lo sustituyó por cilindros de cera; más tarde, en 1887, Emile

Berliner impuso los discos revestidos de cera. En 1925 se empezó a hacer grabaciones

por medio de electricidad, empleando un «micrófono» que transformaba el sonido en

corriente eléctrica mimética por medio de un cristal piezoeléctrico que sustituyó el

diafragma metálico; este cristal favoreció la reproducción del sonido y mejoró su

calidad. En la década de 1930, el físico hungaroamericano Peter Goldmark desarrolló el



disco de larga duración, que giraba a 33,5 vueltas por minuto en vez de a las 78 r.p.m.

de hasta entonces. Un disco LP (larga duración) sencillo podía contener seis veces más

música que uno de la antigua clase, y eso hizo posible escuchar sinfonías sin la

necesidad repetida de darles la vuelta a los discos y cambiarlos.

La electrónica hizo posible la alta fidelidad (hi-fi) y el sonido estereofónico, que tuvo el

efecto, en cuanto se refería al mismo sonido, de eliminar prácticamente todas las

barreras mecánicas entre la orquesta o cantante y el oyente.

La «grabación magnetofónica» del sonido fue un invento llevado a cabo en 1898 por el

ingeniero electrotécnico danés Valdemar Poulsen, pero hubo que introducir en el

invento varias mejoras técnicas para que éste tuviera aplicación práctica. Una

electromagneto, que responde a una corriente eléctrica portadora del esquema sonoro,

magnetiza una fina capa de polvo metálico sobre una cinta o alambre que circula a

través de ella; luego se invierte el sentido de la marcha mediante un electroimán, que

recoge la huella magnética para traducirla de nuevo en la corriente que reproducirá el

sonido.

La luz artificial antes de la electricidad

Entre todos los milagros de la electricidad, el más popular es, sin duda, la

transformación de la noche en día. El género humano se ha defendido con hogueras,

antorchas y velas contra el diario e inquietante oscurecimiento del Sol; durante

milenios, la luz artificial fue mediocre y oscilante.

El siglo XIX introdujo algunos avances en esos métodos de iluminación de las viejas

épocas. El aceite de ballena y luego el queroseno comenzaron a emplearse en las

lámparas de aceite, con mayor brillo y eficiencia. El químico austríaco Karl Auer, barón

333

de Welsbach, descubrió que si un cilindro de tejido, impregnado con compuestos de



torio y cerio, se colocaba alrededor de la llama de una lámpara, brillaría con mayor

blancura. Esto fue el manguito Welsbach, patentado en 1885 y que aumentó

notablemente el brillo de las lámparas de petróleo.

A principios de siglo, la iluminación por gas fue introducida por el inventor escocés

William Murdock. Hizo salir gas de carbón en chorro, para que se encendiese al salir.

En 1802, celebró una paz temporal con Napoleón instalando un espectacular

despliegue de luces de gas y, en 1803, de forma rutinaria instaló en las principales

fábricas dicha iluminación. En 1807, algunas calles de Londres comenzaron a tener luz

de gas, y la costumbre se extendió. A medida que avanzaba el siglo, las grandes

ciudades fueron cada vez más luminosas por la noche, reduciendo los índices de

delincuencia y ampliando la seguridad de los ciudadanos.

El químico norteamericano Robert Haré descubrió que una cálida luz de gas que se

hacía pasar por un bloque de óxido de calcio (cal) producía una brillante luz blanca.

Semejante luz de calcio empezó a utilizarse para iluminar grandes escenarios teatrales

hasta un nivel mucho más luminoso de lo que fuera posible hasta entonces. Aunque

esta técnica ya hace mucho tiempo que quedó anticuada, la gente que se encuentra en

un momento de gran publicidad aún se dice que se halla «a la luz de las candilejas»,

en recuerdo de esa primera aplicación teatral.

Todas esas formas de iluminación, desde las hogueras hasta el chorro de gas, implican

llamas al aire libre. Debía de haber algún mecanismo para encender el combustible —

ya fuera madera, carbón, petróleo o gas— cuando no existía una llama en las

proximidades. Antes del siglo XIX, el método menos laborioso era el empleo del

pedernal y el eslabón. Al hacer chocar uno contra otro, se lograba una chispa que

permitía, con suerte, encender un poco de yesca (un material finamente dividido e

inflamable) con el que, a su vez, encender una candela, etc.

A principios del siglo XIX, los químicos comenzaron a idear métodos para revestir el

extremo de un trozo de madera con productos químicos, que pudiesen encenderse en

forma de llama cuando se elevaba la temperatura. La fricción podía hacer las veces de

esto, y «frotando una cerilla» sobre una superficie rugosa se producía una llama.

Las primeras cerillas humeaban horriblemente, producían malos olores y empleaban

productos químicos que eran peligrosamente venenosos. Las cerillas comenzaron a ser

realmente seguras para su empleo en 1845, cuando el químico austríaco Antón Ritter

von Schrotter empleó el fósforo rojo para estos propósitos. Llegado el momento se

desarrollaron los fósforos de seguridad, en los que se colocaba fósforo rojo en una tira

rugosa en algún lugar de la caja que contenía las cerillas, mientras que el fósforo en sí

tenía en su cabeza los otros productos químicos necesarios. Ni la tira ni la cerilla

podían arder espontáneamente, excepto cuando, al frotarse contra aquella tirilla, la

cerilla se encendía.

Hubo también un regreso al eslabón y al pedernal, con cruciales mejoras. En lugar del

eslabón se emplea mischmetal, una mezcla de metales (principalmente cerio) que, al

ser frotado contra una ruedecita, emite unas chispas particularmente calientes. En

lugar de la yesca se empleó un fácilmente inflamable combustible para fluido. El

resultado es el encendedor para cigarrillos.

Luz eléctrica

Las llamas al aire libre son otra clase de cosa parpadeante y existe un continuo peligro

de incendio. Se necesitaba algo nuevo por completo, y hacía ya mucho tiempo que se

observaba que la electricidad podía originar luz. Las botellas de Leyden originaban

chispas cuando se descargaban; la corriente eléctrica hacía a veces relucir los cables al

pasar por los mismos. Ambos sistemas fueron utilizados para la iluminación.

En 1805, Humphry Davy forzó una descarga eléctrica a través del espacio aéreo entre

conductores. Al mantener la corriente, la descarga era continua y se conseguía un arco



eléctrico. A medida que la electricidad se hizo más barata, fue también posible emplear

334


arcos eléctricos con fines de iluminación. En los años 1870, las calles de París y de

otras grandes ciudades poseían semejantes lámparas. La luz era dura, parpadeante y

también seguía al aire libre, lo cual constituía una vez más un peligro de incendio.

Sería mejor conseguir que una corriente eléctrica calentase un cable delgado, o

filamento, hasta que empezase a brillar. Naturalmente, el filamento debería brillar en

un espacio libre de oxígeno, pues si no era así, la oxidación lo destruiría al instante.

Los primeros intentos para eliminar el oxígeno se redujeron al procedimiento directo

de extraer el aire. En 1875, Crookes ideó cierto método (relacionado con sus

experimentos sobre rayos catódicos; véase capítulo 7) para producir un vacío

suficiente a tal fin, con las necesarias rapidez y economía. No obstante, los filamentos

utilizados resultaron poco satisfactorios. Se rompieron con excesiva facilidad. En 1878,

Thomas Edison, animado por su reciente y triunfal invento del fonógrafo, se manifestó

dispuesto a abordar el problema. Tenía sólo treinta y un años por entonces, pero era

tanta su reputación como inventor, que su anuncio causó verdadero revuelo en las

Bolsas de Nueva York y Londres, haciendo tambalearse las acciones de las compañías

de gas.


Tras centenares de experimentos y muchos fracasos, Edison encontró, al fin, un

material útil como filamento: una hebra de algodón chamuscada. El 21 de octubre de

1879 encendió su lámpara. Ésta ardió sin interrupción durante cuarenta horas. En

vísperas de Año Nuevo, Edison presentó sus lámparas en triunfal exhibición pública,

iluminando la calle principal de Menlo Park (Nueva Jersey), donde había instalado su

laboratorio. Sin pérdida de tiempo, patentó su lámpara y empezó a producirla en

cantidad.

Sin embargo, Edison no fue el único inventor de la lámpara incandescente. Otro

inventor, por lo menos, pudo reclamar el mismo derecho: fue el inglés Joseph Swan,

quien mostró una lámpara con filamento de carbón, ante una junta de la «Newcastleon-

Tyne Chemical Society», el 18 de diciembre de 1878, si bien no logró comercializar

su invento hasta 1881.

Entonces Edison abordó un problema fundamental: abastecer los hogares con

cantidades constantes y suficientes de electricidad para sus lámparas, tarea que

requirió mucho más ingenio que la propia invención de la lámpara. Más tarde, esta

lámpara se benefició de dos mejoras. En 1910, William David Coolidge, de la «General

Electric Company» eligió el tungsteno, de escasa capacidad calorífica, para fabricar los

filamentos y, en 1913, Irving Laungmuir introdujo el nitrógeno de atmósfera inerte en

la lámpara para evitar toda evaporación, así como la rotura del filamento, tan

frecuente en el vacío (fig. 9.7).

El argón (cuyo uso se generalizó en 1920) sirve a ese propósito mejor que el

335


nitrógeno, pues su atmósfera es completamente inerte. El criptón, otro gas inerte, es

más eficiente todavía porque permite que el filamento de la lámpara resista muy

elevadas temperaturas y dé más densidad de luz al arder, sin que se acorte por ello su

duración.

Durante medio siglo, el cristal transparente de la bombilla eléctrica tuvo como

resultado que el filamento reluciese con fuerza y que resultase tan difícil de mirar

como el propio Sol. Un ingeniero químico, Marvin Pipikin, ideó un método práctico de

revestir el cristal de la bombilla por dentro (por el exterior tal revestimiento sólo servía

para recoger polvo y para oscurecer la luz). Al fin, el empleo de bombillas esmeriladas

producía una luz suave, agradable y sin parpadeos.

La llegada de la luz eléctrica podía potencialmente eliminar toda clase de llamas al aire

libre para la iluminación, lo cual acarrearía que los incendios comenzasen a ser cosa

del pasado. Por desgracia, siguen existiendo llamas al exterior y, probablemente,

siempre las habrá: chimeneas, estufas de gas y hornos de petróleo. Algo

particularmente desgraciado es el hecho de que centenares de millones de adictos aún

sigan transportando llamas al aire libre en forma de cigarrillos, empleando con

frecuencia, además, encendedores. La pérdida de propiedades y de vidas como

resultado de los incendios provocados por cigarrillos (incendios forestales y también de

maleza) resulta muy difícil de evaluar.

El filamento brillante de la bombilla eléctrica (una luz incandescente, puesto que es

inducida por el calor albergado en el filamento mientras se resiste al flujo de la

corriente eléctrica) no es la única forma de convertir la electricidad en luz. Por

ejemplo, las llamadas luces de neón (introducidas por el químico francés Georges

Claude en 1910) son tubos en los que una descarga eléctrica excita átomos de gases

de neón hasta que emiten un brillante y rojo resplandor. La lámpara solar contiene

vapor de mercurio, el cual, cuando se excita por medio de una descarga, consigue una

radiación muy rica en luz ultravioleta, que puede emplearse no sólo para lograr un

bronceado sino también para matar las bacterias o generar fluorescencia. Y esta

última, a su vez, conduce a la iluminación fluorescente, introducida en su forma actual

en la Feria Mundial de Nueva York del año 1939. Aquí la luz ultravioleta del vapor de

mercurio excita la fluorescencia en un revestimiento fosforado en el interior del tubo

(fig. 9.8). Dado que esta luz fría gasta poca energía en calor, consume menos

corriente eléctrica.

Un tubo fluorescente de 40 W suministra tanta luz —aunque no tanto calor ni mucho

menos— como una lámpara incandescente de 150 W. Por tanto, se ha manifestado

una tendencia general hacia la luz fluorescente desde la Segunda Guerra Mundial.

Cuando apareció el primer tubo fluorescente, se prefirieron las sales de berilio como

materia fluorescente. Ello originó varios casos serios de envenenamiento («beriliosis»),

por la aspiración de aire contaminado con esas sales o la introducción de esa sustancia

en el organismo humano por los cortes de la piel producidos ocasionalmente cuando se

rompían los tubos. Desde 1949 se emplearon otros fósforos menos peligrosos.

336


La última y más prometedora innovación es un método que convierte la electricidad

directamente en luz sin la formación previa de luz ultravioleta. En 1936, el físico

francés Georges Destriau descubrió que una intensa comente alterna podía comunicar

incandescencia a una sustancia fosforescente tal como el sulfato de cinc. Actualmente,

los ingenieros electrotécnicos están aplicando el fósforo al plástico o cristal y utilizan el

fenómeno llamado «electroluminiscencia» para formar placas incandescentes. De este

modo, una pared o un techo luminiscente podría alumbrar toda una habitación con su

resplandor suave y coloreado según el gusto de cada cual.

Sin embargo, la eficiencia de la electroluminiscencia sigue siendo baja para permitirla

competir con otras formas de iluminación eléctrica.



Fotografía

Probablemente, ninguna invención relacionada con la luz ha proporcionado al género

humano tanto placer como la fotografía. Ésta se inició con la observación de que al

pasar la luz a través de un pequeño orificio a una cámara oscura, formaba una imagen

difusa e invertida del escenario exterior. Un alquimista italiano, Giambattista della

Porta, construyó en 1550 un artefacto similar, denominado, como se ha dicho,

«cámara oscura».

En una cámara oscura penetra una cantidad mínima de luz. No obstante, si se

remplaza el orificio por una lente, se concentrará una cantidad considerable de luz y,

por tanto, la imagen será mucho más brillante. Una vez hecho esto, es necesario

buscar alguna reacción química que responda a la luz. Varios hombres se lanzaron a

esa búsqueda, destacando, entre ellos, los franceses Joseph-Nicéphore Niepce y Louis-

Jacques Mande Daguerre, así como el inglés William Henry Fox Talbot.

Niepce trató de conseguir que la luz solar oscureciera el cloruro de plata en una forma

apropiada y produjo la primera fotografía primitiva en 1822, que requería 8 horas de

exposición.

Daguerre formó sociedad con Niepce antes de que este último muriese y continuó

mejorando el proceso. Tras haber oscurecido sales de plata con luz solar, disolvió las

sales sin cambiar en tiosulfato de sodio, un proceso sugerido por el científico John

Herschel (el hijo de William Herschel). En 1839, Daguerre empezó a realizar



daguerrotipos, las primeras fotografías prácticas, con exposiciones que no requerían

más de 20 minutos.

Talbot mejoró el proceso aún más, consiguiendo negativos en los que los lugares en

los que incidía la luz se oscurecían, mientras que los oscuros permanecían brillantes en

los lugares en que la luz se oscurecía. A partir de tales negativos se podían conseguir

numerosos positivos, en los que la luz llevaba a cabo otra inversión, por lo que los

lugares luminosos seguían siendo brillantes y lo mismo pasaba con las partes oscuras,

como debía ser. En 1844, Talbot publicó el primer libro ilustrado con fotografías.

La fotografía probó su valor en la documentación humana cuando, en los años 1850,

los británicos fotografiaron escenas de la guerra de Crimea y cuando, en la década

siguiente, el fotógrafo estadounidense Mattew, con lo que ahora consideraríamos un

imposible equipo primitivo, tomó unas fotografías que se han hecho clásicas de la

guerra civil americana en plena acción.

Durante casi medio siglo, la placa húmeda tuvo que seguir empleándose en fotografía.

Ésta consistía en una placa de cristal, que había sido rociada con una emulsión de

productos químicos que tenía que hacerse sobre la marcha. La fotografía había de

realizarse antes de que la emulsión se secase. Mientras no existiese solución para esta

limitación, las fotografías sólo podían hacerse por medio de profesionales habilidosos.

Sin embargo, en 1878, un inventor norteamericano, George Eastman, descubrió cómo

mezclar la emulsión con gelatina, en vez de tener que rociar la placa, dejándolo secar

en forma de gel que se mantuviese durante largos períodos de tiempo. En 1884

patentó la película fotográfica en la que se rociaba el gel primero sobre papel y luego,

337

en 1889, sobre celuloide. En 1888 inventó la «Kodak», una cámara que tomaría



fotografías con sólo apretar un botón. La película expuesta podía sacarse para

revelarla. A partir de ese momento, la fotografía se convirtió en una afición popular. A

medida que comenzaron a emplearse unas emulsiones más sensibles, las fotos

empezaron a tomarse con ayuda de un destello de luz (flash) y ya no hubo necesidad

de que el modelo posase durante largos períodos de tiempo con una expresión vidriosa

y poco natural.

No cabía suponer que las cosas se hiciesen aún más sencillas pero, en 1947, el

inventor estadounidense Edwin Herbert Land ideó una cámara con un doble rollo de

película, una ordinaria película negativa y un papel positivo, con unos productos

químicos sellados entre ambos. Esos productos químicos se liberaban en el momento

apropiado y revelaban la impresión positiva de una forma automática. Unos minutos

después de haber disparado la máquina, ya se tenía en la mano una fotografía del todo

completa.

Durante el siglo XIX, las fotografías fueron en blanco y negro, no pudiendo hacerlas en

color. Sin embargo, a principios del siglo XX, se desarrolló un proceso de fotografiar en

color por el físico francés nacido en Luxemburgo Gabriel Lippmann, que consiguió el

premio Nobel de Física en 1908. No obstante, esto se demostró que era un falso

comienzo, y la fotografía en color de un modo práctico no se desarrolló hasta 1936.

Este segundo, y afortunado, intento se basaba en la observación, efectuada en 1855

por Maxwell y Helmholtz, de que cualquier color en el espectro puede conseguirse con

una combinación de luz roja, verde y azul. Basado en este principio, la película en color

se compone de una emulsión en tres capas: una sensible al rojo, otra al verde y otra

más a los componentes azules de la imagen. Se forman así tres fotos separadas pero

sobreimpresas, cada una de las cuales reproducen la intensidad de la luz y su parte del

espectro como una pauta de oscurecimiento en blanco y negro. La película se revelaba

en tres etapas sucesivas, empleando pigmentos rojos, azules y verdes para depositar

los colores apropiados sobre el negativo. Cada lugar de la foto es una combinación

específica de rojo, verde y azul, y el cerebro interpreta esa combinación para

reconstruir todo el abanico del color.

En 1959, Land expuso una nueva teoría sobre la visión del color. Según él, el cerebro

no requiere una combinación de tres colores para dar la impresión de colorido total.

Todo cuanto necesita es dos longitudes de onda diferentes (o grupos de longitudes de

onda), una algo más larga que la otra. Por ejemplo, un grupo de longitudes de onda

puede ser un espectro entero o luz blanca. Como su longitud de onda (promedio) está

en la zona amarillo-verde, puede servir de «onda corta». Ahora bien, una imagen

reproducida mediante la combinación de luces blanca y roja (esta última actuaría como

onda larga), aparece a todo color. Land ha hecho también fotografías a todo color con

luces verde y roja filtrada, así como otras combinaciones binarias apropiadas.

El invento del cinematógrafo se debió a una primera observación del físico inglés Peter

Mark Roget, en 1824. Este científico observó que el ojo humano retiene una imagen

persistente durante una fracción apreciable de segundo. Tras la introducción de la

fotografía, muchos experimentadores, particularmente en Francia, aprovecharon esa

propiedad para crear la ilusión de movimiento exhibiendo en rápida sucesión una serie

de estampas. Todo el mundo está familiarizado con el entretenimiento consistente en

un mazo de cromos que, cuando se le trashoja con rapidez, da la impresión de que una

figura se mueve y realiza acrobacias. Si se proyecta sobre una pantalla, con intervalos

de algunos dieciseisavos de segundo, una serie de fotografías, siendo cada una de ellas

algo distinta de la anterior, la persistencia de esas imágenes sucesivas en el ojo dará

lugar a enlaces sucesivos, hasta causar la impresión de movimiento continuo.

Edison fue quien produjo la primera «película cinematográfica». Fotografió una serie de

escenas en una cinta y luego pasó la película por un proyector que mostró,

sucesivamente, cada una con la correspondiente explosión luminosa. En 1894 se

exhibió, para entretenimiento público, la primera película cinematográfica, y, en 1914,

los teatros proyectaron la cinta de largometraje The Birth of a Nation (El nacimiento de



una nación).

338


A las películas mudas se incorporó, en 1927, la banda sonora, en la cual, el sistema

ondulatorio de la música y la voz del actor se transforman en una corriente eléctrica

variable mediante un micrófono, y entonces esta corriente enciende una lámpara, cuya

luz se fotografía también junto con la acción cinematográfica. Cuando la película

acompañada de esa banda luminosa añadida en un borde se proyecta en la pantalla,

las variaciones luminosas de la lámpara en el esquema de ondas sonoras se

transforman de nuevo en corriente eléctrica por medio de un «tubo fotoeléctrico», y la

corriente se convierte, a su vez, en sonido.

Dos años después de la primera «película sonora», El cantor de jazz, los filmes mudos

pasaron a la historia, tal como le ocurriera casi al vaudeville. Hacia fines de los años

1930, se agregó el color a las «cintas habladas». Por añadidura, la década de 1950

asistió al desarrollo del sistema de visión periférica, e incluso el de efectos

tridimensionales (3D), muy poco afortunado y duradero, consistente en la proyección

de dos imágenes sobre la pantalla. En este último caso, el espectador debe usar gafas

polarizadas para ver una imagen distinta con cada ojo, lo cual produce un efecto

estereoscópico.

MÁQUINAS DE COMBUSTIÓN INTERNA

Aunque el petróleo dio paso a la electricidad en el campo de la iluminación artificial,

resultó indispensable para otro adelanto técnico que revolucionó la vida moderna tan

profundamente como cuando aparecieron los aparatos electrodomésticos. Esta

innovación fue la máquina de combustión interna, llamada así porque en su interior

hay un cilindro en el que se quema el combustible de tal forma que los gases mueven

directamente el pistón. Por lo general, las máquinas de vapor son de «combustión

externa», pues el combustible arde en sus partes exteriores y el vapor así formado

pasa entonces al cilindro por diversos conductos.

El automóvil

Este artificio compacto, movido por las pequeñas explosiones provocadas dentro del

cilindro, permitió aplicar la fuerza motriz a vehículos menores, para los cuales no

resultaba funcional la voluminosa máquina de vapor. No obstante, ya en 1786

aparecieron «carruajes sin caballos», movidos por vapor, cuando William Murdock, un

socio de James Watt, decidió construir uno de semejantes artefactos. Un siglo después,

el inventor americano Francis Edgar Stanley diseñó la famosa Stanley Steamer, que

hizo la competencia a los primeros carruajes provistos con motores de combustión

interna. Sin embargo, el futuro pertenecía a estos últimos.

Realmente, se construyeron algunas máquinas de combustión interna a principios del

siglo XIX, antes de que se generalizara el uso del petróleo. Éstas quemaron vapores de

trementina o hidrógeno como combustible. Pero ese artefacto no dejó de ser una

curiosidad hasta que empezó a utilizarse la gasolina, el líquido productor de vapor y, a

la vez, combustible cuya explotación resulta rentable y abundante.

En 1860, el inventor francés Étienne Lenoir construyó el primer motor práctico de

combustión interna y, en 1876, el técnico alemán Nikolaus August Otto diseñó un

motor de «cuatro tiempos». Primero, un pistón ajustado perfectamente al cilindro

recibe un impulso ascendente, de modo que el cilindro vacío absorbe una mezcla de

gasolina y aire. Luego, ese pistón recibe un nuevo impulso y comprime el vapor. En el

punto de máxima compresión, dicho vapor se enciende y explota. La explosión dispara

el pistón, y este movimiento acelerado es lo que hace funcionar el motor. Mueve un

árbol que empuja otra vez al pistón para hacerle expulsar los residuos quemados, o

«escape»; éste es el cuarto y último movimiento del ciclo. Entonces el árbol mueve el

pistón para repetir el ciclo (fig. 9.9).

339

Un ingeniero escocés llamado Dugald Clerk agregó casi inmediatamente una mejora.



Incorporó un segundo cilindro de forma que trabajara un pistón mientras el otro

estaba en estado de recuperación: ello dio más equilibrio a la producción de fuerza. Al

añadir después otros cilindros (ocho es el número más generalizado hoy día), aumentó

340


la armonía y potencia de ese «mecanismo compensador». Un motor así resultaba

esencial si los automóviles debían convertirse en una cosa práctica, pero también

resultaban necesarios otros inventos auxiliares.

La ignición del compuesto gasolina-aire en el momento preciso planteó un problema.

Se emplearon toda clase de ingeniosos artificios, pero en 1923 se le dio una solución

general con la electricidad. El suministro proviene de una «batería acumuladora». Ésta

es una batería que, como cualquier otra, provee la electricidad producida por una

reacción química. Pero se la puede mantener cargada enviándole una corriente

eléctrica en dirección opuesta a la de descarga; esta corriente invierte la reacción

química, de modo que los productos químicos originen más electricidad. Un pequeño

generador movido por el motor suministra esa corriente inversa.

El tipo más común de batería tiene placas alternas de plomo y óxido de plomo, con

capas de ácido sulfúrico concentrado. Lo inventó el físico francés Gastón Planté en

1859, y fue modernizado en 1881 por el ingeniero electrotécnico americano Charles

Francis Brush. Desde entonces se han inventado otras baterías más resistentes y

compactas, como, por ejemplo, una batería de níquel y hierro, ideada por Edison hacia

1905, pero ninguna puede competir en economía con la batería de plomo.

Para elevar el voltaje de la corriente eléctrica facilitada por la batería se emplean

transformadores denominados «carretes de inducción», y ese voltaje acrecentado

proporciona la chispa de ignición que salta en los electrodos de las populares bujías.

Una vez empieza a funcionar el motor de combustión interna, la inercia lo mantiene en

movimiento entre las fases de potencia. Mas, para hacerle arrancar es preciso recurrir

a la energía externa. Primeramente se hizo con fuerza muscular (por ejemplo, la

manivela del automóvil), y hoy día aún se ponen en marcha los motores fueraborda y

las máquinas segadoras tirando de un cable. El «arranque automático» en los

automóviles modernos se hace gracias a la batería, que provee la energía necesaria

para los primeros movimientos del motor.

En 1885, los ingenieros alemanes Gottlieb Daimler y Karl Benz construyeron,

independientemente, el primer automóvil funcional. Pero lo que en realidad vulgarizó el

automóvil como medio de transporte fue la «producción en serie».

El primer promotor de esa técnica fue Eli Whitney, quien merece más crédito por ello

que por su famoso invento de la máquina desmotadora de algodón. En 1789, el

Gobierno Federal contrató a Whitney para la fabricación de cañones destinados al

Ejército. Hasta entonces se habían fabricado esas piezas individualmente, es decir,

proveyendo a cada una con sus propios y particulares elementos. Whitney ideó un

medio para universalizar esos elementos, de modo que cada uno fuera aplicable a

cualquier cañón. Esta innovación tan simple —fabricación en serie de piezas

intercambiables para cualquier tipo de artículo— fue quizá tan influyente como otros

factores importantes en la producción industrial masiva de nuestros días. Cuando

apareció la maquinaria moderna, fue posible lanzar al mercado piezas de repuesto en

cantidades prácticamente ilimitadas.

El ingeniero estadounidense Henry Ford fue quien por primera vez explotó a fondo este

concepto. En 1892 había construido su primer automóvil (un modelo de dos cilindros)

y luego, desde 1899, había trabajado como ingeniero jefe de la «Detroit Automobile

Company». Esta empresa quería producir vehículos a gusto de cada cliente, pero Ford

tenía otras ideas. Así, pues, dimitió en el año 1902, para emprender por su propia

cuenta la producción masiva de automóviles. Siete años después lanzó el modelo Ford-

T y, en 1913, empezó a fabricar tomando como pauta el plan Whitney... despachando

así coche tras coche, cada uno exactamente igual al anterior y todos ellos construidos

con las mismas piezas.

Ford descubrió que podría acelerar la producción empleando obreros que hicieran

siempre el mismo trabajo especializado con ininterrumpida regularidad, como si fueran

máquinas. Entretanto, el americano Samuel Colt (quien había inventado ya el revólver

de «seis tiros»), en 1847, daba los primeros pasos en esa dirección y el fabricante de

341


automóviles Ransom E. Olds había aplicado el mismo sistema a la fabricación del

vehículo automóvil en 1900. Sin embargo, Olds perdió el apoyo financiero, y entonces

las finanzas favorecieron a Ford, quien llevó adelante su movimiento hasta una feliz

fructificación. Ford implantó la «cadena de montaje», en la que los operarios

agregaban las piezas de su especialización a cada modelo, conforme pasaba ante ellos

sobre una correa sin fin, hasta que el automóvil terminado salía rodando por el

extremo final de la línea. Este nuevo sistema ofreció dos ventajas económicas: salarios

elevados para el obrero, y automóviles asequibles a precios sorprendentemente bajos.

En 1913, Ford fabricaba ya mil modelos T cada día. Antes de que se «rompiera» la

cadena en 1927, se habían lanzado quince millones de unidades y el precio había

descendido a 290 dólares. Entonces nació la pasión por el cambio anual de coche, y

Ford se adhirió al inevitable desfile de variedades e innovaciones superficiales, que

decuplicaron el precio de los automóviles y privaron a los norteamericanos de las

ventajas de la producción masiva.

En 1892, el ingeniero mecánico alemán Rudolf Diesel introdujo una modificación en el

motor de combustión interna, que entrañó simplificaciones mecánicas y economía de

combustible. Sometió a muy alta presión la mezcla de combustible-aire, de modo que

el calor generado por la compresión fue suficiente para inflamarla. El «motor Diesel»

permitió emplear productos destilados del petróleo difícilmente volatilizables. Como la

compresión era aquí muy elevada, fue preciso construir un motor mucho más sólido y

pesado que el de gasolina. Cuando, en 1920, se desarrolló un sistema adecuado de

inyección de fuel-oil, éste fue adoptado sin discusión para los camiones, tractores,

autobuses, barcos y locomotoras, convirtiéndose en el rey del transporte pesado.

El progresivo refinamiento de la gasolina ha incrementado la eficiencia del motor de

combustión interna. La gasolina es una mezcla compleja de moléculas integrada por

átomos de carbono e hidrógeno («hidrocarburos»), algunos de los cuales arden más

aprisa que otros. Ahora bien, la combustión demasiado rápida no es deseable, pues

entonces la mezcla gasolina-aire explota con excesiva premura, determinando el

«picado del motor». La combustión más lenta induce una expansión uniforme del

vapor, que propulsa el pistón con suavidad y eficacia.

Para medir el poder antidetonante de una determinada gasolina se emplea la «escala

octano», es decir, se la compara con la detonación producida por un hidrocarburo

llamado «isooctano», que es extremadamente antidetonante. La refinación de gasolina

requiere, entre sus funciones primarias, la producción de un hidrocarburo mixto con un

elevado índice de octanos.

Conforme pasa el tiempo, los motores de automóviles se construyen cada vez con

mayor «compresión», es decir, que la mezcla gasolina-aire se comprime a densidades

progresivamente superiores antes de la ignición. Ello permite obtener más potencia de

la gasolina, pero también se estimula la detonación prematura, por lo cual hay que

preparar continuamente gasolinas de más octanos. Se ha facilitado una tarea con el

empleo de ciertos productos químicos que, agregados en pequeñas cantidades a la

gasolina, reducen la detonación. El más eficiente de esos «compuestos

antidetonantes» es el «plomo tetraetilo», un compuesto de plomo lanzado al mercado

con tal finalidad en 1925. El combustible que lo contiene se llama «etilgasolina». Si el

plomo tetraetilo estuviera solo, el óxido de plomo formado durante la combustión

destrozaría el motor. De aquí que se agregue también bromuro etílico. El átomo de

plomo en el plomo tetraetilo se combina con el átomo de bromuro en el bromuro etílico

para formar bromuro de plomo, que se evapora a la temperatura de la gasolina y

escapa con los gases residuales.

Los combustibles Diesel son comprobados respecto del retraso de ignición después de

la compresión (un retraso demasiado grande resulta indeseable) respecto de un

hidrocarburo llamado cetano, que contiene 16 átomos de carbono en su molécula en

relación de las 8 que tiene el isooctano. Por lo tanto, para los combustibles Diesel se

habla de número de cetano.

Las mejoras continuaron. Los neumáticos «globo» de baja presión llegaron en 1923 y

342


los neumáticos sin cámara a principios de los años 1950, haciendo menos frecuentes

los reventones. En los años 1940 empezó a emplearse el aire acondicionado y los

cambios automáticos se introdujeron, con lo que el cambio manual comenzó a quedar

anticuado. La dirección asistida y los servofrenos se introdujeron en los años 1950. El

automóvil se había convertido en una parte tan integral del llamado american way of

Ufe (forma de vivir norteamericana) que, a pesar del coste creciente de la gasolina y

del peligro en aumento de la contaminación, parece que no hay forma, excepto en el

caso de una catástrofe absoluta, de acabar con el reinado del coche.

El avión

Unas versiones más grandes del automóvil fueron el autobús y el camión, y el petróleo

remplazó al carbón en los grandes navios, aunque el mayor triunfo del motor de

combustión interna llegó en el aire. Hacia la década de 1890 los humanos habían

logrado el sueño de los viejos tiempos —algo más viejo aún que Dédalo e ícaro— de

volar sobre alas. El vuelo sin motor se había convertido en un ávido deporte entre los

aficionados. El primer deslizador que podía llevar un hombre se construyó en 1853 por

parte del inventor inglés George Cayley. De todos modos, el «hombre» que

transportaba era sólo un muchacho. El primer practicante de importancia de este tipo

de conducta fue el ingeniero alemán Otto Lilienthal, que murió en 1896 durante un

vuelo sin motor. Mientras tanto, se había hecho sentir el urgente anhelo de despegar

en un vuelo con motor, aunque los planeadores siguieron constituyendo un deporte

popular.

El físico y astrónomo norteamericano, Samuel Pierpont Langley, trató, en 1902 y 1903,

de volar en un planeador dotado de un motor de combustión interna y estuvo

auténticamente a punto de conseguirlo. Si no se hubiese quedado sin dinero, podría

haber conseguido elevarse en el aire en el próximo intento. En realidad, este honor

quedó reservado a los hermanos Orville y Wilbur Wright, fabricantes de bicicletas que

habían tomado a los planeadores como su afición predilecta.

El 17 de diciembre de 1903, los hermanos Wright despegaron en Kitty Hawk (N.C.),

con un planeador propulsado por hélice. Permanecieron en el aire, a 255 m de altura,

durante 59 segundos. Fue el primer viaje aeronáutico de la Historia, y pasó casi

inadvertido en el mundo.

Hubo mucho más entusiasmo cuando los Wright recorrieron por el aire 40 km y, sobre

todo, cuando el ingeniero francés Louis Blériot cruzó el canal de la Mancha con un

aeroplano en 1909. Las batallas y hazañas aéreas de la Primera Guerra Mundial

estimularon aún más la imaginación, y los biplanos de aquella época, con sus dos alas

sujetas precariamente por tubos y alambres, fueron unas siluetas familiares para toda

una generación de espectadores cinematográficos tras la primera gran guerra. El

ingeniero alemán Hugo Junkers diseñó, poco después de la guerra, un monoplano cuya

solitaria ala, sin puntal alguno, tuvo un éxito absoluto. (En 1939, el ingeniero rusoamericano

Igor Iván Sikorsky construyó un avión polimotor y diseñó el primer

helicóptero, una aeronave con un rotor sobre el fuselaje que permitía los despegues y

aterrizajes verticales e incluso la suspensión en el aire.)3

No obstante, a principios de los años veinte, el aeroplano siguió siendo un objeto más

o menos extraño..., simplemente otro horripilante invento para guerrear, o un juguete

de pilotos temerarios. La aviación no se impuso por su propio valor hasta 1927,

cuando Charles Augustus Lindberg realizó un vuelo sin escalas desde Nueva York hasta

París. El mundo celebró con entusiasmo aquella hazaña, y entonces se empezaron a

crear realmente aeroplanos más grandes y seguros.

Desde entonces son cada vez más populares los aviones «turbopropulsados» con

3 El helicóptero tuvo un precursor en el autogiro, ideado por el ingeniero e inventor

español Juan de la Cierva y Codorniu. (N. del T.)

343


motor de turbina para mover las hélices.

Pero hoy han sido superados, al menos para vuelos largos, por el segundo prototipo

Fundamental: el avión con motores a reacción. En este caso, la fuerza propulsora es

idéntica, en lo esencial, a la que impele un globo cuando se escapa el aire por su boca

abierta. Éste es el efecto acción-reacción: el movimiento expansivo del aire que escapa

en una dirección produce un movimiento o impulso equivalente en la dirección

opuesta, de la misma forma que la salida de un proyectil por el cañón comunica un

brusco retroceso al arma. En el motor a reacción, el combustible, al quemarse,

desprende gases muy calientes, cuya alta presión propulsa al avión con gran fuerza,

mientras ellos salen disparados hacia atrás por la tobera. El cohete tiene el mismo

medio de propulsión, salvo la circunstancia de que él lleva sus propias reservas de

oxígeno para quemar el combustible (fig. 9.11).

Desde su implantación como medio de transporte, el aeroplano se benefició de dos

innovaciones mecánicas fundamentales. Primero, la adopción del motor turborreactor

(fig 9.10). En este motor, los gases calientes y expansivos del combustible movían una

turbina ejerciendo presión sobre sus palas, en lugar de mover pistones. El mecanismo

era simple, de mantenimiento económico y poco vulnerable a las averías; para ser un

modelo funcional sólo le faltaba la preparación de aleaciones que pudieran resistir las

altas temperaturas de los gases. En 1939 estuvieron ya listas estas aleaciones.

Las patentes para la «propulsión a chorro» fueron registradas por un ingeniero francés,

Rene Lorin, ya en el año 1913, pero entonces el esquema era totalmente inaplicable a

las aeronaves. El motor a reacción sólo es económico para velocidades superiores a los

650 km/h. En 1939, el inglés Frank Whittle pilotó un avión turborreactor bastante

práctico para el momento, y, en enero de 1944, Gran Bretaña y Estados Unidos

hicieron entrar en combate aviones a reacción contra las «bombas volantes», el arma

344


V-l alemana, una aeronave de mando automático, no tripulada, con una carga de

explosivos a proa.

Tras la Segunda Guerra Mundial se perfeccionó el avión turborreactor militar, cuya

velocidad se igualó a la del sonido. Las moléculas del aire, con su elasticidad natural y

su capacidad para proyectarse solamente hacia delante y hacia atrás, gobiernan la

velocidad del sonido. Cuando el avión se aproxima a esta velocidad, dichas moléculas

no pueden apartarse de su camino, por así decirlo, y entonces se comprimen contra la

aeronave, que sufre diversas tensiones y presiones. Se ha llegado a describir la

«barrera del sonido» como si fuese un obstáculo físico, algo infranqueable sin su previa

destrucción. Sin embargo, los ensayos en túneles aerodinámicos permitieron diseñar

cuerpos más fusiformes y, por fin, el 14 de octubre de 1947 un avión-cohete

americano, el X-l, pilotado por Charles E. Yeager, «rompió la barrera del sonido»; por

primera vez en la Historia, el hombre se trasladó a mayor velocidad que el sonido.

Durante la guerra de Corea, a principios de los años cincuenta, se libraron batallas

aéreas con aviones turborreactores, los cuales evolucionaban a tales velocidades que

las pérdidas de aparatos fueron, comparativamente, muy reducidas.

La relación entre la velocidad de un objeto y velocidad del sonido (1.191 km/h a 0° C)

en el medio donde se mueve el objeto, es el «número Mach», llamado así porque el

físico austríaco Ernst Mach fue quien investigó teóricamente por primera vez —hacia

mediados del siglo XIX— las consecuencias del movimiento a tales velocidades. En la

década de los sesenta, el aeroplano rebasó la velocidad Mach 5. Esta prueba se realizó

con el avión experimental X-15, cuyos cohetes le permitieron remontarse, durante

breves períodos, a alturas suficientes como para que sus pilotos obtuvieran la

calificación de «astronautas». Los aviones militares se desplazan a velocidades

menores, y los comerciales son aún más lentos.

Una aeronave que viaje a «velocidades supersónicas» (sobre el Mach 1) empuja hacia

delante sus propias ondas sonoras, pues se traslada más aprisa que ellas. Si el avión

reduce la marcha o cambia de curso, las ondas sonoras comprimidas siguen

trasladándose independientemente y, si están bastante cerca del suelo, lo golpean con

un ensordecedor «trallazo sónico». (El restallido de un látigo es una miniatura del

trallazo sónico, porque, si se sabe manejarlo, la punta de la tralla puede trasladarse a

velocidades supersónicas.)

Los vuelos supersónicos se iniciaron en 1970 por medio del francobritánico Concorde

que podía, y lo hizo, cruzar el Atlántico en tres horas, viajando a una velocidad doble

de la del sonido. Una versión norteamericana de ese SST (siglas inglesas de supersonic

transport, es decir, «transporte supersónico»), comenzó a causar preocupaciones

respecto del ruido excesivo en los aeropuertos y posible daño del medio ambiente.

Algunas personas señalaron que ésta era la primera vez que un factible avance

tecnológico había sido detenido por ser desaconsejable, que se trataba de la primera

vez en que los seres humanos habían dicho: «Podemos, pero será mejor que no lo

hagamos.»

En conjunto, cabe decir que las ganancias tampoco justificaban los gastos. El Concorde

ha constituido un fracaso económico, y el programa soviético de SST quedó arruinado

al estrellarse uno de sus aviones en una exhibición en París el año 1973.

ELECTRÓNICA



Radio

En 1888, Heinrich Hertz realizó sus famosos experimentos para detectar las ondas

radioeléctricas que previera veinte años antes James Clerk Maxwell (véase capítulo 8).

Lo que hizo en realidad fue generar una corriente alterna de alto voltaje, que surgía

primero de una bola metálica y luego de otra; entre ambas había una pequeña

separación. Cuando el potencial alcanzaba su punto culminante en una dirección u

otra, enviaba una chispa a través del vacío. En estas circunstancias —y según predecía

la ecuación de Maxwell— se debía producir una radiación electromagnética. Hertz

empleó un receptor, consistente en una simple bobina de alambre con una pequeña

345


abertura en un extremo para detectar esa energía. Cuando la corriente originaba una

radiación en el primer dispositivo, dicha radiación producía asimismo una corriente en

el segundo. Hertz reparó en el salto de pequeñas chispas en la abertura de su

dispositivo detector situado lejos del artefacto emisor, en el extremo opuesto de la

habitación. Evidentemente, la energía se transmitía a través del espacio.

Colocando su bobina detectora en diversos puntos del aposento, Hertz consiguió definir

la forma de las ondas. En el lugar donde las chispas se caracterizaban por su brillantez,

las ondas tenían un vientre acentuado. Cuando no saltaba chispa alguna, eran

estacionarias. Así pudo calcular la longitud de onda de la radiación. Comprobó que

estas ondas eran mucho más largas que las luminosas.

En la siguiente década, muchos investigadores pensaron que sería factible emplear las

«ondas hertzianas» para transmitir mensajes de un lugar a otro, pues tales ondas

podrían contornear los obstáculos gracias a su longitud. En 1890, el físico francés

Édouard Branly perfeccionó el receptor remplazando la bobina por un tubo de vidrio

lleno con limaduras de metal, al que se enlazaba, mediante hilos eléctricos, una

batería. Las limaduras no admitían la corriente de batería a menos que se introdujera

en ellas una corriente alterna de alto voltaje, tal como las ondas hertzianas. Con este

receptor pudo captar las ondas hertzianas a una distancia de 137 m. Más tarde, el

físico inglés Oliver Joseph Lodge —quien ganó después cierto prestigio equívoco como

paladín del espiritismo—, modificó ese artefacto consiguiendo detectar señales a una

distancia de 800 m y enviar mensajes en el código Morse.

El inventor italiano Guglielmo Marconi intuyó que se podría mejorar el conjunto

conectando a tierra un lado del generador y del receptor, y otro, a un alambre,

llamado, más tarde, «antena» (tal vez porque se parecía, supongo yo, a esos

apéndices de los insectos). Empleando potentes generadores, Marconi logró enviar

señales a una distancia de 14,5 km en 1896, a través del canal de la Mancha en 1898,

y a través del Atlántico en 1901. Así nació lo que los británicos llaman aún «telegrafía

sin hilos», y nosotros «radiotelegrafía», o, para abreviar, simplemente «radio».

Marconi ideó un sistema para iluminar la «estática» de otras fuentes y sintonizar

exclusivamente con la longitud de onda generada por el transmisor. Por sus inventos,

Marconi compartió el premio Nobel de Física en 1909 con el físico alemán Karl

Ferdinand Braun, quien contribuyó también al desarrollo de la radio.

El físico americano Reginald Aubrey Fessenden ideó un generador especial con

corrientes alternas de alta frecuencia (dejando a un lado el artefacto productor de

chispas), así como un sistema para «modular» la onda radioeléctrica y hacerle

reproducir el esquema de las ondas sonoras. Se moduló, pues, la amplitud (o altura)

de las ondas; en consecuencia, se le llamó «modulación de amplitud», conocida hoy

día por radio AM. En la Nochebuena de 1906, los receptores radiofónicos captaron por

primera vez música y palabras.

Los primeros radioyentes entusiastas hubieron de sentarse ante sus receptores con los

imprescindibles auriculares. Se requirió, pues, algún medio para fortalecer o

«amplificar» las señales, y la respuesta se encontró en otro descubrimiento de Edison,

su único descubrimiento en el terreno de la ciencia «pura».

En 1883, durante uno de sus experimentos para perfeccionar la lámpara eléctrica,

Edison soltó un alambre en una bombilla eléctrica junto al filamento incandescente.

Ante su sorpresa, la electricidad fluyó desde el filamento hasta el alambre, salvando el

aire interpuesto entre ambos. Como este fenómeno no tuvo utilidad para sus

propósitos, Edison, hombre siempre práctico, lo anotó en su libreta y se olvidó

totalmente de él. Pero el «efecto Edison» cobró gran importancia cuando se descubrió

el electrón; entonces pudo comprobarse que la corriente que fluía a través de un

espacio representaba el flujo de electrones. El físico inglés Owen Williams Richardson

demostró, mediante experimentos realizados en 1900 y 1903, que los electrones

«fluían» de los filamentos metálicos en el vacío. Por ello le concedieron en 1928 el

premio Nobel de Física.

346

En 1904 el ingeniero electrotécnico inglés John Ambrose Fleming aplicó, con suma



lucidez, el efecto Edison. Rodeó con una pieza cilindrica metálica (llamada «placa») el

filamento de la ampolla. Ahora bien, esa placa podía actuar en dos formas. Si estuviera

cargada positivamente, atraería a los electrones despedidos por el filamento

incandescente y crearía así un circuito eléctrico. Pero si su carga fuera negativa,

repelería a los electrones e impediría el flujo de la corriente. Supongamos, pues, que

se conecta esa placa con una fuente de corriente alterna. Cuando la corriente fluye en

una dirección, la placa adquiere carga positiva y deja pasar la corriente hasta el tubo;

cuando la corriente alterna cambia de dirección, la placa se carga negativamente, y

entonces no fluye ninguna corriente hacia el tubo. Por tanto, la placa deja pasar la

corriente en una sola dirección y la transforma de alterna en continua. Al actuar dicho

tubo como una válvula respecto a la corriente, los ingleses le dieron el nombre de

«válvula». En Estados Unidos sigue denominándose, vagamente, «tubo». En sentido

más universal, los científicos lo llaman «diodo», porque tiene dos electrodos: el

filamento y la placa (fig. 9.12).

La válvula —o válvula de radio puesto que se usó primero para ello— controla una

corriente de electrones a través del vacío más que una corriente electrónica a través

del cable. Los electrones pueden regularse mucho más delicadamente que la corriente,

por lo que las válvulas (y todos los mecanismos proceden de esto) constituyen una

serie completa de mecanismos electrónicos que pueden hacer ciertas cosas que los

meros mecanismos eléctricos no realizan. El estudio y empleo de las válvulas y sus

sucesores constituyen lo que llamamos electrónica.

347


La válvula, en su forma más simple, sirve como rectificador y sustituyó a la galena

empleada hasta entonces, puesto que las válvulas son mucho más fiables.

Allá por 1907, el inventor americano Lee de Forest dio un paso más. Insertó un tercer

electrodo en su tubo, haciendo de él un «triodo» (fig. 9.13). El tercer electrodo es una

placa perforada («rejilla») entre el filamento y la placa. La rejilla atrae electrones y

acelera su flujo desde el filamento a la placa (por conducto de los orificios). Un

pequeño aumento de la carga positiva en la rejilla, acrecentará considerablemente el

flujo de electrones desde el filamento a la placa. Por consiguiente, incluso la pequeña

carga agregada a las débiles señales radiofónicas incrementará sobremanera el flujo

de corriente, y esta corriente reflejará todas las variaciones impuestas por las ondas

radioeléctricas. En otras palabras, el triodo actúa como un «amplificador». Los triodos

y otras modificaciones aún más complicadas del tubo han llegado a ser elementos

esenciales no sólo para los aparatos radiofónicos, sino para toda clase de material

electrónico. Aún era necesario dar otro paso adelante si se quería popularizar

realmente el receptor radiofónico. Durante la Primera Guerra Mundial, el ingeniero

electrotécnico americano Edwin Howard Armstrong diseñó un dispositivo para reducir

la frecuencia de una onda radioeléctrica. Por aquellos días, su finalidad era la

localización de aviones enemigos, pero cuando acabó la guerra, se decidió aplicarlo al

348

receptor radiofónico. El «receptor superheterodino» de Armstrong permitió sintonizar



exactamente a una determinada frecuencia, mediante el simple giro de un pequeño

disco, labor que antes requería una interminable serie de tanteos en una gama de

posibles frecuencias. En 1921, una emisora de Pittsburgh inició sus programas

radiofónicos regulares. La imitaron, en rápida sucesión, otras emisoras, y, con el

control del volumen sonoro, así como la sintonización reducida a un breve tanteo, los

receptores radiofónicos adquirieron enorme popularidad. En 1927, las conversaciones

telefónicas pudieron atravesar los océanos, con ayuda de la radio, y fue un hecho el

«teléfono inalámbrico».

Sólo subsistió el problema de la estática. Los sistemas sintonizadores implantados por

Marconi y sus sucesores redujeron el «ruido» de tormenta y otras perturbaciones

eléctricas, pero no lo eliminaron. Armstrong fue quien halló otra vez la respuesta.

Sustituyó la modulación de amplitud —sujeta a las interferencias de fuentes sonoras

con modulaciones accidentales de amplitud— por la modulación de frecuencia. Es

decir, mantuvo a nivel constante la amplitud de la onda radioeléctrica portadora y dio

prioridad a la variación de frecuencia. Cuando la onda sonora tenía gran amplitud, se

reducía la frecuencia de la onda portadora, y viceversa. La frecuencia modulada (FM)

349

eliminó virtualmente la estática, y los receptores FM fueron solicitados, tras la Segunda



Guerra Mundial, para programas de música seria.

Televisión

La televisión fue una consecuencia inevitable de la radio, tal como las películas sonoras

lo fueron de las mudas. El precursor técnico de la televisión fue el transmisor

telegráfico de fotografías. Esto equivalía a la reproducción fotográfica mediante una

corriente eléctrica: un fino rayo de luz pasaba a través de la imagen en una película

fotográfica y llegaba hasta una válvula fotoeléctrica situada detrás. Cuando la película

era relativamente opaca, se generaba una corriente débil en la válvula fotoeléctrica; y

cuando era más transparente, se formaba una poderosa corriente. El rayo luminoso

«barría» con rapidez la imagen de izquierda a derecha y producía una corriente

variable, que daba toda la imagen. La corriente se transmitía por alambres, y en el

punto de destino reproducía la imagen del filme mediante un proceso inverso. Hacia

principios de 1907, Londres transmitió hasta París estas fotos telegráficas.

Televisión es la transmisión de una «cinta cinematográfica» en vez de fotografías, ya

sea o no «en directo». La transmisión debe ser muy rápida, lo cual significa que se

debe «barrer» la acción con suma celeridad. El esquema «claroscuro» de la imagen se

convierte en un esquema de impulsos eléctricos, mediante una cámara en lugar de

película, un revestimiento metálico que emite electrones bajo el impacto de la luz.

En 1926, el inventor escocés John Logie Baird exhibió por primera vez un prototipo de

receptor de televisión. Pero el primer aparato funcional de televisión fue el

«iconoscopio», patentado en 1938 por el inventor norteamericano, de origen ruso,

Vladimir Kosma Zworykin. En el iconoscopio, la cara posterior de la cámara está

revestida con múltiples gotas de plata y película de cesio. Cada una emite electrones

cuando barre el rayo luminoso y en proporción a la potencia lumínica. Más tarde se

remplazó el iconoscopio por el «orticonoscopio», aparato perfeccionado en el que la

pantalla de cesio y plata era suficientemente sutil para que los electrones emitidos se

proyectaran adelante y golpearan una tenue placa vitrea que emitía, a su vez, más

electrones. Esta «amplificación» acrecentaba la sensibilidad de la cámara a la luz, de

forma que era innecesaria una iluminación potente.

El televisor es una variedad del tubo de rayos catódicos. Los electrones fluyen de un

filamento («cañón electrónico»), para incidir sobre una pantalla revestida con

sustancia fluorescente, que irradia luz en proporción a la intensidad del chorro

electrónico. Parejas de electrodos le obligan a barrer la pantalla de izquierda a derecha

en centenares de líneas horizontales con mínimas separaciones entre sí y, por tanto,

«pintan» la imagen sobre la pantalla en una trigésima parte de segundo. El rayo

prosigue «pintando» imágenes consecutivas al ritmo de 1/30 seg. La pantalla se llena

de innumerables puntos (claros u oscuros, según los casos), pero gracias a la

persistencia de la visión humana, no vemos solamente un cuadro completo, sino

también una secuencia ininterrumpida de movimiento y acción.

En la década de 1920 se hicieron ensayos con la televisión experimental, pero ésta no

pudo ser explotada comercialmente hasta 1947. Desde entonces, acapara bastante

terreno del entretenimiento público.

Hacia mediados de la década de 1950 se agregaron dos innovaciones. Mediante el

empleo de tres tipos de material fluorescente en la pantalla del televisor, ideados para

reaccionar ante los rayos de luz roja, azul y verde, se introdujo la televisión en color. Y

el magnetoscopio, o vídeo por cinta, sistema de grabación simultánea de sonido e

imágenes, con cierto parecido a la banda sonora de la cinta cinematográfica, posibilitó

la reproducción de programas o acontecimientos con más fidelidad que la proyección

cinematográfica.

EL TRANSISTOR

En realidad, en los años 1980 el mundo se encuentra en la era de la cassette. Lo

mismo que existen pequeñas cassettes que pueden desenrollar y rebobinar sus cintas

350


para tocar música de alta fidelidad —con pilas si es necesario, para que la gente pueda

ir de un sitio a otro o hacer su trabajo doméstico, con los auriculares en la cabeza,

escuchando unos sonidos que nadie más puede oír—, también existen las cintas de

vídeo que producen películas de cualquier tipo a través del propio televisor o graban

programas para verlos más tarde.

El tubo de rayos catódicos, verdadero corazón de todos los artificios electrónicos, llegó

a ser un factor limitativo. Por regla general, los componentes de un mecanismo se

perfeccionan progresivamente con el tiempo, lo cual significa que, por un lado, se

acrecientan su poder y flexibilidad, mientras que por el otro se reducen su tamaño y

masa. (Eso se ha llamado a veces «miniaturización».) Pero el tubo de rayos catódicos

tuvo dificultades en su camino hacia la miniaturización. En realidad, tuvo que seguir

siendo grande durante mucho tiempo para poder contener un apropiado volumen de

vacío o los diversos componentes en los que se filtrase la electricidad a través de un

hueco muy pequeño.

Y también había otros inconvenientes. La válvula podía romperse o dejar pasar

corriente y, en uno u otro caso, se hacía inservible. (En los primeros aparatos de radio

y televisión continuamente se estaban cambiando las válvulas, y sobre todo en los

televisores parecía casi necesario un reparador permanente.) Asimismo, las válvulas

no funcionaban hasta que los filamentos se encontrasen lo suficientemente calientes,

por lo que era necesaria una considerable cantidad de corriente y había que esperar un

buen tiempo para que el aparato «se calentara».

En la década de 1940, varios científicos de los «Bell Telephone Laboratories» se

interesaron por las sustancias llamadas «semiconductores». Estas sustancias, tales

como el silicio y el germanio, conducen la electricidad de una manera moderada. Así,

pues, el problema consistió en averiguar las causas de tal comportamiento. Los

investigadores de «Bell Telephone Laboratories» descubrieron que esa peculiar

conductividad obedecía a ciertas impurezas residuales mezcladas con el elemento.

Consideremos, por ejemplo, un cristal de germanio puro. Cada átomo tiene 4

electrones en su capa exterior y, según la disposición regular de los átomos en el

cristal, cada uno de los 4 electrones se empareja con un electrón del átomo contiguo,

así que todos los electrones forman pares unidos por lazos estables. Como esa

distribución es similar a la del diamante, todas las sustancias como el germanio, silicio,

etc., se denominan «diamantinas».

Si ahora agregamos un poco de arsénico a esa presunta disposición diamantina, el

cuadro se complica no poco. El arsénico tiene 5 electrones en su capa exterior. Cuando

el átomo de arsénico sustituya al de germanio en el cristal, podrá emparejar 4 de sus 5

electrones con los átomos vecinos, pero el 5.° «quedará suelto». Ahora bien, si

aplicamos un voltaje eléctrico a ese cristal, el electrón suelto deambulará en dirección

al electrodo positivo. No se moverá con tanta soltura como lo harían los electrones en

un metal conductor, pero el cristal conduciría la electricidad mejor que los cuerpos

aislantes, como el azufre o el vidrio.

Lo dicho no es muy sorprendente, pero ahora, nos encontramos con un caso bastante

más extraño. Añadamos al germanio un poco de boro en lugar de arsénico. El átomo

de boro tiene sólo 3 electrones en su órbita exterior, que pueden emparejarse con

otros tantos del átomo vecino de germanio. Pero, ¿qué sucede con el cuarto electrón

de este último átomo? ¡Este electrón se empareja con la «nada»! Y no está fuera de

lugar el empleo de la palabra «nada», porque en ese lugar donde el electrón debería

encontrar un asociado en el cristal de germanio puro parece realmente vacío. Si se

aplica corriente eléctrica al cristal contaminado por el boro, el siguiente electrón

vecino, atraído por el electrodo positivo, se moverá hacia ese vacío. Y, al obrar así,

deja un vacío donde estaba, y el electrón vecino más alejado del electrodo positivo se

apresura a ocuparlo. Por tanto, este vacío se traslada hacia el electrodo negativo,

moviéndose exactamente como un electrón, aunque en dirección contraria.

Resumiendo: se ha hecho conductor de corriente eléctrica.

Para trabajar eficazmente, el cristal debe ser casi puro, o sea, tener la cantidad justa

351


de impurezas específicas (por ejemplo, arsénico o boro).

El semiconductor germanio-arsénico con un electrón volante es, según se dice, del

«tipo n» (n por «negativo»). El semiconductor germanio-boro con un vacío volante que

actúa como si estuviera cargado positivamente es del «tipo p» (p por positivo).

A diferencia de los conductores ordinarios, la resistencia eléctrica de los

semiconductores desciende cuando se eleva la temperatura. Ocurre esto porque las

temperaturas elevadas debilitan la retención de electrones por los átomos y,

consecuentemente, aquéllos tienen más libertad de movimiento. (En un conductor

metálico, los electrones tienen ya suficiente libertad a temperaturas ordinarias. La

elevación de temperatura induce más movimientos erráticos y obstaculiza su flujo en

respuesta al campo eléctrico.) Al determinarse la resistencia de un semiconductor, se

pueden medir temperaturas que son demasiado elevadas para su adecuada medición

con otros métodos. Ese semiconductor medidor de temperaturas ha recibido el nombre

de termistor.

Pero los semiconductores en combinación pueden hacer mucho más. Supongamos

ahora que hacemos un cristal de gemanio con los tipos p y n a partes iguales. Si

conectamos la mitad «tipo con un electrodo negativo y la «tipo p» con un electrodo

positivo, los electrones del lado «tipo n» atravesarán el cristal hacia el electrodo

positivo, y los vacíos del lado «tipo p» se moverán en dirección opuesta hacia el

electrodo negativo. Por tanto, una corriente fluye a través del Cristal. Invirtamos ahora

la situación, es decir, conectemos la mitad «tipo n» con el electrodo positivo y la mitad

«tipo p» con el electrodo negativo. Esta vez los electrones del lado n se moverán hacia

el electrodo positivo —es decir, se alejarán del lado p—, e igualmente los vacíos del

lado p se apartarán del lado n. En consecuencia, las regiones limítrofes en la divisoria

entre los lados n y p pierden sus electrones y vacíos libres. Ello entraña una ruptura

del circuito y, por tanto, no circula la corriente.

En suma, tenemos ya una estructura que puede actuar como rectificador. Si

transmitimos una corriente alterna a ese cristal binario, el cristal dejará pasar la

corriente sólo en una dirección. Por lo tanto, la corriente alterna se convertirá en

corriente continua. El cristal serviría de diodo, tal como el tubo catódico (o «válvula»).

Con ese dispositivo, la Electrónica dio media vuelta para utilizar el primer tipo de

rectificador empleado en la radio, a saber, la «galena». Pero esta nueva clase de cristal



fue mucho más efectiva y variada. Sus ventajas sobre el tubo catódico fueron

impresionantes. Por lo pronto resultó más ligera y resistente, mucho menos maciza,

invulnerable a las descargas y no se calentaba, todo lo cual la hizo más durable que el

tubo. Se denominó al nuevo elemento —por sugerencia de John Robinson Pierce, de

los laboratorios «Bell»— «transistor», porque transfería una señal a través de un

resistor (fig. 9.14).

En 1948, William Bradford Shockley, Walter Houser Brattain y John Bardeen, de los

laboratorios «Bell» construyeron un transistor que podía actuar como amplificador. Era

un cristal de germanio con una sutil sección tipo p emparedada entre dos terminales

tipo n. En realidad, un triodo equivalente a una rejilla entre el filamento y la placa.

Reteniendo la carga positiva en el centro del tipo p, se pudo enviar los vacíos a través

de la divisoria para controlar el flujo de electrones. Por añadidura, una pequeña

variación en la corriente del tipo p originó una considerable variación en la corriente

del sistema semiconductor. Así, el triodo semiconductor pudo servir como amplificador,

tal como lo hubiera hecho el triodo de un tubo catódico. Shockley y sus colaboradores

Brattain y Bardeen recibieron el premio Nobel de Física en 1956.

Por muy excelente que pareciera teóricamente el funcionamiento de los transistores,



su empleo en la práctica requirió ciertos adelantos concomitantes de la tecnología.

(Ésta es una realidad inalterable en la ciencia aplicada.) La eficiencia de un transistor

estribó no poco en el empleo de materiales extremadamente puros, de tal forma que

se pudiera revisar con todo detenimiento la naturaleza y concentración de impurezas

adicionales.

352


Afortunadamente, William Gardner Pfann aportó, en 1952, la técnica de refinadura por

zonas. Se coloca una barra —por ejemplo de germanio— en el vértice de un elemento

calefactor circular, que reblandece y empieza a fundir una sección de la barra. Luego

se hace penetrar más la barra en el vértice, y la zona fundida se mueve a lo largo de

él. Las impurezas de la barra tienden a concentrarse en la zona fundida y, por tanto,

se las arrastra literalmente así hasta el extremo de la barra. Tras unos cuantos pasos

semejantes, el cuerpo principal de la barra de germanio muestra una pureza

insuperable.

En 1953 se fabricaron minúsculos transistores para su empleo como audífonos, unas

piezas tan pequeñas que se podían ajustar al oído.

El transistor se fue desarrollando en seguida de una forma segura, por lo que captó

unas frecuencias cada vez más elevadas, resistiendo mayores temperaturas y

haciéndose cada vez más pequeño. Llegado el momento se hizo tan diminuto que ya

no se emplearon transistores individuales. En vez de ello, unos pequeños chips de

sílice fueron manejados microscópicamente para formar circuitos integrados, que

harían lo mismo que una gran cantidad de válvulas. En los años 1970, esos chips

fueron ya tan pequeños que empezó a pensarse en ellos como microchips.

Esos pequeños mecanismos transistorizados, que son ahora de empleo universal,

353

ofrecen tal vez la más asombrosa revolución de todas las revoluciones científicas que



han tenido lugar en la historia humana. Han hecho posibles las pequeñas radios, pero

también han mostrado sus enormes habilidades en los satélites artificiales y en las

sondas espaciales; y por encima de todo, han hecho factible el desarrollo de unos

ordenadores cada vez más pequeños, más baratos y más versátiles, así como también

los robots en los años 1980. De estas dos últimas cosas hablaremos en el capítulo 17.

MÁSER Y LÁSER



Máseres

Tal vez la novedad más fascinante entre todos los inventos recientes comience con las

investigaciones referentes a la molécula del amoníaco (NH3). Sus 3 átomos de

hidrógeno están dispuestos como si ocuparan los tres vértices de un triángulo

equilátero, mientras que el único átomo de nitrógeno se halla sobre el centro del

triángulo, a cierta distancia.

La molécula de amoníaco tiene capacidad para vibrar. Es decir, el átomo de nitrógeno

puede atravesar el plano triangular para ocupar una posición equivalente en el lado

opuesto, regresar luego al primer lado y proseguir indefinidamente ese movimiento. En

verdad se puede hacer vibrar la molécula del amoníaco con una frecuencia natural de

24 mil millones de veces por segundo.

Este período vibratorio es extremadamente constante, mucho más que el período de

cualquier artificio cuyas vibraciones obedezcan a la acción humana, mucho más

constante, incluso, que el movimiento de los cuerpos astronómicos. Mediante

preparativos adecuados esas moléculas vibradoras pueden regular las corrientes

eléctricas, que, a su vez, regularán los aparatos cronometradores con una precisión sin

precedentes, algo demostrado en 1949 por el físico norteamericano Harold Lyons.

Hacia mediados de la década de los cincuenta, esos «relojes atómicos» superaron

largamente a todos los cronómetros ordinarios. En 1964 se consiguió medir el tiempo

con un error de 1 seg por cada 100.000 años, empleando un máser que utilizaba

átomos de hidrógeno.

En el curso de esas vibraciones, la molécula de amoníaco libera un rayo de radiación

electromagnética cuya frecuencia es de 24 mil millones de ciclos por segundo. Su

longitud de onda es 1,25 cm. Así, pues, están en la región de las microondas. Para

observar este hecho desde otro ángulo, basta imaginar que la molécula de amoníaco

puede ocupar uno de dos niveles energéticos cuya diferencia de energía es igual a la

de un fotón que represente una radiación de 1,25 cm. Si la molécula de amoníaco

desciende del nivel energético más alto al más bajo, emitirá un fotón de dicho tamaño.

Si una molécula en el nivel energético más bajo absorbe un fotón semejante, se

elevará inmediatamente al nivel energético más alto.

Pero, ¿qué ocurrirá cuando una molécula esté ya en el nivel energético más alto y

quede expuesta a tales fotones? Ya en 1917, Einstein señaló que si un fotón del

tamaño antedicho golpea a una molécula situada en el nivel superior, esta molécula se

deslizará al nivel inferior y emitirá un fotón de idénticas dimensiones, que se moverá

exactamente en la dirección del fotón entrante. Habrá, pues, dos fotones iguales donde

sólo existía antes uno. Esto fue confirmado experimentalmente en 1924.

Por tanto, el amoníaco expuesto a la radiación de microondas podría experimentar dos

posibles cambios: se aspiraría a las moléculas desde el nivel inferior al superior, o se

las empujaría desde el superior al inferior. En condiciones ordinarias predominaría el

primer proceso, pues sólo un porcentaje de moléculas ocuparía en un instante dado el

nivel energético superior.

Sin embargo, supongamos que se diera con algún método para colocar todas o casi

todas las moléculas en el nivel energético superior. Entonces predominaría el

movimiento de arriba abajo. Y, ciertamente, ello originaría un interesante

acontecimiento. La radiación entrante de microondas proporcionaría un fotón, que

empujaría a la molécula hacia abajo. Luego se liberaría un segundo fotón, y los dos se

354

apresurarían a golpear otras tantas moléculas, con la consiguiente liberación de un



segundo par. Los cuatro provocarían la aparición de cuatro más, y así sucesivamente.

El fotón inicial desencadenaría un alud de fotones, todos del mismo tamaño y

moviéndose exactamente en la misma dirección.

En 1953, el físico norteamericano Charles Hard Townes ideó un método para aislar las

moléculas de amoníaco en el nivel energético superior y someterlas allí al estímulo de

fotones microonda del tamaño apropiado. Entonces entraban unos cuantos fotones y

se desataba una inundación de fotones. Así se pudo ampliar considerablemente la

radiación entrante.

Se describió aquel proceso como «microwave amplification by stimulated emission of

radiation», y con las iniciales de estas palabras se formó el nombre del instrumento:

«máser». Pronto se crearon los máser sólidos, cuerpos en los que se podía conseguir

que los electrones ocuparan uno de dos niveles energéticos. Los primeros máser, tanto

gaseosos como sólidos, fueron intermitentes. Es decir, fue preciso atraerlos primero al

nivel energético superior y luego estimularlos. Tras la rápida emisión radiactiva

resultaba imposible obtener otra mientras no se repitiera el proceso de atracción.

Para salvar esta dificultad, el físico estadounidense de origen holandés, Nicolaas

Bloembergen, decidió emplear un sistema de tres niveles. Si el material elegido como

núcleo del máser puede tener electrones en cualquiera de los tres niveles energéticos

—uno inferior, uno intermedio y uno superior—, entonces la atracción y la emisión

pueden ser simultáneas. Se aspiran los electrones para hacerlos subir desde el nivel

energético más bajo hasta el superior. Una vez allí, los estímulos adecuados les harán

descender: primero, al nivel medio; luego, al inferior. Se requieren fotones de

diferente tamaño para absorberlos y estimular la emisión; no habrá interferencias

recíprocas entre ambos procesos. Así se tiene un máser continuo.

Como amplificador de microondas, el máser resulta ser un detector muy sensible en

radioastronomía —donde los rayos microonda extremadamente débiles recibidos del

espacio sidéreo se intensifican mucho por su conducto— y con gran fidelidad a las

características originales de la radiación (Reproducir sin pérdida de características

originales es reproducir sin «ruido». El máser es excepcionalmente'«silencioso» en este

sentido de la palabra.) También aplicaron sus investigaciones al espacio. El satélite

soviético Cosmos 97 lanzado el 30 de noviembre de 1965, llevaba a bordo un máser,

que trabajó satisfactoriamente. Por dicho trabajo Townes recibió en 1964 el premio

Nobel de Física, que compartió con dos físicos soviéticos, Nikolái Yennediéievich Basov

y Alexandr Mijáilovich Prójorov, que habían trabajado independientemente en la teoría

del máser.

Láseres

Primeramente, la técnica máser fue aplicable a las ondas electromagnéticas de

cualquier longitud, en particular, las de luz visible. En 1958, Townes marcó la posible

ruta de tales aplicaciones a las longitudes de ondas luminosas. Se podría llamar

«máser óptico» a ese mayor productor de luz. O bien definir el singular proceso como

«light amplification by stimulated emission of radiation» y emplear el nuevo grupo de

iniciales para darle nombre: láser. Esta palabra se hizo cada vez más popular (fig.

9.15).


355

En 1960, el físico norteamericano Theodore Harold Maiman construyó el primer láser

eficiente. Con tal fin empleó una barra de rubí sintético, que consiste, esencialmente,

en óxido de aluminio, más una cantidad mínima de óxido de cromo. Si se expone a la

luz esa barra de rubí, los electrones de los átomos de cromo ascenderán a niveles

superiores, y su caída se iniciará poco después. Los primeros fotones de luz (emitidos

con una longitud de onda de 694,3 mu) estimulan la producción de otros muchos

fotones, y la barra emite súbitamente un rayo de fuerte luz roja.

Antes de que terminara el año 1960, el físico persa Ali Javan, de los laboratorios

«Bell», preparó el láser continuo empleando una mezcla gaseosa (neón y helio) como

fuente de luz.

El láser hizo posible la luz en una forma inédita. Fue la luz más intensa que jamás se

produjera y la más monocromática (una sola longitud de onda), pero no se redujo a

eso ni mucho menos.

La luz ordinaria producida de cualquier otra forma, desde la hoguera hasta el Sol,

pasando por la luciérnaga, se compone de paquetes de ondas relativamente cortas.

Cabe describirla como cortas porciones de ondas apuntando en varias direcciones. Y

son innumerables las que constituyen la luz ordinaria.

Sin embargo, la luz producida por un láser estimulado consta de fotones del mismo

tamaño y que se mueven en la misma dirección. Ello significa que los paquetes de

ondas tienen idéntica frecuencia, y como están alineados y enlazados por los extremos

—digámoslo de este modo—, se fusionan entre sí. La luz parece estar constituida por

largos trechos de ondas cuya amplitud (altura) y frecuencia (anchura) son uniformes.

Ésta es la «luz coherente», porque los paquetes de ondas parecen agruparse. Los

físicos han aprendido a preparar la radiación coherente para largas longitudes de onda.

Pero eso no se había hecho nunca con la luz hasta 1960.

Por añadidura ideóse el láser de tal forma que se acentuó la tendencia natural de los

fotones a moverse en la misma dirección. Se trabajaron y platearon los dos extremos

del tubo de rubí para que sirvieran como espejos planos. Los fotones emitidos

circularon velozmente arriba y abajo de la barra, produciendo más fotones con cada

pasada, hasta adquirir la intensidad suficiente para escapar explosivamente por el

356


extremo donde el plateado era más ligero. Estos fotones fueron precisamente los que

habían sido emitidos en una dirección paralela al eje longitudinal de la barra, por los

que circulaban, arriba y abajo, golpeando incesantemente los espejos extremos. Si un

fotón de tamaño apropiado entraba en la barra siguiendo una dirección diferente

(aunque la diferencia fuera muy leve) y desencadenaba un tren de fotones estimulados

en esa dirección diferente, éstos escapaban por los costados de la barra, tras unas

cuantas reflexiones.

Un rayo de luz láser está formado por ondas coherentes tan exactamente paralelas,

que puede recorrer largas distancias sin ensancharse ni perder, por tanto, toda

eficacia. Se puede enfocar con la precisión suficiente para calentar una cafetera a unos

1.600 km de distancia. Los rayos láser han alcanzado incluso la luna en 1962, y su

diámetro se ha extendido sólo a 3 km después de recorrer en el espacio 402 millones

de kilómetros.

Una vez inventado el láser, se evidenció un interés explosivo —y no exageramos

nada— por su desarrollo ulterior. Al cabo de pocos años se habían ideado láseres

individuales que podían producir luz coherente cuyas distintas longitudes de onda se

contaban por centenares: desde la cercana luz ultravioleta, hasta la distinta infrarroja.

Se obtuvo la acción láser de una infinita variedad de sólidos, óxidos, metálicos,

fluoruros y tungstatos, semiconductores, líquidos y columnas gaseosas. Cada variedad

tenía sus ventajas y desventajas.

En 1964, el físico norteamericano Jerome V. V. Kasper ideó el primer láser químico. En

este láser, la fuente de energía es una reacción química. (En el caso del primero, fue la

disociación del CF3I mediante una pulsación lumínica.) La superioridad del láser

químico sobre las variedades ordinarias estriba en que se puede incorporar al propio

láser la reacción química productora de energía y, por tanto, no se requiere una fuente

externa de energía. Esto es análogo a la comparación entre un mecanismo movido por

baterías y otro que necesita una conexión con la red general de fuerza. Aquí hay una

ventaja obvia respecto a la manejabilidad, aparte que esos láseres químicos parecen

ser muy superiores, por su eficacia, a las variedades ordinarias (un 12 % largo,

comparado con un 2 % corto).

Los láseres orgánicos —aquellos en los que se utiliza como fuente de luz coherente un

complejo tinte orgánico— aparecieron en 1966 y fueron ideados por John R. Lankard y

Piotr Sorokin. La complejidad molecular posibilita la producción de luz mediante una

gran diversidad de reacciones electrónicas y, por consiguiente, con muy diversas

longitudes de onda. Así, es posible «sintonizar» un láser orgánico para que emita

cualquier longitud de onda dentro de una periferia determinada, en lugar de confinarlo

a una sola longitud de onda, como ocurre con los demás.

El rayo láser es muy fino, lo cual significa que se puede enfocar gran cantidad de

energía en un área sumamente reducida; dentro de esa área, la temperatura alcanza

niveles extremos. El láser puede vaporizar el metal para rápidos análisis e

investigaciones del espectro; también puede soldar, cortar y perforar sustancias con

un elevado punto de fusión. Aplicando el rayo láser al ojo humano, los cirujanos han

conseguido soldar tan rápidamente las retinas desprendidas, que los tejidos

circundantes no han sufrido la menor lesión por efecto del calor; y han empleado un

método similar para destruir tumores.

Deseando evidenciar la amplia gama de las aplicaciones «láser», Arthur L. Shawlow

ideó algo trivial, pero impresionante: una goma de borrar láser que, con un fucilazo

asombrosamente breve, vaporiza la tinta mecanográfica de las letras escritas sin

chamuscar siquiera el papel; en el otro extremo de la escala están los interferómetros

láser, que pueden tomar medidas con una precisión sin precedentes. Cuando se

intensifican las tensiones del globo terráqueo, resulta posible hoy día detectarlas

mediante varios láseres: los cambios en las bandas de interferencia de sus luces

delatarán hasta el más íntimo movimiento terrestre con la sutil precisión de una parte

por cada mil millones de millones. Por otro lado, los primeros hombres que alcanzaron

la Luna dejaron allá un mecanismo reflector ideado para proyectar rayos láser hacia la

357


Tierra. Con este método se puede determinar la distancia a la Luna con mayor

exactitud generalmente que las distancias entre dos puntos de la superficie terrestre.

Una aplicación factible que despertó gran entusiasmo desde los comienzos fue el

empleo de los rayos láser como rayos transmisores de comunicaciones. La alta

frecuencia de la luz coherente, comparada con las radioondas coherentes utilizadas

hoy por la radiodifusión y la televisión, parece ser capaz de aglomerar muchos miles

de canales en espacios que ahora mantienen un solo canal. Ello hace pensar que algún

día cada ser humano podrá tener su propia longitud de onda. Naturalmente, será

preciso modular la luz láser. Para ello habrá necesidad de convertir en luz láser alterna

las corrientes eléctricas alternas producidas por el sonido (bien sea mediante cambios

en la amplitud de su frecuencia, o quizás encendiéndola y apagándola de forma

intermitente), lo cual podría servir, a su vez, para producir corriente eléctrica alterna

en otros lugares. Ya se está trabajando en el desarrollo de tales sistemas.

Como la luz está mucho más expuesta que las radioondas a las interferencias

ocasionadas por nubes, niebla, bruma y polvo, tal vez sea necesario conducir la luz

láser por medio de tuberías provistas de lentes (para reconcentrar los rayos a

intervalos) y espejos (para reflejarlos en los recodos). No obstante, se ha ideado un

láser de anhídrido carbónico que emite ininterrumpidamente unos rayos láser cuya

inaudita potencia les permite internarse en la zona infrarroja lo suficiente para librarse

casi por completo de las perturbaciones atmosféricas. Esto posibilitaría también la

comunicación a través de la atmósfera.

De una forma práctica más inmediata es la posibilidad de emplear los rayos de láser

modulados en fibras ópticas, tubos de cristal supertransparente más finos que un

cabello humano, para remplazar los cables de cobre aislados en las comunicaciones

telefónicas. El vidrio es tremendamente barato y más común que el cobre y puede

llevar mucha más información con ayuda de la luz láser. En muchos lugares, los

robustos cables de cobre enrollado están dejando lugar a los muchos menos

voluminosos manojos de fibras ópticas.

Una aplicación más portentosa aún de los rayos láser —sobre la cual se habla mucho

hoy— es una nueva especie de fotografía. En la fotografía corriente, sobre la película

fotográfica se proyecta un rayo de luz ordinaria reflejado desde un objeto. Lo que se

registra es la sección transversal de la luz, y ello no representa, ni mucho menos, la

información potencial que puede contener.

Supongamos, por el contrario, que un rayo de luz se divide en dos. Una parte incide

sobre un objeto y se refleja con todas las anormalidades que pueda imponerle ese

objeto. La segunda parte se refleja en un espejo sin irregularidades. Luego ambas

partes convergen en la película fotográfica, en la que se registra la interferencia de las

diversas longitudes de onda. Teóricamente, esa grabación de las interferencias debería

incluir todos los datos referentes a cada rayo luminoso. La fotografía que registra dicho

esquema de interferencias parece estar velada cuando se la revela, pero si se proyecta

una luz a través de la película fotográfica, esa luminosidad hará resaltar las

características de la interferencia y se obtendrá una imagen con información completa.

Tal imagen será tridimensional, tal como la superficie sobre la que se reflejara la luz;

entonces, para demostrar el cambio habido en la perspectiva, se puede fotografiar la

imagen desde diversos ángulos con el método fotográfico ordinario.

En 1947, el físico británico, de origen húngaro, Dermis Gabor, desarrolló por primera

vez este concepto cuando investigaba métodos para perfilar la imagen producida por

los microscopios electrónicos. Lo denominó «holografía», voz derivada de una palabra

latina que significa «escrito de puño y letra».

Aunque la idea de Gabor tenía una sólida base teórica, resultó ser inaplicable porque la

luz ordinaria no servía para ese fin. Con longitudes de ondas muy diversas y

moviéndose en todas direcciones, las bandas de interferencia producidas por los dos

rayos de luz serían tan caóticas que no facilitarían la menor información. Ello

equivaldría a producir un millón de imágenes turbias, todas ellas superimpuestas en

posiciones ligeramente distintas.

358


La introducción de la luz láser produjo un cambio total. En 1965, Emmet N. Leith y

Juris Upatnieks, de la Universidad de Michigan, lograron plasmar los primeros

hologramas. Desde entonces, la técnica se ha perfilado hasta el punto de hacer posible

la holografía en color y permitir ver con luz ordinaria las bandas de interferencia

fotografiadas. La Microholografía promete agregar una nueva dimensión a las

investigaciones biológicas, y nadie puede predecir hasta dónde llegará el «proceso»

láser.


Yüklə 3,98 Mb.

Dostları ilə paylaş:
1   ...   34   35   36   37   38   39   40   41   42




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©genderi.org 2024
rəhbərliyinə müraciət

    Ana səhifə