Allá por 1877, un año después de inventarse el teléfono, Edison patentó su
«fonógrafo». En las primeras grabaciones se marcó el surco sobre papel de estaño,
que servía como envoltura de un cilindro rotatorio. En 1885, el inventor americano
Charles Sumner Tainter lo sustituyó por cilindros de cera; más tarde, en 1887, Emile
Berliner impuso los discos revestidos de cera. En 1925 se empezó a hacer grabaciones
por medio de electricidad, empleando un «micrófono» que transformaba el sonido en
corriente eléctrica mimética por medio de un cristal piezoeléctrico que sustituyó el
diafragma metálico; este cristal favoreció la reproducción del sonido y mejoró su
calidad. En la década de 1930, el físico hungaroamericano Peter Goldmark desarrolló el
disco de larga duración, que giraba a 33,5 vueltas por minuto en vez de a las 78 r.p.m.
de hasta entonces. Un disco LP (larga duración) sencillo podía contener seis veces más
música que uno de la antigua clase, y eso hizo posible escuchar sinfonías sin la
necesidad repetida de darles la vuelta a los discos y cambiarlos.
La electrónica hizo posible la alta fidelidad (hi-fi) y el sonido estereofónico, que tuvo el
efecto, en cuanto se refería al mismo sonido, de eliminar prácticamente todas las
barreras mecánicas entre la orquesta o cantante y el oyente.
La «grabación magnetofónica» del sonido fue un invento llevado a cabo en 1898 por el
ingeniero electrotécnico danés Valdemar Poulsen, pero hubo que introducir en el
invento varias mejoras técnicas para que éste tuviera aplicación práctica. Una
electromagneto, que responde a una corriente eléctrica portadora del esquema sonoro,
magnetiza una fina capa de polvo metálico sobre una cinta o alambre que circula a
través de ella; luego se invierte el sentido de la marcha mediante un electroimán, que
recoge la huella magnética para traducirla de nuevo en la corriente que reproducirá el
sonido.
La luz artificial antes de la electricidad
Entre todos los milagros de la electricidad, el más popular es, sin duda, la
transformación de la noche en día. El género humano se ha defendido con hogueras,
antorchas y velas contra el diario e inquietante oscurecimiento del Sol; durante
milenios, la luz artificial fue mediocre y oscilante.
El siglo XIX introdujo algunos avances en esos métodos de iluminación de las viejas
épocas. El aceite de ballena y luego el queroseno comenzaron a emplearse en las
lámparas de aceite, con mayor brillo y eficiencia. El químico austríaco Karl Auer, barón
333
de Welsbach, descubrió que si un cilindro de tejido, impregnado con compuestos de
torio y cerio, se colocaba alrededor de la llama de una lámpara, brillaría con mayor
blancura. Esto fue el manguito Welsbach, patentado en 1885 y que aumentó
notablemente el brillo de las lámparas de petróleo.
A principios de siglo, la iluminación por gas fue introducida por el inventor escocés
William Murdock. Hizo salir gas de carbón en chorro, para que se encendiese al salir.
En 1802, celebró una paz temporal con Napoleón instalando un espectacular
despliegue de luces de gas y, en 1803, de forma rutinaria instaló en las principales
fábricas dicha iluminación. En 1807, algunas calles de Londres comenzaron a tener luz
de gas, y la costumbre se extendió. A medida que avanzaba el siglo, las grandes
ciudades fueron cada vez más luminosas por la noche, reduciendo los índices de
delincuencia y ampliando la seguridad de los ciudadanos.
El químico norteamericano Robert Haré descubrió que una cálida luz de gas que se
hacía pasar por un bloque de óxido de calcio (cal) producía una brillante luz blanca.
Semejante luz de calcio empezó a utilizarse para iluminar grandes escenarios teatrales
hasta un nivel mucho más luminoso de lo que fuera posible hasta entonces. Aunque
esta técnica ya hace mucho tiempo que quedó anticuada, la gente que se encuentra en
un momento de gran publicidad aún se dice que se halla «a la luz de las candilejas»,
en recuerdo de esa primera aplicación teatral.
Todas esas formas de iluminación, desde las hogueras hasta el chorro de gas, implican
llamas al aire libre. Debía de haber algún mecanismo para encender el combustible —
ya fuera madera, carbón, petróleo o gas— cuando no existía una llama en las
proximidades. Antes del siglo XIX, el método menos laborioso era el empleo del
pedernal y el eslabón. Al hacer chocar uno contra otro, se lograba una chispa que
permitía, con suerte, encender un poco de yesca (un material finamente dividido e
inflamable) con el que, a su vez, encender una candela, etc.
A principios del siglo XIX, los químicos comenzaron a idear métodos para revestir el
extremo de un trozo de madera con productos químicos, que pudiesen encenderse en
forma de llama cuando se elevaba la temperatura. La fricción podía hacer las veces de
esto, y «frotando una cerilla» sobre una superficie rugosa se producía una llama.
Las primeras cerillas humeaban horriblemente, producían malos olores y empleaban
productos químicos que eran peligrosamente venenosos. Las cerillas comenzaron a ser
realmente seguras para su empleo en 1845, cuando el químico austríaco Antón Ritter
von Schrotter empleó el fósforo rojo para estos propósitos. Llegado el momento se
desarrollaron los fósforos de seguridad, en los que se colocaba fósforo rojo en una tira
rugosa en algún lugar de la caja que contenía las cerillas, mientras que el fósforo en sí
tenía en su cabeza los otros productos químicos necesarios. Ni la tira ni la cerilla
podían arder espontáneamente, excepto cuando, al frotarse contra aquella tirilla, la
cerilla se encendía.
Hubo también un regreso al eslabón y al pedernal, con cruciales mejoras. En lugar del
eslabón se emplea mischmetal, una mezcla de metales (principalmente cerio) que, al
ser frotado contra una ruedecita, emite unas chispas particularmente calientes. En
lugar de la yesca se empleó un fácilmente inflamable combustible para fluido. El
resultado es el encendedor para cigarrillos.
Luz eléctrica
Las llamas al aire libre son otra clase de cosa parpadeante y existe un continuo peligro
de incendio. Se necesitaba algo nuevo por completo, y hacía ya mucho tiempo que se
observaba que la electricidad podía originar luz. Las botellas de Leyden originaban
chispas cuando se descargaban; la corriente eléctrica hacía a veces relucir los cables al
pasar por los mismos. Ambos sistemas fueron utilizados para la iluminación.
En 1805, Humphry Davy forzó una descarga eléctrica a través del espacio aéreo entre
conductores. Al mantener la corriente, la descarga era continua y se conseguía un arco
eléctrico. A medida que la electricidad se hizo más barata, fue también posible emplear
334
arcos eléctricos con fines de iluminación. En los años 1870, las calles de París y de
otras grandes ciudades poseían semejantes lámparas. La luz era dura, parpadeante y
también seguía al aire libre, lo cual constituía una vez más un peligro de incendio.
Sería mejor conseguir que una corriente eléctrica calentase un cable delgado, o
filamento, hasta que empezase a brillar. Naturalmente, el filamento debería brillar en
un espacio libre de oxígeno, pues si no era así, la oxidación lo destruiría al instante.
Los primeros intentos para eliminar el oxígeno se redujeron al procedimiento directo
de extraer el aire. En 1875, Crookes ideó cierto método (relacionado con sus
experimentos sobre rayos catódicos; véase capítulo 7) para producir un vacío
suficiente a tal fin, con las necesarias rapidez y economía. No obstante, los filamentos
utilizados resultaron poco satisfactorios. Se rompieron con excesiva facilidad. En 1878,
Thomas Edison, animado por su reciente y triunfal invento del fonógrafo, se manifestó
dispuesto a abordar el problema. Tenía sólo treinta y un años por entonces, pero era
tanta su reputación como inventor, que su anuncio causó verdadero revuelo en las
Bolsas de Nueva York y Londres, haciendo tambalearse las acciones de las compañías
de gas.
Tras centenares de experimentos y muchos fracasos, Edison encontró, al fin, un
material útil como filamento: una hebra de algodón chamuscada. El 21 de octubre de
1879 encendió su lámpara. Ésta ardió sin interrupción durante cuarenta horas. En
vísperas de Año Nuevo, Edison presentó sus lámparas en triunfal exhibición pública,
iluminando la calle principal de Menlo Park (Nueva Jersey), donde había instalado su
laboratorio. Sin pérdida de tiempo, patentó su lámpara y empezó a producirla en
cantidad.
Sin embargo, Edison no fue el único inventor de la lámpara incandescente. Otro
inventor, por lo menos, pudo reclamar el mismo derecho: fue el inglés Joseph Swan,
quien mostró una lámpara con filamento de carbón, ante una junta de la «Newcastleon-
Tyne Chemical Society», el 18 de diciembre de 1878, si bien no logró comercializar
su invento hasta 1881.
Entonces Edison abordó un problema fundamental: abastecer los hogares con
cantidades constantes y suficientes de electricidad para sus lámparas, tarea que
requirió mucho más ingenio que la propia invención de la lámpara. Más tarde, esta
lámpara se benefició de dos mejoras. En 1910, William David Coolidge, de la «General
Electric Company» eligió el tungsteno, de escasa capacidad calorífica, para fabricar los
filamentos y, en 1913, Irving Laungmuir introdujo el nitrógeno de atmósfera inerte en
la lámpara para evitar toda evaporación, así como la rotura del filamento, tan
frecuente en el vacío (fig. 9.7).
El argón (cuyo uso se generalizó en 1920) sirve a ese propósito mejor que el
335
nitrógeno, pues su atmósfera es completamente inerte. El criptón, otro gas inerte, es
más eficiente todavía porque permite que el filamento de la lámpara resista muy
elevadas temperaturas y dé más densidad de luz al arder, sin que se acorte por ello su
duración.
Durante medio siglo, el cristal transparente de la bombilla eléctrica tuvo como
resultado que el filamento reluciese con fuerza y que resultase tan difícil de mirar
como el propio Sol. Un ingeniero químico, Marvin Pipikin, ideó un método práctico de
revestir el cristal de la bombilla por dentro (por el exterior tal revestimiento sólo servía
para recoger polvo y para oscurecer la luz). Al fin, el empleo de bombillas esmeriladas
producía una luz suave, agradable y sin parpadeos.
La llegada de la luz eléctrica podía potencialmente eliminar toda clase de llamas al aire
libre para la iluminación, lo cual acarrearía que los incendios comenzasen a ser cosa
del pasado. Por desgracia, siguen existiendo llamas al exterior y, probablemente,
siempre las habrá: chimeneas, estufas de gas y hornos de petróleo. Algo
particularmente desgraciado es el hecho de que centenares de millones de adictos aún
sigan transportando llamas al aire libre en forma de cigarrillos, empleando con
frecuencia, además, encendedores. La pérdida de propiedades y de vidas como
resultado de los incendios provocados por cigarrillos (incendios forestales y también de
maleza) resulta muy difícil de evaluar.
El filamento brillante de la bombilla eléctrica (una luz incandescente, puesto que es
inducida por el calor albergado en el filamento mientras se resiste al flujo de la
corriente eléctrica) no es la única forma de convertir la electricidad en luz. Por
ejemplo, las llamadas luces de neón (introducidas por el químico francés Georges
Claude en 1910) son tubos en los que una descarga eléctrica excita átomos de gases
de neón hasta que emiten un brillante y rojo resplandor. La lámpara solar contiene
vapor de mercurio, el cual, cuando se excita por medio de una descarga, consigue una
radiación muy rica en luz ultravioleta, que puede emplearse no sólo para lograr un
bronceado sino también para matar las bacterias o generar fluorescencia. Y esta
última, a su vez, conduce a la iluminación fluorescente, introducida en su forma actual
en la Feria Mundial de Nueva York del año 1939. Aquí la luz ultravioleta del vapor de
mercurio excita la fluorescencia en un revestimiento fosforado en el interior del tubo
(fig. 9.8). Dado que esta luz fría gasta poca energía en calor, consume menos
corriente eléctrica.
Un tubo fluorescente de 40 W suministra tanta luz —aunque no tanto calor ni mucho
menos— como una lámpara incandescente de 150 W. Por tanto, se ha manifestado
una tendencia general hacia la luz fluorescente desde la Segunda Guerra Mundial.
Cuando apareció el primer tubo fluorescente, se prefirieron las sales de berilio como
materia fluorescente. Ello originó varios casos serios de envenenamiento («beriliosis»),
por la aspiración de aire contaminado con esas sales o la introducción de esa sustancia
en el organismo humano por los cortes de la piel producidos ocasionalmente cuando se
rompían los tubos. Desde 1949 se emplearon otros fósforos menos peligrosos.
336
La última y más prometedora innovación es un método que convierte la electricidad
directamente en luz sin la formación previa de luz ultravioleta. En 1936, el físico
francés Georges Destriau descubrió que una intensa comente alterna podía comunicar
incandescencia a una sustancia fosforescente tal como el sulfato de cinc. Actualmente,
los ingenieros electrotécnicos están aplicando el fósforo al plástico o cristal y utilizan el
fenómeno llamado «electroluminiscencia» para formar placas incandescentes. De este
modo, una pared o un techo luminiscente podría alumbrar toda una habitación con su
resplandor suave y coloreado según el gusto de cada cual.
Sin embargo, la eficiencia de la electroluminiscencia sigue siendo baja para permitirla
competir con otras formas de iluminación eléctrica.
Fotografía
Probablemente, ninguna invención relacionada con la luz ha proporcionado al género
humano tanto placer como la fotografía. Ésta se inició con la observación de que al
pasar la luz a través de un pequeño orificio a una cámara oscura, formaba una imagen
difusa e invertida del escenario exterior. Un alquimista italiano, Giambattista della
Porta, construyó en 1550 un artefacto similar, denominado, como se ha dicho,
«cámara oscura».
En una cámara oscura penetra una cantidad mínima de luz. No obstante, si se
remplaza el orificio por una lente, se concentrará una cantidad considerable de luz y,
por tanto, la imagen será mucho más brillante. Una vez hecho esto, es necesario
buscar alguna reacción química que responda a la luz. Varios hombres se lanzaron a
esa búsqueda, destacando, entre ellos, los franceses Joseph-Nicéphore Niepce y Louis-
Jacques Mande Daguerre, así como el inglés William Henry Fox Talbot.
Niepce trató de conseguir que la luz solar oscureciera el cloruro de plata en una forma
apropiada y produjo la primera fotografía primitiva en 1822, que requería 8 horas de
exposición.
Daguerre formó sociedad con Niepce antes de que este último muriese y continuó
mejorando el proceso. Tras haber oscurecido sales de plata con luz solar, disolvió las
sales sin cambiar en tiosulfato de sodio, un proceso sugerido por el científico John
Herschel (el hijo de William Herschel). En 1839, Daguerre empezó a realizar
daguerrotipos, las primeras fotografías prácticas, con exposiciones que no requerían
más de 20 minutos.
Talbot mejoró el proceso aún más, consiguiendo negativos en los que los lugares en
los que incidía la luz se oscurecían, mientras que los oscuros permanecían brillantes en
los lugares en que la luz se oscurecía. A partir de tales negativos se podían conseguir
numerosos positivos, en los que la luz llevaba a cabo otra inversión, por lo que los
lugares luminosos seguían siendo brillantes y lo mismo pasaba con las partes oscuras,
como debía ser. En 1844, Talbot publicó el primer libro ilustrado con fotografías.
La fotografía probó su valor en la documentación humana cuando, en los años 1850,
los británicos fotografiaron escenas de la guerra de Crimea y cuando, en la década
siguiente, el fotógrafo estadounidense Mattew, con lo que ahora consideraríamos un
imposible equipo primitivo, tomó unas fotografías que se han hecho clásicas de la
guerra civil americana en plena acción.
Durante casi medio siglo, la placa húmeda tuvo que seguir empleándose en fotografía.
Ésta consistía en una placa de cristal, que había sido rociada con una emulsión de
productos químicos que tenía que hacerse sobre la marcha. La fotografía había de
realizarse antes de que la emulsión se secase. Mientras no existiese solución para esta
limitación, las fotografías sólo podían hacerse por medio de profesionales habilidosos.
Sin embargo, en 1878, un inventor norteamericano, George Eastman, descubrió cómo
mezclar la emulsión con gelatina, en vez de tener que rociar la placa, dejándolo secar
en forma de gel que se mantuviese durante largos períodos de tiempo. En 1884
patentó la película fotográfica en la que se rociaba el gel primero sobre papel y luego,
337
en 1889, sobre celuloide. En 1888 inventó la «Kodak», una cámara que tomaría
fotografías con sólo apretar un botón. La película expuesta podía sacarse para
revelarla. A partir de ese momento, la fotografía se convirtió en una afición popular. A
medida que comenzaron a emplearse unas emulsiones más sensibles, las fotos
empezaron a tomarse con ayuda de un destello de luz (flash) y ya no hubo necesidad
de que el modelo posase durante largos períodos de tiempo con una expresión vidriosa
y poco natural.
No cabía suponer que las cosas se hiciesen aún más sencillas pero, en 1947, el
inventor estadounidense Edwin Herbert Land ideó una cámara con un doble rollo de
película, una ordinaria película negativa y un papel positivo, con unos productos
químicos sellados entre ambos. Esos productos químicos se liberaban en el momento
apropiado y revelaban la impresión positiva de una forma automática. Unos minutos
después de haber disparado la máquina, ya se tenía en la mano una fotografía del todo
completa.
Durante el siglo XIX, las fotografías fueron en blanco y negro, no pudiendo hacerlas en
color. Sin embargo, a principios del siglo XX, se desarrolló un proceso de fotografiar en
color por el físico francés nacido en Luxemburgo Gabriel Lippmann, que consiguió el
premio Nobel de Física en 1908. No obstante, esto se demostró que era un falso
comienzo, y la fotografía en color de un modo práctico no se desarrolló hasta 1936.
Este segundo, y afortunado, intento se basaba en la observación, efectuada en 1855
por Maxwell y Helmholtz, de que cualquier color en el espectro puede conseguirse con
una combinación de luz roja, verde y azul. Basado en este principio, la película en color
se compone de una emulsión en tres capas: una sensible al rojo, otra al verde y otra
más a los componentes azules de la imagen. Se forman así tres fotos separadas pero
sobreimpresas, cada una de las cuales reproducen la intensidad de la luz y su parte del
espectro como una pauta de oscurecimiento en blanco y negro. La película se revelaba
en tres etapas sucesivas, empleando pigmentos rojos, azules y verdes para depositar
los colores apropiados sobre el negativo. Cada lugar de la foto es una combinación
específica de rojo, verde y azul, y el cerebro interpreta esa combinación para
reconstruir todo el abanico del color.
En 1959, Land expuso una nueva teoría sobre la visión del color. Según él, el cerebro
no requiere una combinación de tres colores para dar la impresión de colorido total.
Todo cuanto necesita es dos longitudes de onda diferentes (o grupos de longitudes de
onda), una algo más larga que la otra. Por ejemplo, un grupo de longitudes de onda
puede ser un espectro entero o luz blanca. Como su longitud de onda (promedio) está
en la zona amarillo-verde, puede servir de «onda corta». Ahora bien, una imagen
reproducida mediante la combinación de luces blanca y roja (esta última actuaría como
onda larga), aparece a todo color. Land ha hecho también fotografías a todo color con
luces verde y roja filtrada, así como otras combinaciones binarias apropiadas.
El invento del cinematógrafo se debió a una primera observación del físico inglés Peter
Mark Roget, en 1824. Este científico observó que el ojo humano retiene una imagen
persistente durante una fracción apreciable de segundo. Tras la introducción de la
fotografía, muchos experimentadores, particularmente en Francia, aprovecharon esa
propiedad para crear la ilusión de movimiento exhibiendo en rápida sucesión una serie
de estampas. Todo el mundo está familiarizado con el entretenimiento consistente en
un mazo de cromos que, cuando se le trashoja con rapidez, da la impresión de que una
figura se mueve y realiza acrobacias. Si se proyecta sobre una pantalla, con intervalos
de algunos dieciseisavos de segundo, una serie de fotografías, siendo cada una de ellas
algo distinta de la anterior, la persistencia de esas imágenes sucesivas en el ojo dará
lugar a enlaces sucesivos, hasta causar la impresión de movimiento continuo.
Edison fue quien produjo la primera «película cinematográfica». Fotografió una serie de
escenas en una cinta y luego pasó la película por un proyector que mostró,
sucesivamente, cada una con la correspondiente explosión luminosa. En 1894 se
exhibió, para entretenimiento público, la primera película cinematográfica, y, en 1914,
los teatros proyectaron la cinta de largometraje The Birth of a Nation (El nacimiento de
una nación).
338
A las películas mudas se incorporó, en 1927, la banda sonora, en la cual, el sistema
ondulatorio de la música y la voz del actor se transforman en una corriente eléctrica
variable mediante un micrófono, y entonces esta corriente enciende una lámpara, cuya
luz se fotografía también junto con la acción cinematográfica. Cuando la película
acompañada de esa banda luminosa añadida en un borde se proyecta en la pantalla,
las variaciones luminosas de la lámpara en el esquema de ondas sonoras se
transforman de nuevo en corriente eléctrica por medio de un «tubo fotoeléctrico», y la
corriente se convierte, a su vez, en sonido.
Dos años después de la primera «película sonora», El cantor de jazz, los filmes mudos
pasaron a la historia, tal como le ocurriera casi al vaudeville. Hacia fines de los años
1930, se agregó el color a las «cintas habladas». Por añadidura, la década de 1950
asistió al desarrollo del sistema de visión periférica, e incluso el de efectos
tridimensionales (3D), muy poco afortunado y duradero, consistente en la proyección
de dos imágenes sobre la pantalla. En este último caso, el espectador debe usar gafas
polarizadas para ver una imagen distinta con cada ojo, lo cual produce un efecto
estereoscópico.
MÁQUINAS DE COMBUSTIÓN INTERNA
Aunque el petróleo dio paso a la electricidad en el campo de la iluminación artificial,
resultó indispensable para otro adelanto técnico que revolucionó la vida moderna tan
profundamente como cuando aparecieron los aparatos electrodomésticos. Esta
innovación fue la máquina de combustión interna, llamada así porque en su interior
hay un cilindro en el que se quema el combustible de tal forma que los gases mueven
directamente el pistón. Por lo general, las máquinas de vapor son de «combustión
externa», pues el combustible arde en sus partes exteriores y el vapor así formado
pasa entonces al cilindro por diversos conductos.
El automóvil
Este artificio compacto, movido por las pequeñas explosiones provocadas dentro del
cilindro, permitió aplicar la fuerza motriz a vehículos menores, para los cuales no
resultaba funcional la voluminosa máquina de vapor. No obstante, ya en 1786
aparecieron «carruajes sin caballos», movidos por vapor, cuando William Murdock, un
socio de James Watt, decidió construir uno de semejantes artefactos. Un siglo después,
el inventor americano Francis Edgar Stanley diseñó la famosa Stanley Steamer, que
hizo la competencia a los primeros carruajes provistos con motores de combustión
interna. Sin embargo, el futuro pertenecía a estos últimos.
Realmente, se construyeron algunas máquinas de combustión interna a principios del
siglo XIX, antes de que se generalizara el uso del petróleo. Éstas quemaron vapores de
trementina o hidrógeno como combustible. Pero ese artefacto no dejó de ser una
curiosidad hasta que empezó a utilizarse la gasolina, el líquido productor de vapor y, a
la vez, combustible cuya explotación resulta rentable y abundante.
En 1860, el inventor francés Étienne Lenoir construyó el primer motor práctico de
combustión interna y, en 1876, el técnico alemán Nikolaus August Otto diseñó un
motor de «cuatro tiempos». Primero, un pistón ajustado perfectamente al cilindro
recibe un impulso ascendente, de modo que el cilindro vacío absorbe una mezcla de
gasolina y aire. Luego, ese pistón recibe un nuevo impulso y comprime el vapor. En el
punto de máxima compresión, dicho vapor se enciende y explota. La explosión dispara
el pistón, y este movimiento acelerado es lo que hace funcionar el motor. Mueve un
árbol que empuja otra vez al pistón para hacerle expulsar los residuos quemados, o
«escape»; éste es el cuarto y último movimiento del ciclo. Entonces el árbol mueve el
pistón para repetir el ciclo (fig. 9.9).
339
Un ingeniero escocés llamado Dugald Clerk agregó casi inmediatamente una mejora.
Incorporó un segundo cilindro de forma que trabajara un pistón mientras el otro
estaba en estado de recuperación: ello dio más equilibrio a la producción de fuerza. Al
añadir después otros cilindros (ocho es el número más generalizado hoy día), aumentó
340
la armonía y potencia de ese «mecanismo compensador». Un motor así resultaba
esencial si los automóviles debían convertirse en una cosa práctica, pero también
resultaban necesarios otros inventos auxiliares.
La ignición del compuesto gasolina-aire en el momento preciso planteó un problema.
Se emplearon toda clase de ingeniosos artificios, pero en 1923 se le dio una solución
general con la electricidad. El suministro proviene de una «batería acumuladora». Ésta
es una batería que, como cualquier otra, provee la electricidad producida por una
reacción química. Pero se la puede mantener cargada enviándole una corriente
eléctrica en dirección opuesta a la de descarga; esta corriente invierte la reacción
química, de modo que los productos químicos originen más electricidad. Un pequeño
generador movido por el motor suministra esa corriente inversa.
El tipo más común de batería tiene placas alternas de plomo y óxido de plomo, con
capas de ácido sulfúrico concentrado. Lo inventó el físico francés Gastón Planté en
1859, y fue modernizado en 1881 por el ingeniero electrotécnico americano Charles
Francis Brush. Desde entonces se han inventado otras baterías más resistentes y
compactas, como, por ejemplo, una batería de níquel y hierro, ideada por Edison hacia
1905, pero ninguna puede competir en economía con la batería de plomo.
Para elevar el voltaje de la corriente eléctrica facilitada por la batería se emplean
transformadores denominados «carretes de inducción», y ese voltaje acrecentado
proporciona la chispa de ignición que salta en los electrodos de las populares bujías.
Una vez empieza a funcionar el motor de combustión interna, la inercia lo mantiene en
movimiento entre las fases de potencia. Mas, para hacerle arrancar es preciso recurrir
a la energía externa. Primeramente se hizo con fuerza muscular (por ejemplo, la
manivela del automóvil), y hoy día aún se ponen en marcha los motores fueraborda y
las máquinas segadoras tirando de un cable. El «arranque automático» en los
automóviles modernos se hace gracias a la batería, que provee la energía necesaria
para los primeros movimientos del motor.
En 1885, los ingenieros alemanes Gottlieb Daimler y Karl Benz construyeron,
independientemente, el primer automóvil funcional. Pero lo que en realidad vulgarizó el
automóvil como medio de transporte fue la «producción en serie».
El primer promotor de esa técnica fue Eli Whitney, quien merece más crédito por ello
que por su famoso invento de la máquina desmotadora de algodón. En 1789, el
Gobierno Federal contrató a Whitney para la fabricación de cañones destinados al
Ejército. Hasta entonces se habían fabricado esas piezas individualmente, es decir,
proveyendo a cada una con sus propios y particulares elementos. Whitney ideó un
medio para universalizar esos elementos, de modo que cada uno fuera aplicable a
cualquier cañón. Esta innovación tan simple —fabricación en serie de piezas
intercambiables para cualquier tipo de artículo— fue quizá tan influyente como otros
factores importantes en la producción industrial masiva de nuestros días. Cuando
apareció la maquinaria moderna, fue posible lanzar al mercado piezas de repuesto en
cantidades prácticamente ilimitadas.
El ingeniero estadounidense Henry Ford fue quien por primera vez explotó a fondo este
concepto. En 1892 había construido su primer automóvil (un modelo de dos cilindros)
y luego, desde 1899, había trabajado como ingeniero jefe de la «Detroit Automobile
Company». Esta empresa quería producir vehículos a gusto de cada cliente, pero Ford
tenía otras ideas. Así, pues, dimitió en el año 1902, para emprender por su propia
cuenta la producción masiva de automóviles. Siete años después lanzó el modelo Ford-
T y, en 1913, empezó a fabricar tomando como pauta el plan Whitney... despachando
así coche tras coche, cada uno exactamente igual al anterior y todos ellos construidos
con las mismas piezas.
Ford descubrió que podría acelerar la producción empleando obreros que hicieran
siempre el mismo trabajo especializado con ininterrumpida regularidad, como si fueran
máquinas. Entretanto, el americano Samuel Colt (quien había inventado ya el revólver
de «seis tiros»), en 1847, daba los primeros pasos en esa dirección y el fabricante de
341
automóviles Ransom E. Olds había aplicado el mismo sistema a la fabricación del
vehículo automóvil en 1900. Sin embargo, Olds perdió el apoyo financiero, y entonces
las finanzas favorecieron a Ford, quien llevó adelante su movimiento hasta una feliz
fructificación. Ford implantó la «cadena de montaje», en la que los operarios
agregaban las piezas de su especialización a cada modelo, conforme pasaba ante ellos
sobre una correa sin fin, hasta que el automóvil terminado salía rodando por el
extremo final de la línea. Este nuevo sistema ofreció dos ventajas económicas: salarios
elevados para el obrero, y automóviles asequibles a precios sorprendentemente bajos.
En 1913, Ford fabricaba ya mil modelos T cada día. Antes de que se «rompiera» la
cadena en 1927, se habían lanzado quince millones de unidades y el precio había
descendido a 290 dólares. Entonces nació la pasión por el cambio anual de coche, y
Ford se adhirió al inevitable desfile de variedades e innovaciones superficiales, que
decuplicaron el precio de los automóviles y privaron a los norteamericanos de las
ventajas de la producción masiva.
En 1892, el ingeniero mecánico alemán Rudolf Diesel introdujo una modificación en el
motor de combustión interna, que entrañó simplificaciones mecánicas y economía de
combustible. Sometió a muy alta presión la mezcla de combustible-aire, de modo que
el calor generado por la compresión fue suficiente para inflamarla. El «motor Diesel»
permitió emplear productos destilados del petróleo difícilmente volatilizables. Como la
compresión era aquí muy elevada, fue preciso construir un motor mucho más sólido y
pesado que el de gasolina. Cuando, en 1920, se desarrolló un sistema adecuado de
inyección de fuel-oil, éste fue adoptado sin discusión para los camiones, tractores,
autobuses, barcos y locomotoras, convirtiéndose en el rey del transporte pesado.
El progresivo refinamiento de la gasolina ha incrementado la eficiencia del motor de
combustión interna. La gasolina es una mezcla compleja de moléculas integrada por
átomos de carbono e hidrógeno («hidrocarburos»), algunos de los cuales arden más
aprisa que otros. Ahora bien, la combustión demasiado rápida no es deseable, pues
entonces la mezcla gasolina-aire explota con excesiva premura, determinando el
«picado del motor». La combustión más lenta induce una expansión uniforme del
vapor, que propulsa el pistón con suavidad y eficacia.
Para medir el poder antidetonante de una determinada gasolina se emplea la «escala
octano», es decir, se la compara con la detonación producida por un hidrocarburo
llamado «isooctano», que es extremadamente antidetonante. La refinación de gasolina
requiere, entre sus funciones primarias, la producción de un hidrocarburo mixto con un
elevado índice de octanos.
Conforme pasa el tiempo, los motores de automóviles se construyen cada vez con
mayor «compresión», es decir, que la mezcla gasolina-aire se comprime a densidades
progresivamente superiores antes de la ignición. Ello permite obtener más potencia de
la gasolina, pero también se estimula la detonación prematura, por lo cual hay que
preparar continuamente gasolinas de más octanos. Se ha facilitado una tarea con el
empleo de ciertos productos químicos que, agregados en pequeñas cantidades a la
gasolina, reducen la detonación. El más eficiente de esos «compuestos
antidetonantes» es el «plomo tetraetilo», un compuesto de plomo lanzado al mercado
con tal finalidad en 1925. El combustible que lo contiene se llama «etilgasolina». Si el
plomo tetraetilo estuviera solo, el óxido de plomo formado durante la combustión
destrozaría el motor. De aquí que se agregue también bromuro etílico. El átomo de
plomo en el plomo tetraetilo se combina con el átomo de bromuro en el bromuro etílico
para formar bromuro de plomo, que se evapora a la temperatura de la gasolina y
escapa con los gases residuales.
Los combustibles Diesel son comprobados respecto del retraso de ignición después de
la compresión (un retraso demasiado grande resulta indeseable) respecto de un
hidrocarburo llamado cetano, que contiene 16 átomos de carbono en su molécula en
relación de las 8 que tiene el isooctano. Por lo tanto, para los combustibles Diesel se
habla de número de cetano.
Las mejoras continuaron. Los neumáticos «globo» de baja presión llegaron en 1923 y
342
los neumáticos sin cámara a principios de los años 1950, haciendo menos frecuentes
los reventones. En los años 1940 empezó a emplearse el aire acondicionado y los
cambios automáticos se introdujeron, con lo que el cambio manual comenzó a quedar
anticuado. La dirección asistida y los servofrenos se introdujeron en los años 1950. El
automóvil se había convertido en una parte tan integral del llamado american way of
Ufe (forma de vivir norteamericana) que, a pesar del coste creciente de la gasolina y
del peligro en aumento de la contaminación, parece que no hay forma, excepto en el
caso de una catástrofe absoluta, de acabar con el reinado del coche.
El avión
Unas versiones más grandes del automóvil fueron el autobús y el camión, y el petróleo
remplazó al carbón en los grandes navios, aunque el mayor triunfo del motor de
combustión interna llegó en el aire. Hacia la década de 1890 los humanos habían
logrado el sueño de los viejos tiempos —algo más viejo aún que Dédalo e ícaro— de
volar sobre alas. El vuelo sin motor se había convertido en un ávido deporte entre los
aficionados. El primer deslizador que podía llevar un hombre se construyó en 1853 por
parte del inventor inglés George Cayley. De todos modos, el «hombre» que
transportaba era sólo un muchacho. El primer practicante de importancia de este tipo
de conducta fue el ingeniero alemán Otto Lilienthal, que murió en 1896 durante un
vuelo sin motor. Mientras tanto, se había hecho sentir el urgente anhelo de despegar
en un vuelo con motor, aunque los planeadores siguieron constituyendo un deporte
popular.
El físico y astrónomo norteamericano, Samuel Pierpont Langley, trató, en 1902 y 1903,
de volar en un planeador dotado de un motor de combustión interna y estuvo
auténticamente a punto de conseguirlo. Si no se hubiese quedado sin dinero, podría
haber conseguido elevarse en el aire en el próximo intento. En realidad, este honor
quedó reservado a los hermanos Orville y Wilbur Wright, fabricantes de bicicletas que
habían tomado a los planeadores como su afición predilecta.
El 17 de diciembre de 1903, los hermanos Wright despegaron en Kitty Hawk (N.C.),
con un planeador propulsado por hélice. Permanecieron en el aire, a 255 m de altura,
durante 59 segundos. Fue el primer viaje aeronáutico de la Historia, y pasó casi
inadvertido en el mundo.
Hubo mucho más entusiasmo cuando los Wright recorrieron por el aire 40 km y, sobre
todo, cuando el ingeniero francés Louis Blériot cruzó el canal de la Mancha con un
aeroplano en 1909. Las batallas y hazañas aéreas de la Primera Guerra Mundial
estimularon aún más la imaginación, y los biplanos de aquella época, con sus dos alas
sujetas precariamente por tubos y alambres, fueron unas siluetas familiares para toda
una generación de espectadores cinematográficos tras la primera gran guerra. El
ingeniero alemán Hugo Junkers diseñó, poco después de la guerra, un monoplano cuya
solitaria ala, sin puntal alguno, tuvo un éxito absoluto. (En 1939, el ingeniero rusoamericano
Igor Iván Sikorsky construyó un avión polimotor y diseñó el primer
helicóptero, una aeronave con un rotor sobre el fuselaje que permitía los despegues y
aterrizajes verticales e incluso la suspensión en el aire.)3
No obstante, a principios de los años veinte, el aeroplano siguió siendo un objeto más
o menos extraño..., simplemente otro horripilante invento para guerrear, o un juguete
de pilotos temerarios. La aviación no se impuso por su propio valor hasta 1927,
cuando Charles Augustus Lindberg realizó un vuelo sin escalas desde Nueva York hasta
París. El mundo celebró con entusiasmo aquella hazaña, y entonces se empezaron a
crear realmente aeroplanos más grandes y seguros.
Desde entonces son cada vez más populares los aviones «turbopropulsados» con
3 El helicóptero tuvo un precursor en el autogiro, ideado por el ingeniero e inventor
español Juan de la Cierva y Codorniu. (N. del T.)
343
motor de turbina para mover las hélices.
Pero hoy han sido superados, al menos para vuelos largos, por el segundo prototipo
Fundamental: el avión con motores a reacción. En este caso, la fuerza propulsora es
idéntica, en lo esencial, a la que impele un globo cuando se escapa el aire por su boca
abierta. Éste es el efecto acción-reacción: el movimiento expansivo del aire que escapa
en una dirección produce un movimiento o impulso equivalente en la dirección
opuesta, de la misma forma que la salida de un proyectil por el cañón comunica un
brusco retroceso al arma. En el motor a reacción, el combustible, al quemarse,
desprende gases muy calientes, cuya alta presión propulsa al avión con gran fuerza,
mientras ellos salen disparados hacia atrás por la tobera. El cohete tiene el mismo
medio de propulsión, salvo la circunstancia de que él lleva sus propias reservas de
oxígeno para quemar el combustible (fig. 9.11).
Desde su implantación como medio de transporte, el aeroplano se benefició de dos
innovaciones mecánicas fundamentales. Primero, la adopción del motor turborreactor
(fig 9.10). En este motor, los gases calientes y expansivos del combustible movían una
turbina ejerciendo presión sobre sus palas, en lugar de mover pistones. El mecanismo
era simple, de mantenimiento económico y poco vulnerable a las averías; para ser un
modelo funcional sólo le faltaba la preparación de aleaciones que pudieran resistir las
altas temperaturas de los gases. En 1939 estuvieron ya listas estas aleaciones.
Las patentes para la «propulsión a chorro» fueron registradas por un ingeniero francés,
Rene Lorin, ya en el año 1913, pero entonces el esquema era totalmente inaplicable a
las aeronaves. El motor a reacción sólo es económico para velocidades superiores a los
650 km/h. En 1939, el inglés Frank Whittle pilotó un avión turborreactor bastante
práctico para el momento, y, en enero de 1944, Gran Bretaña y Estados Unidos
hicieron entrar en combate aviones a reacción contra las «bombas volantes», el arma
344
V-l alemana, una aeronave de mando automático, no tripulada, con una carga de
explosivos a proa.
Tras la Segunda Guerra Mundial se perfeccionó el avión turborreactor militar, cuya
velocidad se igualó a la del sonido. Las moléculas del aire, con su elasticidad natural y
su capacidad para proyectarse solamente hacia delante y hacia atrás, gobiernan la
velocidad del sonido. Cuando el avión se aproxima a esta velocidad, dichas moléculas
no pueden apartarse de su camino, por así decirlo, y entonces se comprimen contra la
aeronave, que sufre diversas tensiones y presiones. Se ha llegado a describir la
«barrera del sonido» como si fuese un obstáculo físico, algo infranqueable sin su previa
destrucción. Sin embargo, los ensayos en túneles aerodinámicos permitieron diseñar
cuerpos más fusiformes y, por fin, el 14 de octubre de 1947 un avión-cohete
americano, el X-l, pilotado por Charles E. Yeager, «rompió la barrera del sonido»; por
primera vez en la Historia, el hombre se trasladó a mayor velocidad que el sonido.
Durante la guerra de Corea, a principios de los años cincuenta, se libraron batallas
aéreas con aviones turborreactores, los cuales evolucionaban a tales velocidades que
las pérdidas de aparatos fueron, comparativamente, muy reducidas.
La relación entre la velocidad de un objeto y velocidad del sonido (1.191 km/h a 0° C)
en el medio donde se mueve el objeto, es el «número Mach», llamado así porque el
físico austríaco Ernst Mach fue quien investigó teóricamente por primera vez —hacia
mediados del siglo XIX— las consecuencias del movimiento a tales velocidades. En la
década de los sesenta, el aeroplano rebasó la velocidad Mach 5. Esta prueba se realizó
con el avión experimental X-15, cuyos cohetes le permitieron remontarse, durante
breves períodos, a alturas suficientes como para que sus pilotos obtuvieran la
calificación de «astronautas». Los aviones militares se desplazan a velocidades
menores, y los comerciales son aún más lentos.
Una aeronave que viaje a «velocidades supersónicas» (sobre el Mach 1) empuja hacia
delante sus propias ondas sonoras, pues se traslada más aprisa que ellas. Si el avión
reduce la marcha o cambia de curso, las ondas sonoras comprimidas siguen
trasladándose independientemente y, si están bastante cerca del suelo, lo golpean con
un ensordecedor «trallazo sónico». (El restallido de un látigo es una miniatura del
trallazo sónico, porque, si se sabe manejarlo, la punta de la tralla puede trasladarse a
velocidades supersónicas.)
Los vuelos supersónicos se iniciaron en 1970 por medio del francobritánico Concorde
que podía, y lo hizo, cruzar el Atlántico en tres horas, viajando a una velocidad doble
de la del sonido. Una versión norteamericana de ese SST (siglas inglesas de supersonic
transport, es decir, «transporte supersónico»), comenzó a causar preocupaciones
respecto del ruido excesivo en los aeropuertos y posible daño del medio ambiente.
Algunas personas señalaron que ésta era la primera vez que un factible avance
tecnológico había sido detenido por ser desaconsejable, que se trataba de la primera
vez en que los seres humanos habían dicho: «Podemos, pero será mejor que no lo
hagamos.»
En conjunto, cabe decir que las ganancias tampoco justificaban los gastos. El Concorde
ha constituido un fracaso económico, y el programa soviético de SST quedó arruinado
al estrellarse uno de sus aviones en una exhibición en París el año 1973.
ELECTRÓNICA
Radio
En 1888, Heinrich Hertz realizó sus famosos experimentos para detectar las ondas
radioeléctricas que previera veinte años antes James Clerk Maxwell (véase capítulo 8).
Lo que hizo en realidad fue generar una corriente alterna de alto voltaje, que surgía
primero de una bola metálica y luego de otra; entre ambas había una pequeña
separación. Cuando el potencial alcanzaba su punto culminante en una dirección u
otra, enviaba una chispa a través del vacío. En estas circunstancias —y según predecía
la ecuación de Maxwell— se debía producir una radiación electromagnética. Hertz
empleó un receptor, consistente en una simple bobina de alambre con una pequeña
345
abertura en un extremo para detectar esa energía. Cuando la corriente originaba una
radiación en el primer dispositivo, dicha radiación producía asimismo una corriente en
el segundo. Hertz reparó en el salto de pequeñas chispas en la abertura de su
dispositivo detector situado lejos del artefacto emisor, en el extremo opuesto de la
habitación. Evidentemente, la energía se transmitía a través del espacio.
Colocando su bobina detectora en diversos puntos del aposento, Hertz consiguió definir
la forma de las ondas. En el lugar donde las chispas se caracterizaban por su brillantez,
las ondas tenían un vientre acentuado. Cuando no saltaba chispa alguna, eran
estacionarias. Así pudo calcular la longitud de onda de la radiación. Comprobó que
estas ondas eran mucho más largas que las luminosas.
En la siguiente década, muchos investigadores pensaron que sería factible emplear las
«ondas hertzianas» para transmitir mensajes de un lugar a otro, pues tales ondas
podrían contornear los obstáculos gracias a su longitud. En 1890, el físico francés
Édouard Branly perfeccionó el receptor remplazando la bobina por un tubo de vidrio
lleno con limaduras de metal, al que se enlazaba, mediante hilos eléctricos, una
batería. Las limaduras no admitían la corriente de batería a menos que se introdujera
en ellas una corriente alterna de alto voltaje, tal como las ondas hertzianas. Con este
receptor pudo captar las ondas hertzianas a una distancia de 137 m. Más tarde, el
físico inglés Oliver Joseph Lodge —quien ganó después cierto prestigio equívoco como
paladín del espiritismo—, modificó ese artefacto consiguiendo detectar señales a una
distancia de 800 m y enviar mensajes en el código Morse.
El inventor italiano Guglielmo Marconi intuyó que se podría mejorar el conjunto
conectando a tierra un lado del generador y del receptor, y otro, a un alambre,
llamado, más tarde, «antena» (tal vez porque se parecía, supongo yo, a esos
apéndices de los insectos). Empleando potentes generadores, Marconi logró enviar
señales a una distancia de 14,5 km en 1896, a través del canal de la Mancha en 1898,
y a través del Atlántico en 1901. Así nació lo que los británicos llaman aún «telegrafía
sin hilos», y nosotros «radiotelegrafía», o, para abreviar, simplemente «radio».
Marconi ideó un sistema para iluminar la «estática» de otras fuentes y sintonizar
exclusivamente con la longitud de onda generada por el transmisor. Por sus inventos,
Marconi compartió el premio Nobel de Física en 1909 con el físico alemán Karl
Ferdinand Braun, quien contribuyó también al desarrollo de la radio.
El físico americano Reginald Aubrey Fessenden ideó un generador especial con
corrientes alternas de alta frecuencia (dejando a un lado el artefacto productor de
chispas), así como un sistema para «modular» la onda radioeléctrica y hacerle
reproducir el esquema de las ondas sonoras. Se moduló, pues, la amplitud (o altura)
de las ondas; en consecuencia, se le llamó «modulación de amplitud», conocida hoy
día por radio AM. En la Nochebuena de 1906, los receptores radiofónicos captaron por
primera vez música y palabras.
Los primeros radioyentes entusiastas hubieron de sentarse ante sus receptores con los
imprescindibles auriculares. Se requirió, pues, algún medio para fortalecer o
«amplificar» las señales, y la respuesta se encontró en otro descubrimiento de Edison,
su único descubrimiento en el terreno de la ciencia «pura».
En 1883, durante uno de sus experimentos para perfeccionar la lámpara eléctrica,
Edison soltó un alambre en una bombilla eléctrica junto al filamento incandescente.
Ante su sorpresa, la electricidad fluyó desde el filamento hasta el alambre, salvando el
aire interpuesto entre ambos. Como este fenómeno no tuvo utilidad para sus
propósitos, Edison, hombre siempre práctico, lo anotó en su libreta y se olvidó
totalmente de él. Pero el «efecto Edison» cobró gran importancia cuando se descubrió
el electrón; entonces pudo comprobarse que la corriente que fluía a través de un
espacio representaba el flujo de electrones. El físico inglés Owen Williams Richardson
demostró, mediante experimentos realizados en 1900 y 1903, que los electrones
«fluían» de los filamentos metálicos en el vacío. Por ello le concedieron en 1928 el
premio Nobel de Física.
346
En 1904 el ingeniero electrotécnico inglés John Ambrose Fleming aplicó, con suma
lucidez, el efecto Edison. Rodeó con una pieza cilindrica metálica (llamada «placa») el
filamento de la ampolla. Ahora bien, esa placa podía actuar en dos formas. Si estuviera
cargada positivamente, atraería a los electrones despedidos por el filamento
incandescente y crearía así un circuito eléctrico. Pero si su carga fuera negativa,
repelería a los electrones e impediría el flujo de la corriente. Supongamos, pues, que
se conecta esa placa con una fuente de corriente alterna. Cuando la corriente fluye en
una dirección, la placa adquiere carga positiva y deja pasar la corriente hasta el tubo;
cuando la corriente alterna cambia de dirección, la placa se carga negativamente, y
entonces no fluye ninguna corriente hacia el tubo. Por tanto, la placa deja pasar la
corriente en una sola dirección y la transforma de alterna en continua. Al actuar dicho
tubo como una válvula respecto a la corriente, los ingleses le dieron el nombre de
«válvula». En Estados Unidos sigue denominándose, vagamente, «tubo». En sentido
más universal, los científicos lo llaman «diodo», porque tiene dos electrodos: el
filamento y la placa (fig. 9.12).
La válvula —o válvula de radio puesto que se usó primero para ello— controla una
corriente de electrones a través del vacío más que una corriente electrónica a través
del cable. Los electrones pueden regularse mucho más delicadamente que la corriente,
por lo que las válvulas (y todos los mecanismos proceden de esto) constituyen una
serie completa de mecanismos electrónicos que pueden hacer ciertas cosas que los
meros mecanismos eléctricos no realizan. El estudio y empleo de las válvulas y sus
sucesores constituyen lo que llamamos electrónica.
347
La válvula, en su forma más simple, sirve como rectificador y sustituyó a la galena
empleada hasta entonces, puesto que las válvulas son mucho más fiables.
Allá por 1907, el inventor americano Lee de Forest dio un paso más. Insertó un tercer
electrodo en su tubo, haciendo de él un «triodo» (fig. 9.13). El tercer electrodo es una
placa perforada («rejilla») entre el filamento y la placa. La rejilla atrae electrones y
acelera su flujo desde el filamento a la placa (por conducto de los orificios). Un
pequeño aumento de la carga positiva en la rejilla, acrecentará considerablemente el
flujo de electrones desde el filamento a la placa. Por consiguiente, incluso la pequeña
carga agregada a las débiles señales radiofónicas incrementará sobremanera el flujo
de corriente, y esta corriente reflejará todas las variaciones impuestas por las ondas
radioeléctricas. En otras palabras, el triodo actúa como un «amplificador». Los triodos
y otras modificaciones aún más complicadas del tubo han llegado a ser elementos
esenciales no sólo para los aparatos radiofónicos, sino para toda clase de material
electrónico. Aún era necesario dar otro paso adelante si se quería popularizar
realmente el receptor radiofónico. Durante la Primera Guerra Mundial, el ingeniero
electrotécnico americano Edwin Howard Armstrong diseñó un dispositivo para reducir
la frecuencia de una onda radioeléctrica. Por aquellos días, su finalidad era la
localización de aviones enemigos, pero cuando acabó la guerra, se decidió aplicarlo al
348
receptor radiofónico. El «receptor superheterodino» de Armstrong permitió sintonizar
exactamente a una determinada frecuencia, mediante el simple giro de un pequeño
disco, labor que antes requería una interminable serie de tanteos en una gama de
posibles frecuencias. En 1921, una emisora de Pittsburgh inició sus programas
radiofónicos regulares. La imitaron, en rápida sucesión, otras emisoras, y, con el
control del volumen sonoro, así como la sintonización reducida a un breve tanteo, los
receptores radiofónicos adquirieron enorme popularidad. En 1927, las conversaciones
telefónicas pudieron atravesar los océanos, con ayuda de la radio, y fue un hecho el
«teléfono inalámbrico».
Sólo subsistió el problema de la estática. Los sistemas sintonizadores implantados por
Marconi y sus sucesores redujeron el «ruido» de tormenta y otras perturbaciones
eléctricas, pero no lo eliminaron. Armstrong fue quien halló otra vez la respuesta.
Sustituyó la modulación de amplitud —sujeta a las interferencias de fuentes sonoras
con modulaciones accidentales de amplitud— por la modulación de frecuencia. Es
decir, mantuvo a nivel constante la amplitud de la onda radioeléctrica portadora y dio
prioridad a la variación de frecuencia. Cuando la onda sonora tenía gran amplitud, se
reducía la frecuencia de la onda portadora, y viceversa. La frecuencia modulada (FM)
349
eliminó virtualmente la estática, y los receptores FM fueron solicitados, tras la Segunda
Guerra Mundial, para programas de música seria.
Televisión
La televisión fue una consecuencia inevitable de la radio, tal como las películas sonoras
lo fueron de las mudas. El precursor técnico de la televisión fue el transmisor
telegráfico de fotografías. Esto equivalía a la reproducción fotográfica mediante una
corriente eléctrica: un fino rayo de luz pasaba a través de la imagen en una película
fotográfica y llegaba hasta una válvula fotoeléctrica situada detrás. Cuando la película
era relativamente opaca, se generaba una corriente débil en la válvula fotoeléctrica; y
cuando era más transparente, se formaba una poderosa corriente. El rayo luminoso
«barría» con rapidez la imagen de izquierda a derecha y producía una corriente
variable, que daba toda la imagen. La corriente se transmitía por alambres, y en el
punto de destino reproducía la imagen del filme mediante un proceso inverso. Hacia
principios de 1907, Londres transmitió hasta París estas fotos telegráficas.
Televisión es la transmisión de una «cinta cinematográfica» en vez de fotografías, ya
sea o no «en directo». La transmisión debe ser muy rápida, lo cual significa que se
debe «barrer» la acción con suma celeridad. El esquema «claroscuro» de la imagen se
convierte en un esquema de impulsos eléctricos, mediante una cámara en lugar de
película, un revestimiento metálico que emite electrones bajo el impacto de la luz.
En 1926, el inventor escocés John Logie Baird exhibió por primera vez un prototipo de
receptor de televisión. Pero el primer aparato funcional de televisión fue el
«iconoscopio», patentado en 1938 por el inventor norteamericano, de origen ruso,
Vladimir Kosma Zworykin. En el iconoscopio, la cara posterior de la cámara está
revestida con múltiples gotas de plata y película de cesio. Cada una emite electrones
cuando barre el rayo luminoso y en proporción a la potencia lumínica. Más tarde se
remplazó el iconoscopio por el «orticonoscopio», aparato perfeccionado en el que la
pantalla de cesio y plata era suficientemente sutil para que los electrones emitidos se
proyectaran adelante y golpearan una tenue placa vitrea que emitía, a su vez, más
electrones. Esta «amplificación» acrecentaba la sensibilidad de la cámara a la luz, de
forma que era innecesaria una iluminación potente.
El televisor es una variedad del tubo de rayos catódicos. Los electrones fluyen de un
filamento («cañón electrónico»), para incidir sobre una pantalla revestida con
sustancia fluorescente, que irradia luz en proporción a la intensidad del chorro
electrónico. Parejas de electrodos le obligan a barrer la pantalla de izquierda a derecha
en centenares de líneas horizontales con mínimas separaciones entre sí y, por tanto,
«pintan» la imagen sobre la pantalla en una trigésima parte de segundo. El rayo
prosigue «pintando» imágenes consecutivas al ritmo de 1/30 seg. La pantalla se llena
de innumerables puntos (claros u oscuros, según los casos), pero gracias a la
persistencia de la visión humana, no vemos solamente un cuadro completo, sino
también una secuencia ininterrumpida de movimiento y acción.
En la década de 1920 se hicieron ensayos con la televisión experimental, pero ésta no
pudo ser explotada comercialmente hasta 1947. Desde entonces, acapara bastante
terreno del entretenimiento público.
Hacia mediados de la década de 1950 se agregaron dos innovaciones. Mediante el
empleo de tres tipos de material fluorescente en la pantalla del televisor, ideados para
reaccionar ante los rayos de luz roja, azul y verde, se introdujo la televisión en color. Y
el magnetoscopio, o vídeo por cinta, sistema de grabación simultánea de sonido e
imágenes, con cierto parecido a la banda sonora de la cinta cinematográfica, posibilitó
la reproducción de programas o acontecimientos con más fidelidad que la proyección
cinematográfica.
EL TRANSISTOR
En realidad, en los años 1980 el mundo se encuentra en la era de la cassette. Lo
mismo que existen pequeñas cassettes que pueden desenrollar y rebobinar sus cintas
350
para tocar música de alta fidelidad —con pilas si es necesario, para que la gente pueda
ir de un sitio a otro o hacer su trabajo doméstico, con los auriculares en la cabeza,
escuchando unos sonidos que nadie más puede oír—, también existen las cintas de
vídeo que producen películas de cualquier tipo a través del propio televisor o graban
programas para verlos más tarde.
El tubo de rayos catódicos, verdadero corazón de todos los artificios electrónicos, llegó
a ser un factor limitativo. Por regla general, los componentes de un mecanismo se
perfeccionan progresivamente con el tiempo, lo cual significa que, por un lado, se
acrecientan su poder y flexibilidad, mientras que por el otro se reducen su tamaño y
masa. (Eso se ha llamado a veces «miniaturización».) Pero el tubo de rayos catódicos
tuvo dificultades en su camino hacia la miniaturización. En realidad, tuvo que seguir
siendo grande durante mucho tiempo para poder contener un apropiado volumen de
vacío o los diversos componentes en los que se filtrase la electricidad a través de un
hueco muy pequeño.
Y también había otros inconvenientes. La válvula podía romperse o dejar pasar
corriente y, en uno u otro caso, se hacía inservible. (En los primeros aparatos de radio
y televisión continuamente se estaban cambiando las válvulas, y sobre todo en los
televisores parecía casi necesario un reparador permanente.) Asimismo, las válvulas
no funcionaban hasta que los filamentos se encontrasen lo suficientemente calientes,
por lo que era necesaria una considerable cantidad de corriente y había que esperar un
buen tiempo para que el aparato «se calentara».
En la década de 1940, varios científicos de los «Bell Telephone Laboratories» se
interesaron por las sustancias llamadas «semiconductores». Estas sustancias, tales
como el silicio y el germanio, conducen la electricidad de una manera moderada. Así,
pues, el problema consistió en averiguar las causas de tal comportamiento. Los
investigadores de «Bell Telephone Laboratories» descubrieron que esa peculiar
conductividad obedecía a ciertas impurezas residuales mezcladas con el elemento.
Consideremos, por ejemplo, un cristal de germanio puro. Cada átomo tiene 4
electrones en su capa exterior y, según la disposición regular de los átomos en el
cristal, cada uno de los 4 electrones se empareja con un electrón del átomo contiguo,
así que todos los electrones forman pares unidos por lazos estables. Como esa
distribución es similar a la del diamante, todas las sustancias como el germanio, silicio,
etc., se denominan «diamantinas».
Si ahora agregamos un poco de arsénico a esa presunta disposición diamantina, el
cuadro se complica no poco. El arsénico tiene 5 electrones en su capa exterior. Cuando
el átomo de arsénico sustituya al de germanio en el cristal, podrá emparejar 4 de sus 5
electrones con los átomos vecinos, pero el 5.° «quedará suelto». Ahora bien, si
aplicamos un voltaje eléctrico a ese cristal, el electrón suelto deambulará en dirección
al electrodo positivo. No se moverá con tanta soltura como lo harían los electrones en
un metal conductor, pero el cristal conduciría la electricidad mejor que los cuerpos
aislantes, como el azufre o el vidrio.
Lo dicho no es muy sorprendente, pero ahora, nos encontramos con un caso bastante
más extraño. Añadamos al germanio un poco de boro en lugar de arsénico. El átomo
de boro tiene sólo 3 electrones en su órbita exterior, que pueden emparejarse con
otros tantos del átomo vecino de germanio. Pero, ¿qué sucede con el cuarto electrón
de este último átomo? ¡Este electrón se empareja con la «nada»! Y no está fuera de
lugar el empleo de la palabra «nada», porque en ese lugar donde el electrón debería
encontrar un asociado en el cristal de germanio puro parece realmente vacío. Si se
aplica corriente eléctrica al cristal contaminado por el boro, el siguiente electrón
vecino, atraído por el electrodo positivo, se moverá hacia ese vacío. Y, al obrar así,
deja un vacío donde estaba, y el electrón vecino más alejado del electrodo positivo se
apresura a ocuparlo. Por tanto, este vacío se traslada hacia el electrodo negativo,
moviéndose exactamente como un electrón, aunque en dirección contraria.
Resumiendo: se ha hecho conductor de corriente eléctrica.
Para trabajar eficazmente, el cristal debe ser casi puro, o sea, tener la cantidad justa
351
de impurezas específicas (por ejemplo, arsénico o boro).
El semiconductor germanio-arsénico con un electrón volante es, según se dice, del
«tipo n» (n por «negativo»). El semiconductor germanio-boro con un vacío volante que
actúa como si estuviera cargado positivamente es del «tipo p» (p por positivo).
A diferencia de los conductores ordinarios, la resistencia eléctrica de los
semiconductores desciende cuando se eleva la temperatura. Ocurre esto porque las
temperaturas elevadas debilitan la retención de electrones por los átomos y,
consecuentemente, aquéllos tienen más libertad de movimiento. (En un conductor
metálico, los electrones tienen ya suficiente libertad a temperaturas ordinarias. La
elevación de temperatura induce más movimientos erráticos y obstaculiza su flujo en
respuesta al campo eléctrico.) Al determinarse la resistencia de un semiconductor, se
pueden medir temperaturas que son demasiado elevadas para su adecuada medición
con otros métodos. Ese semiconductor medidor de temperaturas ha recibido el nombre
de termistor.
Pero los semiconductores en combinación pueden hacer mucho más. Supongamos
ahora que hacemos un cristal de gemanio con los tipos p y n a partes iguales. Si
conectamos la mitad «tipo n» con un electrodo negativo y la «tipo p» con un electrodo
positivo, los electrones del lado «tipo n» atravesarán el cristal hacia el electrodo
positivo, y los vacíos del lado «tipo p» se moverán en dirección opuesta hacia el
electrodo negativo. Por tanto, una corriente fluye a través del Cristal. Invirtamos ahora
la situación, es decir, conectemos la mitad «tipo n» con el electrodo positivo y la mitad
«tipo p» con el electrodo negativo. Esta vez los electrones del lado n se moverán hacia
el electrodo positivo —es decir, se alejarán del lado p—, e igualmente los vacíos del
lado p se apartarán del lado n. En consecuencia, las regiones limítrofes en la divisoria
entre los lados n y p pierden sus electrones y vacíos libres. Ello entraña una ruptura
del circuito y, por tanto, no circula la corriente.
En suma, tenemos ya una estructura que puede actuar como rectificador. Si
transmitimos una corriente alterna a ese cristal binario, el cristal dejará pasar la
corriente sólo en una dirección. Por lo tanto, la corriente alterna se convertirá en
corriente continua. El cristal serviría de diodo, tal como el tubo catódico (o «válvula»).
Con ese dispositivo, la Electrónica dio media vuelta para utilizar el primer tipo de
rectificador empleado en la radio, a saber, la «galena». Pero esta nueva clase de cristal
fue mucho más efectiva y variada. Sus ventajas sobre el tubo catódico fueron
impresionantes. Por lo pronto resultó más ligera y resistente, mucho menos maciza,
invulnerable a las descargas y no se calentaba, todo lo cual la hizo más durable que el
tubo. Se denominó al nuevo elemento —por sugerencia de John Robinson Pierce, de
los laboratorios «Bell»— «transistor», porque transfería una señal a través de un
resistor (fig. 9.14).
En 1948, William Bradford Shockley, Walter Houser Brattain y John Bardeen, de los
laboratorios «Bell» construyeron un transistor que podía actuar como amplificador. Era
un cristal de germanio con una sutil sección tipo p emparedada entre dos terminales
tipo n. En realidad, un triodo equivalente a una rejilla entre el filamento y la placa.
Reteniendo la carga positiva en el centro del tipo p, se pudo enviar los vacíos a través
de la divisoria para controlar el flujo de electrones. Por añadidura, una pequeña
variación en la corriente del tipo p originó una considerable variación en la corriente
del sistema semiconductor. Así, el triodo semiconductor pudo servir como amplificador,
tal como lo hubiera hecho el triodo de un tubo catódico. Shockley y sus colaboradores
Brattain y Bardeen recibieron el premio Nobel de Física en 1956.
Por muy excelente que pareciera teóricamente el funcionamiento de los transistores,
su empleo en la práctica requirió ciertos adelantos concomitantes de la tecnología.
(Ésta es una realidad inalterable en la ciencia aplicada.) La eficiencia de un transistor
estribó no poco en el empleo de materiales extremadamente puros, de tal forma que
se pudiera revisar con todo detenimiento la naturaleza y concentración de impurezas
adicionales.
352
Afortunadamente, William Gardner Pfann aportó, en 1952, la técnica de refinadura por
zonas. Se coloca una barra —por ejemplo de germanio— en el vértice de un elemento
calefactor circular, que reblandece y empieza a fundir una sección de la barra. Luego
se hace penetrar más la barra en el vértice, y la zona fundida se mueve a lo largo de
él. Las impurezas de la barra tienden a concentrarse en la zona fundida y, por tanto,
se las arrastra literalmente así hasta el extremo de la barra. Tras unos cuantos pasos
semejantes, el cuerpo principal de la barra de germanio muestra una pureza
insuperable.
En 1953 se fabricaron minúsculos transistores para su empleo como audífonos, unas
piezas tan pequeñas que se podían ajustar al oído.
El transistor se fue desarrollando en seguida de una forma segura, por lo que captó
unas frecuencias cada vez más elevadas, resistiendo mayores temperaturas y
haciéndose cada vez más pequeño. Llegado el momento se hizo tan diminuto que ya
no se emplearon transistores individuales. En vez de ello, unos pequeños chips de
sílice fueron manejados microscópicamente para formar circuitos integrados, que
harían lo mismo que una gran cantidad de válvulas. En los años 1970, esos chips
fueron ya tan pequeños que empezó a pensarse en ellos como microchips.
Esos pequeños mecanismos transistorizados, que son ahora de empleo universal,
353
ofrecen tal vez la más asombrosa revolución de todas las revoluciones científicas que
han tenido lugar en la historia humana. Han hecho posibles las pequeñas radios, pero
también han mostrado sus enormes habilidades en los satélites artificiales y en las
sondas espaciales; y por encima de todo, han hecho factible el desarrollo de unos
ordenadores cada vez más pequeños, más baratos y más versátiles, así como también
los robots en los años 1980. De estas dos últimas cosas hablaremos en el capítulo 17.
MÁSER Y LÁSER
Máseres
Tal vez la novedad más fascinante entre todos los inventos recientes comience con las
investigaciones referentes a la molécula del amoníaco (NH3). Sus 3 átomos de
hidrógeno están dispuestos como si ocuparan los tres vértices de un triángulo
equilátero, mientras que el único átomo de nitrógeno se halla sobre el centro del
triángulo, a cierta distancia.
La molécula de amoníaco tiene capacidad para vibrar. Es decir, el átomo de nitrógeno
puede atravesar el plano triangular para ocupar una posición equivalente en el lado
opuesto, regresar luego al primer lado y proseguir indefinidamente ese movimiento. En
verdad se puede hacer vibrar la molécula del amoníaco con una frecuencia natural de
24 mil millones de veces por segundo.
Este período vibratorio es extremadamente constante, mucho más que el período de
cualquier artificio cuyas vibraciones obedezcan a la acción humana, mucho más
constante, incluso, que el movimiento de los cuerpos astronómicos. Mediante
preparativos adecuados esas moléculas vibradoras pueden regular las corrientes
eléctricas, que, a su vez, regularán los aparatos cronometradores con una precisión sin
precedentes, algo demostrado en 1949 por el físico norteamericano Harold Lyons.
Hacia mediados de la década de los cincuenta, esos «relojes atómicos» superaron
largamente a todos los cronómetros ordinarios. En 1964 se consiguió medir el tiempo
con un error de 1 seg por cada 100.000 años, empleando un máser que utilizaba
átomos de hidrógeno.
En el curso de esas vibraciones, la molécula de amoníaco libera un rayo de radiación
electromagnética cuya frecuencia es de 24 mil millones de ciclos por segundo. Su
longitud de onda es 1,25 cm. Así, pues, están en la región de las microondas. Para
observar este hecho desde otro ángulo, basta imaginar que la molécula de amoníaco
puede ocupar uno de dos niveles energéticos cuya diferencia de energía es igual a la
de un fotón que represente una radiación de 1,25 cm. Si la molécula de amoníaco
desciende del nivel energético más alto al más bajo, emitirá un fotón de dicho tamaño.
Si una molécula en el nivel energético más bajo absorbe un fotón semejante, se
elevará inmediatamente al nivel energético más alto.
Pero, ¿qué ocurrirá cuando una molécula esté ya en el nivel energético más alto y
quede expuesta a tales fotones? Ya en 1917, Einstein señaló que si un fotón del
tamaño antedicho golpea a una molécula situada en el nivel superior, esta molécula se
deslizará al nivel inferior y emitirá un fotón de idénticas dimensiones, que se moverá
exactamente en la dirección del fotón entrante. Habrá, pues, dos fotones iguales donde
sólo existía antes uno. Esto fue confirmado experimentalmente en 1924.
Por tanto, el amoníaco expuesto a la radiación de microondas podría experimentar dos
posibles cambios: se aspiraría a las moléculas desde el nivel inferior al superior, o se
las empujaría desde el superior al inferior. En condiciones ordinarias predominaría el
primer proceso, pues sólo un porcentaje de moléculas ocuparía en un instante dado el
nivel energético superior.
Sin embargo, supongamos que se diera con algún método para colocar todas o casi
todas las moléculas en el nivel energético superior. Entonces predominaría el
movimiento de arriba abajo. Y, ciertamente, ello originaría un interesante
acontecimiento. La radiación entrante de microondas proporcionaría un fotón, que
empujaría a la molécula hacia abajo. Luego se liberaría un segundo fotón, y los dos se
354
apresurarían a golpear otras tantas moléculas, con la consiguiente liberación de un
segundo par. Los cuatro provocarían la aparición de cuatro más, y así sucesivamente.
El fotón inicial desencadenaría un alud de fotones, todos del mismo tamaño y
moviéndose exactamente en la misma dirección.
En 1953, el físico norteamericano Charles Hard Townes ideó un método para aislar las
moléculas de amoníaco en el nivel energético superior y someterlas allí al estímulo de
fotones microonda del tamaño apropiado. Entonces entraban unos cuantos fotones y
se desataba una inundación de fotones. Así se pudo ampliar considerablemente la
radiación entrante.
Se describió aquel proceso como «microwave amplification by stimulated emission of
radiation», y con las iniciales de estas palabras se formó el nombre del instrumento:
«máser». Pronto se crearon los máser sólidos, cuerpos en los que se podía conseguir
que los electrones ocuparan uno de dos niveles energéticos. Los primeros máser, tanto
gaseosos como sólidos, fueron intermitentes. Es decir, fue preciso atraerlos primero al
nivel energético superior y luego estimularlos. Tras la rápida emisión radiactiva
resultaba imposible obtener otra mientras no se repitiera el proceso de atracción.
Para salvar esta dificultad, el físico estadounidense de origen holandés, Nicolaas
Bloembergen, decidió emplear un sistema de tres niveles. Si el material elegido como
núcleo del máser puede tener electrones en cualquiera de los tres niveles energéticos
—uno inferior, uno intermedio y uno superior—, entonces la atracción y la emisión
pueden ser simultáneas. Se aspiran los electrones para hacerlos subir desde el nivel
energético más bajo hasta el superior. Una vez allí, los estímulos adecuados les harán
descender: primero, al nivel medio; luego, al inferior. Se requieren fotones de
diferente tamaño para absorberlos y estimular la emisión; no habrá interferencias
recíprocas entre ambos procesos. Así se tiene un máser continuo.
Como amplificador de microondas, el máser resulta ser un detector muy sensible en
radioastronomía —donde los rayos microonda extremadamente débiles recibidos del
espacio sidéreo se intensifican mucho por su conducto— y con gran fidelidad a las
características originales de la radiación (Reproducir sin pérdida de características
originales es reproducir sin «ruido». El máser es excepcionalmente'«silencioso» en este
sentido de la palabra.) También aplicaron sus investigaciones al espacio. El satélite
soviético Cosmos 97 lanzado el 30 de noviembre de 1965, llevaba a bordo un máser,
que trabajó satisfactoriamente. Por dicho trabajo Townes recibió en 1964 el premio
Nobel de Física, que compartió con dos físicos soviéticos, Nikolái Yennediéievich Basov
y Alexandr Mijáilovich Prójorov, que habían trabajado independientemente en la teoría
del máser.
Láseres
Primeramente, la técnica máser fue aplicable a las ondas electromagnéticas de
cualquier longitud, en particular, las de luz visible. En 1958, Townes marcó la posible
ruta de tales aplicaciones a las longitudes de ondas luminosas. Se podría llamar
«máser óptico» a ese mayor productor de luz. O bien definir el singular proceso como
«light amplification by stimulated emission of radiation» y emplear el nuevo grupo de
iniciales para darle nombre: láser. Esta palabra se hizo cada vez más popular (fig.
9.15).
355
En 1960, el físico norteamericano Theodore Harold Maiman construyó el primer láser
eficiente. Con tal fin empleó una barra de rubí sintético, que consiste, esencialmente,
en óxido de aluminio, más una cantidad mínima de óxido de cromo. Si se expone a la
luz esa barra de rubí, los electrones de los átomos de cromo ascenderán a niveles
superiores, y su caída se iniciará poco después. Los primeros fotones de luz (emitidos
con una longitud de onda de 694,3 mu) estimulan la producción de otros muchos
fotones, y la barra emite súbitamente un rayo de fuerte luz roja.
Antes de que terminara el año 1960, el físico persa Ali Javan, de los laboratorios
«Bell», preparó el láser continuo empleando una mezcla gaseosa (neón y helio) como
fuente de luz.
El láser hizo posible la luz en una forma inédita. Fue la luz más intensa que jamás se
produjera y la más monocromática (una sola longitud de onda), pero no se redujo a
eso ni mucho menos.
La luz ordinaria producida de cualquier otra forma, desde la hoguera hasta el Sol,
pasando por la luciérnaga, se compone de paquetes de ondas relativamente cortas.
Cabe describirla como cortas porciones de ondas apuntando en varias direcciones. Y
son innumerables las que constituyen la luz ordinaria.
Sin embargo, la luz producida por un láser estimulado consta de fotones del mismo
tamaño y que se mueven en la misma dirección. Ello significa que los paquetes de
ondas tienen idéntica frecuencia, y como están alineados y enlazados por los extremos
—digámoslo de este modo—, se fusionan entre sí. La luz parece estar constituida por
largos trechos de ondas cuya amplitud (altura) y frecuencia (anchura) son uniformes.
Ésta es la «luz coherente», porque los paquetes de ondas parecen agruparse. Los
físicos han aprendido a preparar la radiación coherente para largas longitudes de onda.
Pero eso no se había hecho nunca con la luz hasta 1960.
Por añadidura ideóse el láser de tal forma que se acentuó la tendencia natural de los
fotones a moverse en la misma dirección. Se trabajaron y platearon los dos extremos
del tubo de rubí para que sirvieran como espejos planos. Los fotones emitidos
circularon velozmente arriba y abajo de la barra, produciendo más fotones con cada
pasada, hasta adquirir la intensidad suficiente para escapar explosivamente por el
356
extremo donde el plateado era más ligero. Estos fotones fueron precisamente los que
habían sido emitidos en una dirección paralela al eje longitudinal de la barra, por los
que circulaban, arriba y abajo, golpeando incesantemente los espejos extremos. Si un
fotón de tamaño apropiado entraba en la barra siguiendo una dirección diferente
(aunque la diferencia fuera muy leve) y desencadenaba un tren de fotones estimulados
en esa dirección diferente, éstos escapaban por los costados de la barra, tras unas
cuantas reflexiones.
Un rayo de luz láser está formado por ondas coherentes tan exactamente paralelas,
que puede recorrer largas distancias sin ensancharse ni perder, por tanto, toda
eficacia. Se puede enfocar con la precisión suficiente para calentar una cafetera a unos
1.600 km de distancia. Los rayos láser han alcanzado incluso la luna en 1962, y su
diámetro se ha extendido sólo a 3 km después de recorrer en el espacio 402 millones
de kilómetros.
Una vez inventado el láser, se evidenció un interés explosivo —y no exageramos
nada— por su desarrollo ulterior. Al cabo de pocos años se habían ideado láseres
individuales que podían producir luz coherente cuyas distintas longitudes de onda se
contaban por centenares: desde la cercana luz ultravioleta, hasta la distinta infrarroja.
Se obtuvo la acción láser de una infinita variedad de sólidos, óxidos, metálicos,
fluoruros y tungstatos, semiconductores, líquidos y columnas gaseosas. Cada variedad
tenía sus ventajas y desventajas.
En 1964, el físico norteamericano Jerome V. V. Kasper ideó el primer láser químico. En
este láser, la fuente de energía es una reacción química. (En el caso del primero, fue la
disociación del CF3I mediante una pulsación lumínica.) La superioridad del láser
químico sobre las variedades ordinarias estriba en que se puede incorporar al propio
láser la reacción química productora de energía y, por tanto, no se requiere una fuente
externa de energía. Esto es análogo a la comparación entre un mecanismo movido por
baterías y otro que necesita una conexión con la red general de fuerza. Aquí hay una
ventaja obvia respecto a la manejabilidad, aparte que esos láseres químicos parecen
ser muy superiores, por su eficacia, a las variedades ordinarias (un 12 % largo,
comparado con un 2 % corto).
Los láseres orgánicos —aquellos en los que se utiliza como fuente de luz coherente un
complejo tinte orgánico— aparecieron en 1966 y fueron ideados por John R. Lankard y
Piotr Sorokin. La complejidad molecular posibilita la producción de luz mediante una
gran diversidad de reacciones electrónicas y, por consiguiente, con muy diversas
longitudes de onda. Así, es posible «sintonizar» un láser orgánico para que emita
cualquier longitud de onda dentro de una periferia determinada, en lugar de confinarlo
a una sola longitud de onda, como ocurre con los demás.
El rayo láser es muy fino, lo cual significa que se puede enfocar gran cantidad de
energía en un área sumamente reducida; dentro de esa área, la temperatura alcanza
niveles extremos. El láser puede vaporizar el metal para rápidos análisis e
investigaciones del espectro; también puede soldar, cortar y perforar sustancias con
un elevado punto de fusión. Aplicando el rayo láser al ojo humano, los cirujanos han
conseguido soldar tan rápidamente las retinas desprendidas, que los tejidos
circundantes no han sufrido la menor lesión por efecto del calor; y han empleado un
método similar para destruir tumores.
Deseando evidenciar la amplia gama de las aplicaciones «láser», Arthur L. Shawlow
ideó algo trivial, pero impresionante: una goma de borrar láser que, con un fucilazo
asombrosamente breve, vaporiza la tinta mecanográfica de las letras escritas sin
chamuscar siquiera el papel; en el otro extremo de la escala están los interferómetros
láser, que pueden tomar medidas con una precisión sin precedentes. Cuando se
intensifican las tensiones del globo terráqueo, resulta posible hoy día detectarlas
mediante varios láseres: los cambios en las bandas de interferencia de sus luces
delatarán hasta el más íntimo movimiento terrestre con la sutil precisión de una parte
por cada mil millones de millones. Por otro lado, los primeros hombres que alcanzaron
la Luna dejaron allá un mecanismo reflector ideado para proyectar rayos láser hacia la
357
Tierra. Con este método se puede determinar la distancia a la Luna con mayor
exactitud generalmente que las distancias entre dos puntos de la superficie terrestre.
Una aplicación factible que despertó gran entusiasmo desde los comienzos fue el
empleo de los rayos láser como rayos transmisores de comunicaciones. La alta
frecuencia de la luz coherente, comparada con las radioondas coherentes utilizadas
hoy por la radiodifusión y la televisión, parece ser capaz de aglomerar muchos miles
de canales en espacios que ahora mantienen un solo canal. Ello hace pensar que algún
día cada ser humano podrá tener su propia longitud de onda. Naturalmente, será
preciso modular la luz láser. Para ello habrá necesidad de convertir en luz láser alterna
las corrientes eléctricas alternas producidas por el sonido (bien sea mediante cambios
en la amplitud de su frecuencia, o quizás encendiéndola y apagándola de forma
intermitente), lo cual podría servir, a su vez, para producir corriente eléctrica alterna
en otros lugares. Ya se está trabajando en el desarrollo de tales sistemas.
Como la luz está mucho más expuesta que las radioondas a las interferencias
ocasionadas por nubes, niebla, bruma y polvo, tal vez sea necesario conducir la luz
láser por medio de tuberías provistas de lentes (para reconcentrar los rayos a
intervalos) y espejos (para reflejarlos en los recodos). No obstante, se ha ideado un
láser de anhídrido carbónico que emite ininterrumpidamente unos rayos láser cuya
inaudita potencia les permite internarse en la zona infrarroja lo suficiente para librarse
casi por completo de las perturbaciones atmosféricas. Esto posibilitaría también la
comunicación a través de la atmósfera.
De una forma práctica más inmediata es la posibilidad de emplear los rayos de láser
modulados en fibras ópticas, tubos de cristal supertransparente más finos que un
cabello humano, para remplazar los cables de cobre aislados en las comunicaciones
telefónicas. El vidrio es tremendamente barato y más común que el cobre y puede
llevar mucha más información con ayuda de la luz láser. En muchos lugares, los
robustos cables de cobre enrollado están dejando lugar a los muchos menos
voluminosos manojos de fibras ópticas.
Una aplicación más portentosa aún de los rayos láser —sobre la cual se habla mucho
hoy— es una nueva especie de fotografía. En la fotografía corriente, sobre la película
fotográfica se proyecta un rayo de luz ordinaria reflejado desde un objeto. Lo que se
registra es la sección transversal de la luz, y ello no representa, ni mucho menos, la
información potencial que puede contener.
Supongamos, por el contrario, que un rayo de luz se divide en dos. Una parte incide
sobre un objeto y se refleja con todas las anormalidades que pueda imponerle ese
objeto. La segunda parte se refleja en un espejo sin irregularidades. Luego ambas
partes convergen en la película fotográfica, en la que se registra la interferencia de las
diversas longitudes de onda. Teóricamente, esa grabación de las interferencias debería
incluir todos los datos referentes a cada rayo luminoso. La fotografía que registra dicho
esquema de interferencias parece estar velada cuando se la revela, pero si se proyecta
una luz a través de la película fotográfica, esa luminosidad hará resaltar las
características de la interferencia y se obtendrá una imagen con información completa.
Tal imagen será tridimensional, tal como la superficie sobre la que se reflejara la luz;
entonces, para demostrar el cambio habido en la perspectiva, se puede fotografiar la
imagen desde diversos ángulos con el método fotográfico ordinario.
En 1947, el físico británico, de origen húngaro, Dermis Gabor, desarrolló por primera
vez este concepto cuando investigaba métodos para perfilar la imagen producida por
los microscopios electrónicos. Lo denominó «holografía», voz derivada de una palabra
latina que significa «escrito de puño y letra».
Aunque la idea de Gabor tenía una sólida base teórica, resultó ser inaplicable porque la
luz ordinaria no servía para ese fin. Con longitudes de ondas muy diversas y
moviéndose en todas direcciones, las bandas de interferencia producidas por los dos
rayos de luz serían tan caóticas que no facilitarían la menor información. Ello
equivaldría a producir un millón de imágenes turbias, todas ellas superimpuestas en
posiciones ligeramente distintas.
358
La introducción de la luz láser produjo un cambio total. En 1965, Emmet N. Leith y
Juris Upatnieks, de la Universidad de Michigan, lograron plasmar los primeros
hologramas. Desde entonces, la técnica se ha perfilado hasta el punto de hacer posible
la holografía en color y permitir ver con luz ordinaria las bandas de interferencia
fotografiadas. La Microholografía promete agregar una nueva dimensión a las
investigaciones biológicas, y nadie puede predecir hasta dónde llegará el «proceso»
láser.
Dostları ilə paylaş: |