Archivo de la categoría: Uncategorized

La radiactividad y la energía nuclear

La radiactividad natural fue descubierta en 1896 por Henri Becquerel, pero ni él mismo sabía que la llamada ‘radiación Becquerel’ procedía espontáneamente del núcleo atómico inestable del uranio. El matrimonio Joliot-Curie, en 1934, obtuvo artificialmente isótopos radiactivos bombardeando elementos químicos ordinarios con partículas alfa. Siguiendo esta línea de investigación, el italiano Enrico Fermi bombardeó uranio con neutrones procedentes del berilio radiactivo: si reducía la velocidad de los neutrones haciéndolos pasar a través de parafina obtenía una mezcla de elementos que no fue capaz de identificar por no saber suficiente química. Por este trabajo le dieron el premio Nobel en 1938 y, aprovechando el permiso concedido por Mussolini para que fuese a Suecia a recoger el premio, se escapó con toda su familia del régimen fascista. En 1939, Hanh, Lise Meitner y Strassmann analizaron los productos de la reacción de Fermi y encontraron que el núcleo de uranio se había dividido en la fisión nuclear. Ya en Nueva York, Fermi se encuentra con Niels Bohr, quien le sugiere la posibilidad de una reacción nuclear en cadena: cuando el núcleo del isótopo ligero del uranio es golpeado por un neutrón de velocidad reducida, vibra, se rompe y emite una media de 2,5 neutrones. Estos neutrones pueden fisionar núcleos contiguos, que expulsarían más neutrones y acabarían provocando una reacción en cadena. En la reacción se pierde algo de masa que al multiplicarla por la velocidad de la luz al cuadrado, de acuerdo con la famosa ecuación de Einstein, se transforma en una enorme cantidad de energía.

El presidente F.D.Roosevelt, alertado por una carta firmada por Einstein del peligro que encierra la capacidad de producción de energía de la reacción en cadena en manos del enemigo nazi, da luz verde al proyecto Manhatan.

Fermi construye una ‘pila atómica’ con bloques de grafito, cuyos átomos de carbono moderan la velocidad de los neutrones y el 2 de diciembre de 1942 consigue la primera reacción en cadena auto sostenida. El presidente estadounidense recibe el siguiente comunicado: «El italiano ha descubierto el nuevo mundo». Un descubrimiento de la física había abierto una puerta de gran trascendencia: la energía atómica controlada y la bomba atómica.

Cuando Enrico Fermi domesticó la bomba atómica, lo hizo mediante la construcción de un reactor de fisión, en el que la reacción en cadena ha de alcanzar un estado estacionario: el número de neutrones moderados que producen la fisión del uranio 235 debe ser igual al de neutrones gastados en el proceso. En un reactor de uranio enriquecido al 3-4% desaparece algo de masa y se desprende mucha energía: 30 gramos de U235 perdidos dan lugar a 600.000 kWh, que equivalen a la energía producida por la combustión de 100 toneladas de carbón o 7.500 litros de gasolina.

No obstante a la gran ventaja que representa la energía procedente de la fisión nuclear, la sociedad es consciente de los problemas de seguridad y de contaminación radiactiva que acarrea. Aunque el reactor no es una bomba atómica, ya que la reacción se frena al aumentar la temperatura, puede darse una explosión convencional que expulse el combustible y produzca una fuerte contaminación y, también, si el combustible se funde, produciría mucha radiactividad. Incluso sin accidentes, con el reactor en funcionamiento normal, se producen elementos radiactivos gaseosos (como kriptón y xenón que se envían a la atmósfera), líquidos y sólidos (que pasan a los refrigerantes). Además, después de la combustión, se generan residuos sólidos de baja, media y alta radiactividad. Una central nuclear deja residuos radiactivos con algunos isótopos de vida larga (como estroncio 90, cesio 137 y plutonio 239), residuos que hay que mantener bajo vigilancia durante generaciones.

Según la Organización Mundial de la Salud existe una relación lineal entre las dosis de radiación recibidas por las personas y el cáncer, las mutaciones y las aberraciones cromosómicas; pero la irradiación media de la población, tanto de la próxima a una central nuclear como la mundial, es menor que las irradiaciones medias que provienen de fuentes naturales o de prácticas médicas. Además, los efectos de la radiación sobre la salud son más conocidos que los de otras fuentes de energía.

Por otra parte, las centrales nucleares emiten menos gases de efecto invernadero que las centrales de combustibles fósiles y, salvo Chernóbil, los accidentes ocurridos han producido más pérdidas de capacidad productiva y reacciones emotivas que daño físico. No obstante, aún quedan muchos interrogantes: ¿Son las centrales nucleares excesivamente caras para su corta duración y su problemático desmantelamiento? ¿Serán objeto de sabotajes? ¿Desaparecerá plutonio y será empleado por terroristas en la fabricación de bombas?

Las reacciones químicas y electroquímicas

Una reacción química es un proceso por el cual unas sustancias (reactivos) se convierten en otras diferentes (productos). La tendencia que tienen las sustancias a reaccionar se mide con el contenido en energía libre: los productos de la reacción deben tener menos energía libre que los reactivos. Esto se puede evaluar, pero ¿a qué velocidad se produce la reacción? Para que la reacción tenga lugar, las moléculas deben colisionar con una energía y una geometría adecuadas. Que dos moléculas se encuentren en estas condiciones en un punto del espacio es mil veces más probable que lo hagan tres. Así, una reacción puede transitar por caminos que pueden ser variados y complicados, transcurrir a través de mecanismos complejos que conviene elucidar para, en la práctica, conocer las condiciones más económicas para que la reacción se produzca.

La Electroquímica es una ciencia que está más allá del conocimiento de la química de las sustancias y de la física de los campos eléctricos. Tiene dos partes diferenciadas: la iónica y la electródica. El tratamiento iónico, relativo a los iones en disolución y a los sólidos iónicos fundidos, pertenece más bien a la química física de las disoluciones, pero se trata por tradición en la electroquímica. Estudia las interacciones entre los iones y entre estos y los dipolos del disolvente, la solvatación, las constantes dieléctricas, los coeficientes de actividad, el transporte de iones, la difusión, etcétera. La electródica tiene por objeto el estudio de los fenómenos que ocurren en las interfaces electrificadas. La interfaz (que otros llaman intercara) es la superficie bidimensional de contacto entre dos fases. No es la interfase, ya que esta es la región -con volumen- en la que se da una transición continua de las propiedades de una fase a otra. Casi todas las interfaces están electrificadas. La electródica estudia la transferencia de cargas eléctricas a través de las interfaces. Así se explican muchos fenómenos: la corrosión de los metales en presencia de humedad debida a la orientación de los dipolos de las moléculas del agua; la descarga de los iones positivos sobre un metal por el que circula una corriente eléctrica dando lugar a una reacción electroquímica; las reacciones que pueden originar corrientes eléctricas; las interacciones repulsivas que gobiernan el comportamiento de muchas interfaces en los sistemas biológicos, etcétera.

La importancia práctica de la electroquímica es de un interés extraordinario. Por ejemplo, quemando combustibles fósiles se genera calor, que se transforma en energía mecánica para producir electricidad, mientras que con una reacción electroquímica se obtiene directamente corriente eléctrica y no se produce dióxido de carbono. Hoy en día se construyen células de combustible que proporcionan megavatios de potencia y los vehículos espaciales se abastecen de energía mediante procesos electroquímicos. Además, las reacciones biológicas se explican por qué el transporte se realiza a través de la doble capa eléctrica y es así como funcionan las células de los seres vivos. La electroquímica también incide en la química de los sistemas coloidales (como la sangre), en la extracción, separación y purificación de metales, en la síntesis de polímeros (como el nylon), en el almacenamiento y transporte de energía (automóviles eléctricos), etcétera.

La Química en sus comienzos.

Al tiempo que los alquimistas se dedicaban a la metafísica y a la magia, se iban conociendo nuevas sustancias y se desarrollaba una tecnología basada en las transformaciones químicas. Así, los egipcios ya usaban el oro en la edad de piedra y los hindúes, después, emplearon oro, plata, cobre, plomo, estaño y hierro. Loas procesos metalúrgicos comenzaron con la tostación de los sulfuros, con la fabricación de aleaciones como el bronce, el latón y el peltre y con la obtención de acero de gran calidad como el que hacían en Damasco y se transmitió a Toledo. El trabajo con metales dio origen a una multitud de oficios: orífices, herreros, fabricantes de armas y de agujas, tuercas, cerraduras, astrolabios, etcétera. Los chinos utilizaban la pólvora para la exhibición de fuegos artificiales coloreados con sustancias químicas incandescentes, y fabricaban papel de gran calidad con fibras de lino. En la Edad Media se inició el soplado del vidrio, técnica que permitió la fabricación de vajillas, lentes convexas para gafas y mejorar la calidad de los alambiques, con los que consiguieron destilar, además de alcohol y aromas para perfumes, ácidos minerales fuertes como el nítrico y el sulfúrico. La industria textil de la lana, la seda y el lino llevaba aparejada la extracción y empleo de tintes vegetales y su fijación con mordientes como el alumbre o la sosa y, por supuesto, los tejidos se lavaban con jabón. Los constructores empleaban tejas y ladrillos, y la cerámica, las pinturas con sus pigmentos y colas y las tintas eran ampliamente utilizadas. Los sabios árabes, en su mayoría médicos en ejercicio, se sirvieron de los medicamentos egipcios, indios y griegos, tanto de origen vegetal (anís, sen, opio, daturas, etc.) como mineral (nafta, bórax, arsénico, etc.).

A todo este gran acervo de conocimientos empíricos y tecnológicos le faltaba algo primordial para ser Química: el método, el nexo que uniese los distintos saberes prácticos y los impulsase más rápidamente hacia nuevos logros. Faltaba conocer la estructura y composición de las sustancias para interpretar sus transformaciones. Para que se encargase de ello, la Humanidad creó a Antoine Laurent Lavoisier (1743-1794) , quien descubrió, mediante experimentos cuidadosamente controlados, que los metales aumentaban de peso al calentarlos en presencia de aire debido a que se combinaban con un gas atmosférico al que llamó oxígeno. Y después de él, un aluvión: Henry Cavendish (1731-1810), el autista genial que apenas pronunció una palabra en su vida y caracterizó el hidrógeno; Humphry Davy (1778-1829), que obtuvo los metales ¡blandos! sodio y potasio y el cloro y el iodo por electrolisis; Louis Proust (1754-1826) que estableció la ley de las composiciones fijas de los compuestos químicos; John Dalton (1766-1844), quien atribuyó a cada elemento químico una clase específica de átomo con una masa atómica característica; Jöns Jacob Berzelius (1779-1848), que sustituyó los iconos de Dalton por las iniciales de los nombres de los elementos para designarlos; Joseph Louis Gay-Lussac (1778-1860), que escribió fórmulas de compuestos. Y así hasta llegar al gran orden: la tabla periódica de Dmitri Mendeléiev (1834-1907), en la que los elementos se agrupan por familias con parecidas propiedades químicas.

La alquimia

¿Qué es eso de la alquimia? En el trabajo alquímico hay dos vertientes: de una parte, el trasteo con sustancias naturales para conseguir su transformación en otras sustancias diferentes; y de otra parte, obtener la transmutación, lograr la piedra filosofal y con ella la riqueza, la eterna juventud e incluso la inmortalidad. Esta es la gran obra, esotérica y mística, que pone en relación al hombre con el cosmos.

Los primeros alquimistas de los que se tiene noticia fueron los chinos, los hindúes y los egipcios. Los chinos se dedicaron a la medicina de la inmortalidad, fabricando elixires como el llamado oro bebestible. Los hindúes, como tenían la inmortalidad en su religión, preparaban elixires para alargar la vida. Los griegos recibieron de los egipcios la idea de la piedra de los filósofos, que no era una piedra, sino un polvo de proyección con el que se pretendía orificar metales. Esta era la gran obra, que constaba de varias etapas caracterizadas por una secuencia de colores: en primer lugar parece ser que se procedía a la calcinación de una ‘sal o cuerpo’ con lo que se obtenía una mezcla de color negro (negrura, cosa siniestra, la bajada a los infiernos); después se sublimaba el mercurio para obtenerlo puro (alma blanqueada, resurrección); en tercer lugar el alma se mezclaba con el sol y la luna, con el hombre y la mujer (¿oro o azufre y plata o mercurio?) y se procedía a una larga cocción durante la cual, al principio, ‘la mujer se subía en el hombre’, después, ‘el cuerpo se integraba en el espíritu y lo ennegrecía’ y, finalmente, se producía la transmutación de las naturalezas, ‘el hombre se subía en la mujer’ y aparecía el enrojecimiento, la calidad del oro, aparecía «la piedra que no es piedra, cosa preciosa sin valor, con formas innumerables y sin forma, desconocida y de todos conocida».

Hasta el siglo XIX no se tuvo evidencia de la imposibilidad de la transmutación en oro. Después, diversos investigadores han realizado intentos para averiguar qué procedimiento podían seguir los alquimistas para convencer a la gente de que obtenían oro utilizando un metal cualquiera. En todo caso tendrían que partir de oro, por ejemplo, disimulado en forma de amalgama y mezclado quizá con plomo, cuyo óxido enmascara el espejo de la amalgama emigrando a la superficie y proporcionando el color negro. Si se calienta la mezcla, el mercurio se evapora, el óxido de plomo se separa hacia los extremos del crisol y aparece el oro amarillo. Puede ocurrir, al cabo de un mayor calentamiento, que el oro se oxide y dé colores primero rojo y luego púrpura ¿Es este el oro alquímico, el elixir de la inmortalidad?

La más pura tradición alquímica procede de los textos herméticos, correspondientes a la revelación del dios egipcio Thot, llamado por los griegos Hermes Trimegistos (tres veces grande). De Hermes, inventor de la escritura y de todas las artes de ella derivadas, proceden el hermetismo cultivado, que engloba la filosofía y la teología, y el hermetismo popular, que trata de la astrología y del ocultismo. La alquimia puede considerarse una parte de la astrología en tanto que relaciona el hombre con el cosmos y, además, por medio de la tecnología, con la tierra. Según algunos, el significado de la obra alquímica está expuesto en la Tabla Esmeralda, un texto de doce puntos dado a conocer por aquellos árabes cultivadores del hermetismo cuyo objetivo, coincidente con el de los gnósticos, era la deificación del hombre a través del conocimiento. El traductor de la Tabla, dicen, fue Jabir Ibn Hayyan, llamado Gerber y que pudo ser el nombre de toda una secta musulmana seguidora de Aristóteles y que, como él, creyó que una sustancia puede transformarse en otra cambiando sus propiedades primarias (aire, agua, fuego, tierra).

La mayoría de los sabios musulmanes eran médicos en ejercicio, como Al Razi (Rhades) e Ibn Sina (Avicena), que estudiaron los efectos de la higiene y la dieta, pero que también recurrieron a la astrología, a la botánica y a la alquimia. Sus enseñanzas pasaron a Europa de la mano de la escuela de traductores de Toledo. En España, en los siglos XIII y XIV, aparecieron unos cuantos falsos Geber, alquimistas que usaron el mítico nombre para añadir autoridad a unos trabajos que en realidad fueron meritorios, ya que lograron preparar los ácidos más fuertes hasta entonces conocidos: el nítrico y el sulfúrico. De aquella época es Arnau de Vilanova, un ¿leridano? médico y filósofo que sabía griego y árabe, que escribió ‘De confeccione vinorum’ y que, usando el alambique árabe, destiló alcohol de vino para utilizarlo en medicina; además, parece ser que escribió, con una ortografía casi incomprensible, el ‘Cuestionario de Ramón Llull’ donde se expone la transmutación en veintiocho pasos. Siguiendo el ejemplo de Arnau, ls alquimistas posteriores escribieron y atribuyeron al Doctor Iluminado, al beato Llull más de quinientos volúmenes sobre la ciencia hermética.

A pesar de la admonición de Leonardo da Vinci sobre la locura de preparar oro a partir de mercurio y azufre (En las minas de oro no hay ni mercurio ni azufre, no hay fuego ni otra fuente de calor, ¿por qué pierdes el tiempo en tu horno?), los alquimistas continuaron durante los siglos siguientes con sus intentos, a veces imitativos, a veces fraudulentos. Por ejemplo: aumentar el peso del oro con algo de mercurio, plata y cobre; preparar el polvo púrpura calentando una mezcla de seis sustancias de las cuales el azufre y el mercurio son innecesarios para obtener el producto que se consigue; teñir vidrios con disoluciones de oro a imitación del rubí; ‘transmutar’ hierro en cobre introduciendo una varilla de hierro en una disolución de una sal de cobre, con lo que éste se deposita sobre la varilla; etcétera.

El metalúrgico español del siglo XVII Álvaro Alonso Barba decía que la alquimia era un nombre odioso por la multitud de ignorantes que con sus embustes lo habían desacreditado, aunque él seguía creyendo que los metales se generaban continuamente a partir de la exhalación húmeda y untuosa y de la tierra viscosa y grasa. No solo el lepero Barba, también el matemático inglés John Dee, que hacía sesiones de magia, el belga Glauber, que sintetizó ácido clorhídrico a partir de sal común y ácido sulfúrico, obteniendo un residuo al que llamó ‘sal mirabilis’ (sulfato de sodio) por sus maravillosas propiedades, y el holandés van Helmont, descubridor del dióxido de carbono e inventor de la palabra gas, fueron creyentes y practicantes alquímicos, en contra de la opinión del canciller y filósofo inglés Francis Bacon, quien abogaba por otra alquimia operativa y práctica que producía mayores beneficios. Un siglo más tarde, en el XVIII, hasta el gran Isaac Newton seguía perdiendo el tiempo con los procesos alquímicos, e incluso después de aparecer Antoine Lavoisier, el verdadero padre de la química, el que con sus pesadas y medidas sentó las primeras bases de la teoría, a los rosacruces, modernos gnósticos, les parecía que la química era demasiado limitada en sus objetivos, ya que no estudiaba la relación entre el hombre y el cosmos.

La Termodinámica: el equilibrio (2)

Cuando dos sistemas a diferentes temperaturas entran en contacto, la energía fluye del más caliente al más frío hasta que se alcanza el equilibrio. La tendencia al equilibrio es fundamental en la física. Pero por supuesto que hay más termodinámica que la tradicional que estudia sistemas en equilibrio. La termodinámica de no equilibrio estudia sistemas abiertos al intercambio de energía y de materia con el exterior. Un sistema abierto puede mantenerse indefinidamente fuera del equilibrio en un estado estacionario que supone una prolongación del concepto de equilibrio.

Lars Onsager (1903-1976), químico físico noruego nacionalizado estadounidense, premio Nobel en 1968 por el estudio de los procesos irreversibles en regiones próximas al equilibrio, definió las ‘fuerzas’ que describen la magnitud del desequilibrio, y los ‘flujos’ asociados que representan la tendencia a restablecer el equilibrio.

Ilya Prigogine (1917-2003), químico físico belga nacido en Rusia y premio Nobel en 1977 por ampliar la perspectiva de la Termodinámica, estudió los procesos irreversibles en regiones alejadas del equilibrio. Dice Prigogine: «El no equilibrio es el origen de toda coherencia. Tanto la dinámica como la termodinámica de equilibrio niegan cualquier ‘creatividad’ del sistema. La ley del aumento de entropía postula que toda fluctuación próxima al equilibrio está condenada a desaparecer. Pero en los sistemas en los que se producen constantemente intercambios de energía y de materia con el medio, el equilibrio no es posible, por darse procesos disipativos que producen entropía continuamente. No obstante, a partir de cierta distancia del equilibrio, el segundo principio ya no sirve para garantizar la estabilidad del estado estacionario. Una fluctuación puede no remitir, sino aumentar. El sistema adopta un modo de funcionamiento completamente distinto: aparece un proceso de auto organización que llamamos ‘estructura disipativa’ (una fluctuación amplificada). Los procesos disipativos tienden a reforzar la fluctuación y los intercambios con el medio a amortiguarla. Cuanto más grande es la fluctuación, más puede desarrollarse. Todos los sistemas son metaestables, sobreviven porque pocas perturbaciones pueden destruirlos».

De acuerdo con estas definiciones, el desarrollo de la termodinámica puede establecerse en tres pasos: 1.-Equilibrio: desaparecen tanto las fuerzas como los flujos. 2.-Cuasi equilibrio: los flujos son proporcionales a las fuerzas. 3.-Situación alejada del equilibrio: las fluctuaciones se amplifican.

Con la termodinámica de no equilibrio se estudia la vida, que es un proceso disipativo metaestable, una lucha evolutiva por la entropía disponible. En los sistemas vivientes se crea orden a partir del desorden. En el primer nivel de la escala trófica se encuentran los vegetales, que reciben energía electromagnética del Sol, y esos fotones, excitando electrones, provocan la fotosíntesis produciendo, por ejemplo, hidratos de carbono. Aunque solo aproximadamente el uno por ciento de la energía que incide sobre la planta se convierte en materia viva, ha habido una disminución de entropía, un aumento del orden, a costa del aumento de entropía en el exterior del sistema.

La Termodinámica: sus principios (1)

La Termodinámica es una parte de la física que se desarrolló en el siglo XIX a fin de estudiar la eficiencia de las máquinas que transforman el calor en trabajo. Las máquinas térmicas, que en principio se limitaban a las máquinas de vapor y luego se extendieron a, por ejemplo, turbinas y motores a reacción, precisan para su funcionamiento una fuente caliente, un motor y un indispensable depósito frío. Al hilo de estos inicios, la Termodinámica llegó a ser un sistema de pensamiento con leyes o principios de validez universal. El físico matemático alemán Rudolf Clausius enunció el principio cero, que dice que el calor es una forma de transferir la energía que fluye desde un cuerpo caliente a otro frío. Por ejemplo, se puede transferir energía desde un motor hasta un objeto mediante la acción de un trabajo, pero lo que se transfiere es energía , no calor o trabajo. La energía que tiene un cuerpo es debida al movimiento más o menos rápido de las partículas que lo constituyen; así, para extraer energía en forma de calor no hay restricción, pero para extraerla en forma de trabajo, tiene que salir como un movimiento atómico ordenado.

El primer principio de la Termodinámica dice que la energía se conserva y que no hay más que dos clases de energía: la cinética y la potencial. De acuerdo con la famosa ecuación de Einstein, la masa es equivalente a la energía. Para calcular la energía que contiene una determinada cantidad de materia, hay que multiplicar la masa por la velocidad de la luz al cuadrado, un número muy grande. En consecuencia, debe de haber una enorme cantidad de energía en el Universo; pero en él también hay una energía que se resta: la atracción gravitatoria reduce la energía de los cuerpos que se atraen, ya que es energía potencial. La que gane de estas dos formas de contar la energía determinará el futuro del Universo. Si predomina la atracción, el Universo se contraerá hasta el ‘Big Crunch’. Si la predomina la energía cinética, habrá expansión sin fin. Si son iguales, la expansión acabará en extinción.

Parafraseando a Snow, desconocer el segundo principio de la Termodinámica equivale, culturalmente, a no haber leído el Quijote. En esta segunda ley, el concepto fundamental es el de entropía, una función fácilmente entendible porque es una medida del desorden: cuanto mayor sea el desorden de las partículas que componen un sistema, mayor es su entropía, como sucede en el paso de sólido a líquido y de líquido a gas. Asimismo, cuanto más baja sea la entropía de un sistema, mayor será la calidad de su energía. El cambio de entropía se define matemáticamente por la relación entre la energía puesta en juego en forma de calor y la temperatura absoluta a la que se produce la transferencia. Así, cuando un sistema recibe calor, su desorden aumenta y por lo tanto, su entropía. Además, cuanto más baja sea la temperatura a la que recibe una determinada cantidad de energía, mayor será el aumento de la entropía. Por el contrario, la entropía de un cuerpo (o sistema en general) decrece a medida que pierde energía en forma de calor.

La temperatura, en termodinámica, es una magnitud que relaciona el calor y la entropía. La relación entre estas tres magnitudes configura el tercer principio de la Termodinámica, para el cual el cero absoluto de temperatura (cero grados Kelvin, 0K = -273,15ºC) es un valor teóricamente inalcanzable: a medida que el sistema se va aproximando a la temperatura mínima la extracción de energía es cada vez más difícil.

La entropía no disminuye nunca en los cambios naturales: el orden no aumenta nunca espontáneamente. Pero, ¿qué ocurre en los sucesos en los que se reduce el desorden como en las cristalizaciones o en los crecimientos de los seres vivos? Si en un lugar crece el orden, en otro sitio debe darse un desorden mayor, produciéndose un aumento global de la entropía. El gran Rudolf Clausius, quien al formular la segunda ley hizo de la Termodinámica una ciencia, dijo que «la energía del mundo es constante y la entropía tiende a alcanzar un máximo». Como en el Universo no hay una fuente externa de entropía, habrá un aumento del desorden y una disminución de la calidad de la energía, es decir, el universo siempre irá a peor, hacia la ‘muerte térmica’.

Si el Universo se originó con un Big Bang (gran explosión del huevo original ¿acto creador?) y acaba con un Big Crunch (gran contracción ¿seguida de renovación?) ¿se cumpliría el segundo principio en el caso de que el Universo, debido a la fuerza de atracción gravitatoria, se volviese a comprimir en un punto? El matemático británico Roger Penrose ‘dixit’ que, en este caso, la materia y la energía tendrían una entropía bajísima, pero que la estructura del espacio-tiempo podría ser tan compleja que, en conjunto, el desorden fuese mayor, salvándose el aumento entrópico relativo a un suceso espontáneo. Especulaciones, incógnitas.

La Matemática. La mente humana y el entorno.

¿Dónde está la Matemática? ¿Ahí afuera o es producto de la mente humana? En diversos sitios se puede leer la frase de Kronecker: «Dios creó los números enteros, todo lo demás es obra del hombre». La mayoría de los grandes matemáticos consideran las verdades matemáticas como independientes del pensamiento humano. Por ejemplo, el británico Godfrey Hardy dice que «el 317 es un número primo, no porque nosotros lo creamos, o porque nuestras mentes estén hechas de una forma u otra, sino porque es así, porque la realidad matemática está así construida». Pero ¿inventamos las matemáticas o las descubrimos? ¿Existirán en ausencia de matemáticos? Los realistas opinan que si todas las mentes desaparecieran, el Universo seguiría teniendo una estructura matemática; el mundo externo está matemáticamente ordenado y hasta los teoremas de la matemática pura seguirían siendo verdaderos. Por el contrario, los conceptualistas dicen que toda la matemática es una creación puramente humana, que la creencia en el esquema matemático de la naturaleza, de la lógica y de la matemática son invenciones humanas.

Bertrand Russell dice que «debemos admitir que podemos conocer la existencia de realidades independientes de nosotros mismos, ya que leer el libro de la naturaleza con la convicción de que todo es ilusorio, no puede conducir a la comprensión». También dice que «el mundo externo existe; la estructura del mundo es ordenada; sabemos poco sobre la naturaleza del orden y nada en absoluto de por qué existe». Así, las matemáticas resultan ser el estudio del orden en la naturaleza, la búsqueda de ese orden y de lo simple mediante leyes matemáticas en las que se ha cimentado el desarrollo de la ciencia. La existencia de regularidades, de pautas, en la naturaleza es un hecho objetivo.

Para Roger Penrose «el comportamiento del Universo parece estar basado en las matemáticas hasta un grado de precisión extraordinario: la geometría euclidiana, la mecánica de Newton, la electrodinámica de Maxwell (la más exacta), la relatividad (más exacta que la de Newton) y la cuántica, predicen con errores inferiores a las millonésimas».

¿A qué se debe una precisión tal en las leyes matemáticas? ¿A que la mente humana es una herencia de la complejidad del entorno en el que ha evolucionado y al que se ha aclimatado? ¿Puede la mente humana progresar y llegar a comprender los espacios n-dimensionales y el infinito? Pero, ¿está el infinito ahí afuera?

¿Qué es el infinito?

¿Qué es el infinito? ¿Simplemente lo que no tiene fin? Desde antiguo, las opiniones de los filósofos son controvertidas. Los pitagóricos identificaban infinito con indefinido. Para Platón, el espacio y la materia son ilimitados, pero lo ilimitado es imperfecto por lo que no es eterno; lo que son infinitas son las ideas y entre ellas se encuentra la idea de infinito. Mucho más tarde, Locke dijo que la idea de infinito no prueba el infinito. Y Kant afirmó que el tiempo y el espacio son infinitos. Aquinas señaló que el ser divino debe ser perfectamente infinito, pero que el universo, por imperfecto, debe ser finito. Spinoza le contradijo: el universo es infinito porque Dios mismo es la naturaleza. Para Aristóteles lo ilimitado es una posibilidad, un infinito potencial: el ser finito enumera, luego el infinito real no existe. Heimsoeth puntualiza: «El concepto fundamental de la filosofía es el verdadero infinito, concepto en el cual la realidad absoluta ha encontrado una nueva definición». Además, «la idea de infinito no puede proceder de la experiencia, ni puede ser construida por la imaginación, que conduce a lo indefinido: la idea de infinito es necesariamente a priori».

¿Y qué dicen los matemáticos? Hermann Weyl, discípulo de Hilbert y colega de Einstein, opinaba que «las matemáticas han sido intrépidas e ingenuas para convertir el sistema de los números en un dominio de existencias absolutas fuera de este mundo». Para él y para su maestro «la matemática es la ciencia de lo infinito, y este es accesible al espíritu, a la intuición». Gauss, considerado el mayor matemático de la historia, dice que «infinito es una forma de hablar». Y para J.W.Gibbs «un matemático puede decir lo que le plazca, pero un físico debe ser al menos parcialmente cuerdo». Bertrand Russell ironiza: «Las matemáticas puras pueden definirse como la disciplina en la que nunca sabemos de lo que estamos hablando, ni si lo que estamos diciendo es verdad». Pero Cantor defiende enérgicamente la libertad de los matemáticos para inventar lo que deseen y pide que se hable de matemáticas libres y no de matemáticas puras.

Los números se clasifican en números naturales (o enteros, 1, 2, 3…) y números reales que comprenden a los números racionales (o fracciones, 5/2, 22/7…) y a los irracionales (no enteros, no racionales, ni con terminación repetida, como raíz cuadrada de 2 o el número pi). Según Russell, los números finitos obedecen a la ley de la inducción matemática, es decir, pueden alcanzarse por adiciones de uno; pero el primer número infinito no tiene la propiedad de que exista un número anterior que sumándole uno dé infinito. Así, el primer infinito está más allá de la serie total sin fin de los números finitos. Además, la teoría positiva del infinito no aumenta al agregarle uno o al duplicarlo: ‘no son números’ porque no pueden alcanzarse contando; los finitos, sí.

Con Georg Cantor comenzó la teoría matemática del infinito. Nacido en San Petersburgo en 1845 de padres daneses y muerto en Alemania en 1918, fue discípulo de Kronecker en su tesis doctoral y fundó, junto a su amigo Dedekind, la teoría de conjuntos. Para Cantor, los números naturales son infinitos por definición. Demostró que los números racionales, aunque infinitos, son enumerables porque pueden ser colocados en correspondencia biunívoca (uno a uno) con los números naturales. Asimismo, demostró que el conjunto de los números reales es infinito y no enumerable. Además, con el método de la diagonal demostró que hay infinitos conjuntos que no pueden ser enumerados; no existe una enumeración de todos los números reales en un intervalo dado. Por lo tanto, hay un número infinito de conjuntos infinitos diferentes a los que se puede aplicar el concepto de mayor y menor: ‘hay grados de infinitud’. Desde los cuarenta años hasta su muerte, Cantor tuvo que ser internado en un manicomio intermitentemente. Durante este periodo ya no pudo avanzar en sus teorías.

El que sí estuvo lúcido hasta su muerte fue Bertrand Russell, quien en su extensa obra ‘Los principios de la Matemática’ dejó dicho que el problema del infinito matemático es de orden: los cardinales transfinitos están bien ordenados, son tales que cada uno de ellos, excepto el último, si existe, tiene un inmediato sucesor; tampoco existe un número finito último que sea predecesor del menor de los transfinitos. E ironiza: «las unidades infinitas, aunque sí son lógicamente posibles, no aparecen nunca en algo accesible al entendimiento humano».

Pero, ¿está el infinito ahí afuera?

La EDC con Feynman: la apoteosis de la mecánica cuántica

El premio Nobel de Física de 1965 fue concedido a los neoyorquinos nacidos en 1918 Richard P. Feynman y Julian S. Schwinger junto al japonés S. Tomonagua, por haber establecido los principios básicos de la electrodinámica cuántica (EDC). Los tres investigadores, trabajando independientemente y empleando aproximaciones diferentes, llegaron a las mismas conclusiones. Aunque Tomonagua publicó sus resultados antes que el niño prodigio Schwinger y que el mítico Feynman, no se conocieron estos hasta años más tarde debido a la Segunda Guerra Mundial. Pero, ¿qué es la EDC, una teoría -o modelo- considerada como la apoteosis de la mecánica cuántica? Todo comenzó con la ecuación del físico británico P.A.M. Dirac, que aunaba la mecánica cuántica y la relatividad especial y predecía la existencia del positrón, la antipartícula del electrón. La ecuación describe la interacción de los electrones con el campo electromagnético (con la luz, no solo visible) y como el comportamiento de los electrones decide la mayoría de los fenómenos químicos, ya que son los responsables de la estructura y las reacciones de los elementos y compuestos, ‘dios’ Dirac dijo que su fórmula explicaba la mayor parte de la Física y toda la Química. No obstante, las leyes de la Química requieren informaciones adicionales y sus procesos se describen mediante conceptos y fórmulas químicas.

La ecuación de Dirac fue refinada por el trio de laureados con el Nobel, quienes concluyeron que la fuerza electromagnética entre, por ejemplo, dos electrones se establece por la emisión de un fotón ¡virtual! por parte de un electrón y su absorción por el otro. El fotón debe ser virtual porque un electrón no puede transformarse en un electrón más un fotón. La justificación de esa extraña ‘virtualidad’ se sustenta en la incorporación a la interacción electromagnética del principio de incertidumbre. De acuerdo con este principio ni un fotón de luz ni un electrón del átomo tienen una energía y un tiempo simultánea y exactamente medibles. En consecuencia, un electrón puede tomar energía de una zona espacial aparentemente vacía durante un tiempo brevísimo y emitir un fotón: la energía se devuelve cuando el otro electrón absorbe el fotón.

La ECD considera que en el vacío puede haber fluctuaciones que den lugar a partículas virtuales, de modo que una partícula con carga eléctrica se encuentra rodeada por un conjunto de partículas virtuales. Así, en la interacción entre dos partículas cargadas pueden intervenir uno, dos o varios fotones virtuales, siendo cada proceso más complicado que el anterior, aunque cada vez la probabilidad de que ocurran es menor. A pesar de que los cálculos son muy complejos y requieren normalización, cuando la EDC se ha ensayado en experimentos reales los resultados coinciden con los calculados por la teoría con una exactitud superior a cualquier otro modelo físico. Ante tamaño éxito, el concepto de intercambio de partículas virtuales se ha extendido a las otras interacciones: así como el fotón es el cuanto portador de la fuerza electromagnética, los gluones virtuales son mediadores en la interacción fuerte entre quarks en la teoría -o modelo- de la cromodinámica cuántica.

El más famoso y trascendente de los tres laureados por la EDC es, sin duda, Richard Feynman, principalmente porque elaboró diagramas sencillos que visualizan las interacciones entre los fotones y las partículas subatómicas cargadas y sirven para simplificar los complicados cálculos de las expresiones matemáticas de la teoría. Su leyenda también está basada en su extravagancia: era aficionado a la pintura, a los textos mayas, a tocar el bongo, a los strip-tease y ayudaba a Tuva, un país asiático; decía cosas tan claras y categóricas como que «la Tierra es redonda porque tiene que atraerse a sí misma entera todo lo que pueda» o que «los poetas no escriben para ser entendidos». En sus clases para alumnos novatos no tuvo éxito: éstos abandonaban y eran sustituídos por alumnos de cursos superiores y por profesores. Cuando murió, las ventanas del campus de la Universidad de Cornell se llenaron de pancartas que rezaban: ‘Dick, te queremos’.

Controversias en la mecánica cuántica

El principio de incertidumbre produjo una convulsión no solo en la física sino también en la filosofía. Según el propio Niels Bohr «si alguien dice que puede pensar en la mecánica cuántica sin sentir vértigo es que no ha entendido nada de nada». En efecto, el mundo que nos rodea parece ser bastante sólido, pero bajo él subyace la indeterminación cuántica, que niega que haya hechos absolutos, cosa que no hace la relatividad de Einstein. Además, Bohr afirmó que la mecánica cuántica exigía una renuncia a la idea clásica de la causalidad (una acción siempre produce un resultado determinado de una manera totalmente predecible), y esta idea se trasladó a cualquier aplicación fuera de la física. Gell-Mann lo dijo claramente: «Como esta disciplina solo predice probabilidades, algunos piensan que la cuántica permite que ocurra prácticamente cualquier cosa. Todo depende de si se toman en consideración sucesos con una probabilidad pequeñísima». Por ejemplo, la probabilidad de que un objeto macroscópico masivo se eleve durante un cierto tiempo como consecuencia de una fluctuación cuántica es despreciable.

El intento más importante de mostrar las carencias de la teoría cuántica es la llamada paradoja EPR (de Einstein, Podolsky y Rosen), que Einstein propuso en principio a Bohr como un experimento mental, pero que después fue objeto de medidas por Bohm y por Aspect. Según ellos, dos fotones polarizados lanzados en direcciones opuestas se comunican su espín: si este cambia en uno de ellos, el otro lo hace instantáneamente, es decir, intercambian información a velocidad superlumínica. Interpretando los resultados de estos experimentos y aplicando tratamientos matemáticos, el norirlandés John Bell, fallecido en 1990 a los 62 años de edad, propuso en 1964 un teorema en el que supone que los objetos microscópicos tienen propiedades físicas reales (en contra de la interpretación cuántica de Bohr en Copenhague y de John Wheeler: «Ninguna propiedad microscópica es una propiedad hasta que es una propiedad observada»). Según la llamada ‘desigualdad de Bell’ existen magnitudes observables mayores (¿variables ocultas?) que otras también observables que pueden ser evaluadas. Si la desigualdad se viola en un experimento real (no mental), nuestro mundo (¿microscópico?) no podría tener realidad ni separabilidad, esto es, las afirmaciones de la teoría cuántica serían correctas y las conclusiones del experimento ERPB, también. Después de muchos intentos fallidos debido a las grandes dificultades de las medidas del espín y de la polarización de los fotones, el equipo del francés Alan Aspect anunció que la desigualdad de Bell no se cumplía y, por tanto, la teoría cuántica era correcta.

Y aquí empezó la cháchara: ‘algunos’ afirmaron que la teoría cuántica poseía propiedades fantásticas. Si existían acciones a distancia a velocidad superlumínica entre partículas subatómicas (esas acciones fantasmales que Einstein no podía tragar), también la habría entre objetos macroscópicos. Nuestro mundo tiene una misteriosa conectividad universal, de modo que cualquier par de objetos que hayan interaccionado alguna vez quedan entrelazados para siempre. Por lo tanto, hay que aplicar la teoría cuántica al mundo entero mediante una función de onda universal; además, si existen múltiples universos, el famoso gato de Schrödinger puede estar vivo en uno de ellos y muerto en otro. ‘Algunos’ dicen que hay cabida en la teoría para los fenómenos paranormales como la precognición y, puesto que la velocidad de la luz está superada, los viajes en el tiempo son posibles, así como la teleportación de la materia. ¡Se abre un nuevo mundo en el que cualquier cosa que las personas puedan imaginar es posible!

Dentro de las controversias, es interesante la reflexión que se hace el astrofísico británico David Lindley: «La física clásica no es capaz de decir por qué nació el universo, ya que, según ella, no puede ocurrir nada que no haya sido provocado por unos acontecimientos previos (causalidad, ¿una cadena infinita de causas?). Parece inevitable que el nacimiento del universo sea un acontecimiento cuántico. La física cuántica no puede decir por qué nació, solo es capaz de decir que fue así, espontáneamente, como una cuestión de probabilidad más que de certidumbre».

Dice Gell-Mann: «mientras se debaten estas cuestiones, los científicos, en su feliz ignorancia, continúan aplicando y utilizando la mecánica cuántica con mucho rendimiento». Dice Stephen Weinberg: «Einstein no cree, Feynman no entiende, pero surgen aplicaciones basadas en la mecánica cuántica: enlaces moleculares, desintegraciones radiactivas, conductividad eléctrica, magnetismo y radiación electromagnética, semiconductividad, superconductividad, enanas blancas, estrellas de neutrones, fuerzas nucleares, partículas elementales, incluso la teoría de cuerdas».