Archivo por meses: diciembre 2024

La fusión caliente y la fusión fría

Ante la problemática económica, social y política que suscitan las centrales nucleares, los científicos y técnicos estudian y prueban cómo domesticar la bomba de hidrógeno, cómo reproducir la energía de las estrellas, cómo aprovechar la fusión nuclear. Ellos saben que la reacción termonuclear de fusión que requiere menor temperatura de ignición (¡solo unos cientos de millones de grados!) es la que tiene lugar entre dos núcleos ligeros: los dos isótopos del hidrógeno, el deuterio y el tritio, que, además, es la reacción con mayor ganancia energética. (Aunque también se estudian otras parejas). A tales enormes temperaturas, los átomos se encuentran en el estado de plasma, es decir, los núcleos están libres y con una gran energía cinética que les permite penetrar a través de la barrera de repulsión eléctrica del vecino y fusionarse con él, dando lugar a núcleos de helio 4, desprendiendo neutrones y una grandísima cantidad de energía.

Pero, ¿dónde y cómo lograr semejantes condiciones de reacción? Los países europeos han apostado por el Tokamak, un descomunal aparato toroidal en el que se confina el plasma mediante un campo magnético que lo somete a una presión que debe compensar la expansión del plasma para que este no toque las paredes y se enfríe. La altísima temperatura debe alcanzarse suministrando muchos megavatios de potencia ¿Y de dónde se obtienen el deuterio y el tritio? El hidrógeno 2 es relativamente abundante en el agua (dicen que con el deuterio que hay en una piscina olímpica se abastecería de energía eléctrica a una población de 100.000 habitantes durante una año) y el hidrógeno 3 se produce por la captura neutrónica del litio que se coloca rodeando al plasma. Aunque se pretende conseguir el confinamiento del plasma durante al menos un segundo, esto resulta difícil porque el sistema se desestabiliza.

Los estadounidenses están experimentando el confinamiento inercial de las mezclas de deuterio y tritio en microbolas, comprimiéndolas y calentándolas mediante ondas de choque de mil millones de atmósferas producidas por un conjunto de hasta doce láseres. El reactor es similar a los de fisión.

Estos son los procedimientos actuales para imitar la energía de las estrellas. Tienen la ventaja sobre la fisión nuclear de que los materiales son abundantes, solo precisan una pequeña masa crítica y producen muchas menos cenizas radiactivas. Además, la cantidad de energía desprendida en las reacciones de fusión es unas treinta veces mayor que en las de fisión (un gramo de deuterio daría tanta energía como 9.500 gramos de gasolina). Por estas razones, la fusión nuclear es considerada la energía del futuro, limpia e inagotable, pero muchos maliciosos dicen que es la energía del futuro… y siempre lo será (aunque sigue habiendo avances e invirtiéndose mucho dinero).

En medio de esta situación, con una energía de fisión controvertida y una energía de fusión casi inalcanzable, aparecen dos investigadores, el británico Martin Fleischmann y el estadounidense Stanley Pons, anunciando que consiguen la fusión nuclear en el laboratorio, a temperatura ambiente y con un aparato que puede construir un estudiante de enseñanza media ¡La fusión fría ha llegado! En 1989 informan, en una nota preliminar publicada en la prestigiosa revista Journal of Electroanalytical Chemistry, que han conseguido la fusión de núcleos de deuterio a temperatura ordinaria en una célula con agua pesada como electrolito y paladio como electrodo negativo (ambos materiales de producción industrial). El metal paladio absorbe, como una esponja, hasta un 5% de moléculas de hidrógeno o de deuterio, con lo que la presión de estos gases en el interior del metal puede llegar a ser ¡de cuatrillones de atmósferas! Una presión tan enorme haría que los núcleos de deuterio venciesen la repulsión electrostática y se fusionaran. Fleischmann y Pons informan en su artículo que observaron la producción de un gran cantidad de calor en el electrodo de paladio y midieron el desprendimiento de neutrones y rayos gamma con un modestísimo resultado.

La noticia estalla. En muchos laboratorios de todo el mundo se intentan reproducir los resultados y se llevan a cabo experimentos ligeramente diferentes. El australiano John Bockris, maestro de la electroquímica y director de la tesis doctoral de Fleischmann, también reproduce el experimento. Manifiesta que hay fusión fría, que es un descubrimiento, pero que la probabilidad de que resulte ser una fuente de energía es baja. Dice que se forman dendritas (arborescencias) en el paladio y, en ellas, la presión es tan grande que favorece la fusión; pero que las dendritas se caen y no hay reproductibilidad. La declaración de Bockris de que es un descubrimiento lo contradicen S.E.Jones y su equipo, y anuncian en un comunicado titulado ‘Observación de la fusión fría en la materia condensada’ que este fenómeno tiene lugar espontáneamente, por ejemplo, en el agua de mar, en el agua volcánica o en Júpiter, pero que no se auto sostiene, que es posible que absorba más energía de la que desprende.

Y eso es todo, amigos.

¡Las bombas A y H!

Los laboratorios del Proyecto Manhattan logran enriquecer el uranio natural en el isótopo ligero, U235, y obtener plutonio 239 a partir de la transmutación en pilas atómicas del uranio 238. El Pu239 presenta las mismas propiedades que el U235 para la fisión, pero con la ventaja de que emite más neutrones secundarios: 2,9 de media.

Para conseguir una reacción en cadena, el material fisionable, sea uranio o plutonio, debe tener un ‘tamaño crítico’ o ‘masa crítica’, ya que cada neutrón secundario tiene que recorrer una cierta distancia antes de impactar con un núcleo sin escaparse del material. A fin de obtener una reacción explosiva, es decir, para fabricar una bomba atómica de una manera primaria, se puede proyectar un trozo de uranio o de plutonio contra otro análogo con gran energía, por ejemplo mediante una explosión de trinitrotolueno (TNT): si la suma de los dos trozos supera la masa crítica se producirá la reacción de fisión nuclear. Un modo más sofisticado de construir una bomba atómica consiste en comprimir una cantidad subcrítica de material fisionable para que los núcleos se aproximen, lo que se consigue rodeando el material con explosivos que detonen simultáneamente.

Los científicos del Proyecto Manhattan, en su mayoría alemanes huidos del poder nazi, están próximos a crear el infierno. El laboratorio dirigido por Oppenheimer en Los Álamos logra reducir los productos fisionables U235 y Pu239 a metales puros y darles una forma adecuada. Un kilogramo de uranio ligero, cuando se fisiona completamente, libera una energía equivalente a 17.000 toneladas (17 kilotones) del potente explosivo TNT, alcanzándose una temperatura de millones de grados. La bola de fuego puede arrasar una ciudad, destrozando edificios en varios kilómetros. Además, la radiación se deposita en el humo y en el polvo, extendiéndose posteriormente.

El 16 de julio de 1945 se probó la primera bomba atómica en Álamogordo. El 6 de agosto, ‘Little Boy’, una bomba de uranio de 20 kilotones, explosionó a 600 metros de altura sobre la ciudad japonesa de Hiroshima, matando e hiriendo a la mitad de una población de más de trescientos mil habitantes y destruyendo las dos terceras partes de los edificios. Dos días después, ‘Fat Man’, una bomba de plutonio, arrasaba la ciudad de Nagasaki y Japón firmaba el 14 de agosto la rendición incondicional. La opinión internacional casi unánime fue que las bombas no eran necesarias para el fin de la guerra, ya que todas las fuerzas aliadas estaban libres de Alemania y Rusia hacía retroceder a los japoneses en Manchuria; pero los estadounidenses no querían la participación rusa y pretendían rentabilizar (¿con la mayor masacre de la historia!) el coste del Proyecto Manhattan.

En 1951 explosionó en las islas Marshall la más potente bomba conocida: la bomba termonuclear, la bomba de hidrógeno, la bomba H. En ella, deuterio y tritio, isótopos del hidrógeno con un protón y dos o tres neutrones en el núcleo respectivamente, se funden para dar helio, cuyo núcleo consta de dos protones y uno o dos neutrones. Como los núcleos de los isótopos de hidrógeno se repelen porque tienen carga eléctrica positiva, es necesaria una temperatura de millones de grados para que adquieran la velocidad necesaria para aproximarse hasta la distancia a la que puedan unirse mediante fuerzas atractivas de corto alcance. En el proceso de fusión se pierde un 0,63 % de masa, que se convierte en la gran cantidad de energía que resulta al multiplicarla por la velocidad de la luz al cuadrado. La detonación de la bomba H comienza con explosivos convencionales del tipo del TNT, que inician la explosión de una bomba atómica de fisión con la que se logran los millones de grados necesarios para producir la fusión. El proceso total tiene lugar en menos de un segundo y su poder destructor puede ser miles de veces mayor que el de las bombas atómicas. Además, las bombas termonucleares pueden ser lo suficientemente pequeñas como para ser lanzadas por misiles balísticos. ¡Dios nos libre!

La radiactividad y la energía nuclear

La radiactividad natural fue descubierta en 1896 por Henri Becquerel, pero ni él mismo sabía que la llamada ‘radiación Becquerel’ procedía espontáneamente del núcleo atómico inestable del uranio. El matrimonio Joliot-Curie, en 1934, obtuvo artificialmente isótopos radiactivos bombardeando elementos químicos ordinarios con partículas alfa. Siguiendo esta línea de investigación, el italiano Enrico Fermi bombardeó uranio con neutrones procedentes del berilio radiactivo: si reducía la velocidad de los neutrones haciéndolos pasar a través de parafina obtenía una mezcla de elementos que no fue capaz de identificar por no saber suficiente química. Por este trabajo le dieron el premio Nobel en 1938 y, aprovechando el permiso concedido por Mussolini para que fuese a Suecia a recoger el premio, se escapó con toda su familia del régimen fascista. En 1939, Hanh, Lise Meitner y Strassmann analizaron los productos de la reacción de Fermi y encontraron que el núcleo de uranio se había dividido en la fisión nuclear. Ya en Nueva York, Fermi se encuentra con Niels Bohr, quien le sugiere la posibilidad de una reacción nuclear en cadena: cuando el núcleo del isótopo ligero del uranio es golpeado por un neutrón de velocidad reducida, vibra, se rompe y emite una media de 2,5 neutrones. Estos neutrones pueden fisionar núcleos contiguos, que expulsarían más neutrones y acabarían provocando una reacción en cadena. En la reacción se pierde algo de masa que al multiplicarla por la velocidad de la luz al cuadrado, de acuerdo con la famosa ecuación de Einstein, se transforma en una enorme cantidad de energía.

El presidente F.D.Roosevelt, alertado por una carta firmada por Einstein del peligro que encierra la capacidad de producción de energía de la reacción en cadena en manos del enemigo nazi, da luz verde al proyecto Manhatan.

Fermi construye una ‘pila atómica’ con bloques de grafito, cuyos átomos de carbono moderan la velocidad de los neutrones y el 2 de diciembre de 1942 consigue la primera reacción en cadena auto sostenida. El presidente estadounidense recibe el siguiente comunicado: «El italiano ha descubierto el nuevo mundo». Un descubrimiento de la física había abierto una puerta de gran trascendencia: la energía atómica controlada y la bomba atómica.

Cuando Enrico Fermi domesticó la bomba atómica, lo hizo mediante la construcción de un reactor de fisión, en el que la reacción en cadena ha de alcanzar un estado estacionario: el número de neutrones moderados que producen la fisión del uranio 235 debe ser igual al de neutrones gastados en el proceso. En un reactor de uranio enriquecido al 3-4% desaparece algo de masa y se desprende mucha energía: 30 gramos de U235 perdidos dan lugar a 600.000 kWh, que equivalen a la energía producida por la combustión de 100 toneladas de carbón o 7.500 litros de gasolina.

No obstante a la gran ventaja que representa la energía procedente de la fisión nuclear, la sociedad es consciente de los problemas de seguridad y de contaminación radiactiva que acarrea. Aunque el reactor no es una bomba atómica, ya que la reacción se frena al aumentar la temperatura, puede darse una explosión convencional que expulse el combustible y produzca una fuerte contaminación y, también, si el combustible se funde, produciría mucha radiactividad. Incluso sin accidentes, con el reactor en funcionamiento normal, se producen elementos radiactivos gaseosos (como kriptón y xenón que se envían a la atmósfera), líquidos y sólidos (que pasan a los refrigerantes). Además, después de la combustión, se generan residuos sólidos de baja, media y alta radiactividad. Una central nuclear deja residuos radiactivos con algunos isótopos de vida larga (como estroncio 90, cesio 137 y plutonio 239), residuos que hay que mantener bajo vigilancia durante generaciones.

Según la Organización Mundial de la Salud existe una relación lineal entre las dosis de radiación recibidas por las personas y el cáncer, las mutaciones y las aberraciones cromosómicas; pero la irradiación media de la población, tanto de la próxima a una central nuclear como la mundial, es menor que las irradiaciones medias que provienen de fuentes naturales o de prácticas médicas. Además, los efectos de la radiación sobre la salud son más conocidos que los de otras fuentes de energía.

Por otra parte, las centrales nucleares emiten menos gases de efecto invernadero que las centrales de combustibles fósiles y, salvo Chernóbil, los accidentes ocurridos han producido más pérdidas de capacidad productiva y reacciones emotivas que daño físico. No obstante, aún quedan muchos interrogantes: ¿Son las centrales nucleares excesivamente caras para su corta duración y su problemático desmantelamiento? ¿Serán objeto de sabotajes? ¿Desaparecerá plutonio y será empleado por terroristas en la fabricación de bombas?

Las reacciones químicas y electroquímicas

Una reacción química es un proceso por el cual unas sustancias (reactivos) se convierten en otras diferentes (productos). La tendencia que tienen las sustancias a reaccionar se mide con el contenido en energía libre: los productos de la reacción deben tener menos energía libre que los reactivos. Esto se puede evaluar, pero ¿a qué velocidad se produce la reacción? Para que la reacción tenga lugar, las moléculas deben colisionar con una energía y una geometría adecuadas. Que dos moléculas se encuentren en estas condiciones en un punto del espacio es mil veces más probable que lo hagan tres. Así, una reacción puede transitar por caminos que pueden ser variados y complicados, transcurrir a través de mecanismos complejos que conviene elucidar para, en la práctica, conocer las condiciones más económicas para que la reacción se produzca.

La Electroquímica es una ciencia que está más allá del conocimiento de la química de las sustancias y de la física de los campos eléctricos. Tiene dos partes diferenciadas: la iónica y la electródica. El tratamiento iónico, relativo a los iones en disolución y a los sólidos iónicos fundidos, pertenece más bien a la química física de las disoluciones, pero se trata por tradición en la electroquímica. Estudia las interacciones entre los iones y entre estos y los dipolos del disolvente, la solvatación, las constantes dieléctricas, los coeficientes de actividad, el transporte de iones, la difusión, etcétera. La electródica tiene por objeto el estudio de los fenómenos que ocurren en las interfaces electrificadas. La interfaz (que otros llaman intercara) es la superficie bidimensional de contacto entre dos fases. No es la interfase, ya que esta es la región -con volumen- en la que se da una transición continua de las propiedades de una fase a otra. Casi todas las interfaces están electrificadas. La electródica estudia la transferencia de cargas eléctricas a través de las interfaces. Así se explican muchos fenómenos: la corrosión de los metales en presencia de humedad debida a la orientación de los dipolos de las moléculas del agua; la descarga de los iones positivos sobre un metal por el que circula una corriente eléctrica dando lugar a una reacción electroquímica; las reacciones que pueden originar corrientes eléctricas; las interacciones repulsivas que gobiernan el comportamiento de muchas interfaces en los sistemas biológicos, etcétera.

La importancia práctica de la electroquímica es de un interés extraordinario. Por ejemplo, quemando combustibles fósiles se genera calor, que se transforma en energía mecánica para producir electricidad, mientras que con una reacción electroquímica se obtiene directamente corriente eléctrica y no se produce dióxido de carbono. Hoy en día se construyen células de combustible que proporcionan megavatios de potencia y los vehículos espaciales se abastecen de energía mediante procesos electroquímicos. Además, las reacciones biológicas se explican por qué el transporte se realiza a través de la doble capa eléctrica y es así como funcionan las células de los seres vivos. La electroquímica también incide en la química de los sistemas coloidales (como la sangre), en la extracción, separación y purificación de metales, en la síntesis de polímeros (como el nylon), en el almacenamiento y transporte de energía (automóviles eléctricos), etcétera.

La Química en sus comienzos.

Al tiempo que los alquimistas se dedicaban a la metafísica y a la magia, se iban conociendo nuevas sustancias y se desarrollaba una tecnología basada en las transformaciones químicas. Así, los egipcios ya usaban el oro en la edad de piedra y los hindúes, después, emplearon oro, plata, cobre, plomo, estaño y hierro. Loas procesos metalúrgicos comenzaron con la tostación de los sulfuros, con la fabricación de aleaciones como el bronce, el latón y el peltre y con la obtención de acero de gran calidad como el que hacían en Damasco y se transmitió a Toledo. El trabajo con metales dio origen a una multitud de oficios: orífices, herreros, fabricantes de armas y de agujas, tuercas, cerraduras, astrolabios, etcétera. Los chinos utilizaban la pólvora para la exhibición de fuegos artificiales coloreados con sustancias químicas incandescentes, y fabricaban papel de gran calidad con fibras de lino. En la Edad Media se inició el soplado del vidrio, técnica que permitió la fabricación de vajillas, lentes convexas para gafas y mejorar la calidad de los alambiques, con los que consiguieron destilar, además de alcohol y aromas para perfumes, ácidos minerales fuertes como el nítrico y el sulfúrico. La industria textil de la lana, la seda y el lino llevaba aparejada la extracción y empleo de tintes vegetales y su fijación con mordientes como el alumbre o la sosa y, por supuesto, los tejidos se lavaban con jabón. Los constructores empleaban tejas y ladrillos, y la cerámica, las pinturas con sus pigmentos y colas y las tintas eran ampliamente utilizadas. Los sabios árabes, en su mayoría médicos en ejercicio, se sirvieron de los medicamentos egipcios, indios y griegos, tanto de origen vegetal (anís, sen, opio, daturas, etc.) como mineral (nafta, bórax, arsénico, etc.).

A todo este gran acervo de conocimientos empíricos y tecnológicos le faltaba algo primordial para ser Química: el método, el nexo que uniese los distintos saberes prácticos y los impulsase más rápidamente hacia nuevos logros. Faltaba conocer la estructura y composición de las sustancias para interpretar sus transformaciones. Para que se encargase de ello, la Humanidad creó a Antoine Laurent Lavoisier (1743-1794) , quien descubrió, mediante experimentos cuidadosamente controlados, que los metales aumentaban de peso al calentarlos en presencia de aire debido a que se combinaban con un gas atmosférico al que llamó oxígeno. Y después de él, un aluvión: Henry Cavendish (1731-1810), el autista genial que apenas pronunció una palabra en su vida y caracterizó el hidrógeno; Humphry Davy (1778-1829), que obtuvo los metales ¡blandos! sodio y potasio y el cloro y el iodo por electrolisis; Louis Proust (1754-1826) que estableció la ley de las composiciones fijas de los compuestos químicos; John Dalton (1766-1844), quien atribuyó a cada elemento químico una clase específica de átomo con una masa atómica característica; Jöns Jacob Berzelius (1779-1848), que sustituyó los iconos de Dalton por las iniciales de los nombres de los elementos para designarlos; Joseph Louis Gay-Lussac (1778-1860), que escribió fórmulas de compuestos. Y así hasta llegar al gran orden: la tabla periódica de Dmitri Mendeléiev (1834-1907), en la que los elementos se agrupan por familias con parecidas propiedades químicas.

La alquimia

¿Qué es eso de la alquimia? En el trabajo alquímico hay dos vertientes: de una parte, el trasteo con sustancias naturales para conseguir su transformación en otras sustancias diferentes; y de otra parte, obtener la transmutación, lograr la piedra filosofal y con ella la riqueza, la eterna juventud e incluso la inmortalidad. Esta es la gran obra, esotérica y mística, que pone en relación al hombre con el cosmos.

Los primeros alquimistas de los que se tiene noticia fueron los chinos, los hindúes y los egipcios. Los chinos se dedicaron a la medicina de la inmortalidad, fabricando elixires como el llamado oro bebestible. Los hindúes, como tenían la inmortalidad en su religión, preparaban elixires para alargar la vida. Los griegos recibieron de los egipcios la idea de la piedra de los filósofos, que no era una piedra, sino un polvo de proyección con el que se pretendía orificar metales. Esta era la gran obra, que constaba de varias etapas caracterizadas por una secuencia de colores: en primer lugar parece ser que se procedía a la calcinación de una ‘sal o cuerpo’ con lo que se obtenía una mezcla de color negro (negrura, cosa siniestra, la bajada a los infiernos); después se sublimaba el mercurio para obtenerlo puro (alma blanqueada, resurrección); en tercer lugar el alma se mezclaba con el sol y la luna, con el hombre y la mujer (¿oro o azufre y plata o mercurio?) y se procedía a una larga cocción durante la cual, al principio, ‘la mujer se subía en el hombre’, después, ‘el cuerpo se integraba en el espíritu y lo ennegrecía’ y, finalmente, se producía la transmutación de las naturalezas, ‘el hombre se subía en la mujer’ y aparecía el enrojecimiento, la calidad del oro, aparecía «la piedra que no es piedra, cosa preciosa sin valor, con formas innumerables y sin forma, desconocida y de todos conocida».

Hasta el siglo XIX no se tuvo evidencia de la imposibilidad de la transmutación en oro. Después, diversos investigadores han realizado intentos para averiguar qué procedimiento podían seguir los alquimistas para convencer a la gente de que obtenían oro utilizando un metal cualquiera. En todo caso tendrían que partir de oro, por ejemplo, disimulado en forma de amalgama y mezclado quizá con plomo, cuyo óxido enmascara el espejo de la amalgama emigrando a la superficie y proporcionando el color negro. Si se calienta la mezcla, el mercurio se evapora, el óxido de plomo se separa hacia los extremos del crisol y aparece el oro amarillo. Puede ocurrir, al cabo de un mayor calentamiento, que el oro se oxide y dé colores primero rojo y luego púrpura ¿Es este el oro alquímico, el elixir de la inmortalidad?

La más pura tradición alquímica procede de los textos herméticos, correspondientes a la revelación del dios egipcio Thot, llamado por los griegos Hermes Trimegistos (tres veces grande). De Hermes, inventor de la escritura y de todas las artes de ella derivadas, proceden el hermetismo cultivado, que engloba la filosofía y la teología, y el hermetismo popular, que trata de la astrología y del ocultismo. La alquimia puede considerarse una parte de la astrología en tanto que relaciona el hombre con el cosmos y, además, por medio de la tecnología, con la tierra. Según algunos, el significado de la obra alquímica está expuesto en la Tabla Esmeralda, un texto de doce puntos dado a conocer por aquellos árabes cultivadores del hermetismo cuyo objetivo, coincidente con el de los gnósticos, era la deificación del hombre a través del conocimiento. El traductor de la Tabla, dicen, fue Jabir Ibn Hayyan, llamado Gerber y que pudo ser el nombre de toda una secta musulmana seguidora de Aristóteles y que, como él, creyó que una sustancia puede transformarse en otra cambiando sus propiedades primarias (aire, agua, fuego, tierra).

La mayoría de los sabios musulmanes eran médicos en ejercicio, como Al Razi (Rhades) e Ibn Sina (Avicena), que estudiaron los efectos de la higiene y la dieta, pero que también recurrieron a la astrología, a la botánica y a la alquimia. Sus enseñanzas pasaron a Europa de la mano de la escuela de traductores de Toledo. En España, en los siglos XIII y XIV, aparecieron unos cuantos falsos Geber, alquimistas que usaron el mítico nombre para añadir autoridad a unos trabajos que en realidad fueron meritorios, ya que lograron preparar los ácidos más fuertes hasta entonces conocidos: el nítrico y el sulfúrico. De aquella época es Arnau de Vilanova, un ¿leridano? médico y filósofo que sabía griego y árabe, que escribió ‘De confeccione vinorum’ y que, usando el alambique árabe, destiló alcohol de vino para utilizarlo en medicina; además, parece ser que escribió, con una ortografía casi incomprensible, el ‘Cuestionario de Ramón Llull’ donde se expone la transmutación en veintiocho pasos. Siguiendo el ejemplo de Arnau, ls alquimistas posteriores escribieron y atribuyeron al Doctor Iluminado, al beato Llull más de quinientos volúmenes sobre la ciencia hermética.

A pesar de la admonición de Leonardo da Vinci sobre la locura de preparar oro a partir de mercurio y azufre (En las minas de oro no hay ni mercurio ni azufre, no hay fuego ni otra fuente de calor, ¿por qué pierdes el tiempo en tu horno?), los alquimistas continuaron durante los siglos siguientes con sus intentos, a veces imitativos, a veces fraudulentos. Por ejemplo: aumentar el peso del oro con algo de mercurio, plata y cobre; preparar el polvo púrpura calentando una mezcla de seis sustancias de las cuales el azufre y el mercurio son innecesarios para obtener el producto que se consigue; teñir vidrios con disoluciones de oro a imitación del rubí; ‘transmutar’ hierro en cobre introduciendo una varilla de hierro en una disolución de una sal de cobre, con lo que éste se deposita sobre la varilla; etcétera.

El metalúrgico español del siglo XVII Álvaro Alonso Barba decía que la alquimia era un nombre odioso por la multitud de ignorantes que con sus embustes lo habían desacreditado, aunque él seguía creyendo que los metales se generaban continuamente a partir de la exhalación húmeda y untuosa y de la tierra viscosa y grasa. No solo el lepero Barba, también el matemático inglés John Dee, que hacía sesiones de magia, el belga Glauber, que sintetizó ácido clorhídrico a partir de sal común y ácido sulfúrico, obteniendo un residuo al que llamó ‘sal mirabilis’ (sulfato de sodio) por sus maravillosas propiedades, y el holandés van Helmont, descubridor del dióxido de carbono e inventor de la palabra gas, fueron creyentes y practicantes alquímicos, en contra de la opinión del canciller y filósofo inglés Francis Bacon, quien abogaba por otra alquimia operativa y práctica que producía mayores beneficios. Un siglo más tarde, en el XVIII, hasta el gran Isaac Newton seguía perdiendo el tiempo con los procesos alquímicos, e incluso después de aparecer Antoine Lavoisier, el verdadero padre de la química, el que con sus pesadas y medidas sentó las primeras bases de la teoría, a los rosacruces, modernos gnósticos, les parecía que la química era demasiado limitada en sus objetivos, ya que no estudiaba la relación entre el hombre y el cosmos.

La Termodinámica: el equilibrio (2)

Cuando dos sistemas a diferentes temperaturas entran en contacto, la energía fluye del más caliente al más frío hasta que se alcanza el equilibrio. La tendencia al equilibrio es fundamental en la física. Pero por supuesto que hay más termodinámica que la tradicional que estudia sistemas en equilibrio. La termodinámica de no equilibrio estudia sistemas abiertos al intercambio de energía y de materia con el exterior. Un sistema abierto puede mantenerse indefinidamente fuera del equilibrio en un estado estacionario que supone una prolongación del concepto de equilibrio.

Lars Onsager (1903-1976), químico físico noruego nacionalizado estadounidense, premio Nobel en 1968 por el estudio de los procesos irreversibles en regiones próximas al equilibrio, definió las ‘fuerzas’ que describen la magnitud del desequilibrio, y los ‘flujos’ asociados que representan la tendencia a restablecer el equilibrio.

Ilya Prigogine (1917-2003), químico físico belga nacido en Rusia y premio Nobel en 1977 por ampliar la perspectiva de la Termodinámica, estudió los procesos irreversibles en regiones alejadas del equilibrio. Dice Prigogine: «El no equilibrio es el origen de toda coherencia. Tanto la dinámica como la termodinámica de equilibrio niegan cualquier ‘creatividad’ del sistema. La ley del aumento de entropía postula que toda fluctuación próxima al equilibrio está condenada a desaparecer. Pero en los sistemas en los que se producen constantemente intercambios de energía y de materia con el medio, el equilibrio no es posible, por darse procesos disipativos que producen entropía continuamente. No obstante, a partir de cierta distancia del equilibrio, el segundo principio ya no sirve para garantizar la estabilidad del estado estacionario. Una fluctuación puede no remitir, sino aumentar. El sistema adopta un modo de funcionamiento completamente distinto: aparece un proceso de auto organización que llamamos ‘estructura disipativa’ (una fluctuación amplificada). Los procesos disipativos tienden a reforzar la fluctuación y los intercambios con el medio a amortiguarla. Cuanto más grande es la fluctuación, más puede desarrollarse. Todos los sistemas son metaestables, sobreviven porque pocas perturbaciones pueden destruirlos».

De acuerdo con estas definiciones, el desarrollo de la termodinámica puede establecerse en tres pasos: 1.-Equilibrio: desaparecen tanto las fuerzas como los flujos. 2.-Cuasi equilibrio: los flujos son proporcionales a las fuerzas. 3.-Situación alejada del equilibrio: las fluctuaciones se amplifican.

Con la termodinámica de no equilibrio se estudia la vida, que es un proceso disipativo metaestable, una lucha evolutiva por la entropía disponible. En los sistemas vivientes se crea orden a partir del desorden. En el primer nivel de la escala trófica se encuentran los vegetales, que reciben energía electromagnética del Sol, y esos fotones, excitando electrones, provocan la fotosíntesis produciendo, por ejemplo, hidratos de carbono. Aunque solo aproximadamente el uno por ciento de la energía que incide sobre la planta se convierte en materia viva, ha habido una disminución de entropía, un aumento del orden, a costa del aumento de entropía en el exterior del sistema.

La Termodinámica: sus principios (1)

La Termodinámica es una parte de la física que se desarrolló en el siglo XIX a fin de estudiar la eficiencia de las máquinas que transforman el calor en trabajo. Las máquinas térmicas, que en principio se limitaban a las máquinas de vapor y luego se extendieron a, por ejemplo, turbinas y motores a reacción, precisan para su funcionamiento una fuente caliente, un motor y un indispensable depósito frío. Al hilo de estos inicios, la Termodinámica llegó a ser un sistema de pensamiento con leyes o principios de validez universal. El físico matemático alemán Rudolf Clausius enunció el principio cero, que dice que el calor es una forma de transferir la energía que fluye desde un cuerpo caliente a otro frío. Por ejemplo, se puede transferir energía desde un motor hasta un objeto mediante la acción de un trabajo, pero lo que se transfiere es energía , no calor o trabajo. La energía que tiene un cuerpo es debida al movimiento más o menos rápido de las partículas que lo constituyen; así, para extraer energía en forma de calor no hay restricción, pero para extraerla en forma de trabajo, tiene que salir como un movimiento atómico ordenado.

El primer principio de la Termodinámica dice que la energía se conserva y que no hay más que dos clases de energía: la cinética y la potencial. De acuerdo con la famosa ecuación de Einstein, la masa es equivalente a la energía. Para calcular la energía que contiene una determinada cantidad de materia, hay que multiplicar la masa por la velocidad de la luz al cuadrado, un número muy grande. En consecuencia, debe de haber una enorme cantidad de energía en el Universo; pero en él también hay una energía que se resta: la atracción gravitatoria reduce la energía de los cuerpos que se atraen, ya que es energía potencial. La que gane de estas dos formas de contar la energía determinará el futuro del Universo. Si predomina la atracción, el Universo se contraerá hasta el ‘Big Crunch’. Si la predomina la energía cinética, habrá expansión sin fin. Si son iguales, la expansión acabará en extinción.

Parafraseando a Snow, desconocer el segundo principio de la Termodinámica equivale, culturalmente, a no haber leído el Quijote. En esta segunda ley, el concepto fundamental es el de entropía, una función fácilmente entendible porque es una medida del desorden: cuanto mayor sea el desorden de las partículas que componen un sistema, mayor es su entropía, como sucede en el paso de sólido a líquido y de líquido a gas. Asimismo, cuanto más baja sea la entropía de un sistema, mayor será la calidad de su energía. El cambio de entropía se define matemáticamente por la relación entre la energía puesta en juego en forma de calor y la temperatura absoluta a la que se produce la transferencia. Así, cuando un sistema recibe calor, su desorden aumenta y por lo tanto, su entropía. Además, cuanto más baja sea la temperatura a la que recibe una determinada cantidad de energía, mayor será el aumento de la entropía. Por el contrario, la entropía de un cuerpo (o sistema en general) decrece a medida que pierde energía en forma de calor.

La temperatura, en termodinámica, es una magnitud que relaciona el calor y la entropía. La relación entre estas tres magnitudes configura el tercer principio de la Termodinámica, para el cual el cero absoluto de temperatura (cero grados Kelvin, 0K = -273,15ºC) es un valor teóricamente inalcanzable: a medida que el sistema se va aproximando a la temperatura mínima la extracción de energía es cada vez más difícil.

La entropía no disminuye nunca en los cambios naturales: el orden no aumenta nunca espontáneamente. Pero, ¿qué ocurre en los sucesos en los que se reduce el desorden como en las cristalizaciones o en los crecimientos de los seres vivos? Si en un lugar crece el orden, en otro sitio debe darse un desorden mayor, produciéndose un aumento global de la entropía. El gran Rudolf Clausius, quien al formular la segunda ley hizo de la Termodinámica una ciencia, dijo que «la energía del mundo es constante y la entropía tiende a alcanzar un máximo». Como en el Universo no hay una fuente externa de entropía, habrá un aumento del desorden y una disminución de la calidad de la energía, es decir, el universo siempre irá a peor, hacia la ‘muerte térmica’.

Si el Universo se originó con un Big Bang (gran explosión del huevo original ¿acto creador?) y acaba con un Big Crunch (gran contracción ¿seguida de renovación?) ¿se cumpliría el segundo principio en el caso de que el Universo, debido a la fuerza de atracción gravitatoria, se volviese a comprimir en un punto? El matemático británico Roger Penrose ‘dixit’ que, en este caso, la materia y la energía tendrían una entropía bajísima, pero que la estructura del espacio-tiempo podría ser tan compleja que, en conjunto, el desorden fuese mayor, salvándose el aumento entrópico relativo a un suceso espontáneo. Especulaciones, incógnitas.

La Matemática. La mente humana y el entorno.

¿Dónde está la Matemática? ¿Ahí afuera o es producto de la mente humana? En diversos sitios se puede leer la frase de Kronecker: «Dios creó los números enteros, todo lo demás es obra del hombre». La mayoría de los grandes matemáticos consideran las verdades matemáticas como independientes del pensamiento humano. Por ejemplo, el británico Godfrey Hardy dice que «el 317 es un número primo, no porque nosotros lo creamos, o porque nuestras mentes estén hechas de una forma u otra, sino porque es así, porque la realidad matemática está así construida». Pero ¿inventamos las matemáticas o las descubrimos? ¿Existirán en ausencia de matemáticos? Los realistas opinan que si todas las mentes desaparecieran, el Universo seguiría teniendo una estructura matemática; el mundo externo está matemáticamente ordenado y hasta los teoremas de la matemática pura seguirían siendo verdaderos. Por el contrario, los conceptualistas dicen que toda la matemática es una creación puramente humana, que la creencia en el esquema matemático de la naturaleza, de la lógica y de la matemática son invenciones humanas.

Bertrand Russell dice que «debemos admitir que podemos conocer la existencia de realidades independientes de nosotros mismos, ya que leer el libro de la naturaleza con la convicción de que todo es ilusorio, no puede conducir a la comprensión». También dice que «el mundo externo existe; la estructura del mundo es ordenada; sabemos poco sobre la naturaleza del orden y nada en absoluto de por qué existe». Así, las matemáticas resultan ser el estudio del orden en la naturaleza, la búsqueda de ese orden y de lo simple mediante leyes matemáticas en las que se ha cimentado el desarrollo de la ciencia. La existencia de regularidades, de pautas, en la naturaleza es un hecho objetivo.

Para Roger Penrose «el comportamiento del Universo parece estar basado en las matemáticas hasta un grado de precisión extraordinario: la geometría euclidiana, la mecánica de Newton, la electrodinámica de Maxwell (la más exacta), la relatividad (más exacta que la de Newton) y la cuántica, predicen con errores inferiores a las millonésimas».

¿A qué se debe una precisión tal en las leyes matemáticas? ¿A que la mente humana es una herencia de la complejidad del entorno en el que ha evolucionado y al que se ha aclimatado? ¿Puede la mente humana progresar y llegar a comprender los espacios n-dimensionales y el infinito? Pero, ¿está el infinito ahí afuera?

¿Qué es el infinito?

¿Qué es el infinito? ¿Simplemente lo que no tiene fin? Desde antiguo, las opiniones de los filósofos son controvertidas. Los pitagóricos identificaban infinito con indefinido. Para Platón, el espacio y la materia son ilimitados, pero lo ilimitado es imperfecto por lo que no es eterno; lo que son infinitas son las ideas y entre ellas se encuentra la idea de infinito. Mucho más tarde, Locke dijo que la idea de infinito no prueba el infinito. Y Kant afirmó que el tiempo y el espacio son infinitos. Aquinas señaló que el ser divino debe ser perfectamente infinito, pero que el universo, por imperfecto, debe ser finito. Spinoza le contradijo: el universo es infinito porque Dios mismo es la naturaleza. Para Aristóteles lo ilimitado es una posibilidad, un infinito potencial: el ser finito enumera, luego el infinito real no existe. Heimsoeth puntualiza: «El concepto fundamental de la filosofía es el verdadero infinito, concepto en el cual la realidad absoluta ha encontrado una nueva definición». Además, «la idea de infinito no puede proceder de la experiencia, ni puede ser construida por la imaginación, que conduce a lo indefinido: la idea de infinito es necesariamente a priori».

¿Y qué dicen los matemáticos? Hermann Weyl, discípulo de Hilbert y colega de Einstein, opinaba que «las matemáticas han sido intrépidas e ingenuas para convertir el sistema de los números en un dominio de existencias absolutas fuera de este mundo». Para él y para su maestro «la matemática es la ciencia de lo infinito, y este es accesible al espíritu, a la intuición». Gauss, considerado el mayor matemático de la historia, dice que «infinito es una forma de hablar». Y para J.W.Gibbs «un matemático puede decir lo que le plazca, pero un físico debe ser al menos parcialmente cuerdo». Bertrand Russell ironiza: «Las matemáticas puras pueden definirse como la disciplina en la que nunca sabemos de lo que estamos hablando, ni si lo que estamos diciendo es verdad». Pero Cantor defiende enérgicamente la libertad de los matemáticos para inventar lo que deseen y pide que se hable de matemáticas libres y no de matemáticas puras.

Los números se clasifican en números naturales (o enteros, 1, 2, 3…) y números reales que comprenden a los números racionales (o fracciones, 5/2, 22/7…) y a los irracionales (no enteros, no racionales, ni con terminación repetida, como raíz cuadrada de 2 o el número pi). Según Russell, los números finitos obedecen a la ley de la inducción matemática, es decir, pueden alcanzarse por adiciones de uno; pero el primer número infinito no tiene la propiedad de que exista un número anterior que sumándole uno dé infinito. Así, el primer infinito está más allá de la serie total sin fin de los números finitos. Además, la teoría positiva del infinito no aumenta al agregarle uno o al duplicarlo: ‘no son números’ porque no pueden alcanzarse contando; los finitos, sí.

Con Georg Cantor comenzó la teoría matemática del infinito. Nacido en San Petersburgo en 1845 de padres daneses y muerto en Alemania en 1918, fue discípulo de Kronecker en su tesis doctoral y fundó, junto a su amigo Dedekind, la teoría de conjuntos. Para Cantor, los números naturales son infinitos por definición. Demostró que los números racionales, aunque infinitos, son enumerables porque pueden ser colocados en correspondencia biunívoca (uno a uno) con los números naturales. Asimismo, demostró que el conjunto de los números reales es infinito y no enumerable. Además, con el método de la diagonal demostró que hay infinitos conjuntos que no pueden ser enumerados; no existe una enumeración de todos los números reales en un intervalo dado. Por lo tanto, hay un número infinito de conjuntos infinitos diferentes a los que se puede aplicar el concepto de mayor y menor: ‘hay grados de infinitud’. Desde los cuarenta años hasta su muerte, Cantor tuvo que ser internado en un manicomio intermitentemente. Durante este periodo ya no pudo avanzar en sus teorías.

El que sí estuvo lúcido hasta su muerte fue Bertrand Russell, quien en su extensa obra ‘Los principios de la Matemática’ dejó dicho que el problema del infinito matemático es de orden: los cardinales transfinitos están bien ordenados, son tales que cada uno de ellos, excepto el último, si existe, tiene un inmediato sucesor; tampoco existe un número finito último que sea predecesor del menor de los transfinitos. E ironiza: «las unidades infinitas, aunque sí son lógicamente posibles, no aparecen nunca en algo accesible al entendimiento humano».

Pero, ¿está el infinito ahí afuera?