Archivo de la categoría: Uncategorized

La Termodinámica: el equilibrio (2)

Cuando dos sistemas a diferentes temperaturas entran en contacto, la energía fluye del más caliente al más frío hasta que se alcanza el equilibrio. La tendencia al equilibrio es fundamental en la física. Pero por supuesto que hay más termodinámica que la tradicional que estudia sistemas en equilibrio. La termodinámica de no equilibrio estudia sistemas abiertos al intercambio de energía y de materia con el exterior. Un sistema abierto puede mantenerse indefinidamente fuera del equilibrio en un estado estacionario que supone una prolongación del concepto de equilibrio.

Lars Onsager (1903-1976), químico físico noruego nacionalizado estadounidense, premio Nobel en 1968 por el estudio de los procesos irreversibles en regiones próximas al equilibrio, definió las ‘fuerzas’ que describen la magnitud del desequilibrio, y los ‘flujos’ asociados que representan la tendencia a restablecer el equilibrio.

Ilya Prigogine (1917-2003), químico físico belga nacido en Rusia y premio Nobel en 1977 por ampliar la perspectiva de la Termodinámica, estudió los procesos irreversibles en regiones alejadas del equilibrio. Dice Prigogine: «El no equilibrio es el origen de toda coherencia. Tanto la dinámica como la termodinámica de equilibrio niegan cualquier ‘creatividad’ del sistema. La ley del aumento de entropía postula que toda fluctuación próxima al equilibrio está condenada a desaparecer. Pero en los sistemas en los que se producen constantemente intercambios de energía y de materia con el medio, el equilibrio no es posible, por darse procesos disipativos que producen entropía continuamente. No obstante, a partir de cierta distancia del equilibrio, el segundo principio ya no sirve para garantizar la estabilidad del estado estacionario. Una fluctuación puede no remitir, sino aumentar. El sistema adopta un modo de funcionamiento completamente distinto: aparece un proceso de auto organización que llamamos ‘estructura disipativa’ (una fluctuación amplificada). Los procesos disipativos tienden a reforzar la fluctuación y los intercambios con el medio a amortiguarla. Cuanto más grande es la fluctuación, más puede desarrollarse. Todos los sistemas son metaestables, sobreviven porque pocas perturbaciones pueden destruirlos».

De acuerdo con estas definiciones, el desarrollo de la termodinámica puede establecerse en tres pasos: 1.-Equilibrio: desaparecen tanto las fuerzas como los flujos. 2.-Cuasi equilibrio: los flujos son proporcionales a las fuerzas. 3.-Situación alejada del equilibrio: las fluctuaciones se amplifican.

Con la termodinámica de no equilibrio se estudia la vida, que es un proceso disipativo metaestable, una lucha evolutiva por la entropía disponible. En los sistemas vivientes se crea orden a partir del desorden. En el primer nivel de la escala trófica se encuentran los vegetales, que reciben energía electromagnética del Sol, y esos fotones, excitando electrones, provocan la fotosíntesis produciendo, por ejemplo, hidratos de carbono. Aunque solo aproximadamente el uno por ciento de la energía que incide sobre la planta se convierte en materia viva, ha habido una disminución de entropía, un aumento del orden, a costa del aumento de entropía en el exterior del sistema.

La Termodinámica: sus principios (1)

La Termodinámica es una parte de la física que se desarrolló en el siglo XIX a fin de estudiar la eficiencia de las máquinas que transforman el calor en trabajo. Las máquinas térmicas, que en principio se limitaban a las máquinas de vapor y luego se extendieron a, por ejemplo, turbinas y motores a reacción, precisan para su funcionamiento una fuente caliente, un motor y un indispensable depósito frío. Al hilo de estos inicios, la Termodinámica llegó a ser un sistema de pensamiento con leyes o principios de validez universal. El físico matemático alemán Rudolf Clausius enunció el principio cero, que dice que el calor es una forma de transferir la energía que fluye desde un cuerpo caliente a otro frío. Por ejemplo, se puede transferir energía desde un motor hasta un objeto mediante la acción de un trabajo, pero lo que se transfiere es energía , no calor o trabajo. La energía que tiene un cuerpo es debida al movimiento más o menos rápido de las partículas que lo constituyen; así, para extraer energía en forma de calor no hay restricción, pero para extraerla en forma de trabajo, tiene que salir como un movimiento atómico ordenado.

El primer principio de la Termodinámica dice que la energía se conserva y que no hay más que dos clases de energía: la cinética y la potencial. De acuerdo con la famosa ecuación de Einstein, la masa es equivalente a la energía. Para calcular la energía que contiene una determinada cantidad de materia, hay que multiplicar la masa por la velocidad de la luz al cuadrado, un número muy grande. En consecuencia, debe de haber una enorme cantidad de energía en el Universo; pero en él también hay una energía que se resta: la atracción gravitatoria reduce la energía de los cuerpos que se atraen, ya que es energía potencial. La que gane de estas dos formas de contar la energía determinará el futuro del Universo. Si predomina la atracción, el Universo se contraerá hasta el ‘Big Crunch’. Si la predomina la energía cinética, habrá expansión sin fin. Si son iguales, la expansión acabará en extinción.

Parafraseando a Snow, desconocer el segundo principio de la Termodinámica equivale, culturalmente, a no haber leído el Quijote. En esta segunda ley, el concepto fundamental es el de entropía, una función fácilmente entendible porque es una medida del desorden: cuanto mayor sea el desorden de las partículas que componen un sistema, mayor es su entropía, como sucede en el paso de sólido a líquido y de líquido a gas. Asimismo, cuanto más baja sea la entropía de un sistema, mayor será la calidad de su energía. El cambio de entropía se define matemáticamente por la relación entre la energía puesta en juego en forma de calor y la temperatura absoluta a la que se produce la transferencia. Así, cuando un sistema recibe calor, su desorden aumenta y por lo tanto, su entropía. Además, cuanto más baja sea la temperatura a la que recibe una determinada cantidad de energía, mayor será el aumento de la entropía. Por el contrario, la entropía de un cuerpo (o sistema en general) decrece a medida que pierde energía en forma de calor.

La temperatura, en termodinámica, es una magnitud que relaciona el calor y la entropía. La relación entre estas tres magnitudes configura el tercer principio de la Termodinámica, para el cual el cero absoluto de temperatura (cero grados Kelvin, 0K = -273,15ºC) es un valor teóricamente inalcanzable: a medida que el sistema se va aproximando a la temperatura mínima la extracción de energía es cada vez más difícil.

La entropía no disminuye nunca en los cambios naturales: el orden no aumenta nunca espontáneamente. Pero, ¿qué ocurre en los sucesos en los que se reduce el desorden como en las cristalizaciones o en los crecimientos de los seres vivos? Si en un lugar crece el orden, en otro sitio debe darse un desorden mayor, produciéndose un aumento global de la entropía. El gran Rudolf Clausius, quien al formular la segunda ley hizo de la Termodinámica una ciencia, dijo que «la energía del mundo es constante y la entropía tiende a alcanzar un máximo». Como en el Universo no hay una fuente externa de entropía, habrá un aumento del desorden y una disminución de la calidad de la energía, es decir, el universo siempre irá a peor, hacia la ‘muerte térmica’.

Si el Universo se originó con un Big Bang (gran explosión del huevo original ¿acto creador?) y acaba con un Big Crunch (gran contracción ¿seguida de renovación?) ¿se cumpliría el segundo principio en el caso de que el Universo, debido a la fuerza de atracción gravitatoria, se volviese a comprimir en un punto? El matemático británico Roger Penrose ‘dixit’ que, en este caso, la materia y la energía tendrían una entropía bajísima, pero que la estructura del espacio-tiempo podría ser tan compleja que, en conjunto, el desorden fuese mayor, salvándose el aumento entrópico relativo a un suceso espontáneo. Especulaciones, incógnitas.

La Matemática. La mente humana y el entorno.

¿Dónde está la Matemática? ¿Ahí afuera o es producto de la mente humana? En diversos sitios se puede leer la frase de Kronecker: «Dios creó los números enteros, todo lo demás es obra del hombre». La mayoría de los grandes matemáticos consideran las verdades matemáticas como independientes del pensamiento humano. Por ejemplo, el británico Godfrey Hardy dice que «el 317 es un número primo, no porque nosotros lo creamos, o porque nuestras mentes estén hechas de una forma u otra, sino porque es así, porque la realidad matemática está así construida». Pero ¿inventamos las matemáticas o las descubrimos? ¿Existirán en ausencia de matemáticos? Los realistas opinan que si todas las mentes desaparecieran, el Universo seguiría teniendo una estructura matemática; el mundo externo está matemáticamente ordenado y hasta los teoremas de la matemática pura seguirían siendo verdaderos. Por el contrario, los conceptualistas dicen que toda la matemática es una creación puramente humana, que la creencia en el esquema matemático de la naturaleza, de la lógica y de la matemática son invenciones humanas.

Bertrand Russell dice que «debemos admitir que podemos conocer la existencia de realidades independientes de nosotros mismos, ya que leer el libro de la naturaleza con la convicción de que todo es ilusorio, no puede conducir a la comprensión». También dice que «el mundo externo existe; la estructura del mundo es ordenada; sabemos poco sobre la naturaleza del orden y nada en absoluto de por qué existe». Así, las matemáticas resultan ser el estudio del orden en la naturaleza, la búsqueda de ese orden y de lo simple mediante leyes matemáticas en las que se ha cimentado el desarrollo de la ciencia. La existencia de regularidades, de pautas, en la naturaleza es un hecho objetivo.

Para Roger Penrose «el comportamiento del Universo parece estar basado en las matemáticas hasta un grado de precisión extraordinario: la geometría euclidiana, la mecánica de Newton, la electrodinámica de Maxwell (la más exacta), la relatividad (más exacta que la de Newton) y la cuántica, predicen con errores inferiores a las millonésimas».

¿A qué se debe una precisión tal en las leyes matemáticas? ¿A que la mente humana es una herencia de la complejidad del entorno en el que ha evolucionado y al que se ha aclimatado? ¿Puede la mente humana progresar y llegar a comprender los espacios n-dimensionales y el infinito? Pero, ¿está el infinito ahí afuera?

¿Qué es el infinito?

¿Qué es el infinito? ¿Simplemente lo que no tiene fin? Desde antiguo, las opiniones de los filósofos son controvertidas. Los pitagóricos identificaban infinito con indefinido. Para Platón, el espacio y la materia son ilimitados, pero lo ilimitado es imperfecto por lo que no es eterno; lo que son infinitas son las ideas y entre ellas se encuentra la idea de infinito. Mucho más tarde, Locke dijo que la idea de infinito no prueba el infinito. Y Kant afirmó que el tiempo y el espacio son infinitos. Aquinas señaló que el ser divino debe ser perfectamente infinito, pero que el universo, por imperfecto, debe ser finito. Spinoza le contradijo: el universo es infinito porque Dios mismo es la naturaleza. Para Aristóteles lo ilimitado es una posibilidad, un infinito potencial: el ser finito enumera, luego el infinito real no existe. Heimsoeth puntualiza: «El concepto fundamental de la filosofía es el verdadero infinito, concepto en el cual la realidad absoluta ha encontrado una nueva definición». Además, «la idea de infinito no puede proceder de la experiencia, ni puede ser construida por la imaginación, que conduce a lo indefinido: la idea de infinito es necesariamente a priori».

¿Y qué dicen los matemáticos? Hermann Weyl, discípulo de Hilbert y colega de Einstein, opinaba que «las matemáticas han sido intrépidas e ingenuas para convertir el sistema de los números en un dominio de existencias absolutas fuera de este mundo». Para él y para su maestro «la matemática es la ciencia de lo infinito, y este es accesible al espíritu, a la intuición». Gauss, considerado el mayor matemático de la historia, dice que «infinito es una forma de hablar». Y para J.W.Gibbs «un matemático puede decir lo que le plazca, pero un físico debe ser al menos parcialmente cuerdo». Bertrand Russell ironiza: «Las matemáticas puras pueden definirse como la disciplina en la que nunca sabemos de lo que estamos hablando, ni si lo que estamos diciendo es verdad». Pero Cantor defiende enérgicamente la libertad de los matemáticos para inventar lo que deseen y pide que se hable de matemáticas libres y no de matemáticas puras.

Los números se clasifican en números naturales (o enteros, 1, 2, 3…) y números reales que comprenden a los números racionales (o fracciones, 5/2, 22/7…) y a los irracionales (no enteros, no racionales, ni con terminación repetida, como raíz cuadrada de 2 o el número pi). Según Russell, los números finitos obedecen a la ley de la inducción matemática, es decir, pueden alcanzarse por adiciones de uno; pero el primer número infinito no tiene la propiedad de que exista un número anterior que sumándole uno dé infinito. Así, el primer infinito está más allá de la serie total sin fin de los números finitos. Además, la teoría positiva del infinito no aumenta al agregarle uno o al duplicarlo: ‘no son números’ porque no pueden alcanzarse contando; los finitos, sí.

Con Georg Cantor comenzó la teoría matemática del infinito. Nacido en San Petersburgo en 1845 de padres daneses y muerto en Alemania en 1918, fue discípulo de Kronecker en su tesis doctoral y fundó, junto a su amigo Dedekind, la teoría de conjuntos. Para Cantor, los números naturales son infinitos por definición. Demostró que los números racionales, aunque infinitos, son enumerables porque pueden ser colocados en correspondencia biunívoca (uno a uno) con los números naturales. Asimismo, demostró que el conjunto de los números reales es infinito y no enumerable. Además, con el método de la diagonal demostró que hay infinitos conjuntos que no pueden ser enumerados; no existe una enumeración de todos los números reales en un intervalo dado. Por lo tanto, hay un número infinito de conjuntos infinitos diferentes a los que se puede aplicar el concepto de mayor y menor: ‘hay grados de infinitud’. Desde los cuarenta años hasta su muerte, Cantor tuvo que ser internado en un manicomio intermitentemente. Durante este periodo ya no pudo avanzar en sus teorías.

El que sí estuvo lúcido hasta su muerte fue Bertrand Russell, quien en su extensa obra ‘Los principios de la Matemática’ dejó dicho que el problema del infinito matemático es de orden: los cardinales transfinitos están bien ordenados, son tales que cada uno de ellos, excepto el último, si existe, tiene un inmediato sucesor; tampoco existe un número finito último que sea predecesor del menor de los transfinitos. E ironiza: «las unidades infinitas, aunque sí son lógicamente posibles, no aparecen nunca en algo accesible al entendimiento humano».

Pero, ¿está el infinito ahí afuera?

La EDC con Feynman: la apoteosis de la mecánica cuántica

El premio Nobel de Física de 1965 fue concedido a los neoyorquinos nacidos en 1918 Richard P. Feynman y Julian S. Schwinger junto al japonés S. Tomonagua, por haber establecido los principios básicos de la electrodinámica cuántica (EDC). Los tres investigadores, trabajando independientemente y empleando aproximaciones diferentes, llegaron a las mismas conclusiones. Aunque Tomonagua publicó sus resultados antes que el niño prodigio Schwinger y que el mítico Feynman, no se conocieron estos hasta años más tarde debido a la Segunda Guerra Mundial. Pero, ¿qué es la EDC, una teoría -o modelo- considerada como la apoteosis de la mecánica cuántica? Todo comenzó con la ecuación del físico británico P.A.M. Dirac, que aunaba la mecánica cuántica y la relatividad especial y predecía la existencia del positrón, la antipartícula del electrón. La ecuación describe la interacción de los electrones con el campo electromagnético (con la luz, no solo visible) y como el comportamiento de los electrones decide la mayoría de los fenómenos químicos, ya que son los responsables de la estructura y las reacciones de los elementos y compuestos, ‘dios’ Dirac dijo que su fórmula explicaba la mayor parte de la Física y toda la Química. No obstante, las leyes de la Química requieren informaciones adicionales y sus procesos se describen mediante conceptos y fórmulas químicas.

La ecuación de Dirac fue refinada por el trio de laureados con el Nobel, quienes concluyeron que la fuerza electromagnética entre, por ejemplo, dos electrones se establece por la emisión de un fotón ¡virtual! por parte de un electrón y su absorción por el otro. El fotón debe ser virtual porque un electrón no puede transformarse en un electrón más un fotón. La justificación de esa extraña ‘virtualidad’ se sustenta en la incorporación a la interacción electromagnética del principio de incertidumbre. De acuerdo con este principio ni un fotón de luz ni un electrón del átomo tienen una energía y un tiempo simultánea y exactamente medibles. En consecuencia, un electrón puede tomar energía de una zona espacial aparentemente vacía durante un tiempo brevísimo y emitir un fotón: la energía se devuelve cuando el otro electrón absorbe el fotón.

La ECD considera que en el vacío puede haber fluctuaciones que den lugar a partículas virtuales, de modo que una partícula con carga eléctrica se encuentra rodeada por un conjunto de partículas virtuales. Así, en la interacción entre dos partículas cargadas pueden intervenir uno, dos o varios fotones virtuales, siendo cada proceso más complicado que el anterior, aunque cada vez la probabilidad de que ocurran es menor. A pesar de que los cálculos son muy complejos y requieren normalización, cuando la EDC se ha ensayado en experimentos reales los resultados coinciden con los calculados por la teoría con una exactitud superior a cualquier otro modelo físico. Ante tamaño éxito, el concepto de intercambio de partículas virtuales se ha extendido a las otras interacciones: así como el fotón es el cuanto portador de la fuerza electromagnética, los gluones virtuales son mediadores en la interacción fuerte entre quarks en la teoría -o modelo- de la cromodinámica cuántica.

El más famoso y trascendente de los tres laureados por la EDC es, sin duda, Richard Feynman, principalmente porque elaboró diagramas sencillos que visualizan las interacciones entre los fotones y las partículas subatómicas cargadas y sirven para simplificar los complicados cálculos de las expresiones matemáticas de la teoría. Su leyenda también está basada en su extravagancia: era aficionado a la pintura, a los textos mayas, a tocar el bongo, a los strip-tease y ayudaba a Tuva, un país asiático; decía cosas tan claras y categóricas como que «la Tierra es redonda porque tiene que atraerse a sí misma entera todo lo que pueda» o que «los poetas no escriben para ser entendidos». En sus clases para alumnos novatos no tuvo éxito: éstos abandonaban y eran sustituídos por alumnos de cursos superiores y por profesores. Cuando murió, las ventanas del campus de la Universidad de Cornell se llenaron de pancartas que rezaban: ‘Dick, te queremos’.

Controversias en la mecánica cuántica

El principio de incertidumbre produjo una convulsión no solo en la física sino también en la filosofía. Según el propio Niels Bohr «si alguien dice que puede pensar en la mecánica cuántica sin sentir vértigo es que no ha entendido nada de nada». En efecto, el mundo que nos rodea parece ser bastante sólido, pero bajo él subyace la indeterminación cuántica, que niega que haya hechos absolutos, cosa que no hace la relatividad de Einstein. Además, Bohr afirmó que la mecánica cuántica exigía una renuncia a la idea clásica de la causalidad (una acción siempre produce un resultado determinado de una manera totalmente predecible), y esta idea se trasladó a cualquier aplicación fuera de la física. Gell-Mann lo dijo claramente: «Como esta disciplina solo predice probabilidades, algunos piensan que la cuántica permite que ocurra prácticamente cualquier cosa. Todo depende de si se toman en consideración sucesos con una probabilidad pequeñísima». Por ejemplo, la probabilidad de que un objeto macroscópico masivo se eleve durante un cierto tiempo como consecuencia de una fluctuación cuántica es despreciable.

El intento más importante de mostrar las carencias de la teoría cuántica es la llamada paradoja EPR (de Einstein, Podolsky y Rosen), que Einstein propuso en principio a Bohr como un experimento mental, pero que después fue objeto de medidas por Bohm y por Aspect. Según ellos, dos fotones polarizados lanzados en direcciones opuestas se comunican su espín: si este cambia en uno de ellos, el otro lo hace instantáneamente, es decir, intercambian información a velocidad superlumínica. Interpretando los resultados de estos experimentos y aplicando tratamientos matemáticos, el norirlandés John Bell, fallecido en 1990 a los 62 años de edad, propuso en 1964 un teorema en el que supone que los objetos microscópicos tienen propiedades físicas reales (en contra de la interpretación cuántica de Bohr en Copenhague y de John Wheeler: «Ninguna propiedad microscópica es una propiedad hasta que es una propiedad observada»). Según la llamada ‘desigualdad de Bell’ existen magnitudes observables mayores (¿variables ocultas?) que otras también observables que pueden ser evaluadas. Si la desigualdad se viola en un experimento real (no mental), nuestro mundo (¿microscópico?) no podría tener realidad ni separabilidad, esto es, las afirmaciones de la teoría cuántica serían correctas y las conclusiones del experimento ERPB, también. Después de muchos intentos fallidos debido a las grandes dificultades de las medidas del espín y de la polarización de los fotones, el equipo del francés Alan Aspect anunció que la desigualdad de Bell no se cumplía y, por tanto, la teoría cuántica era correcta.

Y aquí empezó la cháchara: ‘algunos’ afirmaron que la teoría cuántica poseía propiedades fantásticas. Si existían acciones a distancia a velocidad superlumínica entre partículas subatómicas (esas acciones fantasmales que Einstein no podía tragar), también la habría entre objetos macroscópicos. Nuestro mundo tiene una misteriosa conectividad universal, de modo que cualquier par de objetos que hayan interaccionado alguna vez quedan entrelazados para siempre. Por lo tanto, hay que aplicar la teoría cuántica al mundo entero mediante una función de onda universal; además, si existen múltiples universos, el famoso gato de Schrödinger puede estar vivo en uno de ellos y muerto en otro. ‘Algunos’ dicen que hay cabida en la teoría para los fenómenos paranormales como la precognición y, puesto que la velocidad de la luz está superada, los viajes en el tiempo son posibles, así como la teleportación de la materia. ¡Se abre un nuevo mundo en el que cualquier cosa que las personas puedan imaginar es posible!

Dentro de las controversias, es interesante la reflexión que se hace el astrofísico británico David Lindley: «La física clásica no es capaz de decir por qué nació el universo, ya que, según ella, no puede ocurrir nada que no haya sido provocado por unos acontecimientos previos (causalidad, ¿una cadena infinita de causas?). Parece inevitable que el nacimiento del universo sea un acontecimiento cuántico. La física cuántica no puede decir por qué nació, solo es capaz de decir que fue así, espontáneamente, como una cuestión de probabilidad más que de certidumbre».

Dice Gell-Mann: «mientras se debaten estas cuestiones, los científicos, en su feliz ignorancia, continúan aplicando y utilizando la mecánica cuántica con mucho rendimiento». Dice Stephen Weinberg: «Einstein no cree, Feynman no entiende, pero surgen aplicaciones basadas en la mecánica cuántica: enlaces moleculares, desintegraciones radiactivas, conductividad eléctrica, magnetismo y radiación electromagnética, semiconductividad, superconductividad, enanas blancas, estrellas de neutrones, fuerzas nucleares, partículas elementales, incluso la teoría de cuerdas».

Pequeña historia de la mecánica cuántica

Un nuevo apartado en el que digo cosas sobre matemáticas, física y química que quizás no se trataron en clase, al menos con esta visión. Ahora las expongo con el afán divulgador de siempre.

El 4 de octubre de 1947 muere Max Planck a los ochenta y nueve años de edad. Profesor de física teórica en Kiel y en Berlín, obtuvo el premio Nobel en 1918. Permaneció en Alemania durante el dominio nazi y la guerra, a pesar de que su hijo Erwin fue torturado y ejecutado bajo la acusación de atentar contra Hitler, y lo hizo para defender la tradición alemana en física. En el año 1900, Planck formuló la descripción matemática correcta de la radiación térmica de un cuerpo negro. Este es un cuerpo hipotético que absorbe toda la energía radiante que recibe hasta que alcanza el equilibrio térmico, instante a partir del cual emite toda la energía que recibe. A medida que aumenta la temperatura del cuerpo negro, la energía que emite tiene una frecuencia mayor. (Por ejemplo, sentimos el calor que se desprende de un trozo de acero a sesenta grados centígrados, pero la energía que emite no es visible. Si su temperatura está por encima de quinientos grados, la frecuencia de la radiación corresponde al rojo: vemos el objeto y no se nos ocurre tocarlo). Planck supuso que los emisores de la radiación son átomos que vibran según un proceso discontinuo, emitiendo cantidades discretas de energía, a saltos, sin que existan valores intermedios. Para relacionar la energía con la frecuencia, introdujo una constante, h, que ahora se conoce con el nombre de constante de Planck:

Energía = h · frecuencia

Esta ecuación describe el comportamiento de las partículas en la escala atómica, incluyendo las partículas de luz (fotones). El significado de h es que la radiación es emitida, transmitida y absorbida en paquetes discretos de energía, los llamados cuantos (quantum, plural quanta).

Max Planck fue el iniciador de de la teoría cuántica, una revolución en el conocimiento de los procesos atómicos y subatómicos; pero la teoría cuántica no apareció como tal hasta que Poincaré y Jeans probaron la necesidad de hablar de cuantos de radiación. Y la mecánica cuántica no vio la luz hasta la justificación matemática del espectro de emisión del hidrógeno, realizada por Bohr en 1913, y hasta la formulación de la mecánica ondulatoria de Schródinger y De Broglie, ampliada con las contribuciones de Born y Jordan en 1926.

Albert Einstein, en 1905, demostró que el efecto fotoeléctrico, esto es, el que la luz arrancase electrones de los metales y produjese una corriente eléctrica (como vemos en las puertas que se abren solas porque se interrumpe una corriente) no podía explicarse si no se admitía que la luz estaba formada por cuantos discontinuos de energía (fotones). A pesar de su descubrimiento de los cuantos de luz, a Einstein no le gustaban ni la discontinuidad ni la probabilidad, y decía que la mecánica cuántica no podía ser una teoría completa. Le concedieron el Nobel en 1921 con un texto ambiguo: «por sus contribuciones a la física teórica».

Niels Bohr, en 1915, explicó las líneas del espectro de la radiación emitida por el hidrógeno mediante los saltos cuánticos de los electrones de unas órbitas estacionarias a otras. Encajó la física clásica y la cuántica con su principio de correspondencia: los electrones obedecen las leyes de Newton mientras están en sus órbitas y la de Planck cuando saltan de una órbita a otra. Recibió el Nobel en 1922 por su «investigación de la estructura atómica y la radiación».

En1923 Louis de Broglie resolvió el antiguo dilema sobre la luz: Newton la consideraba constituida por partículas (como luego demostró Einstein) y Huygens tenía muchos experimentos que la luz se desplazaba como una onda. Dijo que la luz se comportaba como onda y como partícula. Esta dualidad no solo la presentaban los fotones de la luz sino también los electrones del átomo. Así, los electrones, en las órbitas atómicas, pueden representarse por una vibración y no por una traslación. Bohr justificó etas ideas con su principio de la complementariedad: el comportamiento de ondas y partículas es contradictorio y sin embargo ambos son igualmente necesarios. De Broglie recibió el Nobel en 1929 por su «descubrimiento de la naturaleza ondulatoria de los electrones».

Werner Heisenberg, en 1925 y a la edad de veinticuatro años, logró formular la mecánica cuántica utilizando álgebra de matrices, esto es, conjuntos de números. Si se multiplica una matriz A correspondiente a las velocidades de los electrones por otra matriz B correspondiente a las posiciones, no se obtiene el mismo resultado que al efectuar el producto inverso. A por B no es igual que B por A. Esta no conmutación le llevó a formular en 1927 el principio de incertidumbre: No se pueden medir simultáneamente con exactitud la velocidad y la posición de los electrones en el átomo. Este principio se extendió a otras partículas y a las magnitudes conjugadas. Heisenberg consiguió en 1932 el premio Nobel por la «formulación del principio de incertidumbre de la mecánica cuántica».

Erwin Schrödinger, en 1926, basándose en las ideas de De Broglie, utilizó la mecánica ondulatoria para tratar matemáticamente los fenómenos atómicos. Su famosa ecuación con la función de onda, más sencilla que las complicadas matrices, fue preferida por los físicos después de que Paul A.M. Dirac demostrase la equivalencia entre ambos tratamientos. En 1933 Schrödinger y (dios) Dirac compartieron el Nobel por la «introducción de las ecuaciones ondulatorias en la mecánica cuántica».

Fue el profesor Max Born, junto a Pascual Jordan, el que introdujo la incertidumbre en la mecánica ondulatoria. Demostraron que el cuadrado de la función de onda correspondía a la probabilidad de encontrar el electrón en el átomo: de ahí se dedujeron los números cuánticos, el principio de exclusión de Pauli (no pueden existir dos electrones en el átomo con los cuatro números cuánticos iguales) y los orbitales atómicos (zonas del espacio en las que es probable encontrar a los electrones), es decir, el modelo atómico con el que trabajan los científicos. Wolfgang Pauli recibió el Nobel en 1945 por su principio, Born no lo recibió hasta 1954 por sus «estudios estadísticos sobre las funciones de onda» y Jordan no lo consiguió nunca (apartado por filonazi).

Las teorías de cuerdas

A fin de obtener una teoría del todo, una teoría que englobase la gravedad, los físicos matemáticos parieron la teoría de cuerdas. En 1919, el alemán Theodor Kaluza (1885-1954) emitió una hipótesis refinada en 1926 por el sueco Oskar Klein (1894-1977): cada punto de nuestro espacio tridimensional es en ‘realidad’ un círculo diminuto, de modo que cada punto es un espacio compacto pequeñísimo con d dimensiones. Al estar situado en el espacio tridimensional tiene 3+d dimensiones y el espacio-tiempo 4+d. El tamaño del punto-círculo debería ser un trillón de veces más pequeño que el protón. Con tal hipótesis, empleando una quinta dimensión espacial, Kaluza y Klein consiguieron la unificación del electromagnetismo y la relatividad: la gravedad engendraba el electromagnetismo, y éste consistía en vibraciones que se expandían por la superficie de una quinta dimensión escondida e inverificable. La ya teoría de Kaluza- Klein resucitó veinte años después en la teoría de cuerdas.

En la teoría de cuerdas, las partículas fundamentales son trozos de cuerda que tienen longitud pero no altura ni anchura, son fragmentos extremadamente finos, mucho más pequeños que la resolución de nuestro material de detección, por lo que parecen puntos matemáticos. Lo que percibimos como partículas fundamentales diferentes corresponden a los distintos modos de vibrar la cuerda, y como la cuerda puede vibrar de infinitas maneras, puede representar al fotón, a las interacciones fuerte y débil… y al gravitón.

Las cuerdas ‘suenan’ bien, pero la formulación matemática de la teoría, según el profesor chino-americano Anthony Zee, es horrorosamente complicada. Además, Wilczek afirma que la teoría no tiene ecuaciones que describan fenómenos concretos de la naturaleza. Y el premio nobel Glashow sostiene que mientras los ‘cordeleros’ no sepan explicar e interpretar las propiedades que percibimos en el mundo real, no podrá decirse que se dedican a la física, y les emplaza a que deduzcan la masa del electrón (no obstante esto tampoco lo hace la QED). Como la teoría de cuerdas no incluye al electrón, hubo que ampliar la descripción del desplazamiento de los puntos de la cuerda utilizando los números de Grassman, que al multiplicarse por sí mismos dan cero. Así, las cuerdas pueden desplazarse unas distancias como las que describen los números normales y los de Grassman: esta es la teoría de las supercuerdas, en la que son necesarias 9+1 dimensiones. Como las ecuaciones tienen miles de millones de soluciones, surgieron cinco teorías de 10 dimensiones. En ellas, la teoría de la relatividad general emerge como una de las vibraciones más graves (bajas) de la supercuerda, y predecían una partícula de masa cero y espín 2: el gravitón. Además, había que tener en cuenta la supergravedad, porque unificaba la relatividad general y la supersimetría, ya que la teoría de la gravedad de Einstein se volvía supersimétrica al introducir el gravitino, la superpareja del gravitón. Y la supergravedad puede escribirse en 11 dimensiones.

Edward Witten y Paul Towsend consiguieron establecer la teoría M, que unificaba las cinco teorías de 10 dimensiones y las dos de 11 dimensiones. Además, la nueva teoría explicaba la supergravedad como un subconjunto con solo dos partículas, gravitón y gravitino. También dedujeron la existencia de un nuevo objeto ‘material’, la membrana, constituida por hojas bidimensionales de energía, pero con 10 dimensiones de espacio +1 de tiempo ¿Incomprensible? Para justificar este lío se acude a las formas ideadas por los matemáticos Eugenio Calabi (1923-2023) y Shing-Tung Yau: las dimensiones adicionales están arrolladas en un tamaño tan pequeño que no son observables.

Las posiciones de los físicos con respecto a la teoría de cuerdas siguen encontradas. Mientras para Gerard’t Hoff no es ni siquiera una teoría, solo un modelo (¿M de modelo?), o mejor, solo una intuición, para Stephen Hawking es la única aspirante a ser una teoría del todo, porque en ella puede suceder cualquier cosa, dado lo prolijo de sus soluciones. Y Michio Kaku se pregunta: ¿Puede ser la supersimetría (SUSY, la unión de bosones y fermiones) una demostración experimental de la teoría de supercuerdas?

Las partículas elementales: las fuerzas de la naturaleza y el modelo estándar.

El físico estadounidense Murray Gell-Mann (1929-2019), premio Nobel en 1969, proporciona una lista completa de las partículas elementales del modelo estándar, comúnmente aceptado por los físicos que estudian los resultados obtenidos con los enormes aceleradores:

18 quarks (con seis ‘sabores’: up, u; down, d; strange, s; charme, c; bottom, b; top, t; y tres ‘colores’ cada uno: azul, verde y rojo); 3 partículas semejantes al electrón (electrón, muón y tauón, las dos últimas más pesadas que el electrón) y sus tres neutrinos (electrónico, muónico y tauónico). Suman 24 fermiones (partículas con momento angular intrínseco -espín- semientero en unidades de la física nuclear) a los que hay que añadir las 24 antipartículas correspondientes, dando un total de 48 fermiones.

12 bosones, partículas de espín entero, que constituyen los cuantos de intercambio: 8 gluones, 1 fotón y los 3 mediadores de la interacción débil (W+, W- y Zº).

En total se han detectado, directa o indirectamente, 60 partículas elementales, cuya masa no se justifica si no se tiene en cuenta el bosón de Higgs, con lo que el número asciende a 61. Son muchas partículas a contemplar.

El electrón fue la primera partícula subatómica descubierta: el científico británico J.J.Thomson (1856-1940), premio Nobel de Física en 1906, la detectó en 1897 cuando estudiaba los rayos catódicos. En 1930, P.A.M. Dirac predijo teóricamente la antipartícula del electrón, el positrón, que solamente difiere del electrón en la carga eléctrica, que es positiva. Carl Anderson y Patrick Blackett lo descubrieron en los rayos cósmicos que inciden sobre la Tierra. (Si ambas partículas se encuentran, se aniquilan convirtiéndose en un rayo gamma de gran energía). El muón y el tauón tienen, como el electrón, carga eléctrica negativa, pero, mientras éste es estable y ligero, los otros son inestables y pesados.

El neutrino electrónico es una partícula fantasmal que Wolfgang Pauli, en 1930, estimó indispensable para la conservación de la energía en la desintegración radiactiva del neutrón (radiación beta) y que resultó extremadamente difícil de detectar, ya que su interacción con la materia, por depender solo de la interacción débil, es sumamente improbable. Aunque a la Tierra se calcula que llegan ¡sesenta mil millones de neutrinos por segundo y por centímetro cuadrado! procedentes del Sol (donde por cada núcleo de helio que se produce en su interior se desprenden dos neutrinos electrónicos) casi todos nos atraviesan y atraviesan la Tierra entera sin reaccionar. No obstante, se establecieron observatorios de neutrinos colocados a mucha profundidad (Grand Sasso, Kamiokand, Sudbury) donde pudieran interaccionar con grandes masas de agua ligera o agua pesada y detectar los productos de reacción con aparatos sensibles. En ningún laboratorio se han detectado tantos neutrinos electrónicos como se esperaba, deduciéndose que en el camino desde el Sol a la Tierra los neutrinos del electrón se convierten en sus otros homónimos. Esto solo es posible si los neutrinos tienen masa, y esa masa puede ser incluso inferior a la millonésima de la del electrón.

Electrón, muón y tauón, con carga negativa, y sus tres neutrinos, sin carga eléctrica, son los leptones. Todos ellos tienen su antipartícula correspondiente como implica la teoría cuántica de campos.

Jerome Friedmann, Henry Kendall y Richard Taylor, efectuando en el acelerador lineal de Stanford (SLAC) colisiones de gran energía entre electrones y protones, consiguieron dilucidar que el protón no es elemental sino que está compuesto por tres partículas elementales a las que Gell-Mann denominó quarks (nombre sacado de una obra de James Joyce). La fuerza entre quarks (llamada de color), al contrario de la gravedad y el electromagnetismo, aumenta con la distancia, de modo análogo a una goma que se estira. En consecuencia, los quarks son ‘arrastrados’ de vuelta si se alejan. Actualmente, los resultados experimentales en los grandes aceleradores conducen a agrupar los seis quarks en dos clases: los U (u, c, t) con carga eléctrica 2/3 positiva, y los D (d, s, b) con carga eléctrica 1/3 negativa. El protón se considera compuesto por dos quarks u y uno d, lo que justifica su carga eléctrica 1 positiva, mientras que el neutrón está formado por un quark u y dos d, siendo nula su carga eléctrica. El antiprotón y el antineutrón (partículas no elementales detectadas en el Bevatrón, el acelerador del Berkeley Laboratory de California) estarían constituidos por los antiquarks correspondientes. Protón, neutrón y sus antipartículas se denominan bariones. Los hadrones son el conjunto de bariones y mesones. (Los mesones están formados por un par quark-antiquark).

Las fuerzas de la naturaleza

La materia ‘normal’ que nos rodea está formada por los quarks u y d y los electrones. Además, intervienen los cuantos de intercambio (bosones) que explican la fuerza electrodébil (unión de la electromagnética y la nuclear débil) y la nuclear fuerte. Aunque la fuerza gravitatoria actúa sobre todas las partículas elementales, queda fuera de la teoría estándar. Su hipotético cuanto de intercambio, el llamado gravitón, debería tener un espín 2, carecer de masa y ser solo energía. El alcance de la gravedad es ilimitado, pero disminuye con el cuadrado de la distancia.

Gell-Mann es uno de los fundadores de lo que él mismo denominó cromodinámica cuántica, una teoría ‘gauge’ de las interacciones entre quarks, esto es, una teoría cuántica de campos que incluye la mecánica cuántica y la teoría especial de la relatividad: acepta que las partículas pueden permanecer unidas mediante un intercambio de cargas llevada a cabo por partículas intermediarias. La fuerza o interacción nuclear fuerte tiene lugar mediante el intercambio de gluones de color. Los quarks permanecen atrapados en el interior de los protones y neutrones, es decir, no se observan libres, ya que la potencia de la carga de color aumenta con la distancia, por lo que a medida que los quarks se separan la fuerza que los mantiene unidos aumenta. Así, el alcance de la fuerza queda restringido al tamaño nuclear.

La fuerza electromagnética se produce entre partículas con carga eléctrica (electrones) y es 1/137 (constante de la estructura fina) de la interacción fuerte. El alcance y la variación de la fuerza con la distancia son análogos a la gravitación. La interacción electromagnética tiene lugar mediante el intercambio de fotones de carga y masa nulas y espín 1. Como los fotones no tienen carga, no actúan entre ellos, transportan energía y momento y transmiten estas propiedades entre partículas produciendo el electromagnetismo. No obstante, de acuerdo con el principio de incertidumbre, la energía del fotón mensajero no puede tener un valor exacto, por lo que se denominan ‘virtuales’ para distinguirlos de los fotones ‘reales’, estables, que constituyen la radiación electromagnética.

La fuerza nuclear débil, más débil que la electromagnética y de alcance inferior al tamaño del núcleo atómico, es la responsable de la desintegración beta, es decir, de la emisión de un electrón por el núcleo debida a la transformación de un neutrón en un protón. Esta interacción requiere tres bosones de espín 1: W+, W-, Zº, que tienen una masa grande. Así, cuando un neutrón se transmuta en un protón, emite un W- virtual, que se transforma de inmediato en un electrón y un antineutrino, que son las partículas que se observan en el laboratorio. Los tres bosones fueron predichos por Weinberg y Salam y detectados en el LEP del CERN de Ginebra.

El modelo estándar

En el año 2013, el belga François Englert, de ochenta años de edad, y el escocés Peter Higgs, de ochenta y cuatro, recibieron el premio Nobel de Física por «el descubrimiento teórico de un mecanismo que contribuye a la comprensión del origen de la masa de las partículas subatómicas» un año después de ser confirmado el descubrimiento de la predicha partícula fundamental, llamada bosón de Higgs, en el Gran Colisionador de Hadrones (HLC) del CERN (¡un premio casi instantáneo!). El tercer físico que contribuyó al desarrollo de la teoría, Robert Brout, no recibió el premio porque había fallecido, y los Nobel solo se otorgan a personas vivas. El campo HBE, denominado así de acuerdo con las iniciales de sus proponentes, es, como todos los campos, una modificación del espacio, y es uniforme y constante en todo el universo. Las vibraciones del campo son las partículas elementales denominadas bosones de Higgs, cuya masa es 135 veces más grande que la del protón. El campo es escalar, es decir, tiene magnitud pero no dirección, por lo que el momento angular (espín) de la partícula de Higgs es cero.

El modelo estándar de la física de partículas no era capaz de justificar la masa de las partículas que describía; ahora se sabe que las partículas elementales adquieren masas específicas según la fuerza con la que interaccionen con el campo HBE. Pero el modelo estándar sigue estando incompleto. Engloba a la teoría electrodébil, que describe las fuerzas electromagnéticas y las fuerzas nucleares débiles, y a la cromodinámica cuántica (QCD en sus siglas inglesas) que es la teoría de la interacción nuclear fuerte, pero no es capaz de incluir a la gravedad. Además, la electrodinámica cuántica (QED en sus siglas inglesas) no predice teóricamente ni la masa ni la carga del electrón, por lo que hay que introducirlas ‘ad hoc’, pero una vez fijadas y empleando la renormalización (técnica matemática diseñada para anular los molestos infinitos positivos y negativos que aparecen en los cálculos), la teoría sirve para efectuar predicciones enormemente precisas que concuerdan con gran exactitud con las observaciones experimentales. Por otra parte, en el modelo estándar los neutrinos tienen masa cero, pero si, como parece, los neutrinos del electrón pueden cambiar su ‘sabor’ transformándose en neutrinos muónicos, han de tener masa. Para justificarla se deberían añadir nuevas partículas a la teoría fundamental para las que no hay otra motivación ni evidencia. A pesar de estos inconvenientes, se considera al modelo estándar como la teoría fundamental que proporciona los cimientos de la química, la biología y la astrofísica. Dice Frank Wilczek que «puede ser tan duradera como la teoría de Newton, que sigue siendo la descripción que utilizamos en la mayor parte de las aplicaciones». No obstante, Wilczek apuesta por doblar la cantidad de campos y partículas de las ecuaciones mediante la supersimetría (SUSY). Las nuevas partículas tendrían la misma carga que sus compañeras, pero masas y espines diferentes. Deben ser más pesadas porque no han sido observadas ni con el gran colisionador de hadrones (LHC).

Los físicos y matemáticos no se conforman. Algunos pretenden la gran unificación de las fuerzas electrodébil y fuerte (GUT) y otros apuntan a la creación de una teoría cuántica del todo (TOE) que contenga la gravedad. Una teoría que parece apuntar a estos objetivos es la teoría M de las supercuerdas. Pero eso es otra historia.

Hoyle: síntesis de elementos químicos en las estrellas

En el año 2001 falleció el cosmólogo inconformista Sir Fred Hoyle, nacido en Yorkshire, Inglaterra, en 1915. Fue un permanente instigador de controversias que, además de las revistas científicas ‘serias’, utilizó los medios de difusión populares para polemizar sobre problemas candentes de la vida y el universo. Por ejemplo, defendió que el origen de la vida en la Tierra podía ser debido a la llegada de sustancias químicas e incluso de bacterias procedentes del espacio exterior. Para que esta teoría, conocida como panspermia, tenga visos de validez, es necesario no solo que las bacterias se produzcan en algún hipotético criadero espacial, sino que sean capaces de resistir las extremas condiciones interplanetarias. En todo caso, esta hipótesis (que no teoría) no resuelve el problema del origen, solamente lo lleva a otro punto.

La contribución científica más perdurable de Hoyle quizá sea su estudio sobre la síntesis de elementos químicos en el interior de las estrellas. En su artículo ‘Un esquema de la historia de la materia’ dice: «Sabemos algo importante de lo que ocurre en las estrellas. Nuestro conocimiento es más completo en los aspectos nucleares del problema que en la astrofísica… (porque) en las tres últimas décadas se han hecho mayores esfuerzos y gastos… para investigar la física nuclear que para estudiar la astronomía… No creo que pueda obtenerse nada realmente importante de la exploración del montón de escoria que constituye la superficie de la Luna… y la NASA existe con el fin de poner un hombre en la Luna». También explica: «En las estrellas, a unos diez millones de grados, en la fusión de hidrógeno a helio domina la cadena protón y a los veinte millones de grados tiene lugar mediante el ciclo carbono – nitrógeno. En las estrellas gigantes surge la fusión del helio en carbono y oxígeno, es probable que, en ellas, tengan lugar tanto la combustión del helio como la del hidrógeno, la del helio en los alrededores del centro y la del hidrógeno en la parte exterior». Después de dar las abundancias relativas de los elementos en el sistema solar y en otras estrellas parecidas al Sol, Hoyle afirma: «Las criaturas como nosotros dependen del equilibrio entre el carbono y el oxígeno. No podríamos existir en las partes del universo en las que el oxígeno fuera mucho más abundante que el carbono».

Sir Fred Hoyle propuso en 1948 la teoría del estado estable del Universo y la formuló, junto al astrónomo Thomas Gould y el matemático Hermann Bondi, en términos de la teoría general de la relatividad. En su libro de 1956 ‘Galaxias, Núcleos y Quasars’, Hoyle afirma: «El concepto de un mundo con principio pero sin fin, es una parte de la cultura judaica y de ahí se deriva la cristiana. Hay otra descripción: un universo sin principio pero con un fin, como puede verse simplemente invirtiendo el tiempo. La preferencia por una de ellas sería incurrir en un error de lógica». (Aunque Hoyle recuerda la opinión de Wolfgang Pauli: «eso es filosofía y, por tanto, un sinsentido»). Y también: «En la pasada década estuvieron las llamadas teorías Big Bang (término irónico acuñado por Hoyle que fue aceptado unánimemente) con el universo comenzando al mismo tiempo, y ha habido la teoría del estado estable, con su creación de nucleones ocurriendo gentilmente todos a la vez. Quizá los quasars sean la indicación de que el universo tiene cantidades de pequeñas explosiones, mucho más violentas que las tranquilas del estado estable, en lugar de una grande».

En las conferencias ‘Desarrollos recientes de la cosmología’ pronunciadas en 1971 y publicadas en 1972. Hoyle se defiende de los ataques recibidos a su modelo: «El universo puede no ser estático con tal de que sea estacionario. Y esto es lo que consigue el modelo del estado estable. Cierto es que se exige la creación continua de materia, pero los modelos de Friedmann requieren que la materia fuera creada toda de una vez en el momento del origen del universo; y si la materia puede crearse de golpe, ¿por qué no de manera continua?». Y también: «La mayor bofetada que ha recibido el modelo estacionario ha sido el descubrimiento de un fondo de microondas que proviene uniformemente de todas las partes del cielo… tiene que proceder de un campo de radiación primitivo que existiera en el origen del universo… pero este argumento es débil. La proposición correcta es que la radiación puede provenir de fuentes conocidas».

Fred Hoyle, apoyándose en los datos experimentales del astrónomo Halton Arp de los observatorios Mount Wilson y Palomar (que describe en su libro de 1987 ‘Controversias sobre las distancias cósmicas y los cuásares’), quien afirma que «los desplazamientos al rojo no son indicativos de las distancias a las fuentes, pueden depender de otra cosa que no sea la distancia», poniendo así en entredicho la relación de Hubble en la que se basa tanto la organización como la edad del universo. Según Arp, los cuásares (o quasars, las galaxias consideradas como las más lejanas debido al elevado desplazamiento al rojo de su radiación) se originan al ser expulsadas a gran velocidad (de ahí su gran desplazamiento al rojo) de otra galaxia a la que está asociada y cuyos datos indican que se encuentra a una distancia significativamente menor. Con estos datos, Hoyle supone que «podría haber dos clases de objetos completamente diferentes que han sido agrupados como cuásares, unos más brillantes cuyos desplazamientos al rojo serían debidos a la distancia y otros más pequeños, violentos y activos, cuyos desplazamientos podrían tener un origen distinto».

Hoyle se sale también de los límites del consenso entre científicos y, con Narlikar, presenta la teoría de la gravedad conforme, en la que afirma que la masa es proporcional al tiempo y que la constante gravitatoria, G, disminuye con el tiempo. En el universo en expansión con creación continua de materia (estado estacionario de Hoyle), la materia nueva tiene una masa menor y va creciendo con el intercambio de gravitones. Con esta teoría, dice Hoyle, se resolverían los problemas de los movimientos de las estrellas y planetas igual que lo hace la teoría usual. Además, en nuestro medio ambiente local, el aumento de la masa se detectaría en los movimientos lunares y alteraría la historia climática de la Tierra. Una disminución de G de diezmilmillonésimas por año originaría un aumento del radio terrestre de seis a diez kilómetros cada cien millones de años.

Aunque a Sir Fred no le tiene en cuenta actualmente el grueso del pelotón científico, el siguió pedaleando por caminos alternativos hasta su muerte.