traductor

jueves, 23 de enero de 2020

Cuando el pasado se hace futuro: la física en el siglo XXI

Cuando el pasado se hace futuro: la física en el siglo XXI

Aunque no se han producido últimamente en la física revoluciones como las que tuvieron lugar durante el primer cuarto del siglo XX, las semillas plantadas entonces han continuado germinando y necesitando de nuevos desarrollos. De algunos de estos desarrollos se ocupa este artículo; a la cabeza de ellos, los descubrimientos del bosón de Higgs y de la radiación gravitacional. Al ahondar en ellos se hace patente la necesidad de tratar también otros apartados, en los que la física muestra su unidad con la astrofísica y la cosmología: materia oscura, agujeros negros y multiuniversos. Se repasa, asimismo, la situación en la teoría de cuerdas y en la supersimetría, así como en el entrelazamiento cuántico, con las aplicaciones de este a las comunicaciones seguras (criptografía cuántica), para terminar con la presencia e importancia de la física en un mundo científicamente interdisciplinar.
La física es considerada como la reina de las ciencias del siglo XX, y lo es con justicia pues durante esa centuria se produjeron dos revoluciones que modificaron drásticamente sus fundamentos e introdujeron cambios socioeconómicos profundos: la de las teorías especial y general de la relatividad (Albert Einstein 1905, 1915) y la de la física cuántica, a la que, al contrario que en el caso de la relatividad, no es posible asignar un único progenitor, al ser el esfuerzo mancomunado de un extenso conjunto de científicos. Ahora bien, sabemos que las revoluciones —ya sean en ciencia, en política o en costumbres— poseen efectos de largo alcance, que aunque seguramente no serán tan radicales como los que propiciaron las rupturas iniciales, conducen más tarde a desarrollos, a descubrimientos o maneras de entender la realidad, antes insospechadas. Así sucedió con la física una vez que se completasen las nuevas teorías básicas, que en el caso de la física cuántica quiere decir la mecánica cuántica (Werner Heisenberg, 1925; Paul Dirac, 1925 y Erwin Schrödinger, 1926). En el mundo einsteiniano surgió enseguida la cosmología relativista, que pudo acoger bien en su seno, como uno de los modelos de universo posibles, el descubrimiento experimental de la expansión del Universo (Edwin Hubble, 1929). Fue, sin embargo, en el contexto de la física cuántica donde las «consecuencias-aplicaciones» resultaron más prolíficas; fueron, de hecho, tantas que se puede decir, sin exagerar, que cambiaron el mundo. Los ejemplos en este sentido son demasiados para enumerarlos aquí; baste, sin embargo, mencionar algunos: la construcción de una electrodinámica cuántica (c. 1949), la invención del transistor (1947) —al que bien se puede denominar «el átomo de la globalización y de la sociedad digital»—, el desarrollo de la física de partículas elementales (posteriormente denominada «de altas energías»), de la astrofísica, de la física nuclear y del estado sólido (o «de la materia condensada»).
BBVA-OpenMind-ilustración-JOSE-MANUEL-SANCHEZ-RON-Cuando-pasado-se-hace-futuro_fisica-Siglo-xxi-Pizarra con la ecuación del mecanismo de Higgs que explica cómo el campo Higgs confiere masa a otras partículas que interactúan con él. Esta interacción la hace posible la partícula elemental conocida como el bosón de Higgs
Pizarra con la ecuación del mecanismo de Higgs que explica cómo el campo Higgs confiere masa a otras partículas que interactúan con él. Esta interacción la hace posible la partícula elemental conocida como el bosón de Higgs
La segunda mitad del siglo XX asistió a la consolidación de estas ramas de la física, pero podemos preguntarnos si, finalmente, dejaron de aparecer novedades importantes y todo se redujo a meros desarrollos, lo que Thomas Kuhn calificó en su libro de 1962 The Structure of Scientific Revolutions, como «ciencia normal». El concepto de «ciencia normal», me apresuro a señalar, es complejo y puede conducir a error: el desarrollo de los fundamentos —del «núcleo duro», si utilizamos la terminología introducida por Kuhn— de un paradigma científico, esto es, la «ciencia normal», puede abrir nuevas puertas al conocimiento de la naturaleza, algo que sin duda posee una importancia de primer orden. En el presente artículo, en el que trato de la década 2008-2018, veremos que así sucedió en algún caso, y en fechas —la segunda década del siglo XXI— ya bastante alejadas de los «años revolucionarios» de comienzos del siglo XX.

El descubrimiento del bosón de Higgs

Uno de los acontecimientos más celebrados en la física de la última década ha sido la confirmación de una predicción teórica hecha hacía casi medio siglo: la existencia del bosón de Higgs. Veamos de donde procedía esa predicción.
La física de altas energías experimentó un avance extraordinario con la introducción de unas partículas para las que se terminó aceptando el nombre propuesto por uno de sus introductores, Murray Gell-Mann: quarks, cuya existencia fue propuesta teóricamente en 1964, además de por Gell-Mann, por George Zweig. Hasta su aparición se pensaba que protones y neutrones eran estructuras atómicas inquebrantables, realmente básicas, y que la carga eléctrica asociada a protones y electrones era una unidad indivisible. Los quarks no obedecían a esta regla, ya que se les asignó cargas fraccionarias. De acuerdo a Gell-Mann y Zweig, los hadrones, las partículas sujetas a la interacción fuerte, están formados por dos o tres especies de quarks y antiquarks, denominados u (up; arriba), d (down; abajo) y s (strange; extraño), con, respectivamente, cargas eléctricas 2/3, –1/3 y –1/3 la del electrón (de hecho, los hadrones pueden ser de dos tipos: bariones —protones, neutrones e hiperones— y mesones, partículas cuyas masas tienen valores entre la del electrón y la del protón). Así, un protón está formado por dos quarks u y uno d, mientras que un neutrón está formado por dos quarks d y por otro u; son, por consiguiente, estructuras compuestas. Posteriormente, otros físicos propusieron la existencia de tres quarks más: charm (c; 1974), bottom (b; 1977) y top (t; 1995). Para caracterizar esta variedad, se dice que los quarks tienen seis tipos de «sabores» (flavours); además, cada uno de estos seis tipos puede ser de tres clases, o colores: rojo, amarillo (o verde) y azul. Y para cada quark existe, claro, un antiquark. (Por supuesto, nombres como los anteriores —color, sabor, arriba, abajo…— no representan la realidad que asociamos normalmente a tales conceptos, aunque puede en algún caso existir una cierta lógica en ellos, como sucede con el color.)
En definitiva, los quarks tienen color pero los hadrones no: son blancos. La idea es que solo las partículas «blancas» son observables directamente en la naturaleza, mientras que los quarks no; ellos están «confinados», asociados formando hadrones. Nunca podremos observar un quark libre. Ahora bien, para que los quarks permanezcan confinados deben existir fuerzas entre ellos muy diferentes de las electromagnéticas o de las restantes. En palabras de Gell-Mann (1995, p. 200): «Así como la fuerza electromagnética entre electrones está mediada por el intercambio virtual de fotones, los quarks están ligados entre sí por una fuerza que surge del intercambio de otros cuantos: los gluones [del inglés glue, pegar], llamados así porque hacen que los quarks se peguen formando objetos observables blancos como el protón y el neutrón».
Aproximadamente una década después de la introducción de los quarks, se desarrolló una teoría, la cromodinámica cuántica, que explica por qué los quarks están confinados tan fuertemente que nunca pueden escapar de la estructuras hadrónicas que forman. El nombre cromodinámica —procedente del término griego cromos (color)— aludía al color de los quarks, y el adjetivo «cuántica» a que es compatible con los requisitos cuánticos. Al ser la cromodinámica cuántica una teoría de las partículas elementales con color, y al estar este asociado a los quarks, que a su vez tratan de los hadrones, las partículas sujetas a la interacción fuerte, tenemos que la cromodinámica cuántica describe esta interacción.
Con la electrodinámica cuántica y la cromodinámica cuántica, se disponía de teorías cuánticas para las interacciones electromagnética y fuerte. Además, se disponía de una teoría de la interacción débil (la responsable de procesos radiactivos como la radiación beta, la emisión de electrones en procesos nucleares), pero esta tenía problemas. Una versión más satisfactoria para una teoría cuántica de la interacción débil llegó cuando en 1967 el estadounidense Steven Weinberg y el año siguiente el paquistaní (afincando en Inglaterra) Abdus Salam propusieron independientemente una teoría que unificaba las interacciones electromagnética y débil. Su modelo incorporaba ideas propuestas en 1960 por Sheldon Glashow. Por estos trabajos, Weinberg, Salam y Glashow compartieron el Premio Nobel de Física de 1979; esto es, después de que, en 1973, una de las predicciones de su teoría —la existencia de las denominadas «corrientes neutras débiles»— fuese corroborada experimentalmente en el CERN, el gran laboratorio europeo de altas energías.
La teoría electrodébil unificaba la descripción de las interacciones electromagnética y débil, pero ¿no sería posible avanzar por la senda de la unificación, encontrando una formulación que incluyese también a la interacción fuerte, descrita por la cromodinámica cuántica? La respuesta, positiva, a esta cuestión vino de la mano de Howard Georgi y Glashow, que introdujeron en 1974 las primeras ideas de lo que se vino en denominar Teorías de Gran Unificación (GUT).
BBVA-OpenMind-ilustración-SANCHEZ-RON-Cuando-el-pasado-se-hace-futuro_la-fisica-siglo-xxi-Centro de exposiciones del CERN, en Suiza, en un día nevado. El edificio, construido en madera, lo donó al CERN la Confederación Suiza en 2004 para celebrar los 50 años de su fundación
Centro de exposiciones del CERN, en Suiza, en un día nevado. El edificio, construido en madera, lo donó al CERN la Confederación Suiza en 2004 para celebrar los 50 años de su fundación
Gracias al conjunto formado por las anteriores teorías, se dispuso de un gran marco teórico para entender de qué está formada la naturaleza. Un marco teórico con una extraordinaria capacidad predictiva. De acuerdo con él, se acepta por una parte que las partículas elementales pertenecen a uno de los dos siguientes grupos: bosones o fermiones, según su espín sea entero o fraccionario (el fotón es un bosón y el electrón un fermión), que obedecen a dos estadísticas (maneras de «contar» agrupaciones de partículas de la misma especie) diferentes: la estadística de Bose-Einstein y la estadística de Fermi-Dirac. Por otra parte, se tiene que toda la materia del Universo está formada por agregados de tres tipos de partículas elementales: electrones y sus parientes (las partículas denominadas muón y tau), neutrinos (neutrino electrónico, muónico y tauónico) y quarks, además de por los cuantos asociados a los campos de las cuatro fuerzas que reconocemos en la naturaleza (recordemos la dualidad onda-corpúsculo, que significa que en la física cuántica una partícula se puede comportar como un campo y viceversa): el fotón para la interacción electromagnética, las partículas Z y W (bosones gauge) para la débil, los gluones para la fuerte y, aunque la gravitación aún no se ha incorporado a ese marco, los, supuestos, gravitones para la gravitacional. El subconjunto formado por la cromodinámica cuántica y la teoría electrodébil (esto es, el sistema teórico que incorpora las teorías relativistas y cuánticas de las interacciones fuerte, electromagnética y débil) es especialmente poderoso si tenemos en cuenta el balance predicciones-comprobaciones experimentales. Es denominado «Modelo estándar». Ahora bien, un problema con este modelo era que para explicar el origen de la masa de las partículas elementales que aparecen en él era preciso que existiese una nueva partícula, un bosón, cuyo campo asociado impregnaría todo el espacio, «frenando», por decirlo de alguna manera, a las partículas que tienen masa, mostrando estas, mediante su interacción con el campo de Higgs, dicha masa (explica, en particular, la gran masa que poseen los bosones gauge W y Z, y también la masa nula de los fotones, ya que no interactúan con el bosón de Higgs). La existencia de semejante bosón fue prevista teóricamente en tres artículos publicados en 1964, en el mismo volumen de la revista Physical Review Letters: el primero estaba firmado por Peter Higgs, el segundo por François Englert y Robert Brout y el tercero por Gerald Guralnik, Carl Hagen y Thomas Kibble. A la partícula en cuestión se le adjudicó el nombre de «bosón de Higgs».
Uno de los acontecimientos más celebrados en la física de la última década ha sido la confirmación de una predicción teórica hecha hacía casi medio siglo: la existencia del bosón de Higgs
Para que esa supuesta partícula se pudiera detectar hacía falta un acelerador de partículas que alcanzase energías lo suficientemente elevadas para producirla. No se dispuso de semejante máquina hasta muchos años después de que se propusiera su existencia. Fue en 1994 cuando el CERN aprobó la construcción de ese acelerador, el Large Hadron Collider (LHC; Gran Colisionador de Hadrones). El que debía ser el mayor acelerador de partículas del mundo sería un anillo de 27 kilómetros, rodeado de 9.600 imanes de diverso tipo, 1.200 de ellos dipolos superconductores que funcionan a 271,3 grados Celsius bajo cero, una temperatura más baja que la del espacio exterior (se consigue con la ayuda de helio líquido). En el interior de ese anillo, guiados por el campo magnético producido por «la escolta» de electroimanes, se acelerarían, en sentidos opuestos, dos haces de protones a velocidades próximas a la de la luz. Cada uno de los dos haces circularían en tubos diferentes, mantenidos en un vacío extremo, hasta que alcanzasen la energía prevista, momento en el que se harían colisionar. La teoría decía que en algunas de esas colisiones se producirían bosones de Higgs. Un grave problema era que este bosón se desintegra prácticamente de manera inmediata en otras partículas; era preciso, por consiguiente, disponer de detectores especialmente sensibles. Los que se diseñaron y construyeron para el LHC, denominados ATLAS, CMS, ALICE y LHCb, constituyen gigantescos monumentos a la tecnología más avanzada.
Finalizada la construcción, el primer haz de protones, de prueba, se hizo circular por el LHC el 10 de septiembre de 2008. El 30 de marzo de 2010 se producían las primeras colisiones entre protones, a una energía total de 7·1012 eV (esto es, 7 tera-electronvoltios; TeV), energía nunca antes alcanzada por un acelerador de partículas. Fue, finalmente, el 4 de julio de 2012 cuando el CERN anunció públicamente que se había detectado una partícula con una masa de, aproximadamente, 125·109 eV (o 125 giga-electronvoltios; GeV), cuyas propiedades indicaban, con gran probabilidad, que se trataba del bosón de Higgs (el Modelo estándar no predice su masa). La noticia fue portada de prácticamente todos los periódicos y noticiarios del mundo. Casi medio siglo después de haberse predicho teóricamente, se confirmaba su existencia. No resulta sorprendente que el Premio Nobel de Física de 2013 fuese otorgado a Peter Higgs y François Englert, por, según la comunicación oficial de la Fundación Nobel, «el descubrimiento teórico de un mecanismo que contribuye a comprender el origen de la masa de partículas subatómicas y que ha sido confirmada recientemente mediante el descubrimiento de la partícula fundamental predicha, por los experimentos ATLAS y CMS en el Large Hadron Collider del CERN».
Evidentemente, semejante confirmación constituía un motivo de satisfacción, pero no faltaron quienes, con un buen argumento, manifestaran que habrían preferido un resultado negativo, que no se encontrase el bosón de Higgs donde la teoría preveía que debía estar (esto es, con la masa predicha). El físico teórico y divulgador estadounidense Jeremy Bernstein (2012a, b, p. 33) expresó ese sentimiento muy poco antes del anuncio del descubrimiento: «Si el LHC confirma la existencia del bosón de Higgs, marcará el punto final de un largo capítulo de la física teórica. La historia me recuerda a la de un compañero francés. Cierto parámetro había sido bautizado con su nombre, por lo que aparecía con bastante frecuencia en las discusiones sobre las interacciones débiles. Al final, el parámetro fue medido y el modelo confirmado en los experimentos. Sin embargo, cuando fui a felicitarle, lo hallé entristecido porque ya no se hablaría más de su parámetro. Si el bosón de Higgs no apareciese, la situación se tornaría muy interesante puesto que nos veríamos ante la imperiosa necesidad de inventar nueva física».
Sin embargo, el hecho —y el triunfo— es que el bosón de Higgs existe y se identificó. Pero la ciencia siempre está en movimiento y en febrero de 2013 el LHC detuvo sus operaciones para que se realizasen los ajustes necesarios destinados a alcanzar los 13 TeV. El 12 de abril de 2018 comenzó esa nueva etapa con las correspondientes pruebas de colisiones de protones. Se trata de buscar datos inesperados, que revelen la existencia de nuevas leyes de la física. Pero por el momento lo que se puede decir es que el Modelo estándar funciona muy bien, que es uno de los grandes logros de toda la historia de la física, un logro que, mucho más que la mecánica y electrodinámica cuánticas —no digamos ya que la relatividad, especial y general—, ha sido producto de un esfuerzo colectivo.
Ahora bien, no obstante su éxito el Modelo estándar no es, no puede ser, «la Teoría final». Por una parte, porque la interacción gravitacional queda al margen, pero también porque incluye demasiados parámetros que hay que determinar experimentalmente. Se trata de las, siempre incómodas pero fundamentales, preguntas del tipo «¿por qué?». ¿Por qué existen las partículas fundamentales que detectamos? ¿Por qué son cuatro las interacciones fundamentales, y no tres, cinco o solo una? ¿Y por qué tienen estas interacciones las propiedades (como intensidad o rango de acción) que poseen? En el número de agosto de 2011 de Physics Today, la revista de la American Physical Society, Steven Weinberg (2011, p. 33) reflexionaba sobre algunos de estos puntos, y de otros, en los siguientes términos:
Por supuesto, mucho antes del descubrimiento de que los neutrinos tienen masa, sabíamos que hay algo más allá del Modelo estándar que sugiere una nueva física para masas un poco por encima de 1016 GeV: la existencia de la gravitación. Y también está el hecho de que el parámetro de acoplamiento de [la interacción] fuerte y los dos de [la interacción] débil del Modelo estándar, que dependen solamente logarítmicamente de la energía, parecen converger hacia un valor común a una energía del orden de entre 1015 y 1016 GeV.
Hay muchas buenas ideas sobre cómo ir más allá del Modelo estándar, incluyendo la supersimetría y lo que se llamó teoría de cuerdas, pero todavía no existe ningún dato experimental que las confirme. Incluso si los gobiernos son generosos con la física de partículas en un grado fuera de los sueños más atrevidos, puede que nunca seamos capaces de construir aceleradores que alcancen energías de entre 1015 y 1016 GeV. Algún día puede que seamos capaces de detectar ondas gravitacionales de alta frecuencia emitidas durante la época de inflación en el universo muy temprano, que nos ofrezcan datos de procesos físicos a muy alta energía. Entre tanto, lo que podemos esperar es que el LHC y sus sucesores nos proporcionen las claves que tan desesperadamente necesitamos para superar los éxitos de los últimos cien años.
Y a continuación, Weinberg se preguntaba: «¿Cuál es la razón de todo esto? ¿Realmente necesitamos saber por qué existen tres generaciones de quarks y leptones, o si la naturaleza respeta la supersimetría, o lo que es la materia oscura? Sí, pienso que sí, porque responder a este tipo de preguntas es el siguiente paso en un programa para conocer cómo todas las regularidades de la naturaleza (todo lo que no es un accidente histórico) se siguen de unas pocas, simples, leyes».
Vemos en esta cita de Weinberg que la energía a las que esa «nueva física» se debería manifestar con claridad, 1015-1016 GeV, se halla muy lejos de los 13 TeV, esto es, 13·103 GeV que debe alcanzar el LHC renovado. Tan lejos está que se entiende perfectamente el comentario de Weinberg de que «puede que nunca seamos capaces de construir aceleradores que alcancen esas energías». Pero Weinberg también señalaba que acaso en la investigación del Universo se pudiesen encontrar formas de acceder a esos niveles de energía. Él mismo lo sabía muy bien, ya que en la década de 1970 fue uno de los que más impulsaron la unión de la física de partículas elementales con la cosmología. Recordemos en este sentido su libro, The First Three Minutes: A Modern View of the Origin of the Universe (1977), en el que se esforzaba por divulgar la ayuda mutua que podrían obtener —que de hecho obtuvieron— cosmología y física de altas energías al estudiar los primeros instantes después del big bang. Para la física de altas energías aquel «matrimonio de conveniencias» significó un aire nuevo.
No era, sin embargo, el estilo, las técnicas, que caracterizaron el empleo de la física de partículas elementales en las décadas de 1970-1990 a las que se refería Weinberg, sino a una muy diferente: las ondas gravitacionales, o radiación gravitacional. Ahora bien, independientemente de otras diferencias, el nicho teórico de la radiación gravitacional no se encuentra en la física cuántica, sino en la teoría que describe la única interacción que hasta ahora no ha podido ser amoldada a los requisitos cuánticos, la teoría de la relatividad general, en la que el mundo de la física básica se confunde con los de la cosmología y astrofísica. Y en ese mundo plural también se produjo un avance fundamental en la última década.

La radiación gravitacional existe

Tras años de intensos esfuerzos mentales —cuyo punto de partida fue 1907, cuando identificó como pieza clave para construir una teoría relativista de la gravitación el denominado «principio de equivalencia»—, años en los que no infrecuentemente tomó caminos erróneos, en noviembre de 1915 Albert Einstein completó la estructura de la que muchos consideran la construcción teórica más hermosa de la física: la teoría de la relatividad general. Se trata de una teoría «clásica», esto es, que, como ya apunté, no incluye los principios de la física cuántica, principios de los que, existe consenso en esto, deben participar todas las teorías de la física. Aun así, la formulación relativista de la gravitación einsteiniana ha ido superando todas las pruebas experimentales que se ha encontrado hasta la fecha. Una de sus predicciones que más tiempo tardó en confirmarse fue la de que la aceleración de masas da origen a la emisión de ondas; esto es, la existencia de radiación gravitacional. Se suele citar 1916 como la fecha de nacimiento de la predicción de la existencia de estas ondas, año en el que Einstein publicó un artículo en el que concluía que efectivamente existían. Sin embargo, aquel trabajo tenía las suficientes limitaciones como para que Einstein volviese al asunto años después. En 1936 preparó con un colaborador, Nathan Rosen, un manuscrito que titularon «¿Existen ondas gravitacionales?», en el que ahora llegaban a la conclusión de que no existían. No obstante, aquel trabajo contenía errores, y en la versión final publicada (Einstein y Rosen, 1937) ya no se rechazaba la posibilidad de ondas gravitacionales.
El Gran Colisionador de Hadrones (LHC) es el mayor acelerador de partículas del mundo, con un anillo de 27 km, rodeado de 9.600 imanes, de los cuales 1.200 funcionan a 271,3 grados Celsius bajo cero, una temperatura más baja que la del espacio exterior
BBVA-OpenMind-ilustración-SANCHEZ-RON-Cuando-el-pasado-se-hace-futuro_la-fisica-siglo-xxi-Plano transversal del detector solenoide compacto de muones (CMS, por sus siglas en inglés)
Plano transversal del detector solenoide compacto de muones (CMS, por sus siglas en inglés)
El problema de si realmente existían las ondas gravitacionales, esto es, de detectarlas, se mantuvo durante décadas. Nadie intentó con más empeño y durante tanto tiempo —a partir de 1960— detectarlas como Joseph Weber, de la Universidad de Maryland. De hecho, llegó a creer que había conseguido detectarlas, aunque no era cierto. Su montaje experimental consistía en un cilindro de aluminio de un metro de diámetro y 3,5 toneladas de peso, al que acoplaba aparatos de cuarzo piezoeléctrico para detectar las posibles distorsiones que se produjesen en el cilindro cuando lo atravesase una onda gravitacional. Cuando se compara aquel instrumental con el que finalmente se utilizó para su detección, no podemos sino maravillarnos del entusiasmo e ingenuidad de Weber, quien falleció en 2000 sin conocer que la empresa que había guiado su vida profesional era correcta. Así es la ciencia, una tarea en la que, salvo excepciones, los problemas no suelen ser resueltos mediante el trabajo de un solo científico y en la que no faltan los errores. Una tarea, además, larga.
El 11 de febrero de 2016 un representante de LIGO anunció que habían detectado ondas gravitacionales y que estas correspondían al choque de dos agujeros negros, lo que de paso significaba una nueva confirmación de la existencia de estas singulares entidades cósmicas
Ha sido durante la última década cuando finalmente se detectó la radiación gravitacional, que implica detectar distorsiones del tamaño de una pequeña fracción de un átomo. La detección (Abbott et al., 2016) se produjo gracias a un sistema estadounidense denominado LIGO (por sus siglas inglesas, Laser Interferometric Gravitational wave Observatories [Observatorio de Interferometría Láser de ondas de Gravedad]), compuesto de dos observatorios separados por 3.000 kilómetros (esta duplicidad permite identificar señales falsas, producidas por efectos locales), uno en Livingston (Louisiana) y el otro en Hanford (Washington). La idea es utilizar sistemas interferométricos de dos brazos perpendiculares y en condiciones de vacío con un recorrido óptico de 2 o 4 kilómetros, para detectar las ondas gravitacionales a través de los minúsculos movimientos que estas deben producir en los espejos al pasar por allí. El 11 de febrero de 2016, un representante de LIGO anunció que habían detectado ondas gravitacionales y que estas correspondían al choque de dos agujeros negros, lo que de paso significaba una nueva confirmación de la existencia de estas singulares entidades cósmicas. Aunque no participó en esa primera detección (no tenía entonces la sensibilidad necesaria; estaba siendo mejorada), existe otro gran observatorio interferométrico dedicado a la detección de radiación gravitacional: Virgo. Originado en una colaboración europea entre seis países (Italia y Francia, los principales, más Holanda, Hungría, Polonia y España) y ubicado cerca de Pisa, Virgo tiene acuerdos con LIGO; de hecho, en el artículo «fundacional», después del encabezamiento de autores, B. P. Abbot et al., aparece «LIGO Scientific Collaboration and Virgo Collaboration». Pronto Virgo se unió a las investigaciones; lo hizo a partir de la segunda ronda de observaciones el 1 de agosto de 2017.
La detección de la radiación gravitacional ha significado que se ha abierto una nueva ventana al estudio del Universo, una ventana que se irá ensanchando según vaya mejorando la tecnología y se establezcan más observatorios del tipo de LIGO y Virgo. Se trata de una situación comparable a la que tuvo lugar en la década de 1930, cuando, a partir de los experimentos pioneros de Karl Jansky, la radioastronomía (la astronomía basada en ondas radio, con longitud de onda en el rango de unos cuantos centímetros a unos metros) amplió radicalmente nuestro conocimiento del cosmos, hasta entonces dependiente únicamente del estrecho margen de longitudes de onda del espectro electromagnético que reconoce el ojo humano. De hecho, no se ha tardado demasiado en avanzar en tal senda: el 16 de octubre de 2017 LIGO y Virgo (Abbott et al., 2017) anunciaron que el 17 de agosto de ese año habían detectado la radiación gravitacional procedente del choque de dos estrellas de neutrones de entre 1,17 y 1,60 masas la del Sol (recordemos que una estrella de neutrones es una estrella extremadamente densa y muy pequeña —de un radio del orden de los diez kilómetros—, asimilable a una especie de núcleo gigante formado únicamente por neutrones unidos por la fuerza de la gravedad). Particularmente interesante es que 1,7 segundos después de que se recibiese la señal, el telescopio espacial «Fermi» de la NASA detectó —otros observatorios lo hicieron más tarde— rayos gamma procedentes de la misma región del espacio en la que se había producido ese choque cósmico. Analizando esa radiación, se ha observado que en la colisión de las dos estrellas se produjeron elementos químicos como oro, plata, platino o uranio, cuyos «lugares de nacimiento» se desconocían hasta el momento. La detección de las ondas gravitacionales muestra también una de las características de la denominada Big Science: el artículo, «Observation of Gravitational Waves from a Binary Black Hole Merger», en el que se anunció su descubrimiento, publicado en Physical Review Letters (B. P. Abbott et al., 2016) coincidiendo con el anuncio del día 11, está firmado por 1.036 autores, procedentes de 133 instituciones (de sus 16 páginas, seis están dedicadas a la lista de esos autores e instituciones).
En 2017 se reconocía la importancia del hallazgo de LIGO adjudicando el Premio Nobel de Física a, la mitad, Rainer Weiss, responsable de la invención y desarrollo de la técnica de interferometría láser empleada, y la otra mitad a Kip Thorne, físico teórico especialista en relatividad general, que en 1975 diseñó junto a Weiss las líneas directrices futuras del proyecto, con el que ha seguido asociado siempre, y Barry Barish, quien se unió al proyecto en 1994, reorganizándolo como director. (En 2016 el galardón se adjudicó a David Thouless, Duncan Haldane y Michael Kosterlitz, quienes utilizando técnicas procedentes de la topología, una rama de la matemática, consiguieron demostrar que existen estados, «fases», de la materia antes desconocidos, en, por ejemplo, superconductores y superfluidos, que pueden existir en láminas delgadas, algo que se suponía imposible, explicando, asimismo, el mecanismo —una «transición de fase»— que hace que la superconductividad desaparezca a temperaturas elevadas.)

Agujeros negros y agujeros de gusano

Que la primera detección de radiación gravitacional en LIGO procediera del choque de dos agujeros negros, es también digno de resaltar. En cierto que por entonces existían numerosas pruebas de la existencia de esos objetos astrofísicos tan sorprendentes (la primera evidencia en ese sentido llegó en 1971, procedente de observaciones tomadas por instrumentos instalados en un satélite que Estados Unidos puso en órbita el 12 de diciembre de 1970, y en la actualidad ya se han identificado muchos más, entre otros los existentes en numerosos núcleos de galaxias, incluyendo la nuestra, la Vía Láctea). Conviene recordar que en la década de 1970 muchos científicos especialistas en relatividad general pensaban que los agujeros negros no eran sino «fantasmas matemáticos» de algunas soluciones de la teoría einsteiniana que había que descartar; al fin y al cabo, las ecuaciones de una teoría física que describe un dominio de la realidad pueden albergar soluciones que no se dan en la Naturaleza, el caso, por ejemplo, de la cosmología relativista, que incluye múltiples universos posibles. Pero ha resultado que los agujeros negros sí existen, aunque no comprendamos todavía aspectos tan fundamentales como a donde va a parar la masa que engullen. Quienes más hicieron por defender que los agujeros negros son consecuencias inevitables de la relatividad general y que, por consiguiente, debían existir, fueron Stephen Hawking y Roger Penrose, este formado inicialmente como matemático puro, en una serie de trabajos publicados en la década de 1960. A ellos se unieron después otros científicos, entre ellos John A. Wheeler (por cierto, director de la tesis doctoral de Thorne), quien acuñó el término «agujero negro». Hawking, que falleció en 14 de marzo de 2018, pudo, por consiguiente, conocer que la nueva confirmación de la teoría de la relatividad general, a cuyo desarrollo dedicó tantos esfuerzos, aportaba otra prueba de la existencia de los agujeros negros. Teniendo en cuenta que nadie —ni siquiera Penrose o Wheeler (este también desaparecido)— había aportado más a la física de los agujeros negros (en 1973, en la que se considera su aportación más distinguida, Hawking presentó un trabajo en el que sostenía que los agujeros negros no son tan «negros», que emiten radiación y que, por tanto, pueden terminar desapareciendo, aunque muy lentamente, algo todavía no comprobado), tal vez, si los estatutos de la Fundación Nobel permitiesen que sus Premios los recibiesen no tres como máximo, sino cuatro personas, él habría sido un buen candidato. Pero la historia es como es, no como algunos quisieran que fuera.
En la cita de Weinberg que apareció anteriormente, este manifestaba que «algún día puede que seamos capaces de detectar ondas gravitacionales de alta frecuencia emitidas durante la época de inflación en el universo muy temprano, que nos ofrezcan datos de procesos físicos a muy alta energía». Ese tipo de ondas gravitacionales aún no se han detectado, pero acaso lo sean pronto, pues ¿no se observaron ya las denominadas «arrugas en el tiempo», esto es, las minúsculas irregularidades en el fondo cósmico de radiación de microondas de las que surgieron las complejas estructuras, como las galaxias, que ahora existen en el Universo (Mather et al., 1990; Smoot et al., 1992)? Fue, recordemos, gracias a un satélite, el Cosmic Background Explorer (COBE), puesto en órbita, a 900 kilómetros de altura, en el otoño de 1989. Entre tanto, el futuro de la astrofísica de la radiación gravitacional promete grandes novedades. Una de ellas, podría ser la identificación de entidades cosmológicas igual de sorprendentes que los agujeros negros: los «agujeros de gusano», nombre también acuñado por John Wheeler. Expresado de manera sencilla, los agujeros de gusano son «atajos» en el Universo, una especie de puentes que conectan diferentes lugares de este. Puede, por ejemplo, que la distancia entre dos puntos del Universo sea, digamos, de treinta años-luz (un año-luz es, recordemos, la distancia que recorre un rayo de luz en un año), pero si, debido a la curvatura del universo, del espacio-tiempo, existiera un atajo, un puente, entre esos puntos, la distancia siguiendo este nuevo camino sería otra, acaso mucho menor, dos años-luz, por ejemplo. De hecho, la posibilidad de que existieran esas entidades cosmológicas surgió poco después de que Albert Einstein completase la teoría de la relatividad general: en 1916, un físico de Viena, Ludwig Flamm, encontró una solución de las ecuaciones de Einstein en las que aparecían esos «puentes» espacio-temporales. Sin embargo, el trabajo de Flamm apenas recibió atención, y diecinueve años más tarde Einstein junto a uno de sus colaboradores, Nathan Rosen, publicaba un artículo en el que representaban el espacio físico como formado por dos «hojas» idénticas que entraban en contacto a lo largo de una superficie que llamaban «puente». Ahora bien, en lugar de pensar en atajos espaciales —la idea rayaba, creían, en lo absurdo— interpretaban ese puente como una partícula.
Quienes más hicieron por defender que los agujeros negros son consecuencias inevitables de la relatividad general y que, por consiguiente, debían existir, fueron Stephen Hawking y Roger Penrose en una serie de trabajos publicados en la década de 1960
Décadas más tarde, cuando la teoría de la relatividad general abandonó el intemporal hogar de la matemática en el que se encontraba enclaustrada y, gracias a los avances tecnológicos, demostró su utilidad para entender el cosmos y sus contenidos, se exploró la idea de esos atajos. Uno de los resultados que se obtuvieron entonces fue que de existir, lo hacen durante un tiempo muy breve; son, como si dijéremos, ventanas que se abren durante un intervalo de tiempo tan pequeño que no se puede mirar por ellas, o, traducido a la posibilidad de viajar por ellos, que no da tiempo a utilizarlos para ir de un punto del Universo a otro, para atajar. En un espléndido libro, Black Holes and Time Warps (1994), Kip Thorne explicó esta propiedad de los agujeros de gusano, pero al mismo tiempo contó que en 1985 recibió una llamada de su amigo Carl Sagan, que estaba terminando de escribir la novela que posteriormente sería también película, Contact (1985). Sagan, que no sabía mucha relatividad general, quería que la heroína de su historia, la astrofísica Eleanor Arroway (Jodie Foster en la película), viajase rápidamente de un lugar del Universo a otro penetrando en un agujero negro. Thorne sabía que esto no era posible, pero para ayudar a Sagan pensó en sustituir el agujero negro por un agujero de gusano: «Cuando un amigo necesita ayuda», escribió en su libro (Thorne 1994, 1995, pp. 450 y 452), «uno está dispuesto a buscarla en cualquier parte». No obstante, estaba todavía el problema de la muy efímera vida de estos. Para resolverlo, para mantener abierto el agujero de gusano el tiempo necesario, introdujo la idea de que Arroway utilizase «un material exótico» dotado de una serie de características que, más o menos, detallaba. «Quizá», señalaba Thorpe, «el material exótico puede existir». Resultó que otros (Stephen Hawking entre ellos) habían llegado a la misma conclusión y, de hecho, la cuestión de si los agujeros de gusano pueden estar abiertos más tiempo del que se dedujo inicialmente ha dado origen a estudios relacionados con ideas que tienen sentido en la física cuántica, como las fluctuaciones del vacío: considerar el espacio como si fuera, a escala ultramicroscópica, un líquido en ebullición.
BBVA-OpenMind-ilustración-SANCHEZ-RON-Cuando-el-pasado-se-hace-futuro_fisica-siglo-xxi-Detectores del programa experimental protoDUNE, CERN
Detectores del programa experimental protoDUNE, CERN
Otra posibilidad que se ha barajado recientemente procede de un grupo de cinco científicos de las Universidades de Lovaina, Autónoma de Madrid-Consejo Superior de Investigaciones Científicas y Waterloo, que publicaron un artículo en Physical Review D (Bueno, Cano, Goelen, Hertog y Vercnocke, 2018) en el que plantearon la posibilidad de que la radiación gravitacional detectada por LIGO que se interpretó como procedente de la colisión de dos agujeros negros, tenga un origen muy diferente: la colisión de dos agujeros de gusano que rotan. La idea de estos investigadores se basa en que en torno a los agujeros negros existe una frontera, un horizonte de sucesos, que hace que las ondas gravitacionales producidas en un choque como el detectado en 2016 se «apaguen», cesen, en un intervalo de tiempo muy breve. Según estos científicos, esto no sucedería si se tratase de agujeros de gusano, en los que no existen tales horizontes de sucesos, y en los que se deberían producir «ecos», reverberaciones de las ondas. Tales ecos no se han detectado, pero bien pudo ser porque la instrumentación no era capaz de hacerlo, o no estaba preparada para ello. He aquí un problema a resolver en el futuro.

Multiuniversos

Considerar seriamente la idea de que pueden existir «puentes» en el espacio-tiempo, agujeros de gusano, puede parecer sumergirse en un mundo en el que la ciencia se confunde con la ciencia-ficción, pero la historia de la ciencia nos ha mostrado que a veces la naturaleza sorprende más que la mente humana más imaginativa. ¿Quién sabe, por consiguiente, si objetos como los agujeros de gusano pueden existir? Recurriendo de nuevo a la radioastronomía, recordemos que antes de su advenimiento ningún científico imaginó que pudieran existir estructuras astrofísicas como los púlsares o los cuásares. Incluso el mismo Universo como entidad diferenciada puede terminar perdiendo su más acusada característica: la unicidad. A lo largo de la última década, cada vez se ha considerado más seriamente una posibilidad que surgió como una manera para entender el colapso de la función de onda, esto es, el que en mecánica cuántica sea la observación la que finalmente decide cuál de todos los estados posibles de un sistema, que coexisten antes de esa observación, se hace realidad (y cuál es la probabilidad de que ocurra esto). Que es posible pensar en otros términos, es algo que hizo un joven físico que estaba trabajado en su tesis doctoral: Hugh Everett III. Al contrario que a la mayoría de sus contemporáneos, la interpretación de Copenhague de la mecánica cuántica, tan favorecida por el influyente Niels Bohr, no le convenció, en especial la extraña mezcla entre los mundos clásicos y cuánticos: la función de onda sigue su camino cuántico, hasta que se realiza una medida, que pertenece al mundo de la física clásica; entonces se produce el mencionado colapso de la función de onda. Everett pensaba que semejante dicotomía entre una descripción cuántica y una clásica constituía una «monstruosidad filosófica».1 Lo que propuso, en consecuencia, fue prescindir del postulado del colapso de la función de onda y tratar de incluir al observador en la función de onda.
No es fácil explicar en pocas palabras la teoría que elaboró Everett; de hecho, el director de su tesis doctoral, John Wheeler, tuvo dificultades para aceptar todo su contenido, induciéndole a varias revisiones de su trabajo inicial, incluyendo recortar la primera versión que escribió de su tesis y limitar la fuerza de algunas de sus aserciones aunque, por otra parte, reconoció su valor. Me limitaré a citar un pasaje del artículo que Everett III (1957) publicó en Reviews of Modern Physics y que coincide con la versión final de su tesis doctoral (obtuvo su Ph. D en abril de 1957). Se lee en él (Everett III, 1957; Barret y Byrne, eds., 2012, pp. 188-189):
  De esta manera llegamos a la siguiente imagen: a lo largo de toda la secuencia de procesos de observación,  solamente existe un sistema físico que representa el observador, aunque no existe un único estado para el      observador […] Sin embargo, existe una representación en términos de una superposición […] Por consiguiente, con cada observación (o interacción) sucesiva, el estado de observador «se desdobla» [branches] en un número de estados diferentes. Cada rama [branch] representa un resultado diferente de la medición y los autoestados correspondientes para el estado objeto-sistema. Todas las ramas existen simultáneamente en la superposición tras una secuencia dada de observaciones.
En esta última cita nos encontramos lo que se convertiría en la característica más representativa de la teoría de Everett. Pero esa característica no la promovió él, sino Bryce DeWitt. Fue, en efecto, DeWitt quien rescató y modificó la teoría de Everett, convirtiéndola en «la interpretación de los muchos mundos» (o multiuniversos), el título de una recopilación de trabajos de Everett que DeWitt y Neill Graham editaron en 1973: The Many-Worlds Interpretation of Quantum Mechanics (DeWitt y Graham, eds., 1973). Antes, DeWitt (1970) había publicado un atractivo, y a la postre influyente, artículo en Physics Today en el que presentaba la teoría de Everett bajo el sugerente título de «Mecánica cuántica y realidad». Recordando aquel escrito, DeWitt señaló (DeWitt-Morette, 2011, p. 95): «El artículo de Physics Today estaba escrito deliberadamente en un estilo sensacionalista. Introduje una terminología («desdoblamiento» [splitting], múltiples «mundos», etcétera) que fueron inaceptables para algunas personas y a la que un cierto número objetó porque, como mínimo, carecían de precisión». Las ideas, la versión de la teoría de Everett implícita en la presentación de DeWitt, y la que se ha mantenido con cierto florecimiento en los últimos tiempos, es la de que la función de onda del Universo, la única que realmente tiene sentido según Everett, se desdobla con cada proceso de «medida», originando mundos, universos, que a su vez se desdoblan en otros, en una secuencia imparable e infinita.
En el artículo de Physics Today, DeWitt (1970, p. 35) escribió que «ningún experimento puede mostrar la existencia de “otros mundos”» y que «sin embargo, la teoría tiene el mérito pedagógico de sacar a la palestra muchos de los problemas fundamentales y proporcionar así una base útil de discusión». Durante mucho tiempo (en los últimos años la situación está cambiando), la idea de los multiuniversos fue poco valorada, cuando no considerada poco menos que ridícula, pero quién sabe si en el futuro será posible imaginar algún experimento que pueda someter a prueba la idea de si existen otros universos. Y, puestos a imaginar, si en ellos —en el caso de que existiesen— las leyes de la física serían las que se cumplen en el Universo nuestro, o serían otras; claro que si fuesen otras, ¿cómo identificarlas?

Materia oscura

Hasta finales del siglo XX se pensaba que, aunque quedase aún mucho que averiguar sobre sus contenidos, estructura y dinámica, se sabía de qué estaba compuesto el Universo: de materia «ordinaria», esa que constantemente percibimos alrededor de nosotros, constituida a su vez por las partículas (y radiaciones/cuantos) de las que se ocupa en particular la física de altas energías. Pero resultó no ser así. Diversas evidencias experimentales, como el movimiento interno de algunas galaxias, mostraron que existe una materia de un tipo desconocido, a la que se denomina «materia oscura»; y que también existe una «energía oscura», responsable de que el Universo se expanda con mayor aceleración de la esperada. Los resultados actuales indican que alrededor del cinco por ciento del Universo está formado por masa ordinaria, el 27 de materia oscura y el 68 por ciento de energía oscura. En otras palabras: creíamos que conocíamos eso que llamamos Universo y resulta que es un gran desconocido, porque no sabemos qué son ni la materia oscura ni la energía oscura.
En el LHC se tenían esperanzas de detectar un candidato de partículas de masa oscura, apodadas WIMP (siglas inglesas de Weakly Interacting Massive Particles [Partículas masivas que interaccionan débilmente]), cuya existencia predice la denominada «supersimetría», pero el resultado ha sido negativo. Un experimento específico para intentar detectar materia oscura utilizó un detector, LUX (Large Underground Xenon), establecido en el Sanford Underground Laboratory, en el que participaron alrededor de 100 científicos e ingenieros de 18 instituciones de Estados Unidos, Europa y, en menor grado, otros países. Situado en una mina de Dakota del Sur, a 1.510 metros de profundidad, ese detector contenía 370 kilogramos de xenón líquido ultra puro, con el que se pretendía detectar la interacción de las partículas que constituyen esa materia oscura con el xenón. Sin embargo, también en este caso el resultado de este experimento, iniciado en octubre de 2014 y concluido en mayo de 2016, fue negativo.

Supersimetría y materia oscura

Desde el punto de vista de la teoría, existe un candidato de formulación que puede acoger la materia oscura, las «partículas oscuras», las mencionadas WIMP. Se trata de un tipo especial de simetría, la «supersimetría», cuya característica más pronunciada es que a cada partícula de las conocidas le corresponde una «compañera supersimétrica». Ahora bien, esa compañera «supersimétrica» debe poseer una propiedad específica: el espín de la partícula supersimétrica debe ser ½ menor que el de su pareja conocida, es decir, el espín de una será un número entero y el de la otra semientero, lo que significa que una será un bosón (partículas con espín entero) y la otra un fermión (partículas con espín semientero); en este sentido, la supersimetría establece una simetría entre bosones y fermiones, imponiendo, por consiguiente, que las leyes de la naturaleza sean las mismas intercambiando bosones por fermiones, y viceversa. La supersimetría fue descubierta a comienzos de la década de 1970, siendo una de sus primeras manifestaciones dentro del contexto de otro tipo de teorías en las que se han puesto muchas esperanzas para unificar las cuatro interacciones, esto es, para incorporar la gravitación al mundo cuántico, lo que significa ir más allá del Modelo estándar: la teoría de cuerdas.2 Un buen resumen de lo que es la supersimetría lo ha proporcionado uno de los físicos que se han distinguido por sus trabajos en este campo, David Gross (2011, pp. 163-164):
Acaso la cuestión más importante a la que se enfrentan los físicos de partículas, tanto teóricos como experimentales, sea la de la supersimetría. La supersimetría es un maravilloso concepto teórico. Es una extensión natural, probablemente única, de las simetrías relativistas, especial y general, de la naturaleza. Es también una parte esencial de la teoría de cuerdas; de hecho, la supersimetría se descubrió en primer lugar en la teoría de cuerdas, siendo generalizada después a la teoría cuántica de campos […]
En las teorías supersimétricas, para toda partícula existe un «supercompañero», o «superpartícula» […] Hasta el momento no hemos observado ninguna superpartícula […] Pero esto no es sorprendente. La supersimetría podría ser una simetría exacta de las leyes de la naturaleza, pero que se rompe espontáneamente en el nivel fundamental del universo. Muchas simetrías que existen en la naturaleza se rompen espontáneamente. Si la escala de la ruptura de la supersimetría es lo suficientemente elevada, podríamos no haber visto todavía ninguna de estas partículas. Si las observamos en el nuevo LHC entonces, de hecho, descubriremos nuevas dimensiones cuánticas de espacio y tiempo.
La supersimetría posee muchos rasgos bellos. Unifica por medio de principios de simetría fermiones, quarks y leptones (que son los constituyentes de la materia), bosones (que son los cuantos de las interacciones), el fotón, la W, la Z, los gluones de la cromodinámica cuántica, y el gravitón.
BBVA-OpenMind-ilustración-SANCHEZ-RON-Cuando-el-pasado-se-hace-futuro_la-fisica-siglo-xxi-Stephen Hawking (1942-2018) a bordo de un Boeing 727 modificado, propiedad de la Zero Gravity Corporation. El avión realiza una serie de marcados ascensos y descensos que crean periodos de ingravidez debidos a la caída libre. Durante este vuelo Hawking experimentó ocho de eStephen Hawking (1942-2018) a bordo de un Boeing 727 modificado, propiedad de la Zero Gravity Corporation. El avión realiza una serie de marcados ascensos y descensos que crean periodos de ingravidez debidos a la caída libre. Durante este vuelo Hawking experimentó ocho de estos periodosstos periodos
Stephen Hawking (1942-2018) a bordo de un Boeing 727 modificado, propiedad de la Zero Gravity Corporation. El avión realiza una serie de marcados ascensos y descensos que crean periodos de ingravidez debidos a la caída libre. Durante este vuelo Hawking experimentó ocho de estos periodos
Y después de ofrecer otros ejemplos de las virtudes de la supersimetría, Gross se refería a la materia oscura: «Finalmente, extensiones supersimétricas del Modelo estándar contienen candidatos naturales para los WIMP de la materia oscura. Estas extensiones contienen de forma natural, entre los compañeros supersimétricos de la materia ordinaria, partículas que tienen todas las propiedades que se han supuesto para la materia oscura».
Como apuntaba Gross, los experimentos en el LHC eran un buen escenario para encontrar esos «compañeros supersimétricos oscuros», que podrían ser lo suficientemente ligeros como para detectarse en el acelerador del CERN, pero, incluso en este caso, estaría la dificultad de detectarlos: ya que no interaccionan ni con la fuerza electromagnética, por lo que no absorben, reflejan o emiten luz, ni con la interacción fuerte; esto es, no interaccionan con las «partículas visibles». Poseen, no obstante, energía y momento (si no, serían «fantasmas» sin entidad física alguna), lo que constituye una puerta abierta a que se infiera su existencia aplicando las leyes habituales de conservación de energía-momento a lo que se ve después de una colisión entre las partículas que se observan y las WIMP. Sin embargo y como señalé, hasta el momento no se ha encontrado en el LHC ninguna evidencia de su existencia. En cualquier caso, el problema de qué es la materia oscura constituye un magnífico ejemplo de la confluencia entre física (la física de partículas elementales), cosmología y astrofísica, una muestra más de que a veces no es posible separar esos campos.

Teorías de cuerdas

Las teorías de cuerdas mencionadas a propósito de la supersimetría, aparecieron antes que esta. Según la teoría de cuerdas, las partículas básicas que existen en la naturaleza son en realidad filamentos unidimensionales (cuerdas extremadamente delgadas) en espacios de muchas más dimensiones que las tres espaciales y una temporal de las que somos conscientes; aunque más que decir «son» o «están constituidas» por tales cuerdas, habría que decir, que «son manifestaciones» de vibraciones de esas cuerdas. En otras palabras, si nuestros instrumentos fuesen suficientemente poderosos, lo que veríamos no serían «puntos» con ciertas características a los que llamamos electrón, quark, fotón o neutrino, por ejemplo, sino minúsculas cuerdas (cuyos cabos pueden estar abiertos o cerrados) vibrando.
La primera versión de teoría de cuerdas surgió en 1968, cuando Gabriele Veneziano (1968) introdujo un modelo de cuerda que parecía describir la interacción entre partículas sujetas a la interacción fuerte. El modelo de Veneziano servía únicamente para bosones; esto es, se trataba de una teoría de cuerdas bosónicas. Exigía, eso sí, un marco geométrico de 26 dimensiones. Fue Pierre Ramond (1971) quien, en el trabajo citado en la nota 2 introdujo el concepto de supersimetría, logró la primera extensión de la idea de Veneziano, de manera que incluyese también «modos de vibración fermiónicos», que «únicamente» exige espacios de diez dimensiones. Desde entonces, la teoría de cuerdas (o de supercuerdas), ha experimentado numerosos desarrollos: existen versiones diferentes, que parecen confluir en una teoría conocida como Teoría M, que posee 11 dimensiones.3 Sobre estas teorías, Stephen Hawking (2002, pp. 54-57) escribió en uno de sus libros, The Universe in a Nutshell:
Debo decir que, personalmente, me he resistido a creer en dimensiones adicionales. Pero como soy un positivista, la pregunta «¿existen realmente dimensiones adicionales?» no tiene ningún significado para mí. Todo lo que podemos preguntar es si los modelos matemáticos con dimensiones adicionales proporcionan una buena descripción del universo. Todavía no contamos con ninguna observación que requiera dimensiones adicionales para ser explicada. Sin embargo, hay la posibilidad de que podamos observarlas en el Gran Colisionador de Hadrones LHC de Ginebra. Pero lo que ha convencido a mucha gente, incluido a mí, de que deberíamos tomarnos seriamente los modelos con dimensiones adicionales es la existencia de una red de relaciones inesperadas, llamadas dualidades, entre dichos modelos. Estas dualidades demuestran que todos los modelos son esencialmente equivalentes; es decir, son tan solo aspectos diferentes de una misma teoría subyacente que ha sido llamada teoría M. No considerar esta red de dualidades como una señal de que estamos en buen camino sería como creer que Dios puso los fósiles en las rocas para engañar a Darwin sobre la evolución de la vida.
De nuevo vemos cuantas esperanzas se depositaron en el LHC, esperanzas, lo repito, que han resultado insatisfechas, lo que por supuesto no quiere decir que alguna teoría de cuerdas, formulaciones entre cuyas virtudes se encuentra la posibilidad de incluir la gravedad en un contexto cuántico, no sea cierta.4 Desde luego, poseen un atractivo al que los legos en ciencia no han sido, ni son, inmunes, como demuestra el éxito de libros de divulgación como el citado de Hawking o el de otro experto en este campo, Brian Greene (1999), The Elegant Universe. En la comunidad internacional de físicos (y matemáticos) existen dos grupos claramente diferenciados. Por un lado, los que piensan que solo en la teoría de cuerdas, en alguna de sus versiones, se encuentra la posibilidad de cumplir el largamente deseado sueño de unificar las cuatro interacciones en una gran síntesis cuántica, yendo así más allá del Modelo estándar y de la relatividad general, y que será posible encontrar formas de verificar experimentalmente esa teoría. Y por otro lado, quienes creen que la teoría de cuerdas recibe mucha más atención de la justificada, al ser una, por el momento al menos, incomprobable formulación más propia de la matemática que de la física (ciertamente, la matemática no solo ha dado mucho a las teorías de cuerdas, sino que también ha recibido mucho; no es casualidad, por ejemplo, que uno de los más destacados expertos en teoría de cuerdas, Edward Witten, recibiera en 1990 una de las Medallas Fields, el máximo reconocimiento para un matemático). Sobre cuál es el futuro de la teoría de cuerdas, lo mejor es que cite la conclusión de un libro reciente sobre ellas, debido a un físico especializado en ese campo, Joseph Conlon (2016, pp. 235-236), profesor de Física Teórica en la Universidad de Oxford:
¿Qué esconde el futuro para la teoría de cuerdas? Como ha descrito este libro, en 2015 la «teoría de cuerdas» existe como un gran número de separadas, cuasi-autónomas comunidades. Estas comunidades trabajan en una variedad de temas que van desde la matemática pura a la reunión fenomenológica de datos, y tienen diferentes estilos y emplean diferentes enfoques. Están en todas partes del mundo. Se trabaja en el tema en Filadelfia y en Pyonyang, en Israel y en Irán, por personas con todo tipo de opiniones, apariencia y formación. Lo que tienen en común es que extraen inspiración, ideas y técnicas de partes de la teoría de cuerdas.
Está claro que a corto plazo esta situación continuará. Algunas de esas comunidades florecerán y crecerán al ser revigorizadas con nuevos resultados, ya sean experimentales o teóricos. Otras se reducirán al agotar las vetas de las que se nutren. No soy capaz de decir qué ideas sufrirán uno u otro destino: un resultado experimental puede agotar viejos temas y crear nuevas comunidades en semanas.
Puedo decir con seguridad que como los resultados matemáticos son eternos, el papel de la teoría de cuerdas en matemáticas nunca desaparecerá. Puede reducirse o pasar de moda, pero siempre estará ahí. La teoría de cuerdas es una estructura consistente de algo, y esa estructura consistente conduce a una matemática interesante. Estas partes de la matemática son verdaderas en el mismo indudable sentido que el resto de la matemática es verdadero, y siempre lo serán independientemente de lo que cualquier experimento pueda en el futuro decir sobre las leyes de la física.
En este punto, Conlon se detenía para comparar la dimensión matemática de la teoría de cuerdas con otras teorías de la física, como la teoría cuántica de campos o la gravitación, señalando que «aunque pueden ser acomodadas al lenguaje de la física, en estilo y problemas están mucho más próximas a los problemas de la matemática. [Tratan] de cuestiones cuya naturaleza no es empírica y que no necesitan del experimento para que las respondamos». Ciertamente, es esta una afirmación que muchos, seguramente la inmensa mayoría de los físicos, no compartirán.
El ejemplo extraído de la teoría de cuerdas que Conlon presentaba a continuación era la «Correspondencia AdS/CFT», una formulación teórica publicada en 1998 por el físico argentino Juan Maldacena (1998) que, bajo determinadas condiciones que satisfacen lo que se denomina «principio holográfico» (el Universo entendido como una especie de proyección holográfica), ayuda a establecer correspondencias entre ciertas teorías de gravedad cuántica y cualquier teoría conforme de campos, así como con la cromodinámica cuántica (en 2015, el artículo de Maldacena era el más mencionado en la física de altas energías, con más de 10.000 citas). «La validez de la correspondencia AdS/CFT», afirmaba Conlon, «ha sido comprobada mil veces, pero la naturaleza de estas pruebas es de cálculo y no tienen que ver con la experiencia». Y continuaba:
¿Qué [tiene todo esto que decir] sobre este mundo? Es debido a la sorprendente corrección y coherencia de ideas teóricas de las cuerdas, como la AdS/CFT, que muchos piensan que la teoría de cuerdas también es probablemente una teoría correcta de la naturaleza […]
¿Sabremos alguna vez si la teoría de cuerdas es correcta? ¿Son válidas realmente las ecuaciones de la teoría de cuerdas para este universo en las escalas más pequeñas posibles?
Todos los que alguna vez han tenido que ver con el tema, tienen la esperanza de que algún día la teoría de cuerdas avance hacia los terrenos más luminosos de la ciencia, en los que conjeturas y refutaciones pugnan entre los teóricos y los experimentalistas como si fueran pelotas de ping-pong. Esto puede exigir avances teóricos; puede probablemente necesitar de avances tecnológicos; sin duda requiere de trabajo duro e imaginación.
El futuro, en definitiva, continúa abierto para la gran esperanza de una gran teoría que unifique la descripción de todas las interacciones y que, al mismo tiempo, permita avanzar en el conocimiento de la estructura más básica de la materia.

Entrelazamiento y criptografía

La mecánica cuántica, lo sabemos muy bien, desafía la imaginación humana. Con dificultad, por la fuerza de los hechos (sus continuos éxitos), nos terminamos acostumbrando, al menos la mayoría, a conceptos como indeterminismo (principio de incertidumbre; Heisenberg, 1927) o colapso de la función de ondas (que, como ya señalé, viene a decir que creamos la realidad cuando realizamos observaciones; hasta entonces, esa realidad no es sino el conjunto de todas las situaciones posibles), pero resulta que todavía hay más. Otra de esas consecuencias contraintuitivas de la física cuántica es el entrelazamiento, un concepto y término (Verschränkung en alemán; entanglement en inglés) introducido por Erwin Schrödinger en 1935 y vislumbrado también en el célebre artículo que Einstein publicó ese mismo año junto a Boris Podolsky y Nathan Rosen. Se trata de la propiedad de que dos partes de un sistema cuántico están en «comunicación» instantánea, sin importar la distancia que los separe, de manera que acciones sobre una parte tienen correlaciones simultáneas en la otra, una propiedad a la que Einstein se refirió en una carta a Max Born de 1947 como «acción a distancia fantasmagórica [spukhafte Fernwirkung]».
Pues bien, el entrelazamiento cuántico existe. Y a lo largo de la última década se han ido acumulando pruebas en este sentido. Una demostración particularmente sólida la proporcionaron en 2015 tres grupos de la Universidad de Delft, del National Institute of Standards and Technology de Estados Unidos y de la Universidad de Viena. En el artículo que publicaron (Herbst, Scheidl, Fink, Handsteiner, Wittmann, Ursin y Zeilinger, 2015) demostraron el entrelazamiento de dos, previamente independientes, fotones, separados 143 kilómetros, los correspondientes a la distancia entre los detectores que utilizaron, situados uno en la isla de La Palma y otro en Tenerife.
En la última década se han ido acumulando pruebas de que el entrelazamiento cuántico existe. Una demostración particularmente sólida la proporcionaron en 2015 tres grupos de la Universidad de Delft, del National Institute of Standards and Technology de Estados Unidos y de la Universidad de Viena
En un mundo como el actual, en el que las comunicaciones, vía internet y otros medios, penetran y condicionan todos los resquicios sociales, el entrelazamiento constituye un magnífico instrumento para hacer seguras esas transmisiones, mediante lo que se conoce como «criptografía cuántica». La base de este tipo de criptografía es un sistema cuántico formado, por ejemplo, por dos fotones, cada uno de los cuales se envía a un receptor diferente. Debido al entrelazamiento, si en uno de esos receptores se efectúa un cambio, este repercute instantáneamente, sin que exista vínculo entre ellos, en el otro. Y lo que es particularmente relevante para la seguridad de la transmisión: si alguien intenta intervenir en la comunicación, tendrá que hacer alguna medida y esta destruirá el entrelazamiento, introduciendo anomalías en el sistema que pueden ser detectadas.
Estrictamente, el intercambio cuántico de información se basa en lo que se conoce como QKD (del inglés Quantum Key Distribution [Distribución cuántica de claves]).5 Lo importante de este mecanismo es que se envía una clave cuántica que recibe el receptor entrelazado, que la utiliza para descifrar un mensaje: las dos partes del sistema comparten una clave secreta que luego utilizan para cifrar y descifrar mensajes. Los métodos tradicionales de encriptación se basan en algoritmos asociados a operaciones matemáticas complejas, que son difíciles de descifrar, pero desde luego no imposibles de interceptar, algo que sí es imposible, como he señalado, en la criptografía cuántica.
El entrelazamiento cuántico anuncia la posible creación de una «internet cuántica» global. No es, por consiguiente, sorprendente que estén muy interesados en la criptografía cuántica que utiliza QKD compañías de reciente creación como la suiza ID Quantique (se fundó en 2001 como una spin-off del Grupo de Física Aplicada de la Universidad de Ginebra), la estadounidense MagiQ o la australiana QuintessenceLabs, además de otras bien establecidas como HP, IBM, Mitsubishi, NEC, NTT y Toshiba.
Un problema con la criptografía cuántica es que si utiliza canales de comunicación clásicos, como la fibra óptica, la señal se debilita debido a que los fotones son absorbidos o difundidos por las moléculas de la fibra (el límite para enviar mensajes criptografiados cuánticamente es del rango de una o dos ciudades). La transmisión clásica sufre también este problema, que resuelve con repetidores, pero esto no es posible con su paralelo cuántico debido al hecho ya señalado de que una interacción intermedia destruye la unidad del mensaje. El vacío espacial, no las fibras del tipo que sean, es el mejor «cable» posible para la comunicación cuántica. Y se ha producido recientemente un avance significativo en este sentido: un equipo dirigido por Jian-Wei Pan, de la Universidad de Ciencia y Tecnología de China en Hefei, en colaboración con el de Anton Zeilinger (uno de los mejores especialistas en comunicación y computación cuánticas) en la Universidad de Viena, consiguieron enviar mensajes cuánticos entre Xinglong y Graz —separadas por una distancia de 7.600 kilómetros— utilizando como intermediario un satélite chino, Micius, que fue puesto en órbita, a una altura de 500 kilómetros, en agosto de 2016.6 Para ampliar su rango de acción, se utilizaron sistemas de fibra óptica que unían Graz con Viena, y Xinglong con Pekín; de esta manera, se estableció una videoconferencia segura entre las Academias de Ciencias China y de Viena que duró 75 minutos y exigió dos gigabytes de datos, una capacidad similar a la que empleaban los teléfonos celulares en la década de 1970. Semejantes logros preludian el establecimiento de redes de satélites que permitirán comunicaciones seguras de todo tipo (llamadas telefónicas, correos electrónicos, faxes). Un mundo nuevo, en definitiva, al que más tarde se unirá también otro instrumento relacionado íntimamente con los fenómenos cuánticos mencionados, la computación cuántica, en la que el principio de superposición cuántico desempeña un papel central.
El entrelazamiento cuántico anuncia la posible creación de una «internet cuántica» global, por lo que no es sorprendente que compañías como HP, IBM, Mitsubishi, NEC, NTT y Toshiba estén muy interesadas en la criptografía cuántica que utiliza QKD
Mientras que en la computación clásica la información se almacena en bits (0, 1), en la cuántica la base son los qubits (quantum bits; cúbits en castellano). Existen muchos sistemas físicos que pueden actuar como cúbits; por ejemplo, fotones, electrones, átomos y pares de Cooper. El principio de superposición cuántico mencionado significa que, si pensamos por ejemplo en fotones, estos pueden estar polarizados horizontal o verticalmente, pero también en alguna combinación entre ambos estados. La consecuencia es que se tiene un número más grande de unidades para procesar-almacenar en una máquina de computación, con las que, además, es posible realizar varias operaciones a la vez, esto es, operar en paralelo (todo bit tiene que ser bien 1 o 0, mientras que un cúbit puede ser 1 o 0 al mismo tiempo, lo que permite realizar múltiples operaciones a la vez). Evidentemente, cuanto mayor sea el número de cúbits que se empleen, mayor será la capacidad de cálculo del correspondiente computador cuántico: se cree que el número de cúbits necesarios para superar a los computadores clásicos es 50, un umbral que hace poco IBM ha anunciado ha superado… pero solamente durante unos pocos nanosegundos. Y es que un gran problema es mantener los cúbits entrelazados (esto es, no perturbados) durante un tiempo suficiente, algo muy complicado debido a que las partículas subatómicas son inherentemente inestables. Es por esto, para evitar lo que se denomina «decoherencia», que entre los principales campos de investigación en la computación cuántica se encuentre la búsqueda de desarrollar modos de minimizar los efectos perturbadores de la luz, sonido, movimiento o temperatura, lo que hace que muchos computadores cuánticos se construyan dentro de cámaras de vacío a muy bajas temperaturas. Queda todavía mucho por hacer, pero por razones obvias empresas y gobiernos (a la cabeza de estos en la actualidad China) se esfuerzan en avanzar en el campo de la computación cuántica: Google y NASA, por ejemplo, están utilizando una computadora cuántica fabricada por una empresa canadiense, D-Wave Systems, Inc, la primera en comercializar este tipo de máquinas, que puede realizar algunos tipos de operaciones a una velocidad 3.600 veces superior a la del supercomputador digital más rápido del mundo.
Otra posibilidad asociada al entrelazamiento cuántico es el del teletransporte, que, según la definición de Ignacio Cirac (2011, p. 478), consiste en «la transferencia de un estado cuántico intacto de un lugar a otro, realizada por un remitente que no conoce ni el estado a ser teletransportado ni la localización del receptor al que debe llegar». Se han realizado ya experimentos de teletransporte con fotones, iones y átomos, pero aún queda un largo camino por recorrer.

La física en un mundo interdisciplinar

En las secciones precedentes me he ocupado de desarrollos que han tenido lugar en lo que podríamos denominar «física más fundamental», pero la física no se limita, en modo alguno, al estudio de los componentes «últimos» (?) de la naturaleza, de la unificación de las fuerzas, o de las aplicaciones de los principios más básicos de la física cuántica. La física está constituida por un amplio y variado conjunto de campos —materia condensada, bajas temperaturas, nuclear, óptica, electromagnetismo, fluidos, termodinámica…—, y en todas ellas se ha continuado avanzando en la última década, avances que, sin duda, proseguirán en el futuro. Sería imposible referirme a todos, pero sí quiero señalar un campo al que la física tiene mucho que aportar: la interdisciplinariedad.
La naturaleza, recordemos, es una y no conoce fronteras; somos nosotros, por necesidades prácticas los que las hemos establecido, creando disciplinas que llamamos física, química, biología, matemáticas, geología, etcétera. Pero al ir avanzando en nuestro conocimiento de la naturaleza, se hace cada vez más necesario ir más allá de esas fronteras, unir disciplinas. Es imprescindible que se formen grupos de especialistas —no necesariamente muy numerosos— en disciplinas científicas y tecnológicas diferentes, que, provistos de los suficientes conocimientos generales como para poder entenderse entre sí, colaboren en resolver nuevos problemas, problemas que por su propia naturaleza necesitan de esa colaboración. Y la física no puede faltar en esos grupos. Encontramos manifestaciones de interdisciplinariedad en prácticamente todos los ámbitos. En, por ejemplo, los procesos que subyacen en los fenómenos atmosféricos, que involucran todo tipo de ciencias: intercambios energéticos y gradientes de temperaturas, radiación que se recibe del Sol, reacciones químicas, composición de la atmósfera, desplazamiento de corrientes atmosféricas y marinas, biología animal y de plantas para entender el comportamiento y reacciones de especies animales y vegetales, procesos industriales, modos y mecanismos sociales de transporte y un largo etcétera. La arquitectura y el urbanismo nos proporcionan también evidencias en el mismo sentido. Para el cambio climático, las limitaciones energéticas, la contaminación atmosférica o la aglomeración en gigantescas urbes, es imperativo ahondar en la colaboración entre arquitectura, urbanismo, ciencia y técnica, sin olvidar que también habrá que tener en cuenta otras disciplinas, como la psicología y la sociología, vinculadas al estudio del carácter de los humanos. Debemos construir edificios que minimicen las pérdidas de energía, procurando aproximarse a la autosuficiencia energética, a la sostenibilidad, una de las palabras de moda en los últimos años. Afortunadamente, junto a materiales con novedosas propiedades térmicas y acústicas, disponemos de elementos, frutos también de la ciencia y la tecnología, como paneles solares, y también la posibilidad del reciclaje de desechos orgánicos.
Un ejemplo particularmente importante, en el que, además, la presencia de la física es manifiesta, se encuentra el denominado «Proyecto del Mapa de la Actividad Cerebral», que el entonces presidente de Estados Unidos, Barack Obama, presentó públicamente el 2 de abril de 2013. Se trata de un proyecto de investigación —sucesor en más de un aspecto del gran Proyecto Genoma Humano, que logró cartografiar los genes que componen nuestros cromosomas— destinado a estudiar las señales enviadas por las neuronas y a determinar cómo los flujos producidos por esas señales a través de las redes neuronales se convierten en pensamientos, sentimientos y acciones. De la importancia de este proyecto, que se enfrenta a uno de los mayores retos de la ciencia contemporánea, como es el comprender de manera global el cerebro humano, y cómo este tiene conciencia de sí mismo, caben pocas dudas. Al defenderlo, Obama mencionó su esperanza de que con él se abriría también el camino para desarrollar tecnologías esenciales para combatir enfermedades como el alzhéimer y el parkinson, al igual que para establecer nuevas terapias para diversas enfermedades mentales, además de servir de ayuda en el avance de la inteligencia artificial.
Basta con leer el encabezamiento del artículo en el que un grupo de científicos presentaron y defendieron este proyecto para darse cuenta de la naturaleza interdisciplinar del mismo y la presencia en él de la física. Publicado en 2012 en la revista Neuron, el artículo se titula «Proyecto de mapa de actividad cerebral y el reto de la conectómica funcional» y está firmado por seis científicos: Paul Alivisatos, Miyoung Chun, George Church, Ralph Greenspan, Michael Roukes y Rafael Yuste (2012). Los propios lugares de trabajo de estos autores revelan la naturaleza plural del proyecto: División de Ciencia de Materiales y Departamento de Química de Berkeley (Alivisatos), Departamento de Genética de Harvard (Church), Instituto Kavli del Cerebro y de la Mente (Greenspan), Instituto Kevin de Nanociencia y Departamento de Física del California Institute of Technology (Roukes) y Departamento de Ciencias Biológicas de Columbia (Yuste).
La naturaleza es una y no conoce fronteras; somos nosotros los que las hemos establecido, creando disciplinas que llamamos física, química, biología, matemáticas, geología… Pero al ir avanzando en nuestro conocimiento de la naturaleza, se hace cada vez más necesario ir más allá de esas fronteras, unir disciplinas
Adviértase la presencia de la nanociencia y nanotecnología. El mundo atómico es uno de los lugares en donde confluyen las ciencias de la naturaleza y las tecnologías que se basan en ellas, ya que, a la postre, los átomos y las unidades (protones, neutrones, electrones, quarks…) que los forman constituyen los «ladrillos del mundo». Ahora bien, hasta hace relativamente poco tiempo no se había desarrollado un campo de investigación —me estoy refiriendo a la nanotecnología y nanociencia— en el que semejante base común manifestase tal potencialidad de aplicaciones en dominios disciplinares diferentes. Estos campos de investigación y desarrollo deben su nombre a una unidad de longitud, el nanómetro (nm), la milmillonésima parte del metro. La nanotecnociencia engloba cualquier rama de la tecnología o de la ciencia que investiga o hace uso de nuestra capacidad para controlar y manipular la materia a escalas comprendidas entre 1 y 100 nm. Los avances logrados en el mundo de la nanotecnociencia han permitido desarrollar nanomateriales y nanodispositivos que ya se están utilizando en ámbitos diversos. Así, es posible emplear una disolución de nanopartículas de oro de unos 35 nm. de diámetro para localizar y detectar tumores cancerígenos en el cuerpo, puesto que hay una proteína presente en las células cancerígenas que reacciona con los anticuerpos adheridos a esas nanopartículas, permitiendo localizar las células malignas. De hecho, la medicina es un campo particularmente adecuado para la nanotecnociencia, y así ha surgido la nanomedicina, que, con el afán humano de compartimentar, se divide con frecuencia en tres grandes áreas: el nanodiagnóstico (desarrollo de técnicas de imagen y de análisis para detectar enfermedades en sus estadios iniciales), la nanoterapia (búsqueda de terapias a nivel molecular, yendo directamente a las células o zonas patógenas afectadas) y la medicina regenerativa (crecimiento controlado de tejidos y órganos artificiales).
BBVA-OpenMind-ilustración-SANCHEZ-RON-Cuando-el-pasado-se-hace-futuro_la-fisica-siglo-xxi-Imagen de microscopio electrónico de barrido de las nanoestructuras formadas en superficies de vanadio y óxido de vanadio por un haz láser de dióxido de carbono. Dichas estructuras tienen aplicaciones variadas en electrónica y nanotecnología
Imagen de microscopio electrónico de barrido de las nanoestructuras formadas en superficies de vanadio y óxido de vanadio por un haz láser de dióxido de carbono. Dichas estructuras tienen aplicaciones variadas en electrónica y nanotecnología
Siempre es difícil y arriesgado predecir el futuro, pero no tengo duda de que ese futuro deparará todo tipo de desarrollos, sorpresas inimaginables las denominaríamos hoy. Puestos a imaginar una de esas «sorpresas», me remitiré a una posibilidad que Freeman Dyson (2011), siempre amigo de las predicciones, planteó hace poco. Es lo que bautizó como «radioneurología». Se trata de la posibilidad de que al avanzar en el conocimiento de funcionamiento del cerebro, sea posible observar detalladamente y, utilizando millones de sensores microscópicos, convertir en señales electromagnéticas los intercambios que se producen entre las neuronas y que dan lugar a pensamientos, sensaciones, etcétera. Esas señales podrían ser recibidas por otro cerebro, provisto de sensores similares, y reconvertirlas a los pensamientos del cerebro emisor. Sería, ¿será?, un tipo de radiotelepatía.

Epílogo

Vivimos a caballo entre el pasado y el futuro, con el presente escapándosenos constantemente de las manos, como una sombra evanescente. El pasado nos da recuerdos y conocimientos adquiridos, comprobados o por comprobar, un tesoro inapreciable que nos facilita el camino a seguir. Ahora bien, en realidad no sabemos hacía dónde nos conducirá ese camino en el futuro, qué características nuevas aparecerán en él, si será fácilmente transitable o no. Lo que es seguro es que será diferente y muy interesante. Y la física, al igual que las demás ciencias, desempeñará un papel importante, fascinante, en la configuración de ese futuro.

Notas

Bibliografía

—Abbott, B. P. et al. (2016): «Observation of gravitational waves from a binary black hole merger», en Physical Review Letters, n.º 116, 061102.
—(2017): «Observation of gravitational waves from a binary neutron star inspiral», en Physical Review Letters, n.º 119, 161101.
—Alivisatos, Paul; Chun, Miyoung; Church, George; Greenspan, Ralph; Roukes, Michael y Yuste, Rafael (2012): «The brain activity map project and the challenge of functional connectomics», en Neuron, n.º 74, pp. 970-974.
—Barret, Jeffrey A. y Byre, Peter (eds.) (2012): The Everett Interpretation of Quantum Mechanics, Princeton, Princeton University Press.
—Bernstein, Jeremy (2012a):
«A palette of particles», American Scientist, vol. 100, n.º 2, marzo-abril, pp. 146-155; reproducido en Bernstein (2012 b).
—(2012b): «Un abanico de partículas», en Investigación y Ciencia, n.º 432, septiembre, pp. 24-33.
—Bueno, Pablo; Cano, Pablo A.; Goelen, Frederik; Hertog, Thomas y Vercnocke, Bert (2018): «Echoes of Kerr-like wormholes», en Physical Review D, n.º 7, 024040.
—Chiao, Raymond Y.; Cohen, Marvn L.; Legget, Anthony J.; Phillips, William D. y Harper, jr., Charles L. (eds.) (2011): Visions of Discovery, Cambridge, Cambridge University Press.
—Cirac, J. Ignacio (2011): «Quantum Information», en R. Y. Chiao; M. Cohen; A. J. Legget; W. D. Phillips y C. L. Harper, Jr. (eds.), Visions of Discovery, Cambridge, Cambridge University Press, pp. 471-495.
—Conlon, Joseph (2016): Why String Theory?, Boca Raton, CRC Press.
—DeWitt, Bryce (1970): «Quantum mechanics and reality», en Physics Today, n.º 23, septiembre, pp. 30-35.
—DeWitt, Bryce y Graham, Neill (eds.) (1973): The Many-Worlds Interpretation of Quantum Mechanics, Princeton, Princeton University Press.
—DeWitt-Morette, Cécile (2011): The Pursuit of Quantum Gravity. Memoirs of Bryce DeWitt from 1946 to 2004, Heidelberg, Springer.
—Dyson, Freeman (2011): «The future of science», en Chiao, R. Y.; Cohen, M.; Legget, A. J.; Phillips, W. D. y Harper, C. L., Jr. (eds.), Visions of Discovery, Cambridge, Cambridge University Press, pp. 39-54.
—Einstein, Albert y Rosen, Nathan (1937): «On gravitational waves», en Journal of the Franklin Institute, n.º 223, pp. 43-54.
—Englert, François y Brout, Robert (1964): «Broken symmetry and the mass of gauge vector mesons», en Physical Review Letters, n.º 13, pp. 321-323.
—Everett, Hugh (1957): «“Relative state” formulation of quantum mechanics», en Reviews of Modern Physics, n.º 29, pp. 454-462.
—Gell-Mann, Murray (1995): El quark y el jaguar, Barcelona, Tusquets; edición original en inglés de 1994.
—Greene, Brian (1999): The Elegant Universe, Nueva York, W. W. Norton; versión en castellano en Crítica, 2001.
—Gross, David J. (2011): «The major unknowns in particle physics and cosmology», en R. Y. Chiao, M. Cohen, A. J. Legget, W. D. Phillips y C. L. Harper, Jr. (eds.), Visions of Discovery, Cambridge, Cambridge University Press, pp. 152-170.
—Guralnik, Gerald S.; Hagen, Carl R. y Kibble, Thomas W. (1964): «Global conservation laws and massless particles», en Physical Review Letters, n.º 13, pp. 585-587.
—Hawking, Stephen (2002): El universo en una cáscara de nuez, Barcelona, Crítica; edición original en inglés de 2001.
—Herbst, Thomas; Scheidl, Thomas; Fink, Matthias; Handsteiner, Johannes; Wittmann, Bernhard; Ursin, Rupert y Zeilinger, Anton (2015): «Teleportation of entanglement over 143 km», en Proceedings of the National Academy of Sciences, n.º 112, 14202-14205.
—Higgs, Peter W. (1964a): «Broken symmetries, massless particles and gauge fields», en Physics Review Letters, n.º 12, pp. 132-201.
—(1964b): «Broken symmetries and the masses of Gauge bosons», en Physical Review Letters, n.º 13, pp. 508-509.
—Maldacena, Juan M. (1998): «The Large N limit of superconformal field theories and supergravity», en Advances in Theoretical and Mathematical Physics, n.º 2, pp. 231-252.
—Mather, John et al. (1990): «A preliminary measurement of the Cosmic Microwave Background Spectrum by the Cosmic Background Explorer (COBE) satellite», en Astrophysical Journal, n.º 354, L-37-L40.
—Ramond, Pierre (1971): «Dual theory for free fermions», en Physical Review D, n.º 3, pp. 2.415-2.418.
—Sheng-Kai, Liao et al. (2018): «Satellite-relayed intercontinental Quantum Network», en Physical Review Letters, n.º 120, 030501.
—Smoot, George et al. (1992): «Structure of the COBE differential microwave radiometer first year maps», en Astrophysical Journal, n.º 396, L1-L5.
—Thorne, Kip S. (1994): Black Holes and Time Warps, Nueva York, W. W. Norton; traducción al castellano en Thorne (1995).
—(1995): Agujeros negros y tiempo curvo, Barcelona, Crítica.
—Veneziano, Gabriele (1968): «Construction of a crossing-symmetric, Regge-behaved amplitude for Linearly Rising Trajectories», en Nuovo Cimento A, n.º 57, pp. 190-197.
—Weinberg, Steven (2011): «Particle physics, from Rutherford to the LHC», en Physics Today, vol. 64, n.º 8, agosto, pp. 29-33.
—Wess, Julius y Zumino, Bruno (1974): «Supergauge transformations in four dimensions», en Physics Letters B, n.º 70, pp. 39-50.
—Witten, Edward (2003): «The past and future of string theory», en G. W. Gibbons, E. P. S. Shellard y S. J. Rankin (eds.), The Future of Theoretical Physics and Cosmology. Celebrating Stephen Hawking’s 60 Birthday, Cambridge, Cambridge University Press, pp. 455-462.
—Zeilinger, Anton (2011): «Quantum entanglement: from fundamental questions to quantum communication and quantum computation and back», en Chiao, R. Y.; Cohen, M.;
Legget, A. J.; Phillips, W. D. y Harper,C. L., Jr. (eds.), Visions of Discovery, Cambridge, Cambridge University Press, pp. 558-571.
-
Sánchez Ron, J. M., "Cuando el pasado se hace futuro: la física en el siglo XXI", en ¿Hacia una nueva Ilustración? Una década trascendente, Madrid, BBVA, 2018. 

 

No hay comentarios: