traductor

lunes, 31 de octubre de 2022

El gran debate filosófico del siglo XX sigue abierto desde que Einstein rechazara el antirrealismo y la interpretación de Copenhague

 

"La teoría cuántica es la teoría científica mejor confirmada y más exitosa que tenemos. Casi toda la tecnología actual más relevante se basa en ella. Ha sido, además, desde sus comienzos intrigante para los filósofos y para los físicos con vocación teórica, porque plantea problemas de gran envergadura y profundidad, que sus creadores se tomaron muy en serio. Se dice que Bohr estuvo garabateando en su lecho de muerte una respuesta a la última objeción de Einstein, quien nunca aceptó que la teoría cuántica fuese una teoría acabada."Antonio Diéguez

El gran debate filosófico del siglo XX sigue abierto desde que Einstein rechazara el antirrealismo y la interpretación de Copenhague 

Suelo decirles a los alumnos de mis clases de filosofía de la ciencia que uno de los mayores debates científico-filosóficos del siglo XX casi nunca se les menciona con algún detalle a los estudiantes de filosofía (y hasta donde sé tampoco a los de ciencias). Me refiero al debate sobre la naturaleza de la realidad y los fundamentos de la teoría cuántica que se inició en 1927 en el Congreso Solvay de Bruselas y perdura hasta nuestros días.

Los dos grandes protagonistas del mismo fueron Albert Einstein y Niels Bohr, pero desde luego no fueron los únicos intervinientes. Al lado antirrealista, que era el de Bohr, se sumaron también Werner Heisenberg, Max Born y John von Neuman, entre otros, y en el lado realista que era el de Einstein, se situaron, aunque de forma más diversa, Erwin Schrödinger, Louis de Broglie, David Bohm, John Bell y Hugh Everett. Fue un debate que alcanzó en ocasiones una intensidad inusitada e incluso una sorprendente acritud y enconamiento, que llegó al extremo de arruinar algunas carreras prometedoras.

Su trascendencia cultural fue mucho mayor de lo que tiende a pensarse, y, si bien se mira, no se comprenden cabalmente algunos acontecimientos del siglo XX, no solo en el ámbito científico y filosófico, sin conocer sus entresijos.

Realistas versus antirrealistas: algo más que un simple debate científico

La teoría cuántica es la teoría científica mejor confirmada y más exitosa que tenemos. Casi toda la tecnología actual más relevante se basa en ella. Ha sido, además, desde sus comienzos intrigante para los filósofos y para los físicos con vocación teórica, porque plantea problemas de gran envergadura y profundidad, que sus creadores se tomaron muy en serio. Se dice que Bohr estuvo garabateando en su lecho de muerte una respuesta a la última objeción de Einstein, quien nunca aceptó que la teoría cuántica fuese una teoría acabada.

Solvay Conference 1927
Congreso Solvay celebrado en 1927

En esencia, el debate filosófico sobre la "realidad" cuántica no es sino la continuación de un viejo debate sobre la forma más adecuada de entender las teorías científicas y su relación con el mundo que tratan de conocer. Hay dos posiciones básicas. Según los realistas, las teorías científicas tienen como objetivo averiguar, aunque sea siempre de forma falible, qué entidades y procesos hay en el mundo, qué propiedades tienen y por qué cambian de un modo definido. Esas entidades, procesos y propiedades existen en el mundo con independencia de cualquier observador.

Consideran, además, que las evidencias obtenidas mediante la observación y los experimentos pueden aportar elementos de juicio para aceptar la verdad (aproximada) de las teorías exitosas.

Los antirrealistas ven las cosas de otro modo. Consideran que el papel de las teorías científicas consiste en calcular, predecir y controlar una forma simple y fructífera las manifestaciones observables de la naturaleza (lo que los clásicos llamaban “salvar los fenómenos”). Las teorías son, pues, herramientas conceptuales para manejar el mundo y no deben interpretarse como guías ontológicas, es decir, no deben tomarse como un catálogo acerca del mobiliario del universo, y mucho menos en lo que se refiere a las entidades inobservables. La evidencia empírica sólo nos permite afirmar la adecuación empírica de la teoría, es decir, solo podemos afirmar que la teoría ha encajado bien hasta el momento con los fenómenos conocidos y, particularmente, que ha resultado efectiva en su capacidad de predicción.

La interpretación de Copenhague, el origen de la discordia

La teoría cuántica constituye un desafío para las posiciones realistas si la tomamos en la interpretación considerada como estándar, la interpretación de Copenhague, desarrollada fundamentalmente por Bohr, Heisenberg y Born. Una interpretación cuyo contenido preciso, sin embargo, sigue siendo objeto de controversia entre físicos e historiadores. De hecho, Bohr y Heisenberg discreparon en puntos importantes.

También en cuanto a sus planteamientos filosóficos. Bohr fue una especie de fenomenista kantiano, mientras que Heisenberg estuvo más cercano al positivismo. En lo que ambos coincidían era en su instrumentalismo.

Bohr Antirrealismo
Bohr, un tipo poco realista.

Para empezar, en dicha interpretación la teoría no atribuye valores definidos a ciertas propiedades de los sistemas físicos que estudia (por ejemplo, la posición y la velocidad de un electrón) hasta tanto no hayan sido observados o medidos. Tales propiedades sólo adquieren un valor real en el proceso de medición, y siempre dentro del contexto de la completa situación experimental.

Por tanto, no tiene sentido hablar de ellas como si estuvieran definidas con independencia del acto de medición y este nos diera únicamente ese valor previo desconocido. Su “realidad”, el valor concreto de cada una de ellas, se adquiere precisamente en el conjunto del dispositivo experimental montado para observarlas. Antes de ese momento, el sistema cuántico evoluciona (de forma determinista) en una superposición de estados, es decir, en una combinación de todos los valores posibles para cada una de esas propiedades.

La evolución de este sistema es descrita por una ecuación propuesta por Schrödinger. En ella se describe la evolución en el tiempo de la función de onda Ψ, que a su vez es la representación del estado del sistema cuántico. Inmediatamente después de que Schrödinger la propusiera, Max Born proporcionó una interpretación probabilística de la función de onda. De acuerdo con Born, el cuadrado del valor absoluto de Ψ nos daría la probabilidad de obtener ciertos resultados en las mediciones. La función de onda no representaría, por tanto, ninguna onda real, sino que es, en definitiva, una herramienta para calcular la probabilidad de obtención de los resultados experimentales.

Veámoslo con un ejemplo. Los electrones tienen una propiedad conocida como spin o momento angular intrínseco, que puede tomar los valores de +1/2 y –1/2 (en un sentido laxo se puede decir que esto es algo así como si el electrón estuviera girando hacia la derecha o hacia la izquierda). Antes de que alguien lo observe, el electrón está un estado de “mezcla” o superposición de los dos valores; pero una vez que se mide el spin de ese electrón, el acto de medición hace que la función de onda “colapse” y solo se obtiene uno de los dos resultados posibles.

La reducción a un solo estado se conoce como el ‘colapso de la función de onda’. La transición instantánea, no regida ya por la ecuación de Schrödinger, de un sistema evolucionando de forma determinista en una superposición de estados a un sistema que adquiere de forma indeterminista uno de los estados posibles constituye ‘el problema de la medida’. El problema no es otro que el de explicar cómo y por qué se produce este extraño salto. ¿Qué es exactamente lo que cambia? ¿Ha de implicar el proceso a un observador humano?

El gato de Schrödinger y la superposición de estados

Schrodingers Cat Svg

Todos hemos oído hablar alguna vez del gato de Schrödinger. Se trata precisamente de un experimento mental formulado por Schrödinger para mostrar la situación paradójica a la que puede conducir la idea de la superposición de estados.

Un gato está dentro de una caja cerrada en cuyo interior hay un dispositivo que deja escapar un veneno en caso de que se produzca la desintegración de un átomo de material radioactivo (un fenómeno cuántico). La desintegración será detectada por un contador Geiger conectado a un martillo que romperá el tarro del veneno.

La probabilidad de que se produzca esa desintegración en un tiempo determinado sería del 50%. Mientras no abrimos la caja, el átomo está en una superposición de estados desintegrado/no-desintegrado y solo adquiere definitivamente una de estas dos condiciones una vez que la abrimos y, mediante esa acción, al observar el resultado, fijamos para siempre una de las dos posibilidades. Por la misma razón, el gato permanecería antes de que alguien lo observara en una superposición de estados vivo/muerto, puesto que su vida dependía del estado del átomo en cuestión, y sólo adquiriría uno de esos dos estados en el momento de la observación.

Probablemente a su pesar, Schrödinger tenía razón: las situaciones contraintuitivas que permite la mecánica cuántica no quedan confinadas al mundo microscópico, sino que pueden alcanzar al menos a ciertos niveles del macroscópico

Schrödinger quería poner de manifiesto con este experimento mental que las paradojas surgidas de las superposiciones de estados en los sistemas microfísicos no estaban confinadas en el ámbito atómico y subatómico, sino que podían ser trasladadas al ámbito macroscópico, donde el choque con el sentido común se hacía más inquietante y resultaba más patente, digámoslo así, lo absurdo de la interpretación propuesta sobre el problema de la medida.

El tiempo nos ha mostrado que aquello no resultó un mero juego intelectual. En la actualidad se han conseguido obtener “gatitos” de Schrödinger en el laboratorio. Son objetos que han sido puestos en una superposición de estados. En 1996 se consiguió hacerlo con un ión de berilio. Después se ha conseguido con moléculas cada vez más grandes. En 2019 se hizo con una molécula de oligoporfirina, que tiene más de 2000 átomos.

Más recientemente se ha logrado el entrelazamiento de estados en objetos macroscópicos, aunque de pequeño tamaño. El entrelazamiento es una superposición de estados que implica a dos o más sistemas cuánticos que han estado en interacción.

Todo esto sería la prueba de que, probablemente a su pesar, Schrödinger tenía razón: las situaciones contraintuitivas que permite la mecánica cuántica no quedan confinadas al mundo microscópico, sino que pueden alcanzar al menos a ciertos niveles del macroscópico. Él lo planteó como una forma de mostrar que la interpretación de Copenhague no podía ser correcta, pero lo que se ha visto es que en realidad no había nada absurdo o imposible en la situación (aunque eso no significa que la Interpretación de Copenhague sea la correcta).

Una de las explicaciones más aceptadas actualmente de por qué esto no se da en niveles mayores es la “decoherencia”. Según esta idea, la interacción con el entorno macroscópico, como sucede en un proceso de medición mediante un dispositivo experimental, rompe la coherencia de los estados cuánticos y destruye la manifestación de su superposición. Los estados clásicos (vivo o muerto) serían los más robustos en dicha interacción y son los que se manifiestan.

Como es fácil entender, el coste epistémico de aceptar todo esto es enorme, puesto que entonces habría que admitir que la teoría cuántica no habla sobre objetos y propiedades reales, sino solo sobre los resultados de nuestras mediciones, o más en concreto, sobre las probabilidades de obtener tales resultados si decidimos medir un sistema.

¿En qué consiste exactamente la interpretación de Copenhague?

Heisenbergbohr
Heisenberg y Bohr en 1934

Los defensores de la interpretación de Copenhague, aunque variaron en sus posiciones a lo largo del tiempo, se manifestaron en este sentido. Así, Heisenberg escribe:

“Las leyes naturales que se formulan matemáticamente en la teoría cuántica no se refieren ya a las partículas elementales en sí, sino a nuestro conocimiento de dichas partículas.”

Por su parte, Bohr mantuvo una posición no demasiado clara que sigue siendo hoy objeto de análisis, pero en cierto momento afirmó:

“No hay un mundo cuántico. Hay sólo abstractas descripciones físicas cuánticas. Es equivocado pensar que la tarea de la física es averiguar cómo es la naturaleza. La física se refiere a lo que nosotros podemos decir de ella”.

Pero precisemos en qué consiste la interpretación de Copenhague. Aunque es difícil señalar un conjunto definido de tesis como constitutivas de esta interpretación, dado que hubo más desacuerdos en puntos concretos de los que se dejaban traslucir, se puede decir que esta interpretación afianza las siguientes ideas, que desde entonces se convierten en la forma ortodoxa y casi general de entender la teoría cuántica:

  1. La función de onda es una herramienta de cálculo. Lo que el físico hace es construir una función de onda a partir de ciertas observaciones, y esa función es meramente un predictor de las probabilidades de los resultados de posteriores mediciones.
  2. El estado de un sistema entre dos observaciones no puede ser descrito. Carece de sentido en la teoría.
  3. Los conceptos clásicos (onda, corpúsculo, etc.) son imprescindibles en dicha descripción. Las descripciones en términos de onda y las descripciones en términos de partículas se refieren aspectos complementarios de los fenómenos microfísicos. Las “contradicciones” entre ambos aspectos son irreductibles (Principio de Complementariedad de Bohr).
  4. Los sistemas cuánticos tienen una naturaleza tanto ondulatoria como corpuscular, aunque la manifestación de una u otra dependerá del dispositivo experimental empleado en su medición.
  5. El colapso de la función de onda no es más que la determinación por parte del dispositivo de medida (debido a su carácter macroscópico) de uno de los posibles resultados de esa medida. Es la actualización de una potencialidad, en la explicación cuasi-aristotélica que ofrece Heisenberg.
  6. No puede trazarse una frontera precisa entre el dispositivo experimental y el sistema medido.

Piezas centrales de esta interpretación son los puntos 3 y 4, es decir, el Principio de Complementariedad y sus consecuencias. Los conceptos clásicos ondulatorios y corpusculares han de ser empleados en la explicación de los fenómenos cuánticos tal como nuestros instrumentos los detectan y miden, pero –y esto es lo decisivo– no son aplicables a los sistemas cuánticos en sí mismos, ya que, como señalamos antes, sobre determinadas características sólo se puede decir que adquieren “realidad” en el conjunto del dispositivo experimental, el cual solo permitirá medir un tipo de esas características en exclusión de otros.

Esta idea, unida a la interpretación probabilística de la función de onda que da Born, son los elementos que chocan más frontalmente con una interpretación realista de la teoría cuántica.

Esa es la razón principal por la que Einstein no aceptó ninguno de estos dos elementos. Sus convicciones realistas le llevaban a pensar que la mecánica cuántica, tal como estaba formulada, no podía ser la última palabra en la descripción de la naturaleza. Además, el papel que le concedía al azar, y, por tanto, su renuncia al determinismo, eran para él un motivo para creer que no era una teoría completa y que tarde o temprano sería sustituida por otra teoría que recuperara el determinismo y el realismo.

Einstein Buena
Einstein, siempre con lo real.

Añadamos a esto que en ocasiones se incluye en la interpretación de Copenhague elementos que algunos de los propios artífices de la interpretación no aceptaron. En su obra Fundamentos matemáticos de la mecánica cuántica, publicada en 1932, John von Neumann proporcionó una formalización axiomática de la teoría e hizo una interpretación del problema de la medida que ejerció gran influencia. Consideraba necesario otorgar un papel destacado al observador en el acto de medición: el simple conocimiento por parte de un observador cambia el estado de un sistema físico.

Con ello, la mente del observador, incluso podría decirse que su mera consciencia, adquiere una función central en el proceso. Esto desviará la interpretación de la teoría hacia el idealismo. Bohr y sus seguidores no aceptaron nunca este papel decisivo de la consciencia. Para ellos, era el dispositivo experimental el que colapsaba la función de onda.

En esa misma obra, von Neumann ofreció una demostración, que todos aceptaron, de que no eran posibles teorías de “variables ocultas” en mecánica cuántica, es decir, teorías que pretendieran restaurar el determinismo y el realismo en la física bajo el supuesto de que la teoría no recogía todas las variables pertinentes. Esto se interpretó como un respaldo definitivo de la interpretación de Copenhague. Hoy sabemos que la pretendida demostración contenía un supuesto injustificado que la invalidaba, pues asumía de forma implícita que solo las teorías equivalentes a la formulación vigente de la mecánica cuántica eran aceptables.

Años después, en 1945, David Bohm pudo elaborar, de hecho, una teoría de variables ocultas. Feyerabend ponía este episodio como un ejemplo del modo en que el argumento de autoridad funciona en la ciencia. Sencillamente, muy pocos físicos eran capaces de entender plenamente la demostración, pero todos aceptaban la palabra de Bohr al respecto. La primera persona en darse cuenta del error, ya en 1935, fue una mujer, matemática y filósofa: Grete Hermann. Pero su artículo fue completamente ignorado. Era mujer, no era conocida y el artículo se publicó en una revista no muy relevante.

Hubo que esperar hasta 1966 a que John Bell mostrara de nuevo las deficiencias en la demostración de von Neumann. Si se hubiera atendido a la refutación de Hermann, la historia de las discusiones sobre los fundamentos de la teoría cuántica habría cambiado sustancialmente.

De hecho, en fecha tan temprana como 1927 ya se formuló una interpretación rival a la de Copenhague que chocaba con lo que von Neumann parecía haber demostrado. Louis de Broglie propuso en el V Congreso Solvay, celebrado ese año, una versión de la mecánica cuántica en la que el corpúsculo, identificado como una concentración de energía en una pequeña región de una onda, preserva su naturaleza clásica. Pero, a diferencia de las partículas clásicas, es guiado por una onda Ψ y, por tanto, está sujeto a los efectos de difracción.

Louis
Louis de Broglie y sus divertidísimos amigos charlando sobre lo real y lo irreal.

La función de onda Ψ juega entonces un doble papel: es una onda de probabilidad, pero representa también una onda piloto que determina la trayectoria de la partícula en el espacio. En efecto, Ψ tiene el carácter de una representación subjetiva de las probabilidades construidas con la ayuda de una onda objetiva. La dualidad onda-partícula es reducida así por de Broglie a una síntesis onda-partícula: la realidad física no está constituida por ondas o por partículas, dependiendo del dispositivo experimental utilizado, sino por ondas y partículas conjuntamente.

La onda tendría una singularidad cuya trayectoria correspondería a la trayectoria de una partícula. La idea básica era similar a la que desarrollaría varios años después David Bohm. Sin embargo, de Broglie abandonó al año siguiente esta teoría debido a las críticas de von Neumann y otros, y se sumó a la interpretación de Copenhague.

El experimento EPR

En 1935, en colaboración con los jóvenes físicos Boris Podolsky y Nathan Rosen, Einstein presentó en un breve artículo de cuatro páginas un caso imaginario, conocido desde entonces como el experimento o la paradoja EPR (por las iniciales de sus apellidos), con el que se trataba de dejar en evidencia la incompletud de la mecánica cuántica. De acuerdo con los autores, una teoría es completa si "todo elemento de la realidad física" tiene una contrapartida en la teoría. Pero ¿cuándo estamos ante un "elemento de la realidad física"?

El artículo lo aclara:

“Si podemos predecir con certeza (i. e., con probabilidad igual a la unidad) el valor de una cantidad física sin perturbar el sistema de ningún modo, entonces existe un elemento de realidad física correspondiente a esa cantidad física”.

Dicho de otro modo, si es posible obtener el valor exacto de una propiedad sin tan siquiera intervenir sobre el sistema físico al que se le atribuye, cabe suponer que ello obedece a que en realidad el sistema tiene esa propiedad con ese valor, es decir, el valor viene dado por un estado físico realmente existente. Hay además una premisa fundamental para el argumento que es asumida a lo largo del artículo. Esa premisa se conoce como el "supuesto o principio de localidad".

Lo que afirma es que para dos sistemas que hayan interactuado en el pasado, ningún cambio que tenga lugar en uno de ellos después de que la interacción haya cesado puede ser consecuencia de un cambio en el otro.

El supuesto de localidad, o más bien su cuestionabilidad, se convertirá en un importante punto de discusión en el ulterior desarrollo del problema abierto por el artículo. El supuesto descarta la posibilidad de que la medición sobre un sistema ejerza alguna influencia instantánea sobre el otro sistema situado a distancia. Una vez separados, lo dos sistemas son independientes, a no ser, según Einstein y sus colaboradores, que estemos dispuestos a aceptar misteriosas acciones a distancia entre ellos.

Mediante el experimento mental que propusieron, intentaron probar que si se acepta la caracterización dada de la realidad física correspondiente a una magnitud física (junto con el supuesto de localidad), entonces la mecánica cuántica es incompleta, pues habría elementos de la realidad física sin una contrapartida en la teoría. Cabría esperar, pues, la formulación de una teoría mejor, que recogiera las variables que permanecían ocultas en la versión aceptada de la teoría (pese a lo que von Neumann había dicho) e hiciera desaparecer de este modo los problemas que suscitaba la interpretación de Copenhague.

Copenhague
Nunca una ciudad dio para tanto. (Lindsay Martin/Unsplash)

El razonamiento era el siguiente:

Sea un sistema compuesto por dos partículas A y B que han estado interactuando en el tiempo y después han dejado de hacerlo. Se supone que se conoce el estado de las dos partículas antes de interactuar y, por tanto, se puede determinar (mediante la ecuación de Schrödinger) el estado del sistema compuesto por las dos partículas en cualquier tiempo posterior, incluso cuando ya no interactúan.

Si medimos ahora el momento de una de las partículas (digamos A) mediante el instrumental apropiado, podemos calcular con seguridad el momento de la partícula B sin tener que efectuar ninguna medición sobre ella. Asimismo, si en lugar del momento, decidimos medir la posición de A, podemos calcular la posición de B. Puesto que en ambos casos hemos podido establecer los valores de la posición y el momento de una de las partículas sin perturbarla en absoluto, hemos de aceptar que la partícula posee real y simultáneamente una posición y un momento con esos valores. Ahora bien, la mecánica cuántica no recoge esa posibilidad en su formalismo; por lo tanto, la mecánica cuántica es una teoría incompleta.

La réplica de Bohr fue inmediata. Apareció en el número siguiente de la Physical Review. Pero, desde luego, no fue muy clara, como era habitual en él, y más adelante admitió. Lo que hizo básicamente fue criticar el criterio de realidad que el artículo de EPR ofrecía y reafirmarse en la idea de que la única descripción posible es la del fenómeno cuántico, es decir, la totalidad de la situación experimental. No puede trazarse una distinción nítida entre el sistema medido y el dispositivo de medición. Esto era tanto como negarse a aceptar por principio la mera posibilidad experimental que el artículo describía.

Las desigualdades de Bell y el experimento de Aspect

En lo esencial, la discrepancia quedó en suspenso durante treinta años, hasta que en 1964 el físico irlandés John Bell, investigador del CERN, fue capaz de darle un giro inesperado a la situación y consiguió reavivar un debate que para muchos ya había sido cerrado en su momento en favor de las tesis de Bohr.

Bell desarrolló un teorema matemático, en la forma de una desigualdad, que abría la posibilidad de discriminar experimentalmente entre las propuestas de Bohr y las de Einstein. Representaba una diferencia cuantitativa susceptible de contrastación empírica entre la interpretación de Copenhague y la interpretación realista local de Einstein.

John Bell Buena

La desigualdad marcaba un límite estricto en el nivel de correlación esperable para los resultados de medidas simultáneas efectuadas sobre dos partículas que hubieran estado interactuando. Era una desigualdad que las mediciones de los fenómenos debían cumplir siempre de acuerdo con cualquier teoría realista local, pero que debían ser violadas en ciertas circunstancias de acuerdo con la interpretación de Copenhague. En la visión ortodoxa, el grado de correlación de los resultados de las mediciones debía sobrepasar el límite marcado por la desigualdad.

Aunque hubo intentos previos muy meritorios, los primeros en conseguir montar un experimento con las suficientes garantías para dilucidar esta cuestión fueron Alain Aspect y sus colaboradores del Instituto de Óptica de la Universidad de Paris. El experimento, publicado en 1982, consistía en una situación comparable a la descrita en el experimento EPR, aunque lo que se medía era el ángulo de polarización de dos fotones correlacionados emitidos por una fuente común.

El resultado fue que las desigualdades de Bell no se cumplieron en ese sistema. El realismo local de Einstein se veía así seriamente tocado, mientras que la interpretación de Copenhague salía reforzada de la prueba.

Desde la perspectiva actual, la interpretación realista local de Einstein, perfeccionada por Bell, ha sido descartada en los diversos experimentos posteriores. Algunos de estos experimentos no estaban exentos de complicaciones o de “lagunas”, pero fueron eliminadas posteriormente, de modo que se puede decir que el incumplimiento de las desigualdades de Bell por parte de los sistemas cuánticos ha quedado bien establecido.

Aunque no todos están de acuerdo acerca de las conclusiones correctas que sacar de estos experimentos, la no-localidad tiende a ser asumida como una característica fundamental del universo y cualquier interpretación realista tendría que incorporarla (como hace la de David Bohm). Al menos en el sentido de que el sistema que ha estado interactuando en el pasado será después un sistema no-separable. Es importante añadir que esa no-localidad no permite enviar señales a mayor velocidad que la luz, y, por tanto, las correlaciones cuánticas no chocan con la teoría de la relatividad einsteiniana.

La interpretación de los muchos mundos

Existe una interpretación alternativa a la de Copenhague que proporciona una visión diferente y sorprendente de lo que ocurre en la realidad. Dicha interpretación, conocida como la de "los muchos mundos". fue desarrollada en 1957 por Hugh Everett III en su tesis doctoral. Algunos la consideran una teoría, más que una mera interpretación, y, si bien no es la única alternativa ofrecida desde el realismo, sí es hoy la que más interés despierta.

Para entender su significado es útil recurrir a la interpretación que dio Bryce DeWitt de la paradoja de Schrödinger usando las ideas de Everett (aunque no contó con la aprobación del propio Everett). De acuerdo con esta interpretación, si miramos en la caja y encontramos que el gato está vivo, esta observación nos dice que ese es el resultado en nuestro universo, en el que el átomo radioactivo no se ha desintegrado, pero sabremos también en ese mismo instante, a partir de la aplicación del formalismo de la teoría, que hay un universo paralelo al nuestro en el que el observador (o sea, nosotros) encontrará que el gato está muerto, dado que en ese universo sí se habrá desintegrado el átomo.

Gato
¿Existe, no existe? Ah, si tan sólo lleváramos un siglo discutiéndolo. (Eric Han/Unsplash)

Todo acto de medición de un sistema cuántico que esté en una superposición de dos estados bifurca, por tanto, el universo, y en cada uno de los universos resultantes, ambos reales, se ha obtenido uno de los dos resultados posibles. A nosotros nos parece que hay un solo universo en el que el gato está vivo, pero existe otro universo en el que el resultado que hemos obtenido no ha sido ese.

Nos parece que en cualquier proceso de medición un solo resultado de los posibles se ha hecho real, sin embargo, eso es una mera apariencia: todos los resultados posibles se han hecho reales, solo que en universos diferentes. No hay, por tanto, colapso de la función de onda causado por la medición. He aquí la clave. Esto, entre otras cosas, evita el problema de la medida e implica que el determinismo es restaurado en esta interpretación.

Si el problema de la interpretación de Copenhague era su coste epistémico, que obligaba a una posición fenomenista radical y hasta idealista, al aceptar la interpretación de los muchos mundos, el coste a pagar es el ontológico, y es un coste enorme.

Téngase en cuenta que, aunque el electrón (o cualquier sistema cuántico comparable) tendría una posición y velocidad definidas antes de la observación, todos los resultados posibles de la medición se darían en universos reales, solo que la medición obtenida en nuestro universo habría sido una concreta, mientras que en otro universo, al que no tenemos acceso, otro yo idéntico a mí, rodeado también de todos los demás seres humanos, de todas las estrellas, de todas las galaxias, habría obtenido otro resultado posible. En general, según algunos, cualquier transición cuántica, medida o no, generaría nuevos universos. Y es de suponer que en esos universos se estarían a su vez generando constantemente nuevos universos.

La interpretación de los muchos mundos ha recibido diversas críticas desde el punto de vista de su coherencia interpretativa. Se ha señalado, por ejemplo, que no puede explicar satisfactoriamente el papel de la probabilidad (si todos los resultados posibles son reales, si todos se cumplen y están regidos por una ecuación de onda determinista, ¿cómo hablar entonces de probabilidad?, ¿es solo como consecuencia de que no podemos tener consciencia más que de uno de los mundos?). Lo más inquietante, sin embargo, es que choca de forma evidente con el famoso principio de la navaja de Ockham. Ese de que no hay que multiplicar los entes sin necesidad. Tanto más cuanto que estos entes son mundos enteros de los que nada puede saberse.

Pese a todo, esta interpretación ha recibido un fuerte apoyo entre cosmólogos e investigadores en computación cuántica. Quizá algún día tengamos la posibilidad de realizar un experimento que permita dirimir si esta interpretación es preferible las otras, como pudo hacerse con la de EPR. Por el momento, sin embargo, no existe esa posibilidad, lo que ha hecho que se la acuse también de infalsabilidad. Pero esta acusación es injusta, puesto que se han imaginado experimentos que podrían cumplir esta función, solo que por el momento son irrealizables. Para que una hipótesis sea falsable basta con imaginar cómo falsarla, aunque no podamos llevar la falsación a la práctica.

En definitiva, la mejor teoría física que tenemos, la teoría cuántica, nos deja sin la más mínima posibilidad de dar una interpretación del mundo que sea manejable para el sentido común. Llega un momento en el que sólo las matemáticas pueden guiarnos, pero ni siquiera ellas nos pueden ofrecer una respuesta única.

En todo caso, el debate entre realistas y antirrealistas no está cerrado. No se puede decir que ningún bando haya obtenido la victoria definitiva. Por ello quizá no sea mala idea adoptar la posición que sugiere Adam Becker en las páginas finales de su excelente libro sobre los problemas filosóficos suscitadas por la teoría cuántica (p. 287):

“El pluralismo sobre las interpretaciones podría ser la respuesta correcta, de forma pragmática, mientras hacemos frente a este reto. O, si no el pluralismo, al menos la humildad. La física cuántica es al menos aproximadamente correcta. Hay algo real, ahí fuera, en el mundo, que de alguna manera se parece lo cuántico. Solo que no sabemos aún que significa esto. Y es el trabajo de la física averiguarlo”.

Dejemos, pues, que la física siga haciendo su trabajo. A buen seguro, la filosofía seguirá beneficiándose de ello.

Antonio Diéguez es Catedrático de Lógica y Filosofía de la Ciencia en la Universidad de Málaga y miembro de número de la Academia Malagueña de Ciencias. Sus líneas de investigación son el realismo científico, la filosofía de la biología, la filosofía de la tecnología, el biomejoramiento humano y el transhumanismo.

Es autor de numerosos artículos y libros. Entre estos últimos destacan: "La vida bajo escrutinio. Una introducción a la filosofía de la biología" (Biblioteca Buridán, 2012), "Filosofía de la ciencia" (UMAeditorial, 2020), "Transhumanismo. La búsqueda tecnológica del mejoramiento humano" (Herder, 2017), y "Cuerpos inadecuados" (Herder, 2021).
 
https://www.xataka.com/otros/gran-debate-filosofico-siglo-xx-sigue-abierto-que-einstein-rechazo-antirrealismo-bohr-interpretacion-copenhague-1?fbclid=IwAR38s6A0A78hcxZR9LtOELSCVnVta49Crc3okyLavUv9SHNY5t0TsJT93GY

 

 

Hilbert fracasó en su teoría axiomatica pretendiendo unificar la Matemática. Godel se encargó de ello con sus teoremas sobre la incompletitud, la inconsistencia y la indecibilidad.

viernes, 28 de octubre de 2022

¿Qué significa aislar un virus? ¿qué significa secuenciar un virus?

 ¿Qué significa aislar un virus? Aislar un virus significa tomar una muestra pura de un virus de un ser infectado para poder estudiarlo.

Para ello, en primer lugar se obtiene una muestra de un paciente infectado y se somete a un filtrado en el que se garantiza que no tiene bacterias para poder inocular en un cultivo celular, donde normalmente se aíslan los virus.

El filtrado es inoculado en cultivos celulares de células susceptibles de ser infectadas. En ellas, tanto el coronavirus como otros virus generan un efecto observable. Así, al localizarlo, es congelado y extraído.

 

 


¿El SARS-CoV-2 ha sido aislado? Sí. En realidad, hay muchísimos ejemplos de científicos que lo hicieron. El 10 de enero de 2020, Xu Jianguo, director del Laboratorio Estatal clave para la Prevención y el Control de Enfermedades Infecciosas con sede en Beijing, confirmó en una entrevista a 'Science' que el virus ya había sido aislado a partir de muestras de un paciente por parte de dos grupos diferentes.

https://www.science.org/content/article/mystery-virus-found-wuhan-resembles-bat-viruses-not-sars-chinese-scientist-says

El 31 de enero de 2020, por ejemplo, el Institut Pasteur confirmó en una nota que había aislado el SARS-CoV-2 (aún conocido como 2019-NCoV por aquella época), de muestras extraídas de los primeros casos detectados en Francia.

https://www.pasteur.fr/fr/espace-presse/documents-presse/institut-pasteur-isole-souches-du-coronavirus-2019-ncov-detecte-france

Uno de los primeros estudios que se publicaron en este sentido fue recogido en 'Journal of Korean Medical Science' el 18 de febrero de 2020.

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7036342/

   Se trató de un trabajo que aisló el virus de la muestra orofaríngea que los investigadores obtuvieron del paciente con la primera infección confirmada por laboratorio en Corea.

El 7 de marzo de 2020 se publicaba un preprint sobre el aislamiento y la caracterización del SARS-CoV-2 en el primer paciente de Estados Unidos registrado con COVID-19.

https://www.biorxiv.org/content/10.1101/2020.03.02.972935v2

También se aisló y caracterizó el genoma del SARS-CoV-2 de casos de COVID-19 en el norte de Italia.

https://journals.asm.org/doi/10.1128/JVI.00543-20

Mientras que dos equipos de Canadá también aislaron el virus para su estudio: uno en la Universidad de Saskatchewan y otro con investigadores de la Universidad McMaster, la Universidad de Toronto y el Centro de Ciencias de la Salud Sunnybrook.   

https://brighterworld.mcmaster.ca/articles/mcmaster-researcher-plays-key-role-in-isolating-covid-19-virus-for-use-in-urgent-research/

En España, el Servicio General de Apoyo a la Investigación (SAI) de la Universidad de Zaragoza aisló y caracterizó el SARS-CoV-2. Y publicaron, en junio de 2020, además, las imágenes microscópicas del virus aislado.

https://www.unizar.es/noticias/el-sai-de-la-universidad-de-zaragoza-obtiene-imagenes-microscopicas-del-primer-0

O en 'Plos One' el 24 de febrero de 2021

https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0247524   

https://maldita.es/malditaciencia/20220127/aislar-purificar-secuenciar-virus/ 

https://www.virology.ws/2021/02/25/understanding-virus-isolates-variants-strains-and-more/

¿qué significa secuenciar un virus? "La secuenciación genética es una tecnología que permite conocer y descifrar el código genético que tienen todos los seres vivos".

Así, es posible conocer la secuencia de ácido nucleico que compone el genoma de un virus, incluso sin purificarlo ni aislarlo. Sí, el SARS-CoV-2 también ha sido secuenciado en multitud de ocasiones. Y uno de los primeros en conseguirlo fue este señor:

 Zhang Yongzhen, virólogo y profesor experto en virus. A él le debemos el descubrimiento —y la posterior publicación— de la secuenciación completa del SARS-CoV-2, el 5 de enero de 2020

https://twitter.com/christianperez/status/1538136548331364353 

De hecho, el análisis de secuencias mostró que las secuencias del genoma de virus de distintos pacientes están muy conservadas, lo que implicaría que el virus humano evolucionó recientemente.

Los primeros en publicar la secuencia del SARS-CoV-2 fue el laboratorio de Shanghái, concretamente el 19 de enero de 2020. Lo hicieron a través de una base de datos pública. Luego le siguió el CDC de China.

https://virological.org/t/preliminary-phylogenetic-analysis-of-11-ncov2019-genomes-2020-01-19/329

En GenBank es posible encontrar algunos ejemplos de secuencias completas del SARS-CoV- 2 publicadas en los meses de febrero de 2020 (de pacientes de Wuhan) 

https://www.ncbi.nlm.nih.gov/nuccore/MT019532

https://www.ncbi.nlm.nih.gov/nuccore/MN908947

https://www.ncbi.nlm.nih.gov/nuccore/MT560525.1

4 de junio de 2020 en 'Microbiology', informaba de la secuenciación completa del genoma de una cepa de SARS-CoV-2 que había sido aislada en el norte de Alemania

https://journals.asm.org/doi/10.1128/MRA.00520-20

el Instituto Nacional de Alergias y Enfermedades Infecciosas de Estados Unidos llegó a publicar imágenes, a través de Flickr, de partículas aisladas de SARS-CoV-2.

https://www.flickr.com/photos/niaid/albums/72157712914621487/with/49645120251/   

Los cultivos del coronavirus, para su investigación, únicamente pueden estar en laboratorios de bioseguridad nivel 3, que ofrecen la posibilidad de manejar agentes biológicos causantes de enfermedades infecciosas potencialmente peligrosas. 

https://twitter.com/christianperez/status/1586048823503499265 

 

  

jueves, 27 de octubre de 2022

El hospital de Mataró utiliza la inteligencia artificial para detectar el cáncer de páncreas

 

El hospital de Mataró utiliza la inteligencia artificial para detectar el cáncer de páncreas

El Hospital de Mataró (Maresme) ha trabajado en el impulso de un programa de inteligencia artificial (IA), en fase experimental, con el objetivo de ayudar al diagnóstico precoz de enfermedades que afectan al páncreas.

El Consorcio Sanitario del Maresme (CSdM) ha explicado en un comunicado que se ha entrenado una red neuronal para la detección de varias afecciones en el páncreas como, por ejemplo, pseudoquistes, quistes simples, cistoadenomes serosos o tumores endocrinos quísticos, entre otros.

Los resultados obtenidos, después de analizar 324 TAC abdominales, han reflejado una sensibilidad del 93,1 % y una especificidad del 81,8 % en la detección de las lesiones quísticas pancreáticas.

El sistema permite identificar de forma más pecisa las lesiones quísticas pancreáticas

Esta herramienta de IA, impulsada por la empresa catalana especializada en inteligencia artificial Sycai Medical, permitiría identificar y clasificar de forma más precisa y precoz las lesiones quísticas pancreáticas en función de sus características radiológicas y, de esta manera, predecir su probable evolución.

El estudio lo ha liderado la jefa del servicio de radiodiagnóstico del CSdM, María Teresa Fernández, donde también han participado las radiólogas Maria Montserrat Duh y Neus Torra Ferrer.

https://www.lavanguardia.com/local/maresme/20220905/8503935/hospital-mataro-impulsa-inteligencia-artificial-detectar-cancer-pancreas.html?utm_medium=social&utm_source=twitter&utm_content=local

 

sábado, 15 de octubre de 2022

Bruno Latour, en memoria

 

Genial y radical Bruno Latour: cómo pasé de la desazón a la fascinación ante su obra

Cuando leí por primera vez al filósofo recién fallecido, no sabía a ciencia cierta si había leído una desvergonzada provocación o estaba ante una obra genial, novedosa y radical

Recuerdo con claridad el primer libro que leí del filósofo y sociólogo de la ciencia Bruno Latour, fallecido el pasado 9 de octubre, así como la profunda desazón que me produjo su lectura. Desde entonces, los libros de Latour (y lo mismo me pasa con Feyerabend) me han dejado la sensación de salir con algunos golpes mal encajados, pero con varias cosas valiosas e inspiradoras en los bolsillos. Fue en el año 1992, fecha en la que la añorada editorial Labor acababa de publicar su Ciencia en acción. Yo era entonces un joven profesor que apenas iniciaba su carrera y que estaba cada vez más interesado por la filosofía de la ciencia. Había leído con detenimiento a John Stuart Mill, a Popper, a Kuhn, a Feyerabend y a Lakatos. Digamos que estaba ya al tanto de las grandes disputas en el área y de la existencia de posiciones muy críticas con respecto a la imagen idealizada de la ciencia que el positivismo lógico y el racionalismo popperiano nos habían legado. Pero no estaba preparado para lo que Latour me tenía reservado. Al terminar el libro, no sabía a ciencia cierta si había leído una desvergonzada provocación o estaba ante una obra genial, novedosa y radical. En aquel momento, todo sea dicho, me inclinaba más por lo primero y tardé en verlo de otro modo.

Latour no se limitaba a subrayar la importancia del contexto social para entender la marcha de la ciencia, cosa que ya habían hecho otros, como Kuhn, sino que venía a decir que la propia objetividad científica no es el resultado de conocer correctamente la realidad a través de métodos rigurosos de contrastación empírica que garantizan lo alcanzado, sino el producto de las prácticas científicas (la ciencia en acción), que son las que construyen dicha objetividad cuando el trabajo se da por concluido.

En esa época, bajo la influencia del filósofo finlandés Ilkka Niiniluoto, mis simpatías empezaban a decantarse por el realismo científico, una posición filosófica opuesta a esta en la que luego he trabajado durante años. El realismo científico explica el éxito de la ciencia basándose en la idea de que las teorías científicas son aproximadamente verdaderas y que el progreso científico obedece a que vamos mejorando los métodos que nos permiten eliminar las falsedades y obtener teorías con un creciente contenido de verdades. Nada podía, pues, contrariar más mis convicciones epistemológicas.

La propia objetividad científica no es el resultado de conocer correctamente la realidad, sino el producto de las prácticas científicas

Quizá no esté de más aclarar la diferencia entre el realismo y el constructivismo de Latour con un ejemplo. Supongamos que hay por ahí una molécula, o un virus, o un microorganismo que lleva cumpliendo una función útil o afectando negativamente al ser humano desde hace tiempo. Por las razones que sea, pero también por el deseo de conocer mejor el mundo, los científicos deciden aislar dicha entidad natural y estudiar su estructura y los mecanismos causales relevantes en la afectación al ser humano. Esto implica mucho esfuerzo y trabajo, y el despliegue de un sofisticado dispositivo experimental. Al principio formulan hipótesis rivales sobre ello, basadas en supuestos teóricos distintos o en datos dispares, y es imposible decir cuál triunfará. Después de semanas/meses/años de estudio, a la luz de la evidencia empírica obtenida, los científicos parecen estar de acuerdo en cuál es la estructura y función (positiva o negativa para el ser humano) de esa molécula/virus/bacteria, etc. Ahora puede decirse que sabemos algo que antes no sabíamos acerca de un ente natural y es el momento de empezar a aprender cómo controlarlo.

Los científicos tienen intereses

Todo esto puede parecer bien a muchos, pero hay otra forma muy distinta de describirlo: los científicos tienen interés profesional (por presión social, por necesidad de hacer una carrera, por intereses económicos, etc.) en investigar una cuestión que involucra a una entidad que solo en el laboratorio se convierte en lo que consideramos que es (molécula/virus/bacteria, etc.). Analizan la cuestión durante semanas/meses/años en un proceso muy costoso, dados los recursos culturales, humanos y técnicos que hay que invertir en la investigación. Elaboran hipótesis para dar cuenta de lo observado en los laboratorios y los resultados de las manipulaciones realizadas por medio de una tecnología sofisticada. Todo este proceso de discusión de los diversos resultados por parte de numerosos científicos va dando carta de naturaleza, es decir, va dotando de realidad a lo que antes no era más que un tema de investigación interesante. Finalmente, una hipótesis triunfa sobre las demás porque sus defensores han sabido utilizar mejor los recursos disponibles y manejar con más audacia las relaciones de poder. En ese momento, la realidad cuenta ya con una nueva entidad (molécula/virus/bacteria, etc.) que antes no existía. Ha sido creado un objeto nuevo que no es ni natural ni social, sino una mezcla inextricable de ambas cosas. Atribuirle a dicho objeto una existencia natural previa a este proceso de constitución resultaría ingenuo (y anacrónico) e ignoraría la complejidad del andamiaje social (instituciones, laboratorios, financiación, educación, discusiones...) que ha hecho posible hablar siquiera de él.

La primera descripción es la del realista, la segunda la del constructivista. Puntualicemos, no obstante, que el realista prioriza los fines epistémicos, pero no descarta por completo otros objetivos en la ciencia. Admite, claro está, que la ciencia es una construcción social, como cualquier otra institución humana, pero la realidad que se estudia no lo es y tampoco lo es la validez empírica de los resultados. Los intereses epistémicos son primordiales en la ciencia puesto que la ciencia es, ante todo, una forma de conocimiento. Los factores sociales que posibilitan y conforman la actividad científica no determinan el resultado de la investigación, aunque sean necesarios para motivarla y conducirla. Marcan la importancia relativa que se otorga a los temas, la provisión de recursos, la estructuración de la comunidad, los cauces de discusión, etc., pero la validez del conocimiento es independiente de su dictado.

Latour asumió el constructivismo con todas sus consecuencias en el famoso artículo '¿Murió Ramsés II de tuberculosis?'

Esa es la mejor manera de entender la actividad científica según el realista: como una forma de obtener conocimiento fiable sobre el mundo. Lee McIntyre ha sabido caracterizar bien lo que él llama la actitud científica. Consiste en la disposición comunitaria (institucionalizada), basada en la competición y en la crítica, pero también en la colaboración, para cambiar de ideas en función de la evidencia empírica, con independencia de cuáles sean las convicciones y orientaciones que se mantengan los individuos.

Latour, sin embargo, asumió el constructivismo con todas sus consecuencias en un famoso artículo que todavía genera polémica, publicado inicialmente en 1998 en la revista de divulgación La Recherche y titulado “¿Murió Ramsés II de tuberculosis?”. Su respuesta a la pregunta del título es que, pese a lo que pudieran decir los expertos que analizaron la momia en París, Ramsés no pudo haber muerto de tuberculosis porque “antes de Koch, el bacilo no tenía existencia real”. Sería, pues, tan anacrónico decir que Ramsés murió de tuberculosis como decir que murió ametrallado, pues trasladaríamos con ello al pasado todo nuestro conocimiento actual y todo lo que nos posibilita la moderna tecnología.

Obviamente, esto chocaba contra el sentido común (y contra lo que diría un realista). El bacilo de Koch estaba actuando mucho antes de que Koch lo descubriera y estudiara en 1882. Sería un anacronismo decir que Ramsés murió de tuberculosis si en una novela histórica dicha frase se pone en boca de uno de sus contemporáneos, pero no es ningún anacronismo que lo diga un médico o un biólogo de hoy. Puede concederse a Latour que el bacilo de Koch, entendido como un elemento activo dentro de un conjunto de relaciones sociales, tecnológicas, científicas, cognitivas, etc. no existía antes de Koch, pero sí existía el bacilo en tanto que organismo vivo; una bacteria, producto de una evolución biológica y causante de una determinada enfermedad en humanos y animales.

La vida en el laboratorio

La lectura de 'Ciencia en acción' me había interesado mucho, pese a la discrepancia de perspectivas que señalo, y eso, unido a la fama creciente de Latour, me llevó a la lectura de la que hasta entonces había sido su obra más influyente, La vida en el laboratorio. La construcción de los hechos científicos, publicada en 1979 y escrita con Steve Woolgar, un sociólogo de la ciencia que luego mantuvo tesis antirrealistas más radicales que las de Latour.

Se trata de un trabajo sorprendente. Latour y Woolgar consiguieron ser aceptados en el Salk Institute for Biological Studies de Texas, en el laboratorio de Roger Guillemin, para estudiar a los científicos desde la perspectiva de los antropólogos, es decir, del mismo modo que estudiarían a “una tribu en Costa de Marfil”, cuaderno en mano. Se da la circunstancia de que poco después, en 1977, Guillemin obtuvo premio Nobel precisamente por la investigación que ellos iban a presenciar. En el libro se nos explica que las negociaciones de los científicos son las que constituyen el objeto mismo y hacen que algo sea considerado un hecho, en este caso concreto la estructura de la hormona TRH, hormona liberadora de tirotropina. Hay que invertir, por tanto, el modo en que explicamos cómo procede la ciencia. Como ya había sostenido en Ciencia en acción, no es la realidad ni la evidencia basada en los hechos lo que cierra las controversias científicas y lleva al consenso. Lo que consideramos como la realidad es la consecuencia y no la causa del cierre de las controversias. La realidad es lo que terminamos aceptando tras ese cierre porque sería demasiado costoso modificarlo.

Quizás la crítica que más daño hizo a su prestigio fue la de Alan Sokal y Jean Brickmont en 'Imposturas intelectuales'

Estas tesis fueron duramente atacadas por sus críticos, en especial desde el lado realista, pero no solo. Quizás la crítica que más daño hizo a su prestigio fue la de Alan Sokal y Jean Bricmont en 'Imposturas intelectuales', un libro que fue pieza central en las llamadas 'Guerras de la ciencia'. Allí le acusan de confundir algunas perogrulladas, como que las teorías científicas son construcciones sociales y que la naturaleza por sí sola no puede explicar el cierre de una controversia científica (las controversias científicas no suelen ser del tipo “mira los hechos y cierra la boca”), con las ideas absurdas de que la naturaleza que esas teorías pretenden conocer es una construcción social y que el modo en que son las cosas no impone ninguna constricción a las controversias.

Con el tiempo, las ideas epistemológicas y los intereses temáticos de Latour fueron cambiando y diversificándose. Se alejó del constructivismo social estricto, buscando un retorno a cierta “actitud realista” y concediendo también un papel explicativo en el desarrollo del conocimiento a lo que podríamos llamar el lado natural, aunque sin olvidar que “un hecho solo es un cordero frente a los lobos”. Dejo aquí de lado inevitablemente cualquier comentario sobre sus influyentes trabajos en historia de la ciencia y de la tecnología o sobre sus propuestas teóricas en sociología de la ciencia, que afianzaron aún más su fama mundial, como la teoría del actor-red. Pero quiero destacar dos libros más que me interesaron de forma especial.

El primero de ellos es Nunca hemos sido modernos. Para algunos comentaristas este es quizás su mejor trabajo, y merecería una reimpresión. Para mí supuso un reencuentro fructífero con su pensamiento, esta vez desde una perspectiva más cercana a la suya. En esa ocasión yo andaba tras reflexiones críticas acerca del postmodernismo y Latour argumentaba que difícilmente podemos haber sido postmodernos cuando ni siquiera es seguro que hayamos sido modernos. Aquí teníamos por fin un punto de coincidencia: el proyecto moderno no se había realizado, al menos no completamente. Su idea de la “proliferación de híbridos” entre lo natural y lo social, como el agujero en la capa de ozono, me pareció fecunda desde una perspectiva realista.

Estos días, en algunos lugares se le ha llamado, un poco exageradamente, el filósofo del cambio climático

Finalmente, el último libro suyo que he leído con enorme interés es Dónde aterrizar, publicado en español en 2019. Pertenece a la última fase de su pensamiento en la que se volcó en los problemas planteados por el cambio climático y el deterioro del planeta a manos del ser humano. Estos días, en algunos lugares se le ha llamado, un poco exageradamente, el filósofo del cambio climático. En este libro denuncia, entre otras cosas, cómo las élites económicas y las clases dirigentes en general se están desentendiendo del asunto y preparan la huida, construyendo refugios donde sobrevivir cuando el colapso sea inevitable o encerrándose mentalmente en tecno-utopías poco realistas, como la transhumanista. Se promueve así la desconexión, el sálvese quien pueda. Hoy este mensaje es casi un tópico, pero leído de su puño y letra no deja de ser un tirón de solapas.

Latour señala el aumento de las desigualdades económicas y sociales, de las actitudes negacionistas o quietistas, el auge del populismo, la desregulación y las grandes migraciones, como partes conectadas en el entramado de los desafíos globales a los que nos enfrentamos. En el libro busca un lugar donde aterrizar, donde volver a tocar tierra firme en un planeta que ya sabemos limitado, porque “si la angustia es tan profunda es porque empezamos a sentir que el suelo desaparece bajo nuestros pies. Porque estamos descubriendo, con relativa claridad, que todos estamos en migración hacia territorios por redescubrir y por reocupar”.

En 2021 recibió el Premio Kyoto, algo parecido a un Nobel de filosofía. Creo que la mayoría de la comunidad de profesionales de la filosofía lo vio como un premio merecido, porque, después de todo, Latour ha sido uno de los filósofos que más nos ha hecho pensar en estos años, como espero haber mostrado en esta personal selección de sus obras. 

  • https://www.elconfidencial.com/cultura/2022-10-14/bruno-latour-obituario_3505689/ 

La reciente partida del pensador francés Bruno Latour es sin lugar a dudas una gran pérdida para quienes hemos seguido su trabajo por su enorme contribución para los tiempos actuales y que creemos en la necesidad urgente de un giro en cómo hemos entendido la sociología tradicionalmente.

A nivel personal y biográfico, mi acercamiento al trabajo de Latour fue en el año 2008, luego de titularme como sociólogo en la universidad en Chile y leer la versión traducida al castellano de su libro Reensamblar lo social: Una introducción a la Teoría del Actor Red.

La lectura de aquel libro transformó radicalmente mi forma de concebir la disciplina y ampliar un canon de pensamiento que históricamente ha sido dominado por una concepción antropocéntrica de lo que entendemos como social y una mirada de lo ambiental específica, como si fuera solo una mera subdisciplina.

Es así, que si bien mi formación como sociólogo, a nivel teórico como metodológico, incorporó a las grandes tradiciones epistemológicas de las Ciencias Sociales europeas, han sido incapaces en buena parte de ellas en salirse de la separación histórica moderna entre cultura y naturaleza, sean estas funcionalistas, estructuralistas, fenomenológicas, marxistas o sistémicas.

  Vertical

Es cosa de revisar algunos conceptos sociológicos fundamentales para la disciplina, como lo son la lucha de clases, diferenciación funcional, división del trabajo, campos sociales, sistemas sociales, mundos de la vida, aparatos sociales, estructuras sociales, los cuales han excluido de su análisis la capacidad de agencia de lo no humano.

De ahí la interesante y ecléctica crítica posthumanista realizada por Bruno Latour a toda una larga tradición sociológica, que ha empobrecido la noción de lo social, la cual se ha reducido a relaciones entre seres humanos solamente, como si la sociedad fuera un dominio autónomo y capaz de sostenerse por sí mismo.

Ante esto, que Latour nos haya propuesto una mirada constructivista de un mundo socionatural y sociotécnico, pero que incorpora de manera simétrica a los no humanos en la producción del planeta, lo que es sin duda una ruptura enorme con la separación y dicotomía entre Ciencias Sociales y Ciencias Naturales.

No es casualidad, por tanto, que Latour se haya vuelto un autor imprescindible para dar respuesta a la crisis ambiental que nos encontramos, la cual se ha vuelto la principal amenaza de nuestros tiempos y una problemática que es imposible entenderla desde miradas reduccionistas del conocimiento.

En otras palabras, la mirada de Latour nos ayuda a comprender las causas y consecuencias ecológicas del Antropoceno, entendido este como época geológica generada por la acción humana, iniciada desde el nacimiento de la agricultura y profundizada con la Revolución Industrial, la cual está poniendo en peligro las condiciones mínimas para la reproducción de la vida en el planeta.

Lamentablemente, lo ambiental sigue siendo visto como un área específica de investigación o intervención, en donde la política institucional no ha sido capaz de entregarnos alternativas sostenibles para vivir en la Tierra, profundizando así modelos económicos productivistas y extractivistas, que han heredado las bases antropocéntricas del proyecto moderno.

En consecuencia, seguimos experimentando el mundo como si no fuéramos parte de este, sino como meros individuos completamente separados de lo que entendemos como Naturaleza, la cual la vivimos como algo externo a nosotros, a pesar de los cada vez más frecuentes efectos de la crisis ambiental.

Frente a aquello, Latour toma la noción de Gaia, que al igual que otras denominaciones más integrales y relacionales como Pachamama o Madre Tierra, son mucho más amplias que la idea occidental y colonial de Naturaleza, ya que es construida por todos los seres vivos de manera conjunta y entrelazada, y no como algo exterior a nosotros mismos.

Por lo mismo, fenómenos generados por la crisis ambiental, como lo son la desertificación, deforestación, migración climática, derretimiento de los polos, extinción de flora y fauna, falta de agua dulce, aumento de incendios, huracanes, nos obligan a replantearnos cómo estamos viviendo y construir así un horizonte distinto.

Tomando en consideración todo lo anterior, el cómo nos relacionemos socioamentalmente es clave. Y más aún en una región como América Latina y el Caribe, debido a su enorme biodiversidad e importancia de sus bienes comunes naturales para toda la Tierra. 

Así, la lectura de Latour se vuelve una invitación a concebir y experimentar el planeta desde un lugar que pareciéramos querer seguir tomando distancia a pesar de todo lo que ha pasado.

http://www.bruno-latour.fr/

La esperanza de Pandora- Ensayos sobre la realidad de los estudios de la ciencia Reseña 2011 Resumen Asignatura Ciencia, Tecnologia y Sociedad (2002)

https://transicionsocioeconomica.blogspot.com/2019/09/bruno-latour-politicas-de-la-naturaleza.html

https://transicionsocioeconomica.blogspot.com/2020/06/nunca-fuimos-modernos-bruno-latour-el.html

http://www.bruno-latour.fr/books_and_edited_volumes.html

http://www.bruno-latour.fr/archives.html

http://www.bruno-latour.fr/node/532.html

https://transicionsocioeconomica.blogspot.com/2022/10/bruno-latour-en-memoria.html

https://articulosclaves.blogspot.com/2017/03/cienciatecnologia-y-sociedad-vs-nueva.html

https://articulosclaves.blogspot.com/2017/04/la-esperanza-de-pandora-y-la-revolucion.html

https://articulosclaves.blogspot.com/2019/02/bruno-latour-la-modernidad-esta-acabada.html

https://articulosclaves.blogspot.com/2019/09/bruno-latour-la-humanidad-se-las.html

https://articulosclaves.blogspot.com/2019/09/bruno-latour-politicas-de-la-naturaleza.html

https://articulosclaves.blogspot.com/2019/09/el-clima-los-partidos-verdes-y-la.html

https://brujulaeconomica.blogspot.com/2017/03/cienciatecnologia-y-sociedad-b6.html

https://articulosclaves.blogspot.com/2020/08/bruno-latour-la-modernidad-esta-acabada.html

https://brujulaeconomica.blogspot.com/2009/05/la-esperanza-de-pandorabruno-latour.html

https://transicionsocioeconomica.blogspot.com/2012/06/como-se-crea-la-realidad-segun-blatour.html

   Articles

(181)
The New Free University (with an introduction by Matthias Vicherat
2022

Lecture given for the 150 anniversary of Sciences Po, Paris, on the 16th of september 2022

Abstract
Ladies and gentlemen, I first reminded you of Emile Boutmy project; I then sketched, alas very superficially, the new curriculum necessary to fulfill our duties as educators in the New Climatic Regime; and I concluded, again much too briefly, on the big turnaround that will shift the research university out of a model so ill-adapted for a situation it could not anticipate. I apologise that I have not found a better way to entertain you during the celebration of our School which more than ever deserves a Latin motto: “primus sine paribus”. Thank you for your patience.
Translations
No Other Translations Available
Ecology & Political Ecology 🔗
(177)
Ecological Mutation and Christian Cosmology (a Lecture)
2021

A lecture for the International Congress of the European Society for Catholic Theology, Osnabrück, August 2021
(translated by Sam Ferguson)

Abstract
Since I am unable to speak as a theologian at this conference, I am addressing you as someone who has tried to grasp what the ecological mutation is doing to philosophy; and also as someone who has always been inspired by Catholicism, and has been frustrated at being unable to transmit its message to my loved ones. So in this lecture I shall try to link these two crises: that of ecology and that of transmission. I want to see if a different understanding of the mutation currently under way would make it possible to revisit the message in a different way. I will proceed in three stages: in the first part I will define the contrast between cosmological projection and preaching; in the second part I will list some points where, in my view, the change of cosmology provides a new opening for certain traditional questions of transmission and preaching; finally, I would like to summarise the present situation, as I see it, by presenting a riddle that will, I hope, open up the discussion.
Translations
No Other Translations Available
Ecology & Political Ecology, Religion Studies 🔗
(176)
A Conversation on the Art of Writing with Emmanuele Coccia
2021

Held at La maison de la Poésie in Paris with Emmanuele Coccia, introduced and translated by Stephen Muecke and published on the web by Asymptote the French video is accessible here

Abstract
This is the first time that the philosopher, social scientist, 2013 Holberg Prizewinner, and, as of last month, recipient of a Kyoto Prize Bruno Latour has spoken extensively about his writing practices while denying that he is a ‘writer’ in the strictly literary sense. Drawn out sensitively and expertly by Emanuele Coccia, himself a writer on ecologies, we discover much more about Latour, the writer of networks. He has become such an active ‘agent’ in literary and scholarly networks that he is now perhaps this century’s most cited intellectual. There must be something about what and how he writes that attracts citations, that makes people want to repeat what he says, paraphrase it or comment on it, creating in the end a huge literary network in which the author’s name is centrally suspended. It would be too easy to put it down to genius, or to a passionate engagement with ‘matters of concern’. These no doubt are factors, but what he and his friend Emanuele explore here is a different kind of environment for the writer to inhabit and flourish in, a kind of political ecology that is of planetary significance, but one that is nonetheless firmly grounded and practically negotiable.
Translations
No Other Translations Available
Semiotics & Literature Studies, Social Theory 🔗
(173)
How to understand the "Parliament of Things" thirty years later, Spinozalens lecture
2020

Lecture given for the reception of the Spinozalens prize, Nijmegen, 23 November 2020

Abstract
Lecture given on the 23rd of November at Radboud Reflects Nijmegen at the occasion of the Spinozalens prize 2020. Arjen Kleinherenbrink asks questions after the lecture. BL was asked to reminisce about the argument first proposed in 1989 on a possible « Parliament of Things ». Thirty years later, we have moved from a question which could be solved by an expansion of parliamentary politics — in the way Rousseau’s version of the social contract or Serres’ natural contract. But we have move to a much more tragic situation. The question is no longer to grand rights to non humans, but to accept to be dependent on them. The lecture uses the “Embassy of the North Sea” — sponsor of the prize — to give practical example of the shift in understanding political ecology.
Translations
No Other Translations Available
Ecology & Political Ecology 🔗
(172)
Two postfixes “logy” and “graphy”, but one prefix only: Gaia
2020

A lecture given at the Royal Anthropological Institute conference on Geography and Anthropology, Past Present Future,16 September 2020

Abstract
I will start from a fairly old, not to say reactionary, formulation of the problem: which people live on which soil? This will recast the question of the symposium, as I understand it, on the new connections between geography and anthropology. I will use the lockdown episode due to the pandemic as a fairly good natural experiment, so to speak, because everyone of us had to undergo a sort of general revision of the two aspects of this problem: we had to relocalise on a different soil because, suddenly, the borders between the global, the national and the local were reshuffled; and we had to rethink quite seriously which sort of people we were, especially because of the sudden suspension of the Economy and the revelation of class differences that had previously remained in the background. So, in effect, the lockdown is adding a very practical, not to say existential dimension, to the academic question of connecting geography and anthropology anew.
Translations
No Other Translations Available
🔗
(170)
Conflicts of planetary proportions – a conversation between Bruno Latour & Dipesch Chakrabarty
2020

Who needs a philosophy of history? A proposition followed by a response from Dipesh Chakrabarty
In the special issue “Historical Thinking and the Human”, Journal of the Philosophy of History 14 (3), 2020, 419–454, eds. Marek Tamm and Zoltán Boldizsár Simon

Abstract
The background of my piece is that Chakrabarty’s introduction of the Planetary triggered a seism in philosophy of history: if the Planetary emerges so late then all the other moments of what used to be called “history” are taking place on a ground that has lost its stability. Neither the World, nor the Globe, nor the Earth, nor the Global — to take a few of the steps he recorded — are actually the places where humans reside. Hence the deep suspicion projected backward as to why the distance separating the places the Moderns inhabited from those they thought they were inhabiting was not recognized earlier. A deep source of inauthenticity is revealed every time we engage more thoroughly in the Anthropocene. Geohistory breaks down any claim to have a human-oriented history. Hence the new ground for critique that is provided by realizing we live in the well named critical zone. Just at the time that critique had lost its steam, the simple fact of being violently transported onto the critical zone gave a new edge to a ferocious revision of Modernity. The civilization that had claimed to be the discoverer of the world was now dispersed over many incommensurable “planets” — the Planetary being one of the names for our present situation. The aim of this piece and of Chakrabarty’s response is to give a spatial and geopolitical ground to counteract the notion of the arrow of time implied so far by philosophies of history.
Translations
No Other Translations Available
Anthropology, Compositionism, Ecology & Political Ecology, Philosophy, Politics 🔗
(169)
Life on Earth is Hard to Spot
2019

Timothy Lenton, Sebastien Dutreuil & Bruno Latour The Anthropocene Review 2020

Abstract
Article accessible on TAC website The triumph of the Gaia hypothesis was to spot the extraordinary influence of Life on the Earth. “Life” is the clade including all extant living beings, as distinct from “life” the class of properties common to all living beings. “Gaia” is Life plus its effects on habitability. Life’s influence on the Earth was hard to spot for several reasons: Biologists missed it because they focused on life not Life; Climatologists missed it because Life is hard to see in the Earth’s energy balance; Earth system scientists opted instead for abiotic or human-centred approaches to the Earth system; Scientists in general were repelled by teleological arguments that Life acts to maintain habitable conditions. Instead we reason from organisms’ metabolisms outwards, showing how Life’s coupling to its environment has led to profound effects on Earth’s habitability. Recognising Life’s impact on Earth and learning from it could be critical to understanding and successfully navigating the Anthropocene.
Translations

Dutch translation
« Uitbreiding van het domein van de vrijheid, of waarom Gaia zo moelijk te begrijpen valt »
Het Parlement Van de Dingen,
2020, Boom, Amsterdam. pp 125-156]

Ecology & Political Ecology, History of Science 🔗
(168)
Seven Objections Against Landing on Earth
2020

"Seven Objections Against Landing on Earth” Introduction to the book Critical Zones — The Science and Politics of Landing on Earth (a volume prepared at the occasion of the exhibition Critical Zones — Observatories for Earthly Politics, ZKM, May-October 2020, MIT Press 2020

Abstract
— “Landing on Earth? Why would anyone attempt to land there? Are we not already on Earth?” Well, not quite! And that’s the circumstance this book tries to present to the inquiring reader: it seems that there has been in the past some misinterpretation over what it means to be earthly. If you believe it means “practical”, “mundane”, “secular”, “material” or even “materialist”, you’re in for a surprise. If members of modern industrial societies prided themselves on being “down to earth”, “rational”, “objective” and above all “realist”, they seem to suddenly discover that they need an Earth to continue to live — and live well. Should they not have carefully surveyed the span, size and location of the very land inside which they were supposed to reside and spread? Is not surveying and mapping what they had been doing when they engaged for centuries in what they still celebrate as the “age of great discoveries”? How odd that, after having assembled so many maps of so many foreign lands, collating so many views from so many landscapes, drawing so many versions of what they called “the Globe”, they now appear taken aback by the novelty of this newly emerging Earth? Of all people, should they not have been the best prepared for such a discovery?
Downloads
Translations

Langue: Japanese
Translator: Yohji Suzuki
Revue: https://we.tl/t-9ywLgj3PAg

Compositionism, Ecology & Political Ecology, History of Science, Politics, Technology, Viualization 🔗
(167)
Issues with Engendering
2019

Traduction par Stephen Muecke of ‘Troubles dans l’engendrement’, Bruno Latour interviewed by Carolina Miranda. Revue du crieur N° 14, La Découverte/Mediapart, 2019. Carolina Miranda could be a Chilean ethnologist and documentary filmmaker. They might have met on the 10th of June 2019 in Chatelperron. The form of the spoken language has been retained as much as possible. (unpublished in English but available on Academia)

Troubles dans l'engendrement
Abstract
CM — This time I’d like to talk to you about politics, rather than about your philosophy or anthropology. You will appreciate the importance of this, for me, coming from Latin America, especially after the publication of Down to Earth. We are all bursting with questions. BL—How do you mean, ‘we’? CM —Lots of people were surprised by this, your first really political book, very committed even, even left wing, and I’m acting as a go-between for a fair number of political groups, activists, not just academics. A lot of people back home are reading you in Spanish. BL —And yet The Politics of Nature came out in 1999, and politics plays an essential role in Inquiry into the Modes of Existence. And if you type ‘politics’ into my webpage, it is the most common word after ‘science.’ Are your friends just finding out that I’m interested in politics? For thirty years I have been worried about the danger of it disappearing as a fundamental practice, and as a unique mode of expression. CM — I know, I know. I hope we will have time to talk about it. But still, you wrote Down to Earth differently and for a different audience. And isn’t it the first time you have drawn connections in such a clear way with classical leftist ideas? BL — They are just more explicit, and yes, in another style.
Translations
No Other Translations Available
Ecology & Political Ecology 🔗
(166)
Politics - A Glimpse at Bodybuilding Afterword to What’s the New Body of the Body Politic? A Cini Dialog
2020

Afterword of the 2017 meeting at Cini Foundation, San Giorgio, Venice

Abstract
How in our right mind could we have the idea of convening in one three-day meeting political philosophers with scientists working on ants, baboons, cells, natural parks, together with historians of capitalism and — how totally bizarre! — specialists of the planet taken as a whole, namely Gaia — plus metaphysicians and historians of science thrown in, plus a bit of legal theory and a lot of social science to steer the pot further? What did we hope to achieve by linking corporate law with embryo development, the management of Amboseli with 19th century investment in railway or the competition between baboons and farmers, with the philosophy of Whitehead and the autotrophy of the earth system? And yet the only way to have a chance to renew the question of the extent, function and future of politics might well be to enter into this strange exercise and, against all odds, to carry it obstinately to the end. Why? Because whatever you expect from the future, you will indeed have to join in some ways in the same polity exactly those various types of beings that were brought to the table in September 2017. It is true that the term “body politik” has been disputed, but is there a better way to flag the goal of the new geohistorical epoch? No matter how disputed is the geological term of Anthropocene, this is exactly the sort of clarification that it triggers and the sort of occasion it opens for natural and social scientists to be able to collaborate. Indeed, it has provided a new breed of diplomats with the underserved chance of an improbable encounter, thanks to the generosity of the Cini Foundation, in one of the most beautiful setting there is: the Biblioteca Longana of San Giorgio.
 
http://www.bruno-latour.fr/article2679.html?page=1 
 
See video

In 1999 Bruno Latour organized for Hans Ulrich Obrist a series of reenactment of public lectures famous in science. BL did the 1864 Pasteur's lecture (abridged) on spontaneous generation where Pasteur demonstrated in a beautiful series of experiments that Pouchet, his adversary, had actually contaminated his vessels by neglecting what will become the rules of aseptic culture.

Bruno Latour: “El sentimiento de perder el mundo, ahora, es colectivo”

https://elpais.com/elpais/2019/03/29/ideas/1553888812_652680.html 

https://brujulaeconomica.blogspot.com/2009/05/la-esperanza-de-pandorabruno-latour.html