traductor

jueves, 23 de enero de 2020

El pasado es prólogo: futuro e historia de la ciencia

El pasado es prólogo: futuro e historia de la ciencia

Tiempo estimado de lectura 44
Habida cuenta de la importancia que la ciencia tiene en nuestras vidas y sociedades, una pregunta relevante es la de si es posible predecir su futuro. En este artículo, y utilizando como principal herramienta la historia de la ciencia, se analizan predicciones que algunos científicos han realizado sobre los contenidos y direcciones futuras de la ciencia. Al no escasear ejemplos de quienes han practicado semejante arte adivinatorio, los casos seleccionados cubren un amplio espectro, desde las predicciones poco sorprendentes hasta las completamente equivocadas, pasando por otras en campos como las matemáticas (Hilbert), La teoría de la Evolución (Erasmus y Charles Darwin), La Inteligencia Artificial (Wiener, Von Neumann y Turing) o la tecnología, y su relación con la ciencia. Se tratan, así mismo, cuestiones del tipo de cómo afectan las necesidades sociales o la ciencia ficción a la predicción del futuro científico.
“Where is what´s past is prologue, what to come
in yours and my discharge”
William Shakespeare, The Tempest 1
Vivimos a caballo entre el pasado y el futuro, con el presente escapándosenos constantemente de las manos, como una sombra evanescente. El pasado nos da recuerdos y conocimientos adquiridos, comprobados o por comprobar, un tesoro inapreciable que nos facilita el camino. Ahora bien, en realidad no sabemos hacia dónde nos conducirá ese camino en el futuro, qué características nuevas aparecerán en él, si será fácilmente transitable o no. Por supuesto, estos comentarios tienen su correlato evidente e inmediato en la vida, en las biografías individuales y colectivas (pensemos, por ejemplo, en cómo unas civilizaciones sustituyeron a otras a lo largo de la historia, para sorpresa las más de las veces de las que resultaron arrinconadas por el paso del tiempo), pero también en la ciencia, la actividad humana con mayor capacidad de hacer que el futuro sea muy diferente al pasado.
Precisamente por la importancia que para nuestras vidas y sociedades tiene el futuro, una cuestión que ha surgido una y otra vez es la de si es posible predecirlo; predecirlo disponiendo de sólidos conocimientos de aquello que nos ofrecen el pasado y el presente. Y si importante es hacerse una idea de hacia dónde se encaminarán los acontecimientos históricos e individuales, más lo es en lo que se refiere al futuro científico. ¿Por qué es más importante?, se preguntarán algunos; ¿no es la vida, las vidas e historias, presentes y futuras, de individuos y sociedades, lo esencial, aquello que nos debe interesar por encima de cualquier otra consideración? Admitamos que así es, pero es preciso insistir en que también el conocimiento científico constituye un elemento central, irrevocablemente central, en el futuro de esos individuos y sociedades; en, de hecho, el futuro de la humanidad.

El sueño (determinista) newtoniano

Desde esta perspectiva, es evidente que sería importante poder prever el futuro de la ciencia. En realidad, predecir es el propósito último de la ciencia, que busca determinar la evolución futura de los fenómenos que tienen lugar en la naturaleza; la ciencia no es, en mi opinión, sino la elaboración de sistemas lógicos con capacidad de predicción. La astrología, una forma primitiva y errónea de ciencia, pretendía explicar lo que sucede en la Tierra, incluyendo las vidas futuras de los individuos, en función de la situación y movimientos de los planetas. Más adelante, una vez que se dispuso de la poderosa física del movimiento que Isaac Newton (1642-1727) desarrolló en su gran libro de 1687, Philosophiae Naturalis Principia Mathematica, se pensó que el determinismo subyacente en las ecuaciones básicas de la dinámica newtoniana permitiría establecer la evolución de cualquier movimiento si se conociesen los datos de partida. La más rotunda y célebre manifestación en este sentido es la que realizó Pierre-Simon de Laplace (1749-1827) en uno de sus libros, Essai philosophique sur les probabilités (1814): “Una inteligencia que en un momento determinado conociera todas las fuerzas que animan a la naturaleza, así como la situación respectiva de los seres que la componen, si además fuera lo suficientemente amplia como para someter a análisis tales datos, podría abarcar en una sola fórmula los movimientos de los cuerpos más grandes del universo y los del átomo más ligero; nada le resultaría incierto y tanto el futuro como el pasado estarían presentes ante sus ojos”. Por supuesto, Laplace sabía muy bien que no sería posible contar con toda la información necesaria, ni con la capacidad de cálculo, para que se pudiera cumplir el determinista programa newtoniano (“Todos los esfuerzos por buscar la verdad tienden a aproximarlo continuamente a la inteligencia que acabamos de imaginar, pero de la que siempre permanecerá infinitamente alejado”), y precisamente por eso se ocupó de la teoría de las probabilidades.
Por un lado, la mecánica cuántica (desarrollada por Werner Heisenberg en 1925 y por Erwin Schrödinger en 1926), con el probabilismo intrínseco de su variable básica, la función de onda (descubierto por Max Born en 1926) y con el principio de incertidumbre (desvelado por Heisenberg en 1927), y por otro el caos (Edward Lorenz 1963), con la dependencia de las soluciones de los sistemas caóticos ante cambios minúsculos en las condiciones iniciales, terminaron con este sueño newtoniano.
Interesantes y fundamentales como son estas consideraciones, no constituyen el objeto de los temas que aborda el presente volumen, ni son los que yo quiero analizar aquí. El futuro científico del que pretendo ocuparme es el de las previsiones que los científicos han realizado sobre los contenidos y direcciones futuras de la ciencia.

Imaginando el futuro

Lo primero que hay que decir sobre esta cuestión es que no es difícil encontrar en el pasado quienes hicieron predicciones sobre el futuro científico. “Algún día”, escribió proféticamente el clérigo inglés Francis Godwin (1562-1633) en un libro publicado póstumamente (Godwin 1638), “los hombres podrían volar de un sitio a otro y serían capaces de enviar mensajes a muchos cientos de millas de distancia en un instante y recibir respuesta sin intervención de persona humana. Podrían también transmitir su pensamiento a otras criaturas aunque estuviesen en el más remoto y oscuro rincón de la ciudad, con otros notables experimentos”2. Y Christopher Wren (16321723), que aunque adquirió la fama que aún conserva como arquitecto fue antes ilustre astrónomo, previó en el discurso inaugural que pronunció en 1657 como nuevo catedrático de Astronomía del Gresham College (luego lo sería en Oxford), que “llegará el día, en que los hombres […] serán capaces de descubrir dos mil veces más estrellas que las que nosotros podemos ver; y encontrar la Galaxia y miles de ellas; y toda estrella nebulosa aparecerá como si fuese el firmamento de otro Mundo, a una distancia incomprensible, sepultada en el vasto abismo del vacío de entre mundos; el día en que verán planetas como nuestra Tierra, provistos de colinas y valles; en el que verán Saturno variando más admirablemente que nuestra Luna” (Wren 1750: 200-206).
Tanto Godwin como Wren acertaron (Godwin no en lo que se refiere a la transmisión del pensamiento, o no todavía), aunque sus predicciones tardasen en llegar. Ahora bien, este tipo de predicciones no son las que me interesan aquí, al ser, por decirlo de alguna manera, fáciles de imaginar, habiendo sido realizadas múltiples veces en el pasado. Las predicciones, a las que con frecuencia habría que tildar más apropiadamente de elucubraciones precursoras o pertenecientes al género de la ciencia ficción, relativas al espacio han sido frecuentes a lo largo de la historia, especialmente los vuelos a la Luna. Ya Luciano de Samósata (c. 125-195) imaginó un viaje a la Luna y el Sol en un barco volante sin más propulsión que la de los vientos “extremosos”3. Incluso Johannes Kepler (1571-1630), uno de los protagonistas de la Revolución Científica (su gran aportación fueron las tres leyes del movimiento planetario que llevan su nombre) ideó, bajo la forma de un sueño, un viaje a la Luna, transportado a ella con la ayuda de demonios lunares, aunque en realidad su propósito era describir lo que un observador instalado en nuestro planeta vería desde él4. En este sentido, el sueño (Somnium; publicado postumamente en 1634) de Kepler se ajustó mejor a los estándares científicos que las posibilidades imaginadas por Francis Godwin o Luciano de Samóstata o las que el secretario perpetuo de la Académie des Sciences de París, Bernard le Bovier de Fontenelle (1657-1757) plasmó en su libro Entretiens sur la pluralité des mondes publicado en 1686, en el que consideraba la posibilidad de vida extraterreste en otros mundos planetarios.
Predecir es el propósito último de la ciencia, que busca determinar la evolución futura de los fenómenos que tienen lugar en la naturaleza; la ciencia no es, en mi opinión, sino la elaboración de sistemas lógicos con capacidad de predicción.
Más interesantes que este tipo de predicciones son otras que se hicieron ya en el siglo XIX, cuando aún se mantenía –completada, como veremos– la idea de que con los pilares newtonianos sería posible explicar en el futuro todos los fenómenos físicos. Faltaba aplicar la física newtoniana al otro gran apartado entonces conocido de las fuerzas presentes en la naturaleza, el magnetismo y la electricidad. Ahora bien, a pesar del éxito inicial que supusieron leyes como la que propuso en 1785 el físico francés Charles-Augustin de Coulomb (1736-1806), extrapolando la ley de la gravitación universal al dominio de la electricidad (o mejor, de la electrostática) –la fuerza entre dos cargas es proporcional al producto de sus valores dividido por el cuadrado de la distancia que las separa–, para explicar los fenómenos electromagnéticos fue necesario ir más allá del modelo newtoniano, utilizar otro tipo de esquema teórico: la electrodinámica elaborada en la década de 1860 por el físico escocés James Clerk Maxwell (1831-1879), en la que los campos, y no las acciones a distancia newtonianas, ocupaban el lugar central.

Futuros inesperados

Completada la síntesis maxwelliana, a finales del siglo XIX se extendió entre los físicos la idea de que con la dinámica newtoniana y la electrodinámica de Maxwell quedaban completas, ahora sí, las bases teóricas para describir la naturaleza. Así, se adjudican al más que notable físico estadounidense Albert Abraham Michelson (1852-1931) –recibió el Premio Nobel de Física en 1907 (fue el primer estadounidense en recibirlo)– unas frases que aparentemente pronunció en un discurso leído el 2 de julio de 1894 durante la inauguración del Laboratorio de Física Ryerson de la Universidad de Chicago, al menos así aparecen en el correspondiente artículo que lleva su firma5: “Parece probable que la mayoría de los grandes principios básicos hayan sido ya firmemente establecidos y que haya que buscar los futuros avances sobre todo aplicando de manera rigurosa estos principios […] Las futuras verdades de la Ciencia Física se deberán buscar en la sexta cifra de los decimales”.
Un año después de que Michelson pronunciase estas rotundas, y a la postre equivocadas, palabras, en 1895 Wilhelm Röntgen descubría los rayos X y el año siguiente Henri Becquerel la radiactividad, que nadie sabía cómo encajar en el aparentemente tan firme, sólido y cerrado edificio de la física conocida, a la que ahora denominamos “física clásica”. Predecir, en definitiva, es arriesgado. Veamos, en este mismo sentido, algunos ejemplos más de hallazgos científicos, en física, que constituyeron auténticas sorpresas.
El primero es el descubrimiento de la expansión del universo. Una vez que Albert Einstein (1879-1955) completó en noviembre de 1915 la teoría relativista de la gravitación –la teoría general de la relatividad– que buscaba desde hacía años, decidió aplicarla al conjunto del universo; esto es, construir una cosmología relativista. Enfrentado con la cuestión de buscar una solución de las ecuaciones del campo gravitacional que representase lo que él imaginaba era el universo, supuso que este era estático y que la distribución de materia en él era uniforme. Es bien sabido que la suposición de un universo estático le obligó a modificar las ecuaciones del campo de la relatividad general, introduciendo una constante cosmológica, pero lo que me interesa destacar ahora es que no pensó en la posibilidad de que el universo no fuese estático. Tampoco consideraron seriamente semejante posibilidad el matemático y físico ruso Aleksandr Friedmann, el matemático estadounidense Howard Robertson o el matemático inglés Arthur Geoffrey Walker, que encontraron soluciones de las ecuaciones del campo relativistas que implicaban universos en expansión: creyeron que se trataba de soluciones matemáticas alejadas de la realidad física. Únicamente la tomó en serio el sacerdote y físico belga Georges Lemaître (1894-1966), en un artículo titulado “Un universo homogéneo de masa constante y de radio creciente, que explica la velocidad radial de nebulosas extragalácticas”, que publicó en 1927 en la revista Annales de la Société Scientifique de Bruxelles, pero no recibió ni el apoyo ni la atención de sus colegas.
Fue el astrónomo estadounidense Edwin Hubble (1889-1953) quien descubrió la hoy tan célebre expansión del universo, resultado que publicó en 1929. No se predijo, por consiguiente, incluso aunque existía una base teórica que permitía hacerlo, sino que se descubrió observando. Y otro tanto se puede decir de descubrimientos astronómicos como los de los púlsares (Jocelyn S. Bell, 1967) y los cuásares (de quasi-stellar source, fuente casi-estelar), radio-fuentes que muestran un gran desplazamiento hacia el rojo, cuya existencia quedó confirmada a comienzos de la década de 1960. Sí fueron previstos, analizando una solución de las ecuaciones de la relatividad general (la solución de Schwarzchild), los agujeros negros, aunque muchos científicos dudaron de que existieran (sus equivalentes newtonianos habían sido propuestos –y enseguida olvidados– mucho antes: primero por el astrónomo británico John Michel en 1783, y luego por Laplace en 1795). Se tardó en confirmar experimentalmente su existencia, pero se logró, ya en el siglo XXI: se han encontrado sistemas binarios, uno de cuyos miembros parece ser un agujero negro: por ejemplo, V404 Cygni, constituido por una estrella de dos tercios la masa del Sol y un agujero negro de 12 masas solares. También ha sido una sorpresa mayúscula el descubrimiento observacional de que solo alrededor del 3 % del universo está formado por masa ordinaria, mientras que el 30 % es un tipo de materia desconocida (denominada materia oscura) y el 67 % por una forma de energía también desconocida (energía oscura).
Nadie predijo, y esta constatación es fundamental a la hora de cualquier consideración sobre la posibilidad de predecir el futuro científico, la mecánica cuántica, sobre cuyos pilares se levanta una buena parte del tecnologizado mundo actual. Y no debemos sorprendernos, ya que se trata de una teoría entre cuyos fundamentos se incluyen apartados tan sorprendentes como: a) el que los objetos físicos se describen mediante funciones, de onda (definidas en el campo de los números complejos) cuyo cuadrado representa no la historia posterior del objeto en cuestión, sino la probabilidad de que siga tal o cual historia; b) el colapso de la función de onda (en el acto de medir-observar se selecciona, con cierta probabilidad, una u otra parte de la función de onda, esto es, de la realidad que se produce), y c) el principio de incertidumbre de Heisenberg.
Aun así, en los últimos tiempos, especialmente dentro de algunos apartados de la física teórica, no es raro encontrarse con escritos en los que se habla del futuro, especulando sobre él. Semejante tendencia se vio reforzada por el impacto de la conferencia inaugural que Stephen Hawking (n. 1942) pronunció el 29 de abril de 1980 como nuevo Lucasian professor, a la que el astuto (al menos en estos aspectos publicitarios) físico dio el atractivo título de ¿Está a la vista el fin de la física teórica? Análogamente, en un capítulo titulado “Prediciendo el futuro” de su libro The Universe in a Nutshell, Hawking (2002: 103) escribía: “Los humanos siempre hemos querido controlar el futuro o, al menos, predecir lo que va a ocurrir. Por esto la astrología es tan popular”6. No es sorprendente, en este sentido, que cuando un grupo de físicos se planteó celebrar el sexagésimo cumpleaños de Hawking se eligiera como tema “El futuro de la física teórica y la cosmología” (Gibbons, Shellard y Rankin, eds. 2003), ni que en el libro producto de aquella reunión aparezcan capítulos con títulos como: “Nuestro complejo cosmos y su futuro” (Martin Rees), “El pasado y futuro de la teoría de cuerdas” (Edward Witten) y “El futuro de la cosmología: posibilidades observacionales y computacionales” (Paul Shellard)7.
Un científico actual que ha dedicado una parte de su tiempo a la predicción del futuro científico es el físico de altas energías Michio Kaku (n. 1947), autor de un libro que obtuvo un cierto éxito: Visions, significativamente subtitulado Cómo la ciencia revolucionará la materia, la vida y la mente en el siglo XXI (Kaku 1998). Sería interesante analizar esta obra, al igual que otras de este tipo, como los diferentes trabajos contenidos en las actas de un congreso que tuvo lugar en los albores del siglo XXI para considerar lo que podemos esperar de la ciencia y la tecnología del nuevo milenio (Sánchez Ron, ed. 2002), pero el objetivo del presente artículo no es tanto tratar de cómo será el futuro –no, desde luego, recurriendo a textos tan generales y escritos hace tan poco tiempo como el de Kaku– sino, recurriendo a la historia de la ciencia, estudiar las previsiones que sobre su devenir realizaron en el pasado algunos científicos. En cierto sentido, semejante propósito recuerda la cita de La tempestad de William Shakespeare que encabeza este trabajo: “Lo pasado es prólogo y lo que viene hemos de ejecutarlo nosotros”, que acaso podemos entender como que la historia es un instrumento para predecir el futuro, ya que su fin es analizar ese prólogo de lo que ha de venir8.

La evolución de las especies, ¿Erasmus o Charles Darwin?

Los anteriores ejemplos provienen de la física, la más matematizada de las ciencias y también la que más tempranamente (dejando aparte la propia matemática) contó con sistemas teóricos predictivos. Veamos ahora un ejemplo extraído de otro mundo científico, el de las ciencias naturales. En concreto, la cuestión que quiero plantear es si el concepto de evolución de las especies fue una de esas predicciones futuribles de las que estoy tratando. Para ello recurriré a Erasmus Darwin (1731-1802), un próspero médico, además de poeta, filósofo y botánico, y a su famoso nieto, Charles Darwin (1809-1882). Es bien sabido que Charles produjo la teoría de la evolución de las especies, que dio a conocer en On the Origin of Species by means of Natural Selection, or the Preservation of Favoured Races in the Struggle for Life (1859), uno de los grandes libros de la historia de la humanidad. Ahora bien, como se suele recordar, su abuelo Erasmus fue uno de los precursores de la teoría evolucionista. La base de semejante afirmación se encuentra en un pasaje de un libro suyo, Zoonomia; or the Laws of Organic Life (1794-1796), una curiosa combinación de hechos e intuiciones, que contiene párrafos como el siguiente (Erasmus Darwin 1796: sección XXXIX, “On generation”, 4.8): “¿Sería demasiado atrevido imaginar que en la gran extensión de tiempo que ha transcurrido desde que comenzó a existir la Tierra, tal vez millones de eras antes del inicio de la historia de la humanidad, todos los animales de sangre caliente han surgido a partir de un filamento vivo, con la primera gran causa dotada de animalidad, con la capacidad de adquirir partes nuevas, dotadas con nuevas inclinaciones, dirigidas por irritaciones, sensaciones, voliciones y asociaciones?; y poseyendo así la facultad de continuar mejorando mediante su propia actividad inherente, y de transmitir esas mejoras a su posteridad, ¡un mundo sin fin!”.
La cuestión es en qué medida debemos considerar que Erasmus predijo la existencia de la evolución de las especies. En mi opinión, su predicción no es demasiado diferente a la de los atomistas griegos, como Leucipo o Demócrito (siglos V y IV a.C.), que sostuvieron que la materia está compuesta de átomos, esto es, partículas indivisibles, tesis que Lucrecio (99-55 a.C.) difundió en su extenso poema, De rerum natura (Sobre la naturaleza de las cosas). El átomo que finalmente produjo la física del siglo XX poco se parece al que imaginaron los atomistas helenos, y de la misma manera, aunque acaso algo atenuado, la idea de evolución que propugnó Erasmus Darwin no se parece a la que, con gran esfuerzo, produjo su nieto. Uno de los puntos de apoyo de la teoría darwiniana de la evolución de las especies fue el de la lucha por la existencia, que Charles tomó del economista Thomas Robert Malthus, tal y como este la había expuesto en su ensayo de 1826, An Essay on the Principle of Population, y nada de esto aparece en Erasmus Darwin, como tampoco aparece la extensa y detallada colección de datos que sustentaban las ideas de su nieto.
Y puesto que estoy tratando de Charles Darwin, mencionaré una de sus predicciones (esto es, visiones del futuro), que el desarrollo posterior de la biología parece confirmar: la de que todos los seres vivos presentes en la Tierra, al igual que sus antecesores, proceden de una única, común, forma de vida primitiva. Charles fue cauto en este punto, pero también claro. Así, en El origen de las especies escribió (Charles Darwin 1859: 488-490): “Cuando considero todos los seres no como creaciones especiales, sino como los descendientes directos de un corto número de seres que vivieron mucho antes de que se depositase la primera capa del sistema silúrico, me parece que se ennoblecen […] Así, la cosa más elevada que somos capaces de concebir, o sea la producción de los animales superiores, resulta directamente de la guerra de la naturaleza, del hambre y de la muerte. Hay grandeza en esta concepción de que la vida, con sus diferentes fuerzas, que ha sido insuflada en un corto número de formas o en una sola, y que, mientras este planeta ha ido girando según la constante ley de la gravitación, se han desarrollado y se están desarrollando, a partir de un principio tan sencillo, infinidad de formas más bellas y portentosas”9.

Hilbert sobre los problemas futuros de las matemáticas

Un tipo diferente de predicción, mucho más exitoso, que aquellos que he mencionado hasta el momento es el que utilizó el gran matemático alemán David Hilbert (1862-1943), en la famosa conferencia que pronunció el miércoles 8 de agosto de 1900 en el marco del Segundo Congreso Internacional de Matemáticos, celebrado en París: “Sobre los problemas futuros de las matemáticas”. Comenzaba esta de la siguiente manera (Hilbert 1902: 58):
“¿Quién no se ofrecería voluntario para levantar el velo que nos oculta el porvenir con el fin de echar un vistazo a los progresos de nuestra ciencia y los secretos de su desarrollo ulterior en los siglos futuros? En el campo tan fecundo y vasto de la ciencia matemática, ¿cuáles serán las metas particulares que intentarán alcanzar los guías del pensamiento matemático de las generaciones futuras? ¿Cuáles serán, en este campo, las nuevas verdades y los nuevos métodos descubiertos en el siglo que comienza?
La historia enseña la continuidad del desarrollo de la ciencia. Sabemos que cada época tiene sus problemas que la época siguiente resuelve o deja de lado como estériles, reemplazándolos por otros. Si deseamos prever el desarrollo presumible de la ciencia matemática en un futuro próximo, debemos repasar las cuestiones pendientes y poner nuestra atención en los problemas planteados en la actualidad y que esperamos que el futuro resuelva”.
Era, en realidad, sobre las cuestiones pendientes entonces en la matemática de lo que Hilbert trató. Aplicó su extraordinario conocimiento matemático, del estado en que se encontraba su disciplina y de su historia previa, para seleccionar una serie de problemas, veintitrés, que consideraba centrales para su devenir. Como ha señalado el historiador de la matemática Jeremy Gray (2003: 7), las intenciones de Hilbert no eran simplemente “levantar el velo que nos separa del futuro, sino ayudar a conformar y dirigir ese futuro”. Con su prestigio y el de su universidad tras él –y Hilbert trabajaba en el centro más potente del mundo en matemáticas, el Instituto de Matemáticas de la Universidad de Gotinga– era probable que los problemas que planteaba estuvieran siempre en la vanguardia de la investigación matemática, y así sucedió”10. La historia de la matemática del siglo XX, en efecto, no se puede explicar sin tener en cuenta los problemas que seleccionó Hilbert en 1900; por supuesto, no toda la investigación matemática se orientó hacia las líneas escogidas por él, pero es innegable que su criterio conformó en alguna medida el futuro, porque en ciencia una buena parte de este lo constituyen los esfuerzos que se emplean en resolver problemas dentro de, como diría Thomas Kuhn (1962), el paradigma dominante. Citando de nuevo a Gray (2003: 255): “Por supuesto, hay matemáticos que no han sentido interés [por los veintitrés problemas de Hilbert]; hay otros muchos que sí lo han sentido. Las contribuciones de algunos matemáticos han sido olvidadas […] Algunos problemas han parecido más interesantes que otros: esto es perfectamente natural. Pero en la lista de quienes han tratado los problemas figuran muchos matemáticos importantes del siglo XX. Basta con citar a algunos de los teóricos de números: Gelfond, Siegel, Artin, Takagi y Hasse. Los nombres de Dehn, Bernstein, Koebe y Birkoff también son ilustres, y los problemas que sobrevivieron hasta los años cincuenta y sesenta atrajeron la atención de Paul Cohen, Kolmogorov, Arnold y Zariski entre otros”.
Lo que enseña la conferencia de Hilbert y el lugar que esta ocupa en la historia de la matemática, es que al menos una parte del futuro –con frecuencia la mayor parte– está marcada, y en este sentido ocupada, por las previsiones que algunos hicieron sobre ese futuro. La mayoría de las veces destacamos cómo las novedades antes impredecibles, las revoluciones científicas, determinan el futuro. Existen, evidentemente, buenas razones para resaltar esta dimensión del futuro, pero como nos muestra el caso de Hilbert, el futuro no se configura únicamente de esa forma. De hecho, este tipo de ligaduras que tanto influyen en el devenir no surgen solo de mecanismos como el que ejemplifica Hilbert, sino también de otros, digamos, “institucionales”. Un ejemplo notable en este apartado lo proporciona el apoyo que el gobierno federal estadounidense (más concretamente, su Departamento de Defensa y a la cabeza de este el Pentágono) suministró a partir del final de la Segunda Guerra Mundial a una serie de disciplinas físicas: la energía nuclear y la electrónica preferentemente. Semejante apoyo influyó decisivamente en la dirección de la investigación en física, favoreciendo la aparición de edificios teórico-experimentales tan destacados como el Modelo Estándar en física de altas energías. Sin los grandes aceleradores de partículas, construidos inicialmente en Estados Unidos con el apoyo económico de las Fuerzas Armadas estadounidenses, ¿hubiera sido posible, por ejemplo, llegar a descubrimientos tan novedosos como el de los quarks, o el del máser y el láser? No, en mi opinión, o no tan pronto11.
Aunque el paralelismo no sea completo, este tipo de dependencia del pasado, una dependencia más intensa que en otros casos (siempre somos hijos del pasado), me recuerda lo que escribió el historiador, sociólogo y politólogo italiano Benedetto Croce (1992: 183) en 1938, “La cultura histórica tiene por fin conservar viva la conciencia que la sociedad humana tiene del propio pasado, es decir, de su presente, es decir, de sí misma; de suministrarle lo que necesite para el camino que ha de escoger; de tener dispuesto cuanto, por esta parte, pueda servirle en lo por venir”.

Predicciones tecnológicas

Más factible que en la ciencia es vislumbrar el futuro en el dominio de la tecnología, como muy apropiadamente señaló uno de los grandes gurús de la nanotecnología, Eric K. Drexler (n. 1955), en su conocido libro Engines of Creation. The Coming Era of Nanotechnology, publicado en 1986. “La predicción del contenido de un nuevo conocimiento científico”, escribió allí Drexler (1993: 72), “es lógicamente imposible, porque no tiene sentido afirmar saber ya los hechos que aprendemos en el futuro. Predecir los detalles de la tecnología futura, por el contrario, solamente es difícil. La ciencia apunta a conocer, pero la ingeniería apunta a hacer; esto permite al ingeniero hablar de logros futuros sin que resulte paradójico. Pueden desarrollar sus artefactos en el mundo de la mente y la computación, antes de cortar el metal o aun de haber definido todos los detalles de un diseño. Los científicos reconocen comúnmente esta diferencia entre previsión científica y previsión tecnológica: hacen fácilmente predicciones tecnológicas acerca de la ciencia. Los científicos pueden predecir (y lo hacen) la calidad de las imágenes de los anillos de Saturno del Voyager, por ejemplo, aunque no su contenido sorprendente”.
Por supuesto, aunque sean más factibles las predicciones tecnológicas también podemos encontrar largas listas de errores, como advirtió el distinguido ingeniero aerodinámico Theodore von Kármán (1881-1963) en un artículo que publicó en 1955, titulado precisamente “Los próximos cincuenta años”, en el que citaba (Von Kármán 1955, 1975: 325) la siguiente predicción aparecida en un artículo de 1908 de la revista Engineering News: “Es imposible imaginar que el transporte aéreo de carga y de pasajeros pueda entrar en competición con el transporte por superficie. El campo de la navegación aérea está, por consiguiente, limitado a las aplicaciones militares y deportivas; mientras que estas últimas son casi seguras, las militares son aún dudosas”.
En cualquier caso son muchos los ejemplos que muestran que, efectivamente, es más seguro realizar predicciones tecnológicas que científicas. Uno de ellos, importante ya que sus predicciones se refieren al mundo digital en el que ya vivimos, soporte de la denominada sociedad de la información y de la globalización, es Nicholas Negroponte (n. 1943), fundador y director del Media Lab del MIT, institución de la que es catedrático desde 1966. En 1995, Negroponte publicó un libro, Being Digital, en el que, visto retrospectivamente, atinó con mucho de lo que había de venir. “A medida que nos interconectemos entre nosotros mismos”, escribía (Negroponte 1995: 21), “muchos de los valores del Estado-nación cambiarán por los de comunidades electrónicas, ya sean estas pequeñas o grandes. Nos relacionaremos en comunidades digitales en las que el espacio físico será irrelevante y el tiempo jugará un papel diferente”. O (Negroponte 1995: 176-177): “En el próximo milenio, hablaremos tanto o más con máquinas que con seres humanos […] La miniaturización hará que esta omnipresencia del habla avance más deprisa que en el pasado. Los ordenadores son cada vez más pequeños y es muy probable que mañana llevemos en la muñeca lo que hoy tenemos en el escritorio y ayer ocupaba toda una habitación”. Y (Negroponte 1995: 269-271):
“La próxima década será testigo de un sinnúmero de casos de abusos de los derechos de propiedad intelectual y de invasión de nuestra intimidad. Habrá vandalismo digital, piratería del software y robo de información. Y lo peor de todo, mucha gente se quedará sin trabajo debido a los sistemas automatizados y las oficinas cambiarán tanto como lo han hecho las fábricas. La noción de tener el mismo trabajo toda la vida ha empezado a desaparecer […] A medida que nos acerquemos a ese mundo digital, todo un sector de la población será o se sentirá desplazado. Cuando un trabajador siderúrgico de cincuenta años pierda su trabajo, lo más seguro es que, a diferencia de su hijo de veinticinco años, le sea imposible adaptarse al mundo digital. Sin embargo, si un secretario pierde su trabajo, al menos estará familiarizado con el mundo digital y poseerá habilidades transferibles”.
La predicción del contenido de un nuevo conocimiento científico, escribió Drexler, es lógicamente imposible, porque no tiene sentido afirmar saber ya los hechos que aprendemos en el futuro. Predecir los detalles de la tecnología futura, por el contrario, solamente es difícil.
Naturalmente, no todas sus predicciones han resultado correctas, o no todavía correctas, pero de muchas otras lo único que cabe objetar es que el futuro que imaginaba ha llegado antes de lo que él suponía.
Otro ejemplo lo proporciona Eric Drexler, a quien ya me he referido. En Engines of Creation predijo la que mayoritariamente es considerada en la actualidad como la nueva, cercana en el futuro, revolución científico-tecnológica12. “La tecnología,” se lee en su libro (Drexler 1993: 304-305), “podrá terminar o extender la vida, pero también puede cambiar su cualidad. Los productos basados en la nanotecnología penetrarán en las vidas cotidianas de la gente que elija usarlos. Algunas consecuencias serán triviales; otras pueden ser profundas”. Y continuaba:
“Algunos productos tendrán efectos tan ordinarios como simplificar el cuidado hogareño (y tan sustanciales como reducir las causas de las disputas domésticas). No debería ser una gran hazaña, por ejemplo, hacer que todo, desde los platos hasta las alfombras, se limpie a sí mismo y el aire dentro de la casa esté permanentemente fresco. Para nanomáquinas apropiadamente diseñadas, la suciedad sería su alimento.
Otros sistemas basados en la nanotecnología podrían producir comida fresca –carne genuina, granos, vegetales, etcétera– en el hogar, todo el año. Estos alimentos proceden de células que crecen según ciertos patrones en las plantas y los animales; las células pueden ser obligadas a crecer según estos mismos patrones en otros lados. Los cultivadores caseros de comida permitirán a las personas comer dietas ordinarias sin matar. El movimiento a favor de los derechos del animal (¿precursor de un movimiento para proteger a todas las entidades sensibles y conscientes?) se fortalecerá.
La nanotecnología hará posibles las pantallas de alta definición que proyecten diferentes imágenes para cada ojo; el resultado será televisión tridimensional tan real que la pantalla parecerá una ventana hacia otro mundo […] La nanotecnología hará posible formas vívidas de arte y mundos de fantasía mucho más absorbentes que cualquier libro, juego o película.
Las nanotecnologías avanzadas posibilitarán todo un mundo de productos que hará que las comodidades modernas parezcan inconvenientes y peligrosas. ¿Por qué los objetos no deberían ser livianos, flexibles, durables y cooperativos? ¿Por qué las paredes no podrían tener la apariencia que queramos y transmitir solo los sonidos que deseemos escuchar? ¿Y por qué edificios y automóviles deberían aplastar o asar a sus ocupantes? Para aquellos que lo deseen, el medio ambiente de la vida cotidiana puede semejar algunas de las descripciones más extravagantes halladas en la ciencia ficción”.
Y algo muy parecido se podría decir –y se dice– sobre el papel de la nanotecnología en la medicina del futuro13.
Aunque Drexler se convirtió en uno de los principales profetas de la nanotecnología, el auténtico pionero del pensamiento que condujo a ella fue uno de los grandes físicos del siglo XIX, uno particularmente querido y admirado por sus colegas, Richard Feynman (1918-1988). En una conferencia titulada “There’s plenty of room at the botton” (“Hay mucho lugar en el fondo”), que pronunció en la reunión anual de la American Physical Society el 29 de diciembre de 1959 –veintisiete años, por tanto, antes de que Drexler publicase Engines of Creation–, Feynman alertó a los científicos acerca de la posibilidad y el interés de trabajar en dimensiones mucho más pequeñas de las frecuentadas entonces14. “Quiero describir un campo”, comenzaba su conferencia (Feynman 1960: 22):
“en el que se ha hecho poco, pero en el que en principio se puede hacer mucho. Este campo no es exactamente el mismo que otros en tanto que no nos dirá mucho sobre física fundamental (en el sentido de ‘¿Qué son las partículas extrañas?’), pero que es más parecido a la física del estado sólido en el sentido de que puede decirnos mucho de gran interés sobre los extraños fenómenos que tienen lugar en situaciones complejas. Además, un punto muy importante es que tendría un enorme número de aplicaciones técnicas. De lo que quiero hablar es del problema de manipular y controlar cosas en una escala pequeña”. Las escalas que consideraba Feymann (1960: 34) llegaban a las atómicas: “No tengo miedo de considerar la cuestión final de si, en última instancia –en un futuro lejano–, podremos manipular los átomos de la forma en que queramos, ¡los mismísimos átomos, todo el camino hasta ellos! Qué sucederá si pudiésemos manipularlos uno a uno de la manera que quisiésemos (dentro de lo razonable, por supuesto; no podemos colocarlos, por ejemplo, de forma que sean químicamente inestables)”.
Manipular átomo a átomo es lo que la nanotecnología ha logrado, lo que en realidad es su fundamento. Claro que para lograr esto fue necesario algo que Feynman también reclamó en su conferencia: mejores microscopios que los electrónicos entonces disponibles. Y estos llegaron: en 1981, dos físicos que trabajaban en los laboratorios de IBM en Zúrich, Gerd Binning y Heinrich Roher, desarrollaron el microscopio de efecto túnel, un instrumento que puede tomar imágenes de superficies a nivel atómico. Sin él, la nanotecnología sería todavía un sueño borroso, apenas definido, como lo era cuando Feynman pronunció su famosa conferencia. Y sin él, Drexler no habría podido escribir su libro.
Estos hechos nos llevan a la siguiente reflexión: incluso aunque las predicciones tecnológicas sean más seguras, estas necesitan de una base científica, la mecánica cuántica y el microscopio de efecto túnel en el caso de las predicciones de Drexler sobre la nanotecnología, o la mecánica cuántica y el transistor para las de Negroponte. Es desde esta perspectiva desde la que podemos entender predicciones que ahora, en la era de los teléfonos móviles o celulares, nos resultan asombrosas, como la que aventuró en el City Guilds Central Technical College de Londres, ante el British Imperial Institute en 1897, William Edward Ayrton (1847-1908), catedrático de Física aplicada e Ingeniería eléctrica desde 1884 hasta su muerte (Ayrton 1884: 548; citada en Marvin 1988: 157):
“No hay duda de que llegará el día, en el que probablemente tanto yo como ustedes habremos sido olvidados, en el que los cables de cobre, el hierro y la gutapercha que los recubre serán relegados al museo de antigüedades. Entonces cuando una persona quiera telegrafiar a un amigo, incluso sin saber dónde pueda estar, llamará con una voz electromagnética que será escuchada por aquel que tenga el oído electromagnético, pero que permanecerá silenciosa para todos los demás. Dirá ‘¿dónde estás?’ y la respuesta llegará audible a la persona con el oído electromagnético: ‘Estoy en el fondo de una mina de carbón, o cruzando los Andes o en medio del Pacífico’”.
Ayrton, en efecto, especulaba provisto del soporte que le ofrecía el nuevo mundo electromagnético que había surgido de trabajos de, entre otros, Faraday, Maxwell y Marconi.

Ciencia versus tecnología

Antes de continuar, y puesto que he estado hablando de predicciones tecnológicas, cuando en principio pretendía ocuparme de predicciones científicas, es conveniente resaltar la íntima relación que existe entre ciencia y tecnología. Es posible ofrecer numerosas evidencias a favor de semejante conexión, que con frecuencia se minusvalora sosteniendo que primero está la ciencia básica y cuando se aplica (ciencia aplicada) se convierte en tecnología, una conexión que de ser cierta establecería una relación de subordinación de la tecnología con respecto a la ciencia. Pero no es así, al menos no así siempre; un ejemplo canónico en este sentido es el de la termodinámica, la rama de la física que se ocupa de los intercambios de calor, que nació después y en buena medida como reflexión (piénsese en el trabajo clásico que Sadi Carnot publicó en 1824: Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance) sobre el funcionamiento y la posible mejora de las máquinas de vapor que dieron lugar a la Revolución industrial.
Entre los que entendieron bien la dual y dinámica relación entre ciencia y tecnología se encuentra William Thomson (1824-1907), más conocido como lord Kelvin, que transitó con fortuna y gusto por ambos dominios, mejorando ambos. En una conferencia que pronunció en la Institution of Civil Engineers el 3 de mayo de 1883, Thomson (1891: 86-87) señaló:
“No puede existir equivocación mayor que mirar con desdén a las aplicaciones prácticas de la ciencia. La vida y alma de la ciencia es su aplicación práctica, y exactamente igual que los grandes avances en matemáticas se han realizado deseando descubrir las soluciones de problemas de una clase altamente práctica en la ciencia matemática, en la ciencia física muchos de los avances más importantes se han realizado desde el principio del mundo hasta la actualidad debido al apremiante deseo de convertir en útil para la humanidad el conocimiento de las propiedades de la materia”.
Traducido a la cuestión de si las predicciones tecnológicas pueden tener algún efecto en el futuro de la ciencia, habría que decir que sí, que pueden tener efectos positivos. Cuando se intentan desarrollar programas tecnológicos visionarios, es posible que ello implique en algún momento la necesidad de resolver problemas científicos antes no previstos, con lo que la ciencia se ve beneficiada. En el caso de la nanotecnología, por ejemplo, el desarrollo de esta ayuda a impulsar el estudio de los efectos cuánticos macroscópicos, durante décadas apenas tratados.

Un sueño largamente acariciado: la inteligencia artificial

Entre los sueños más largamente acariciados por la humanidad, el de lograr máquinas (robots o de otro tipo) que fuesen inteligentes –el problema de la inteligencia artificial– es uno de los más antiguos. Ramon Llull (1232-1315), por ejemplo, expresó en su Ars Magna (1315) la idea de que el razonamiento podría implementarse de manera artificial en una máquina, y cómo olvidar los esfuerzos de Charles Babbage (1791-1871), que diseñó la primera máquina programable, aunque a pesar de sus esfuerzos nunca llegó a construir una que funcionase satisfactoriamente. Sin embargo, no me remontaré tan lejos, limitándome a recordar algunas de las ideas y predicciones de tres de los científicos más extraordinarios que conoció el siglo XX: Norbert Wiener (18941964), John von Neumann (1903-1957) y Alan Turing (1912-1954).
En un artículo publicado en 1936, Turing (1936) introdujo lo que se denomina “máquina de Turing”, artilugio teórico del que se deriva la “máquina universal de Turing”, una máquina de Turing que puede imitar a cualquier otra máquina de Turing. Si existe alguna esperanza de conseguir máquinas que sean “inteligentes”, en el sentido de que sus razonamientos y los resultados que proporcionen no se puedan distinguir de los propios de los humanos, estas serán algún tipo de computadora, y como el funcionamiento de estas se basa en última instancia en el modelo de las máquinas de Turing, podremos comprender que Turing tuvo, ciertamente, algo que ver con el campo de la inteligencia artificial
Por su parte, uno de los muchos logros de John von Neumann se halla en el campo de las computadoras, al que contribuyó con ideas fundamentales sobre los dispositivos de almacenamiento para instrucciones y para datos (arquitectura de Von Neumann), que son utilizados por casi todas las computadoras, ideas que llevó a la práctica contribuyendo a los esfuerzos que condujeron a la construcción (1944-1945) del ENIAC (Electronic Numerical Integrator and Computer; esto es, computadora integradora numérica electrónica), y luego dirigiendo el diseño y fabricación de otra computadora, JOHNNIAC, que entró en funcionamiento en 1952. Otra de las aportaciones de Von Neumann –que presentó en una conferencia que dio en Princeton en 1948– fue una teoría axiomática de la autorreproducción (“Teoría general y lógica de los autómatas”), lo suficientemente general para englobar tanto a organismos como a máquinas (Von Neumann 1948, 1966).
En cuanto a Norbert Wiener, seguramente bastaría con señalar que es conocido como el “padre de la cibernética” (Wiener 1948), disciplina que se puede definir como “la ciencia de las comunicaciones y sistemas automáticos de control tanto en máquinas como en seres vivos”.
Efectuadas estas someras, e incompletas, presentaciones, veamos algunas de las predicciones que realizaron estos tres científicos, siguiendo un orden cronológico, comenzando por Von Neumann. Contamos para ello con el valioso testimonio del físico y matemático inglés, instalado permanentemente en el Institute for Advanced Study de Princeton, Freeman Dyson (n. 1923) que en un artículo dedicado al, precisamente, futuro de la ciencia (Dyson 2011) recordaba –beneficiándose del hecho de que él estaba en el Instituto de Princeton en las décadas de 1940 y 1950, cuando Von Neumann trabajaba en computadoras– algunas de las ideas del genio matemático húngaro sobre el futuro de las computadoras. Señalaba Dyson que uno de los aspectos que más interesaban a Von Neumann sobre las computadoras era su aplicación a la meteorología. Y que pensaba que tan pronto como fuese posible simular en una computadora la dinámica de los fluidos atmosféricos con la precisión suficiente, sería posible determinar si la situación atmosférica en un momento determinado era estable o inestable. Si fuese estable, se podría predecir su evolución futura, y si fuera inestable introducir –con, por ejemplo, aviones que llevasen generadores de humo que pudiesen hacer que la atmósfera se calentase o enfriase– pequeñas perturbaciones para controlar su comportamiento posterior. Sin embargo, esta predicción de Von Neumann resultó completamente errónea, por la sencilla razón, entonces desconocida, de que los sistemas atmosféricos son caóticos, en el sentido descubierto por Edward Lorenz (19172008) en 1963: pequeñas perturbaciones como las que Von Neumann pretendía introducir en la atmósfera no harían sino que su comportamiento futuro fuera aún más impredecible (recordemos la famosa frase de Lorenz: “El aleteo de una mariposa en Brasil puede producir un tornado en Texas”)15. En otras palabras, los avances futuros de la ciencia pueden destruir nuestras predicciones, incluso las de científicos tan sobresalientes como lo fue Von Neumann.
Otra predicción fallida del matemático húngaro de Princeton se refirió al tamaño y número de las futuras computadoras. Creía que se harían cada vez más grandes y caras. “Es posible”, manifestó (Von Neumann 1948: 13; citado en George Dyson 2012: 303), “que en años venideros los tamaños de las máquinas aumenten de nuevo, pero no es probable, en tanto que se empleen las actuales técnicas y filosofía, que se superen los 10 000 (o tal vez unas pocas veces 10 000) dispositivos de conmutación. Unos 10 000 órganos parece ser el orden de magnitud apropiado para una maquina de calcular”. Según una historia, probablemente apócrifa, una vez le preguntaron cuántas computadoras se necesitarían en Estados Unidos en el futuro, a lo que contestó: “Dieciocho”. No tengo que detenerme en lo equivocado que estaba. El transistor cambió radicalmente el tamaño, precio y posibilidades de las viejas computadoras de válvulas de vacío: en 2010 se podía comprar una computadora dotada de 1 000 millones de transistores; esto es, 10 000·105. Y no debe pasar desapercibido que el transistor fue inventado (John Bardeen, Walter Brattain y William Shockely) en 1947, esto es, en vida de Von Neumann, cuando este estaba trabajando en computadoras. En consecuencia, no solo son los avances futuros de la ciencia los que pueden arruinar nuestras predicciones, es muy posible también que no sepamos apreciar las consecuencias de desarrollos que se producen a nuestro lado, en nuestro tiempo.
Más consciente de las posibilidades que abría la nueva electrónica fue Norbert Wiener, quien en un libro de carácter divulgativo que publicó en 1950, The Human Use of Human Beings (Wiener 1950) predijo que los aparatos de control, y en particular los electrónicos que funcionaban mediante procesos de realimentación (feedback) conducirían en unos pocos años a una segunda revolución industrial. “Esta segunda revolución”, explicó en un artículo posterior (Wiener 1953; Masani 1985: 666), “diferirá de la gran Revolución industrial de comienzos del siglo XIX en que reemplazará el poder generado por los hombres y los animales de carga por el poder de la máquina; la segunda revolución industrial reemplazará las decisiones humanas de bajo nivel por decisiones iniciadas por órganos sensoriales mecánicos y desarrolladas por los equivalentes mecánicos de cerebros; esto es, máquinas constituidas por dispositivos de conmutación consecutivos mayoritariamente de naturaleza electrónica”. Como las máquinas en las que estaba pensando eran digitales (“Los computadores electrónicos están particularmente adaptados a la escala de dos” escribía en el mismo artículo), no hay duda de que aunque no pudiese imaginar los detalles concretos, Wiener previó la revolución digital en la que nos encontramos instalados desde hace tiempo. Fue, eso sí, muy cauto a la hora de imaginar que las crecientes habilidades de esas máquinas electrónicas pudiesen confundirse con habilidades propias de los humanos (Wiener 1953; Masani 1985: 670-671):
“Existe un gran obstáculo para extender la era mecánica de comunicación y la era automática de control a campos que involucran lo que se solía conocer como las ‘elevadas facultades humanas’. No significa que exista en su naturaleza nada absolutamente diferente entre lo humano y lo no humano, sino simplemente que el funcionamiento de una conexión no humana en las relaciones humanas solamente puede ser evaluada en términos humanos”.
Menos precavido fue Turing, que se aventuró a manifestarse acerca de cuándo podría decirse que se habían construido máquinas que, efectivamente, pensaban. La referencia apropiada en este sentido es un artículo que publicó en 1950 en la revista de filosofía Mind, titulado “Maquinaria de computación e inteligencia” (Turing 1950), en el que escribió (Copeland 2004: 449):
“Creo que aproximadamente en los próximos cincuenta años será posible programar computadoras, con una capacidad de almacenamiento de unos 109, para que puedan desarrollar el juego de imitación tan bien que un interrogador medio no tendrá más del 70 % de probabilidades de realizar la identificación correcta después de 5 minutos de preguntas. Sobre la cuestión inicial, ‘¿Pueden pensar las máquinas?’, creo que no posee el suficiente sentido como para que merezca discutirse. Sin embargo, pienso que al final del siglo el uso de palabras y de opiniones razonadas de tipo general se habrá modificado tanto que uno podrá hablar de máquinas que piensan sin esperar que le contradigan”16.
Las máquinas que piensen como seres humanos aún no han llegado, más de sesenta años después de que Turing escribiese su artículo, aunque él fue lo suficientemente precavido como para que podamos aceptar que las máquinas que hoy existen se acercan tanto como él sugería a poseer inteligencia. Y de lo que, en mi opinión, ni hay duda es de que con sus trabajos y predicciones tanto Von Neumann como, más aún que este, Turing y Wiener favorecieron no solo la llegada de las modernas computadoras sino también el establecimiento de la “inteligencia artificial” –un término acuñado en 1955 por John McCarthy– como un campo de gran interés. En este sentido, intervinieron en el futuro.

Necesidades sociales y predicción del futuro

Probablemente no hay forma más segura de predecir algo del futuro que identificar agudas necesidades presentes que deberán resolverse en los años o décadas venideras con la ayuda de la ciencia y la tecnología. Un ejemplo destacado de este tipo de predicción del futuro lo proporciona el ya mencionado Freeman Dyson con un libro –producto de una serie de conferencias que pronunció en la Biblioteca Pública de Nueva York en la primavera de 1997– titulado The Sun, the Genome, and the Internet (Freeman Dyson 2000). Su tema principal era (Freeman Dyson 2000: 17) “un modelo de futuro cuyas fuerzas impulsoras son el Sol, el genoma e internet”. En realidad no eran pronósticos difíciles: cuando finalizaba el siglo XX era obvio que la revolución biológico-molecular, la de la doble hélice del ADN, del ADN recombinante, el genoma, la clonación y las células madre en curso iba a modificar profundamente –lo estaba haciendo ya– nuestras posibilidades de intervenir en los organismos vivos. De hecho, antes de que se obtuviesen estos conocimientos científicos, se pensó sobre lo que podrían significar para la naturaleza humana y los mecanismos reproductivos los avances en las ciencias biomédicas. Un ejemplo bien conocido es el de la novela de Aldoux Huxley (1894-1963), Brave New World (Un mundo feliz; 1932), en la que se describe un mundo futuro formado por castas inmutables fruto de progresos en los campos de la biología, la psicología y la fisiología. Cuando se lee lo que escribió Huxley en el libro, Brave New World Revisited (Nueva visita a un mundo feliz; 1958; capítulo II), en el que revisaba sus predicciones de veintiséis años antes, se ve cuánto, gracias al conocimiento del genoma, nos estamos acercando a poder hacer lo que Huxley supuso en 1931 que se podría hacer:
“En el Mundo Feliz de mi fantasía, la eugenesia y la disgenesia se practicaban sistemáticamente. En una serie de botellas, los huevos biológicamente superiores, fecundados por esperma biológicamente superior, recibían el tratamiento prenatal mejor posible y quedaban finalmente decantados como Betas, Alfas y Alfas Pluses. En otra serie de botellas, mucho más nutrida, los huevos biológicamente inferiores, fecundados por esperma biológicamente inferior, eran sometidos al Tratamiento Bonanovsky (noventa y seis gemelos idénticos de cada huevo) y a operaciones prenatales con alcohol y otros venenos proteínicos. Los seres finalmente decantados aquí eran casi subhumanos, pero podían efectuar trabajos que no reclamaran pericia y, si se los acondicionaba debidamente, calmándolos con un libre y frecuente acceso al sexo opuesto, distrayéndolos constantemente con espectáculos gratuitos y fortaleciendo sus normas de buena conducta con dosis diarias de soma, cabía contar con que no darían trabajo a sus superiores”.
Afortunadamente, eso sí, en lugar de Betas, Alfas, Alfas Pluses o seres casi subhumanos, la ciencia biológica-molecular habla de ingeniería genética o de terapias génicas, con fines muy diferentes.
Con relación a internet, a finales del siglo XX era evidente que se trataba de una ola imparable, que modificaría radicalmente nuestras costumbres y posibilidades. No menos evidente era la necesidad de contar en el futuro con recursos energéticos que sustituyesen al carbón y al petróleo, y que las radiaciones emitidas por el Sol eran el sustituto más seguro y obvio. De hecho, esto es algo que se entendió mucho antes; así, en un artículo publicado en 1876 en la Revue des Deux Mondes, traducido al inglés poco después para el Popular Science Monthly, el profesor de Geología Louis Laurent Simonin (1830-1886) (Simonin 1876: 557-558) manifestaba: “Las generaciones futuras, una vez que se hayan agotado las minas de carbón, contarán con el recurso del Sol para conseguir el calor y la energía necesarios para la manufactura y la economía doméstica”. Simonin describía un modelo de máquina de vapor que aparentemente podría producir tales efectos, entre los cuales no se encontraba uno que para nosotros es ahora fundamental: la producción de electricidad a partir de la luz solar, en el presente uno de los objetivos preferentes a través de células y paneles solares basados en el efecto fotoeléctrico explicado por Einstein en 1905.
En una dirección parecida, pero ya hablando explícitamente de electricidad, el genético y biólogo evolutivo británico John B. S. Haldane (1892-1964), escribía en 1923, en Daedalus, or Science and the Future (Haldane 2005: 41):
“En cuanto a la provisión de fuerza mecánica, es obvio que el agotamiento de nuestro carbón y de nuestro petróleo solo es cuestión de siglos […] La energía hidráulica no es un probable sucedáneo, por su pequeña cantidad, sus fluctuaciones estacionales y su irregular distribución. Podrá desplazarse el centro de gravedad industrial a distritos montañosos bien regados, como las faldas del Himalaya, la Columbia Británica y Armenia; pero al cabo tendremos que recurrir a las fuentes de energía intermitentes, pero inextinguibles: el viento y la luz solar. El problema se reduce a almacenar su energía en forma conveniente, como si se tratase de carbón o de petróleo […] Tal vez mañana se invente una batería de almacenaje barata, reducida y duradera que transforme la energía intermitente del viento en energía eléctrica continua.
Pienso que a la vuelta de cuatrocientos años la cuestión de la energía se resolverá así en Inglaterra: el país estará cubierto por una serie de molinos de viento metálicos que accionarán motores eléctricos, los cuales, a su vez, enviarán su corriente de elevado voltaje a grandes centrales eléctricas. A distancias convenientes habrá grandes estaciones de energía, donde, en las temporadas ventosas, el exceso de energía se empleará en descomponer electrolíticamente el agua en oxígeno e hidrógeno. Estos gases serán licuados y almacenados en cubas y depósitos resguardados al vacío, probablemente bajo tierra […] En tiempo de calma, los gases se volverían a combinar en motores de explosión, que accionan dinamos, o, más probablemente, en celdas de oxidación. El hidrógeno es, a pesos iguales, el medio más eficaz de almacenar energía, pues produce tres veces más calor por unidad que el petróleo”.
Los aerogeneradores, esto es, los molinos de viento productores de electricidad en los que pensó Haldane son cada vez más frecuentes en la geografía mundial, y tal vez –así lo sostienen algunos– en un futuro no muy alejado el hidrógeno será también una fuente de energía ampliamente utilizada.
También podría recordar un libro que cuando se publicó (1964) tuvo un gran éxito, Engineers’ Dreams, del ingeniero de cohetes frustrado, posteriormente divulgador científico, Willy Ley (19061969). Uno de los sueños de los que Ley trató en su libro fue el “poder tomado del Sol”. “Producir gasolina a partir de la luz del Sol”, escribía (Ley 1964: 184-185) “es un procedimiento que requiere tres pasos al mismo tiempo que tres materiales básicos. El paso número 1 sería el familiar de convertir la luz del Sol en corriente mediante colectores, calderas y generadores. El paso número 2 sería utilizar la corriente eléctrica para descomponer el agua en sus dos elementos constitutivos, hidrógeno y oxígeno. El paso número 3 sería convertir el hidrógeno en la sustancia conocida por los químicos como hidrocarburos (la gasolina es uno de ellos), tomando el carbono del dióxido de carbono del aire”. “La mayor dificultad”, añadía, y esta es la razón por la que me he detenido en esta cita,
“se halla en el tercer paso, y la principal razón de estas dificultades es que hay muy poco dióxido de carbón en la atmósfera –solamente 0,03 % del total. Como los procesos químicos industriales conocidos que producen hidrocarburos exigen dióxido de carbono razonablemente puro, es necesario primero concentrarlo a partir del aire. Esto no es difícil, solo tedioso y caro […] porque el contenido de dióxido de carbono en aire cercano al suelo es solamente 0,03 % (el dióxido de carbono está virtualmente ausente a alturas superiores), se debe procesar un millón de pies cúbicos de aire para cada galón de gasolina producido”.
Hoy vemos la dificultad que mencionaba Ley de manera muy diferente, teniendo en cuenta el aumento de los niveles de dióxido de carbono que se ha producido en la atmósfera, debido a los procesos industriales y al empleo masivo de automóviles. Cualquier procedimiento que permita extraer dióxido de carbono de la atmósfera es bienvenido y favorecido. Así se ven a veces afectadas nuestras predicciones del futuro.

Ciencia ficción y la ciencia del futuro

Solo en un par de momentos de este artículo ha aparecido el término ciencia ficción. En principio, es razonable que así sea porque las predicciones que aparecen en obras de ciencia ficción no tienen por qué tener bases científicas, o ir más allá de lo fácilmente imaginable aunque su realización pueda estar cercana, lejana o ser imposible. Así, por ejemplo los tan celebrados Jules Verne (1828-1905) y H. G. Wells (1866-1946) imaginaron vuelos espaciales o submarinos, invasiones extraterrestres o armamentos atómicos, pero no una innovación que terminaría dominando prácticamente todas las sociedades como es el automóvil. A pesar de todo esto, no es razonable minusvalorar completamente ese género literario cuando se analiza lo que en el pasado se aventuró sobre el futuro científico17. Sin necesidad de analizar lo que significa el que, por ejemplo, el físico y uno de los pioneros y promotores de un proyecto nuclear a finales de la década de 1930 y primera mitad de la de 1940, Leo Szilard (1898-1964) leyese la novela de Wells, The World Set Free (1914), la primera obra en la que se predijeron bombas atómicas, lectura que efectuó en 1932, el año en que se descubrió el neutrón y un año antes que se le ocurriese a él mismo la idea de una reacción en cadena que produjese una explosión atómica, se puede defender la utilidad de al menos algunas obras de ciencia ficción recurriendo a la que muchos consideran la primera novela moderna del género: Frankenstein: or the Modern Prometheus (1818), de Mary Wollstonecraft Godwin, más conocida como Mary Shelley (1797-1851). Me limitaré a citar y comentar el siguiente pasaje en el que Victor Frankenstein, el protagonista principal de la novela, reflexiona en los siguientes términos (Wollstonecraft-Shelley 2009: 76-77):
“Cuando me encontré con un poder tan asombroso en las manos, durante mucho tiempo dudé cuál podría ser el modo de utilizarlo. Aunque yo poseía la capacidad de infundir movimiento, preparar un ser para que pudiera recibirlo con todo su laberinto inextricable de fibras, músculos y venas aún continuaba siendo un trabajo de una dificultad y una complejidad inconcebibles. Al principio dudé si debería intentar crear un ser como yo u otro que tuviera un organismo más sencillo; pero mi imaginación estaba demasiado exaltada por mi gran triunfo como para permitirme dudar de mi capacidad para dotar de vida a un animal tan complejo y maravilloso como un hombre. En aquel momento, los materiales de que disponía difícilmente podían considerarse adecuados para una tarea tan complicada y ardua, pero no tuve ninguna duda de que finalmente tendría éxito en mi empeño. Me preparé para sufrir innumerables reveses; mis trabajos podían frustrarse una y otra vez y finalmente mi obra podía ser imperfecta; sin embargo, cuando consideraba los avances que todos los días se producen en la ciencia y en la mecánica, me animaba y confiaba en que el menos mis experimentos se convertirían en la base de futuros éxitos”.
El punto que quiero señalar es que la lectura de pasajes como este (al igual que otros del ya citado Brave New World de Huxley), que ha terminado adquiriendo actualidad con el desarrollo de la biología molecular y las posibilidades que esta abrió (ingeniería genética, clonación), es apropiada para los científicos ya que esbozan cuestiones de índole social que aunque los propios investigadores no dejen de plantearse toman dimensiones diferentes, más profundas, de la mano de los grandes escritores. Y no se trata únicamente de cuestiones sociales o éticas, sino también de que pueden, como acaso fue en el caso de Wells, presentar posibilidades a los científicos para que estos se pregunten acerca de su base científica, si son posibles o meras elucubraciones sin más justificación que la literaria.
Dos son las líneas maestras que en mi opinión guiarán, con intensidad creciente, a la ciencia a lo largo del presente siglo y los venideros. La primera es la interdisciplinariedad […] La segunda línea a la que aludía es lo que denomino Pequeña Ciencia, la investigación basada en grupos no demasiado numerosos, frente a la de los colosales proyectos de Gran Ciencia de los últimos años.
El último ejemplo que ofreceré es el de la novela de Isaac Asimov (1920-1992), Yo, Robot (1950). Las famosas tres leyes de la robótica que incluyó en esa obra pueden constituir una buena guía si en el futuro se cumplen las predicciones de robots dotados de inteligencia artificial:
  1. “ Un robot no puede hacer daño a un ser humano o, por su inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entran en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.”

Interdisclipinariedad y pequeña ciencia

Para terminar, iré algo más allá del papel que he procurado adoptar a lo largo de este artículo: el papel del notario que refleja lo que sucedió en el pasado con respecto a predicciones científicas y tecnológicas; un notario, eso sí, que hace, aquí y allá, comentarios, y que trata de guiar a sus clientes. Ahora me planteo hacer una lectura personal de lo que la historia de la ciencia dice acerca de cómo será la investigación científica del futuro, no de las novedades que esta producirá sino de cómo se desarrollará la propia investigación científica.
Dos son las líneas maestras que en mi opinión guiarán, con intensidad creciente, a la ciencia a lo largo del presente siglo y los venideros. La primera es la interdisciplinariedad, la reunión de grupos de especialistas –no necesariamente muy numerosos– en disciplinas científicas y tecnológicas diferentes, que, provistos de los suficientes conocimientos generales como para poder entenderse entre sí, colaborarán en resolver nuevos problemas, problemas que por su propia naturaleza necesitan de esa colaboración. La naturaleza, recordemos, es una y no conoce fronteras; somos nosotros, por necesidades prácticas, los que las hemos establecido, constituyendo disciplinas que llamamos física, química, biología, matemáticas, geología, etcétera. Pero al ir avanzando en nuestro conocimiento de la naturaleza, se hace cada vez más necesario ir más allá de esas fronteras, hacerse ciudadanos de la interdisciplinariedad18.
La segunda línea a la que aludía es lo que denomino Pequeña Ciencia –como contraposición a la Gran Ciencia, la Big Science–, la investigación basada en grupos no demasiado numerosos, frente a la de los colosales proyectos de Gran Ciencia de los últimos, aproximadamente, setenta y cinco años, como los de la física experimental de altas energías con sus gigantescos aceleradores, los de la NASA en la investigación planetaria, o el Proyecto Genoma Humano en su diseño inicial. La Gran Ciencia es demasiado costosa y demasiado lenta, aunque pueda obtener resultados interesantes. Pensemos, por ejemplo, en la física de altas energías. Es evidente que con los grandes aceleradores de partículas se han conseguido resultados fundamentales en nuestro conocimiento de la estructura de la materia, pero no es menos evidente que su coste es cada vez asumible por menos países. Estados Unidos, la nación más poderosa en ciencia y tecnología, que había sido pionera en la construcción de esos aceleradores, fue también la primera en darse cuenta de las dificultades de ese tipo de investigación, cancelando el proyecto de un Supercolisionador Superconductor (Superconducting Super Collider), que los físicos de altas energías estadounidenses estimaban indispensable para continuar desarrollando la estructura del modelo estándar. Iba a estar formado por un túnel de 84 kilómetros de longitud, en el interior del cual miles de bobinas magnéticas superconductoras guiarían dos haces de protones para que, después de millones de vueltas, alcanzaran una energía veinte veces más alta que la conseguida en los aceleradores existentes. En varios puntos a lo largo del anillo, los protones de los dos haces chocarían, y enormes detectores controlarían lo que sucediera en tales colisiones. El coste del proyecto, que llevaría diez años, se estimaba inicialmente en 6 000 millones de dólares. Después de una azarosa vida, con parte del trabajo de infraestructura ya realizado (la excavación del túnel), el 19 de octubre de 1993, y tras una prolongada, difícil y cambiante discusión parlamentaria, tanto en el Congreso como el Senado, el Congreso canceló el proyecto. Europa, como refleja el Large Hadron Collider (LHC) del CERN, la institución paneuropea dedicada a la física de altas energías, en el que recientemente (2012) se ha detectado el tan perseguido bosón de Higgs, es uno de los enclaves en el que aún se mantiene ese tipo de Gran Ciencia. ¿Durante cuánto tiempo? ¿Podrá Europa mantener este gasto, que se extiende para lograr resultados a lo largo de décadas? Otra manifestación de estas dificultades es la ralentización, cuando no la cancelación, de algunos de los proyectos más queridos de la NASA, como el de enviar astronautas a Marte. Y también cómo proyectos de tamaño mucho menor que el proyecto Genoma Humano están obteniendo mejores resultados y de manera más rápida (cierto es, gracias también a los instrumentos de que se dispone, aunque cabe argumentar que la mayor escasez de recursos ha estimulado a los grupos pequeños a idear procedimientos más rápidos y económicos). Como ha escrito Freeman Dyson (en Chiao et al. 2011: 41):
“El futuro de la ciencia será una mezcla de proyectos grandes y pequeños, los proyectos grandes atraerán la mayor parte de la atención y los proyectos pequeños obtendrán la mayor parte de los resultados […] Según nos dirigimos al futuro, existe la tendencia de que los proyectos grandes se hagan cada vez más grandes y menos numerosos. Esta tendencia es particularmente clara en la física de partículas, pero también es visible en otros campos de la ciencia, como la física del plasma, la cristalografía, la astronomía y la genética, en donde dominan las grandes máquinas y bases de datos. Pero el tamaño de los proyectos pequeños no cambia mucho según transcurre el tiempo, porque su tamaño se mide en seres humanos […] Debido a que es probable que el número de los proyectos grandes se reduzca haciéndose además más lentos, mientras que los proyectos pequeños se mantendrán aproximadamente constantes, es razonable pensar que la importancia relativa de los proyectos pequeños aumentará con el tiempo”.
¿Será así, o se tratará de una predicción más que no superará el paso del tiempo? El futuro, naturalmente, será quien lo dirá.

Bibliografía

Ayrton, William E. 1897.“Sixty years of submarine telegraphy”, The Electrician 38: 545-548.
Chiao, R. Y., M. L. Cohen, A. J. Leggett, W. D. Phillips, y Ch. L Harper Jr. (eds.) 2011. Visions of Discovery. Cambridge: Cambridge University Press.
Copeland, B. Jack (ed.). 2004. The Essential Turing. Oxford: Oxford University Press.
Croce, Benedetto. [1938] 1992. La historia como hazaña de la libertad. México D. F.: Fondo de Cultura Económica.
Darwin, Charles. 1859. On the Origin of Species. Londres: John Murray.
Darwin, Erasmus 1796. Zoonomia, or the Laws of Organic Life. I, 2.ª ed. corregida. Londres: J. Johnson.
Drexler, K. Eric. [1986] 1993. La nanotecnología. Barcelona: Gedisa.
Dyson, Freeman. [1999] 2000. El Sol, el genoma e internet. Madrid: Debate.
Dyson, Freeman. 2011. “The future of science”, en Chiao et al. (eds.) Visions of Discovery. Cambridge: Cambridge University Press, 39-54.
Dyson, George. 2012. Turing’s Cathedral. Nueva York: Pantheon Books.
Feynman, Richard. 1960. “There’s plenty of room at the bottom: An invitation to enter a new field of physics”, Engineering and Science 23 (5): 22-36.
Forman, Paul. 1987. “Behind quantum electronics: National security as basis for physical research in the United States”, Historical Studies in the Physical and Biological Sciences 18, 149-229.
Forman, Paul. 2002. “What the past tells us about the future of science”, en Sánchez Ron (ed.), La ciencia y la tecnología ante el Tercer Milenio. Madrid: España Nuevo Milenio, I, 27-37.
García Gual, Carlos (ed.). 2005. Viajes a la Luna. De la fantasía a la ciencia ficción. Madrid: Biblioteca ELR Ediciones.
Gibbons, G. W., E. P. S. Shellard y S. J. Rankin (eds.). 2003. The Future of Theoretical Physics and Cosmology. Cambridge: Cambridge University Press.
Godwin, Francis. 1638. The Man in the Moone, or a Discourse of a Voyage thither, by Domingo Gonsales. Londres: John Norton,
Gray, Jeremy J. [2000] 2003. El reto de Hilbert. Barcelona: Crítica.
Grossman, Jennifer. 2012. “Nanotechnology in cancer medicine”, Physics Today (agosto): 38-42.
Haldane, John B. S. 2005. Dédalo o la ciencia y el futuro. Oviedo: KRK.
Hawking, Stephen. [2001] 2002. El universo en una cáscara de nuez. Barcelona: Crítica.
Heilbron, J. L. (ed.) 2003. The Oxford Companion to the History of Modern Science. Oxford: Oxford University Press.
Hilbert, David. 1902. “Sur les problèmes futurs des mathématiques”, en E. Duporcq (ed.), Compte rendu du deuxiéme congrès international des mathématiques, tenu à Paris du 6 au 12 aout 1900. París: Gauthier-Villars.
Kaku, Michio. [1998] 1998. Visiones. Madrid: Debate.
Kepler, Johannes. 2001. El sueño o la astronomía de la Luna, edición de Francisco Socas. Huelva: Servicio de Publicaciones de la Universidad de Huelva.
Kuhn, Thomas S. 1962. The Structure of Scientific Revolutions. Chicago: University of Chicago Press.
Lagemann, Robert. 1959. “Michelson on measurement”, American Journal of Physics 27: 182-184.
Ley, Willy. 1964. Engineers’ Dreams. Nueva York: The Viking Press.
Lorenz, Edward. 1993. The Essence of Caos. Seattle: University of Washington Press.
Marvin, Carolyn. 1988. When Old Technologies Were New. Oxford: Oxford University Press.
Masani, P. (ed.). 1985. Norbert Wiener: Collected Works. IV. Cambridge, Massachusetts: MIT Press.
Michelson, Albert Abraham. 1894. “Some of the objects and methods of physical science”, Chicago: The University of Chicago. Quarterly Calendar 111 (2, agosto): 12-15.
Millikan, Robert. 1951. The Autobiography of Robert A. Millikan. Londres: Macdonald.
Negroponte, Nicholas. 1995. El mundo digital. Barcelona: Ediciones B.
Rees, Martin. [2003] 2004. Nuestra hora final. Barcelona: Crítica.
Sánchez Ron, José M. (ed.). 2002. La ciencia y la tecnología ante el Tercer Milenio, 2 vols. Madrid: España Nuevo Milenio.
Sánchez Ron, José M. 2007. El poder de la ciencia. Barcelona: Crítica.
Sánchez Ron, José M. 2011. La Nueva Ilustración. Ciencia, tecnología y humanidades en un mundo interdisciplinar. Oviedo: Ediciones Nobel.
Simonin, Louis Laurent. 1876. “Industrial applications of solar heat”, Popular Science Monthly 9 (septiembre), 550-560.
Stevenson, Mark. 2011. Un viaje optimista por el futuro. Barcelona: Galaxia Gutenberg/Círculo de Lectores.
Taub, A. H. 1963. John von Neumann Collected Works. Vol. V Design of Computers, Theory of Automata and Numerical analysis. Oxford: Pergamon Press.
Thomson, William. 1891. “Electrical units of measurement”, en William Thomson, Popular Lectures and Addresses. Vol. I Constitution of matter. Londres: Macmillan, 80-143.
Turing, Alan. 1936. “On computable numbers, with an application to the Entscheidungsproblem”, Proceedings of the London Mathematical Society 42: 230-265.
Turing, Alan. 1950. “Computing machinery and intelligence”, Mind 59: 433-460. Reproducido en B. Jack Copeland (ed.), 2004, The Essential Turing. Oxford: Oxford University Press: 441-464.
Von Kármán, Theodore. 1955. “The Next fifty years”, Interavia 10 (1): 20-21.
Von Kármán, Theodore. 1975. Collected Works of Theodore von Kármán 1952-1963 Rhode-St-Genèse, Bélgica: Von Kármán Institute for Fluid Dynamics.
Von Neumann, John. 1948. “The general and logical theory of automata”, reproducido en A. H. Taub, John von Neumann Collected Works. Vol. V Design of Computers, Theory of Automata and Numerical analysis. Oxford: Pergamon Press. 288-318.
Von Neumann, John. 1966. Theory of Self-Reproducing Automata, edición de A. W. Burks Urbana: University of Illinois Press.
Westfahl, Gary. 2003. “Science fiction”, en J. L. Heilbron (ed.), The Oxford Companion to the History of Modern Science. Oxford: Oxford University Press. 735-737.
Wiener, Norbert. 1948. Cybernetics: Or Control and Communication in the Animal and the Machine. Nueva York: John Wiley.
Wiener, Norbert. 1950. The Human Use of Human Beings. Boston: Houghton Mifflin.
Wiener, Norbert. 1953, 1985. “The electronic brain and the next industrial revolution”, Cleveland Athletic Club Journal. Reimpreso en P. Masani, Norbert Wiener: Collected Works, IV. Cambridge, Massachusetts: The MIT Press, 666-672.
Wollstonecraft-Shelley, Mary. 2009. Frankenstein o el moderno Prometeo. Madrid: Espasa.
Wren, Christopher. 1750. Parentalia: Or Memoirs of the Family of the Wrensviz. of Mathew, Bishop of Ely, Christopher, Dean of Windsor etc. but chiefly of Sir Christopher Wren… in which is contained, besides his works, a great number of original papers and records… Compiled by his son Christopher; now published by his grandson, Stephen Wren, Esq; with the care of Joseph Ames. Londres.

Notas

  1.  “Lo pasado es prólogo y lo que viene hemos de ejecutarlo nosotros”, William Shakespeare, La tempestad (acto II, escena 1).
  2. Edición y traducción directa del inglés realizada en 1768 por Domingo Manfredi Cano, incluida en García Gual, ed. (2005).
  3. Véase García Gual (2005).
  4. Existe una edición en español de esta obra de Kepler (2001).
  5. Michelson (1894). Véase, asimismo, Lagemann (1959). El también físico estadounidense (y, como Michelson, premio Nobel de Física) Robert Millikan ofreció una visión diferente al papel que desempeñó Michelson. Este, escribió (Millikan 1951: 39-40) “pronunció la conferencia sobre el papel en el progreso de la física de medidas muy precisas, una conferencia en la que citó a otro científico. Creo que fue a Kelvin, adjudicándole el haber dicho que era probable que se hubieran realizado ya todos los grandes descubrimientos de la física, y que el avance futuro seguramente tendría lugar en encontrar la sexta cifra decimal”. De todas maneras, para mis propósitos aquí, da lo mismo que fuese Michelson o Kelvin –un científico aún más notable que el norteamericano– quien pronunciase esas palabras.
  6. En este libro, Hawking explicaba también cómo la pérdida de información en los agujeros negros puede reducir nuestra capacidad de predecir el futuro. “La radiación de un agujero negro”, leemos (Hawking 2002: 121-122), “se llevará energía, lo cual significa que este deberá perder masa y encogerse. De ello se sigue que su temperatura aumentará y su tasa de radiación crecerá. Al final la masa del agujero negro se aproximará a cero. No sabemos calcular qué pasa en este punto, pero la única respuesta natural y razonable es que el agujero negro acabe de desaparecer por completo. Si es así, ¿qué ocurre con la parte de la función de onda y de la información que esta contiene sobre lo que había caído al agujero negro? […] Esta pérdida de información tendría consecuencias importantes para el determinismo”.
  7. Martin Rees, un personaje destacado en la comunidad científica británica (Astrónomo Real, máster del Trinity College, presidente de la Royal Society entre 2005 y 2010, y ennoblecido por la reina Isabel con el título de barón Rees de Ludlow), es uno de los científicos en activo al que le gusta especular sobre el futuro, como muestra uno de sus libros: Our Final Hour (2003), subtitulado ¿Será el siglo XXI el último de la humanidad? (Rees 2004).
  8. En la introducción, que no en cómo la interpreto, de esta cita de Shakespeare soy deudor de un artículo de Paul Forman (2002).
  9. Curiosamente, también Erasmus Darwin (1796: sección XXXIX, “On generation”, 4.8) especuló en líneas parecidas: “¿Debemos decir que el filamento vegetal vivo era inicialmente diferente para cada una de las tribus de animales descritas anteriormente? ¿Y que los filamentos vivos productivos de cada una de estas tribus fueron inicialmente diferentes entre sí? ¿O, según la tierra y el océano fueron poblados con productos vegetales mucho antes de la existencia de los animales, y muchas familias de estos animales mucho antes que otras familias de ellos, debemos suponer que una y la misma clase de filamentos vivos ha sido y es la causa de toda vida orgánica?”
  10. En un apéndice, el libro de Gray incluye el texto de la conferencia de Hilbert de 1900.
  11. Me he ocupado de alguna de estas cuestiones en Sánchez Ron (2007: capítulo 11). Véase, asimismo, Forman (1987).
  12. Véase en este sentido un reciente libro debido a Mark Stevenson, An Optimist’s Tour of the Future, donde se puede leer (Stevenson 2011: 112): “La nanotecnología, a primera vista, se parece mucho a la ciencia ficción. Pero parece probable que reconfigurará radicalmente nuestro futuro”. La nanotecnología –y la nanociencia– se ocupa de fenómenos habitualmente en la escala de entre 1 y 100 nanómetros, siendo 1 nanómetro igual a una milmillonésima de metro (10-9 metros).
  13. Véase en este sentido, como ejemplo reciente Grossman (2012).
  14. La reunión tuvo lugar en el California Institute of Technology, donde Feynman trabajaba y se publicó (Feynman 1960) en Engineering and Science, una revista cuatrimestral fundada en 1937 por la Oficina de Relaciones Públicas de Caltech para promover el interés por la ciencia.
  15. En realidad, la frase original es algo diferente: “Predictibilidad. ¿El aleteo de una mariposa en Brasil produce un tornado en Texas?”. Apareció como el título de la primera sección de una conferencia dictada el 29 de diciembre de 1972 en una sesión dedicada al Programa de Investigación Atmosférica Global dentro de la 139ª reunión de la American Association for the Advancement of Science. Se distribuyó en una nota de prensa y solo se publicó bastantes años más tarde como un apéndice a un libro que Lorenz escribió, titulado The Essence of Chaos (Lorenz 1993).
  16. El “juego de imitación” al que se refería consistía en enfrentar a alguien al problema de averiguar si quien respondía a sus preguntas era una máquina o una persona; a ninguna de las dos, naturalmente, podía observar directamente, únicamente sus respuestas.
  17.  Sobre la ciencia ficción y la historia de la ciencia, véase Westfahl (2003).
  18. He dedicado un libro a estas cuestiones (Sánchez Ron 2011).
  19. Sánchez Ron, J. M., "El pasado es prólogo: futuro e historia de la ciencia", en Hay futuro. Visiones para un mundo mejor, Madrid, BBVA, 2012. 

No hay comentarios: