El pasado es prólogo: futuro e historia de la ciencia
Habida cuenta de la importancia que la ciencia tiene en
nuestras vidas y sociedades, una pregunta relevante es la de si es
posible predecir su futuro. En este artículo, y utilizando como
principal herramienta la historia de la ciencia, se analizan
predicciones que algunos científicos han realizado sobre los contenidos y
direcciones futuras de la ciencia. Al no escasear ejemplos de quienes
han practicado semejante arte adivinatorio, los casos seleccionados
cubren un amplio espectro, desde las predicciones poco sorprendentes
hasta las completamente equivocadas, pasando por otras en campos como
las matemáticas (Hilbert), La teoría de la Evolución (Erasmus y Charles
Darwin), La Inteligencia Artificial (Wiener, Von Neumann y Turing) o la
tecnología, y su relación con la ciencia. Se tratan, así mismo,
cuestiones del tipo de cómo afectan las necesidades sociales o la
ciencia ficción a la predicción del futuro científico.
“Where is what´s past is prologue, what to come
in yours and my discharge”
William Shakespeare, The Tempest 1
Vivimos a caballo entre el pasado y el futuro, con el presente
escapándosenos constantemente de las manos, como una sombra evanescente.
El pasado nos da recuerdos y conocimientos adquiridos, comprobados o
por comprobar, un tesoro inapreciable que nos facilita el camino. Ahora
bien, en realidad no sabemos hacia dónde nos conducirá ese camino en el
futuro, qué características nuevas aparecerán en él, si será fácilmente
transitable o no. Por supuesto, estos comentarios tienen su correlato
evidente e inmediato en la vida, en las biografías individuales y
colectivas (pensemos, por ejemplo, en cómo unas civilizaciones
sustituyeron a otras a lo largo de la historia, para sorpresa las más de
las veces de las que resultaron arrinconadas por el paso del tiempo),
pero también en la ciencia, la actividad humana con mayor capacidad de
hacer que el futuro sea muy diferente al pasado.
Precisamente por la importancia que para nuestras vidas y sociedades
tiene el futuro, una cuestión que ha surgido una y otra vez es la de si
es posible predecirlo; predecirlo disponiendo de sólidos conocimientos
de aquello que nos ofrecen el pasado y el presente. Y si importante es
hacerse una idea de hacia dónde se encaminarán los acontecimientos
históricos e individuales, más lo es en lo que se refiere al futuro
científico. ¿Por qué es más importante?, se preguntarán algunos; ¿no es
la vida, las vidas e historias, presentes y futuras, de individuos y
sociedades, lo esencial, aquello que nos debe interesar por encima de
cualquier otra consideración? Admitamos que así es, pero es preciso
insistir en que también el conocimiento científico constituye un
elemento central, irrevocablemente central, en el futuro de esos
individuos y sociedades; en, de hecho, el futuro de la humanidad.
El sueño (determinista) newtoniano
Desde esta perspectiva, es evidente que sería importante poder prever
el futuro de la ciencia. En realidad, predecir es el propósito último
de la ciencia, que busca determinar la evolución futura de los fenómenos
que tienen lugar en la naturaleza; la ciencia no es, en mi opinión,
sino la elaboración de sistemas lógicos con capacidad de predicción. La
astrología, una forma primitiva y errónea de ciencia, pretendía explicar
lo que sucede en la Tierra, incluyendo las vidas futuras de los
individuos, en función de la situación y movimientos de los planetas.
Más adelante, una vez que se dispuso de la poderosa física del
movimiento que Isaac Newton (1642-1727) desarrolló en su gran libro de
1687, Philosophiae Naturalis Principia Mathematica, se pensó que el
determinismo subyacente en las ecuaciones básicas de la dinámica
newtoniana permitiría establecer la evolución de cualquier movimiento si
se conociesen los datos de partida. La más rotunda y célebre
manifestación en este sentido es la que realizó Pierre-Simon de Laplace
(1749-1827) en uno de sus libros, Essai philosophique sur les
probabilités (1814): “Una inteligencia que en un momento determinado
conociera todas las fuerzas que animan a la naturaleza, así como la
situación respectiva de los seres que la componen, si además fuera lo
suficientemente amplia como para someter a análisis tales datos, podría
abarcar en una sola fórmula los movimientos de los cuerpos más grandes
del universo y los del átomo más ligero; nada le resultaría incierto y
tanto el futuro como el pasado estarían presentes ante sus ojos”. Por
supuesto, Laplace sabía muy bien que no sería posible contar con toda la
información necesaria, ni con la capacidad de cálculo, para que se
pudiera cumplir el determinista programa newtoniano (“Todos los
esfuerzos por buscar la verdad tienden a aproximarlo continuamente a la
inteligencia que acabamos de imaginar, pero de la que siempre
permanecerá infinitamente alejado”), y precisamente por eso se ocupó de
la teoría de las probabilidades.
Por un lado, la mecánica cuántica (desarrollada por Werner Heisenberg
en 1925 y por Erwin Schrödinger en 1926), con el probabilismo
intrínseco de su variable básica, la función de onda (descubierto por
Max Born en 1926) y con el principio de incertidumbre (desvelado por
Heisenberg en 1927), y por otro el caos (Edward Lorenz 1963), con la
dependencia de las soluciones de los sistemas caóticos ante cambios
minúsculos en las condiciones iniciales, terminaron con este sueño
newtoniano.
Interesantes y fundamentales como son estas consideraciones, no
constituyen el objeto de los temas que aborda el presente volumen, ni
son los que yo quiero analizar aquí. El futuro científico del que
pretendo ocuparme es el de las previsiones que los científicos han
realizado sobre los contenidos y direcciones futuras de la ciencia.
Imaginando el futuro
Lo primero que hay que decir sobre esta cuestión es que no es difícil
encontrar en el pasado quienes hicieron predicciones sobre el futuro
científico. “Algún día”, escribió proféticamente el clérigo inglés
Francis Godwin (1562-1633) en un libro publicado póstumamente (Godwin
1638), “los hombres podrían volar de un sitio a otro y serían capaces de
enviar mensajes a muchos cientos de millas de distancia en un instante y
recibir respuesta sin intervención de persona humana. Podrían también
transmitir su pensamiento a otras criaturas aunque estuviesen en el más
remoto y oscuro rincón de la ciudad, con otros notables experimentos”2. Y
Christopher Wren (16321723), que aunque adquirió la fama que aún
conserva como arquitecto fue antes ilustre astrónomo, previó en el
discurso inaugural que pronunció en 1657 como nuevo catedrático de
Astronomía del Gresham College (luego lo sería en Oxford), que “llegará
el día, en que los hombres […] serán capaces de descubrir dos mil veces
más estrellas que las que nosotros podemos ver; y encontrar la Galaxia y
miles de ellas; y toda estrella nebulosa aparecerá como si fuese el
firmamento de otro Mundo, a una distancia incomprensible, sepultada en
el vasto abismo del vacío de entre mundos; el día en que verán planetas
como nuestra Tierra, provistos de colinas y valles; en el que verán
Saturno variando más admirablemente que nuestra Luna” (Wren 1750:
200-206).
Tanto Godwin como Wren acertaron (Godwin no en lo que se refiere a la
transmisión del pensamiento, o no todavía), aunque sus predicciones
tardasen en llegar. Ahora bien, este tipo de predicciones no son las que
me interesan aquí, al ser, por decirlo de alguna manera, fáciles de
imaginar, habiendo sido realizadas múltiples veces en el pasado. Las
predicciones, a las que con frecuencia habría que tildar más
apropiadamente de elucubraciones precursoras o pertenecientes al género
de la ciencia ficción, relativas al espacio han sido frecuentes a lo
largo de la historia, especialmente los vuelos a la Luna. Ya Luciano de
Samósata (c. 125-195) imaginó un viaje a la Luna y el Sol en un barco
volante sin más propulsión que la de los vientos “extremosos”3. Incluso
Johannes Kepler (1571-1630), uno de los protagonistas de la Revolución
Científica (su gran aportación fueron las tres leyes del movimiento
planetario que llevan su nombre) ideó, bajo la forma de un sueño, un
viaje a la Luna, transportado a ella con la ayuda de demonios lunares,
aunque en realidad su propósito era describir lo que un observador
instalado en nuestro planeta vería desde él4. En este sentido, el sueño
(Somnium; publicado postumamente en 1634) de Kepler se ajustó mejor a
los estándares científicos que las posibilidades imaginadas por Francis
Godwin o Luciano de Samóstata o las que el secretario perpetuo de la
Académie des Sciences de París, Bernard le Bovier de Fontenelle
(1657-1757) plasmó en su libro Entretiens sur la pluralité des mondes
publicado en 1686, en el que consideraba la posibilidad de vida
extraterreste en otros mundos planetarios.
Predecir es el propósito último de la ciencia, que busca determinar la evolución futura de los fenómenos que tienen lugar en la naturaleza; la ciencia no es, en mi opinión, sino la elaboración de sistemas lógicos con capacidad de predicción.
Más interesantes que este tipo de predicciones son otras que se
hicieron ya en el siglo XIX, cuando aún se mantenía –completada, como
veremos– la idea de que con los pilares newtonianos sería posible
explicar en el futuro todos los fenómenos físicos. Faltaba aplicar la
física newtoniana al otro gran apartado entonces conocido de las fuerzas
presentes en la naturaleza, el magnetismo y la electricidad. Ahora
bien, a pesar del éxito inicial que supusieron leyes como la que propuso
en 1785 el físico francés Charles-Augustin de Coulomb (1736-1806),
extrapolando la ley de la gravitación universal al dominio de la
electricidad (o mejor, de la electrostática) –la fuerza entre dos cargas
es proporcional al producto de sus valores dividido por el cuadrado de
la distancia que las separa–, para explicar los fenómenos
electromagnéticos fue necesario ir más allá del modelo newtoniano,
utilizar otro tipo de esquema teórico: la electrodinámica elaborada en
la década de 1860 por el físico escocés James Clerk Maxwell (1831-1879),
en la que los campos, y no las acciones a distancia newtonianas,
ocupaban el lugar central.
Futuros inesperados
Completada la síntesis maxwelliana, a finales del siglo XIX se
extendió entre los físicos la idea de que con la dinámica newtoniana y
la electrodinámica de Maxwell quedaban completas, ahora sí, las bases
teóricas para describir la naturaleza. Así, se adjudican al más que
notable físico estadounidense Albert Abraham Michelson (1852-1931)
–recibió el Premio Nobel de Física en 1907 (fue el primer estadounidense
en recibirlo)– unas frases que aparentemente pronunció en un discurso
leído el 2 de julio de 1894 durante la inauguración del Laboratorio de
Física Ryerson de la Universidad de Chicago, al menos así aparecen en el
correspondiente artículo que lleva su firma5: “Parece probable que la
mayoría de los grandes principios básicos hayan sido ya firmemente
establecidos y que haya que buscar los futuros avances sobre todo
aplicando de manera rigurosa estos principios […] Las futuras verdades
de la Ciencia Física se deberán buscar en la sexta cifra de los
decimales”.
Un año después de que Michelson pronunciase estas rotundas, y a la
postre equivocadas, palabras, en 1895 Wilhelm Röntgen descubría los
rayos X y el año siguiente Henri Becquerel la radiactividad, que nadie
sabía cómo encajar en el aparentemente tan firme, sólido y cerrado
edificio de la física conocida, a la que ahora denominamos “física
clásica”. Predecir, en definitiva, es arriesgado. Veamos, en este mismo
sentido, algunos ejemplos más de hallazgos científicos, en física, que
constituyeron auténticas sorpresas.
El primero es el descubrimiento de la expansión del universo. Una vez
que Albert Einstein (1879-1955) completó en noviembre de 1915 la teoría
relativista de la gravitación –la teoría general de la relatividad– que
buscaba desde hacía años, decidió aplicarla al conjunto del universo;
esto es, construir una cosmología relativista. Enfrentado con la
cuestión de buscar una solución de las ecuaciones del campo
gravitacional que representase lo que él imaginaba era el universo,
supuso que este era estático y que la distribución de materia en él era
uniforme. Es bien sabido que la suposición de un universo estático le
obligó a modificar las ecuaciones del campo de la relatividad general,
introduciendo una constante cosmológica, pero lo que me interesa
destacar ahora es que no pensó en la posibilidad de que el universo no
fuese estático. Tampoco consideraron seriamente semejante posibilidad el
matemático y físico ruso Aleksandr Friedmann, el matemático
estadounidense Howard Robertson o el matemático inglés Arthur Geoffrey
Walker, que encontraron soluciones de las ecuaciones del campo
relativistas que implicaban universos en expansión: creyeron que se
trataba de soluciones matemáticas alejadas de la realidad física.
Únicamente la tomó en serio el sacerdote y físico belga Georges Lemaître
(1894-1966), en un artículo titulado “Un universo homogéneo de masa
constante y de radio creciente, que explica la velocidad radial de
nebulosas extragalácticas”, que publicó en 1927 en la revista Annales de
la Société Scientifique de Bruxelles, pero no recibió ni el apoyo ni la
atención de sus colegas.
Fue el astrónomo estadounidense Edwin Hubble (1889-1953) quien
descubrió la hoy tan célebre expansión del universo, resultado que
publicó en 1929. No se predijo, por consiguiente, incluso aunque existía
una base teórica que permitía hacerlo, sino que se descubrió
observando. Y otro tanto se puede decir de descubrimientos astronómicos
como los de los púlsares (Jocelyn S. Bell, 1967) y los cuásares (de
quasi-stellar source, fuente casi-estelar), radio-fuentes que muestran
un gran desplazamiento hacia el rojo, cuya existencia quedó confirmada a
comienzos de la década de 1960. Sí fueron previstos, analizando una
solución de las ecuaciones de la relatividad general (la solución de
Schwarzchild), los agujeros negros, aunque muchos científicos dudaron de
que existieran (sus equivalentes newtonianos habían sido propuestos –y
enseguida olvidados– mucho antes: primero por el astrónomo británico
John Michel en 1783, y luego por Laplace en 1795). Se tardó en confirmar
experimentalmente su existencia, pero se logró, ya en el siglo XXI: se
han encontrado sistemas binarios, uno de cuyos miembros parece ser un
agujero negro: por ejemplo, V404 Cygni, constituido por una estrella de
dos tercios la masa del Sol y un agujero negro de 12 masas solares.
También ha sido una sorpresa mayúscula el descubrimiento observacional
de que solo alrededor del 3 % del universo está formado por masa
ordinaria, mientras que el 30 % es un tipo de materia desconocida
(denominada materia oscura) y el 67 % por una forma de energía también
desconocida (energía oscura).
Nadie predijo, y esta constatación es fundamental a la hora de
cualquier consideración sobre la posibilidad de predecir el futuro
científico, la mecánica cuántica, sobre cuyos pilares se levanta una
buena parte del tecnologizado mundo actual. Y no debemos sorprendernos,
ya que se trata de una teoría entre cuyos fundamentos se incluyen
apartados tan sorprendentes como: a) el que los objetos físicos se
describen mediante funciones, de onda (definidas en el campo de los
números complejos) cuyo cuadrado representa no la historia posterior del
objeto en cuestión, sino la probabilidad de que siga tal o cual
historia; b) el colapso de la función de onda (en el acto de
medir-observar se selecciona, con cierta probabilidad, una u otra parte
de la función de onda, esto es, de la realidad que se produce), y c) el
principio de incertidumbre de Heisenberg.
Aun así, en los últimos tiempos, especialmente dentro de algunos
apartados de la física teórica, no es raro encontrarse con escritos en
los que se habla del futuro, especulando sobre él. Semejante tendencia
se vio reforzada por el impacto de la conferencia inaugural que Stephen
Hawking (n. 1942) pronunció el 29 de abril de 1980 como nuevo Lucasian
professor, a la que el astuto (al menos en estos aspectos publicitarios)
físico dio el atractivo título de ¿Está a la vista el fin de la física
teórica? Análogamente, en un capítulo titulado “Prediciendo el futuro”
de su libro The Universe in a Nutshell, Hawking (2002: 103) escribía:
“Los humanos siempre hemos querido controlar el futuro o, al menos,
predecir lo que va a ocurrir. Por esto la astrología es tan popular”6.
No es sorprendente, en este sentido, que cuando un grupo de físicos se
planteó celebrar el sexagésimo cumpleaños de Hawking se eligiera como
tema “El futuro de la física teórica y la cosmología” (Gibbons, Shellard
y Rankin, eds. 2003), ni que en el libro producto de aquella reunión
aparezcan capítulos con títulos como: “Nuestro complejo cosmos y su
futuro” (Martin Rees), “El pasado y futuro de la teoría de cuerdas”
(Edward Witten) y “El futuro de la cosmología: posibilidades
observacionales y computacionales” (Paul Shellard)7.
Un científico actual que ha dedicado una parte de su tiempo a la
predicción del futuro científico es el físico de altas energías Michio
Kaku (n. 1947), autor de un libro que obtuvo un cierto éxito: Visions,
significativamente subtitulado Cómo la ciencia revolucionará la materia,
la vida y la mente en el siglo XXI (Kaku 1998). Sería interesante
analizar esta obra, al igual que otras de este tipo, como los diferentes
trabajos contenidos en las actas de un congreso que tuvo lugar en los
albores del siglo XXI para considerar lo que podemos esperar de la
ciencia y la tecnología del nuevo milenio (Sánchez Ron, ed. 2002), pero
el objetivo del presente artículo no es tanto tratar de cómo será el
futuro –no, desde luego, recurriendo a textos tan generales y escritos
hace tan poco tiempo como el de Kaku– sino, recurriendo a la historia de
la ciencia, estudiar las previsiones que sobre su devenir realizaron en
el pasado algunos científicos. En cierto sentido, semejante propósito
recuerda la cita de La tempestad de William Shakespeare que encabeza
este trabajo: “Lo pasado es prólogo y lo que viene hemos de ejecutarlo
nosotros”, que acaso podemos entender como que la historia es un
instrumento para predecir el futuro, ya que su fin es analizar ese
prólogo de lo que ha de venir8.
La evolución de las especies, ¿Erasmus o Charles Darwin?
Los anteriores ejemplos provienen de la física, la más matematizada
de las ciencias y también la que más tempranamente (dejando aparte la
propia matemática) contó con sistemas teóricos predictivos. Veamos ahora
un ejemplo extraído de otro mundo científico, el de las ciencias
naturales. En concreto, la cuestión que quiero plantear es si el
concepto de evolución de las especies fue una de esas predicciones
futuribles de las que estoy tratando. Para ello recurriré a Erasmus
Darwin (1731-1802), un próspero médico, además de poeta, filósofo y
botánico, y a su famoso nieto, Charles Darwin (1809-1882). Es bien
sabido que Charles produjo la teoría de la evolución de las especies,
que dio a conocer en On the Origin of Species by means of Natural
Selection, or the Preservation of Favoured Races in the Struggle for
Life (1859), uno de los grandes libros de la historia de la humanidad.
Ahora bien, como se suele recordar, su abuelo Erasmus fue uno de los
precursores de la teoría evolucionista. La base de semejante afirmación
se encuentra en un pasaje de un libro suyo, Zoonomia; or the Laws of
Organic Life (1794-1796), una curiosa combinación de hechos e
intuiciones, que contiene párrafos como el siguiente (Erasmus Darwin
1796: sección XXXIX, “On generation”, 4.8): “¿Sería demasiado atrevido
imaginar que en la gran extensión de tiempo que ha transcurrido desde
que comenzó a existir la Tierra, tal vez millones de eras antes del
inicio de la historia de la humanidad, todos los animales de sangre
caliente han surgido a partir de un filamento vivo, con la primera gran
causa dotada de animalidad, con la capacidad de adquirir partes nuevas,
dotadas con nuevas inclinaciones, dirigidas por irritaciones,
sensaciones, voliciones y asociaciones?; y poseyendo así la facultad de
continuar mejorando mediante su propia actividad inherente, y de
transmitir esas mejoras a su posteridad, ¡un mundo sin fin!”.
La cuestión es en qué medida debemos considerar que Erasmus predijo
la existencia de la evolución de las especies. En mi opinión, su
predicción no es demasiado diferente a la de los atomistas griegos, como
Leucipo o Demócrito (siglos V y IV a.C.), que sostuvieron que la
materia está compuesta de átomos, esto es, partículas indivisibles,
tesis que Lucrecio (99-55 a.C.) difundió en su extenso poema, De rerum
natura (Sobre la naturaleza de las cosas). El átomo que finalmente
produjo la física del siglo XX poco se parece al que imaginaron los
atomistas helenos, y de la misma manera, aunque acaso algo atenuado, la
idea de evolución que propugnó Erasmus Darwin no se parece a la que, con
gran esfuerzo, produjo su nieto. Uno de los puntos de apoyo de la
teoría darwiniana de la evolución de las especies fue el de la lucha por
la existencia, que Charles tomó del economista Thomas Robert Malthus,
tal y como este la había expuesto en su ensayo de 1826, An Essay on the
Principle of Population, y nada de esto aparece en Erasmus Darwin, como
tampoco aparece la extensa y detallada colección de datos que
sustentaban las ideas de su nieto.
Y puesto que estoy tratando de Charles Darwin, mencionaré una de sus
predicciones (esto es, visiones del futuro), que el desarrollo posterior
de la biología parece confirmar: la de que todos los seres vivos
presentes en la Tierra, al igual que sus antecesores, proceden de una
única, común, forma de vida primitiva. Charles fue cauto en este punto,
pero también claro. Así, en El origen de las especies escribió (Charles
Darwin 1859: 488-490): “Cuando considero todos los seres no como
creaciones especiales, sino como los descendientes directos de un corto
número de seres que vivieron mucho antes de que se depositase la primera
capa del sistema silúrico, me parece que se ennoblecen […] Así, la cosa
más elevada que somos capaces de concebir, o sea la producción de los
animales superiores, resulta directamente de la guerra de la naturaleza,
del hambre y de la muerte. Hay grandeza en esta concepción de que la
vida, con sus diferentes fuerzas, que ha sido insuflada en un corto
número de formas o en una sola, y que, mientras este planeta ha ido
girando según la constante ley de la gravitación, se han desarrollado y
se están desarrollando, a partir de un principio tan sencillo, infinidad
de formas más bellas y portentosas”9.
Hilbert sobre los problemas futuros de las matemáticas
Un tipo diferente de predicción, mucho más exitoso, que aquellos que
he mencionado hasta el momento es el que utilizó el gran matemático
alemán David Hilbert (1862-1943), en la famosa conferencia que pronunció
el miércoles 8 de agosto de 1900 en el marco del Segundo Congreso
Internacional de Matemáticos, celebrado en París: “Sobre los problemas
futuros de las matemáticas”. Comenzaba esta de la siguiente manera
(Hilbert 1902: 58):
“¿Quién no se ofrecería voluntario para levantar el velo que nos
oculta el porvenir con el fin de echar un vistazo a los progresos de
nuestra ciencia y los secretos de su desarrollo ulterior en los siglos
futuros? En el campo tan fecundo y vasto de la ciencia matemática,
¿cuáles serán las metas particulares que intentarán alcanzar los guías
del pensamiento matemático de las generaciones futuras? ¿Cuáles serán,
en este campo, las nuevas verdades y los nuevos métodos descubiertos en
el siglo que comienza?
La historia enseña la continuidad del desarrollo de la ciencia.
Sabemos que cada época tiene sus problemas que la época siguiente
resuelve o deja de lado como estériles, reemplazándolos por otros. Si
deseamos prever el desarrollo presumible de la ciencia matemática en un
futuro próximo, debemos repasar las cuestiones pendientes y poner
nuestra atención en los problemas planteados en la actualidad y que
esperamos que el futuro resuelva”.
Era, en realidad, sobre las cuestiones pendientes entonces en la
matemática de lo que Hilbert trató. Aplicó su extraordinario
conocimiento matemático, del estado en que se encontraba su disciplina y
de su historia previa, para seleccionar una serie de problemas,
veintitrés, que consideraba centrales para su devenir. Como ha señalado
el historiador de la matemática Jeremy Gray (2003: 7), las intenciones
de Hilbert no eran simplemente “levantar el velo que nos separa del
futuro, sino ayudar a conformar y dirigir ese futuro”. Con su prestigio y
el de su universidad tras él –y Hilbert trabajaba en el centro más
potente del mundo en matemáticas, el Instituto de Matemáticas de la
Universidad de Gotinga– era probable que los problemas que planteaba
estuvieran siempre en la vanguardia de la investigación matemática, y
así sucedió”10. La historia de la matemática del siglo XX, en efecto, no
se puede explicar sin tener en cuenta los problemas que seleccionó
Hilbert en 1900; por supuesto, no toda la investigación matemática se
orientó hacia las líneas escogidas por él, pero es innegable que su
criterio conformó en alguna medida el futuro, porque en ciencia una
buena parte de este lo constituyen los esfuerzos que se emplean en
resolver problemas dentro de, como diría Thomas Kuhn (1962), el
paradigma dominante. Citando de nuevo a Gray (2003: 255): “Por supuesto,
hay matemáticos que no han sentido interés [por los veintitrés
problemas de Hilbert]; hay otros muchos que sí lo han sentido. Las
contribuciones de algunos matemáticos han sido olvidadas […] Algunos
problemas han parecido más interesantes que otros: esto es perfectamente
natural. Pero en la lista de quienes han tratado los problemas figuran
muchos matemáticos importantes del siglo XX. Basta con citar a algunos
de los teóricos de números: Gelfond, Siegel, Artin, Takagi y Hasse. Los
nombres de Dehn, Bernstein, Koebe y Birkoff también son ilustres, y los
problemas que sobrevivieron hasta los años cincuenta y sesenta atrajeron
la atención de Paul Cohen, Kolmogorov, Arnold y Zariski entre otros”.
Lo que enseña la conferencia de Hilbert y el lugar que esta ocupa en
la historia de la matemática, es que al menos una parte del futuro –con
frecuencia la mayor parte– está marcada, y en este sentido ocupada, por
las previsiones que algunos hicieron sobre ese futuro. La mayoría de las
veces destacamos cómo las novedades antes impredecibles, las
revoluciones científicas, determinan el futuro. Existen, evidentemente,
buenas razones para resaltar esta dimensión del futuro, pero como nos
muestra el caso de Hilbert, el futuro no se configura únicamente de esa
forma. De hecho, este tipo de ligaduras que tanto influyen en el devenir
no surgen solo de mecanismos como el que ejemplifica Hilbert, sino
también de otros, digamos, “institucionales”. Un ejemplo notable en este
apartado lo proporciona el apoyo que el gobierno federal estadounidense
(más concretamente, su Departamento de Defensa y a la cabeza de este el
Pentágono) suministró a partir del final de la Segunda Guerra Mundial a
una serie de disciplinas físicas: la energía nuclear y la electrónica
preferentemente. Semejante apoyo influyó decisivamente en la dirección
de la investigación en física, favoreciendo la aparición de edificios
teórico-experimentales tan destacados como el Modelo Estándar en física
de altas energías. Sin los grandes aceleradores de partículas,
construidos inicialmente en Estados Unidos con el apoyo económico de las
Fuerzas Armadas estadounidenses, ¿hubiera sido posible, por ejemplo,
llegar a descubrimientos tan novedosos como el de los quarks, o el del
máser y el láser? No, en mi opinión, o no tan pronto11.
Aunque el paralelismo no sea completo, este tipo de dependencia del
pasado, una dependencia más intensa que en otros casos (siempre somos
hijos del pasado), me recuerda lo que escribió el historiador, sociólogo
y politólogo italiano Benedetto Croce (1992: 183) en 1938, “La cultura
histórica tiene por fin conservar viva la conciencia que la sociedad
humana tiene del propio pasado, es decir, de su presente, es decir, de
sí misma; de suministrarle lo que necesite para el camino que ha de
escoger; de tener dispuesto cuanto, por esta parte, pueda servirle en lo
por venir”.
Predicciones tecnológicas
Más factible que en la ciencia es vislumbrar el futuro en el dominio
de la tecnología, como muy apropiadamente señaló uno de los grandes
gurús de la nanotecnología, Eric K. Drexler (n. 1955), en su conocido
libro Engines of Creation. The Coming Era of Nanotechnology, publicado
en 1986. “La predicción del contenido de un nuevo conocimiento
científico”, escribió allí Drexler (1993: 72), “es lógicamente
imposible, porque no tiene sentido afirmar saber ya los hechos que
aprendemos en el futuro. Predecir los detalles de la tecnología futura,
por el contrario, solamente es difícil. La ciencia apunta a conocer,
pero la ingeniería apunta a hacer; esto permite al ingeniero hablar de
logros futuros sin que resulte paradójico. Pueden desarrollar sus
artefactos en el mundo de la mente y la computación, antes de cortar el
metal o aun de haber definido todos los detalles de un diseño. Los
científicos reconocen comúnmente esta diferencia entre previsión
científica y previsión tecnológica: hacen fácilmente predicciones
tecnológicas acerca de la ciencia. Los científicos pueden predecir (y lo
hacen) la calidad de las imágenes de los anillos de Saturno del
Voyager, por ejemplo, aunque no su contenido sorprendente”.
Por supuesto, aunque sean más factibles las predicciones tecnológicas
también podemos encontrar largas listas de errores, como advirtió el
distinguido ingeniero aerodinámico Theodore von Kármán (1881-1963) en un
artículo que publicó en 1955, titulado precisamente “Los próximos
cincuenta años”, en el que citaba (Von Kármán 1955, 1975: 325) la
siguiente predicción aparecida en un artículo de 1908 de la revista
Engineering News: “Es imposible imaginar que el transporte aéreo de
carga y de pasajeros pueda entrar en competición con el transporte por
superficie. El campo de la navegación aérea está, por consiguiente,
limitado a las aplicaciones militares y deportivas; mientras que estas
últimas son casi seguras, las militares son aún dudosas”.
En cualquier caso son muchos los ejemplos que muestran que,
efectivamente, es más seguro realizar predicciones tecnológicas que
científicas. Uno de ellos, importante ya que sus predicciones se
refieren al mundo digital en el que ya vivimos, soporte de la denominada
sociedad de la información y de la globalización, es Nicholas
Negroponte (n. 1943), fundador y director del Media Lab del MIT,
institución de la que es catedrático desde 1966. En 1995, Negroponte
publicó un libro, Being Digital, en el que, visto retrospectivamente,
atinó con mucho de lo que había de venir. “A medida que nos
interconectemos entre nosotros mismos”, escribía (Negroponte 1995: 21),
“muchos de los valores del Estado-nación cambiarán por los de
comunidades electrónicas, ya sean estas pequeñas o grandes. Nos
relacionaremos en comunidades digitales en las que el espacio físico
será irrelevante y el tiempo jugará un papel diferente”. O (Negroponte
1995: 176-177): “En el próximo milenio, hablaremos tanto o más con
máquinas que con seres humanos […] La miniaturización hará que esta
omnipresencia del habla avance más deprisa que en el pasado. Los
ordenadores son cada vez más pequeños y es muy probable que mañana
llevemos en la muñeca lo que hoy tenemos en el escritorio y ayer ocupaba
toda una habitación”. Y (Negroponte 1995: 269-271):
“La próxima década será testigo de un sinnúmero de casos de abusos de
los derechos de propiedad intelectual y de invasión de nuestra
intimidad. Habrá vandalismo digital, piratería del software y robo de
información. Y lo peor de todo, mucha gente se quedará sin trabajo
debido a los sistemas automatizados y las oficinas cambiarán tanto como
lo han hecho las fábricas. La noción de tener el mismo trabajo toda la
vida ha empezado a desaparecer […] A medida que nos acerquemos a ese
mundo digital, todo un sector de la población será o se sentirá
desplazado. Cuando un trabajador siderúrgico de cincuenta años pierda su
trabajo, lo más seguro es que, a diferencia de su hijo de veinticinco
años, le sea imposible adaptarse al mundo digital. Sin embargo, si un
secretario pierde su trabajo, al menos estará familiarizado con el mundo
digital y poseerá habilidades transferibles”.
La predicción del contenido de un nuevo conocimiento científico, escribió Drexler, es lógicamente imposible, porque no tiene sentido afirmar saber ya los hechos que aprendemos en el futuro. Predecir los detalles de la tecnología futura, por el contrario, solamente es difícil.
Naturalmente, no todas sus predicciones han resultado correctas, o no
todavía correctas, pero de muchas otras lo único que cabe objetar es
que el futuro que imaginaba ha llegado antes de lo que él suponía.
Otro ejemplo lo proporciona Eric Drexler, a quien ya me he referido.
En Engines of Creation predijo la que mayoritariamente es considerada en
la actualidad como la nueva, cercana en el futuro, revolución
científico-tecnológica12. “La tecnología,” se lee en su libro (Drexler
1993: 304-305), “podrá terminar o extender la vida, pero también puede
cambiar su cualidad. Los productos basados en la nanotecnología
penetrarán en las vidas cotidianas de la gente que elija usarlos.
Algunas consecuencias serán triviales; otras pueden ser profundas”. Y
continuaba:
“Algunos productos tendrán efectos tan ordinarios como simplificar el
cuidado hogareño (y tan sustanciales como reducir las causas de las
disputas domésticas). No debería ser una gran hazaña, por ejemplo, hacer
que todo, desde los platos hasta las alfombras, se limpie a sí mismo y
el aire dentro de la casa esté permanentemente fresco. Para nanomáquinas
apropiadamente diseñadas, la suciedad sería su alimento.
Otros sistemas basados en la nanotecnología podrían producir comida
fresca –carne genuina, granos, vegetales, etcétera– en el hogar, todo el
año. Estos alimentos proceden de células que crecen según ciertos
patrones en las plantas y los animales; las células pueden ser obligadas
a crecer según estos mismos patrones en otros lados. Los cultivadores
caseros de comida permitirán a las personas comer dietas ordinarias sin
matar. El movimiento a favor de los derechos del animal (¿precursor de
un movimiento para proteger a todas las entidades sensibles y
conscientes?) se fortalecerá.
La nanotecnología hará posibles las pantallas de alta definición que
proyecten diferentes imágenes para cada ojo; el resultado será
televisión tridimensional tan real que la pantalla parecerá una ventana
hacia otro mundo […] La nanotecnología hará posible formas vívidas de
arte y mundos de fantasía mucho más absorbentes que cualquier libro,
juego o película.
Las nanotecnologías avanzadas posibilitarán todo un mundo de
productos que hará que las comodidades modernas parezcan inconvenientes y
peligrosas. ¿Por qué los objetos no deberían ser livianos, flexibles,
durables y cooperativos? ¿Por qué las paredes no podrían tener la
apariencia que queramos y transmitir solo los sonidos que deseemos
escuchar? ¿Y por qué edificios y automóviles deberían aplastar o asar a
sus ocupantes? Para aquellos que lo deseen, el medio ambiente de la vida
cotidiana puede semejar algunas de las descripciones más extravagantes
halladas en la ciencia ficción”.
Y algo muy parecido se podría decir –y se dice– sobre el papel de la nanotecnología en la medicina del futuro13.
Aunque Drexler se convirtió en uno de los principales profetas de la
nanotecnología, el auténtico pionero del pensamiento que condujo a ella
fue uno de los grandes físicos del siglo XIX, uno particularmente
querido y admirado por sus colegas, Richard Feynman (1918-1988). En una
conferencia titulada “There’s plenty of room at the botton” (“Hay mucho
lugar en el fondo”), que pronunció en la reunión anual de la American
Physical Society el 29 de diciembre de 1959 –veintisiete años, por
tanto, antes de que Drexler publicase Engines of Creation–, Feynman
alertó a los científicos acerca de la posibilidad y el interés de
trabajar en dimensiones mucho más pequeñas de las frecuentadas
entonces14. “Quiero describir un campo”, comenzaba su conferencia
(Feynman 1960: 22):
“en el que se ha hecho poco, pero en el que en principio se puede
hacer mucho. Este campo no es exactamente el mismo que otros en tanto
que no nos dirá mucho sobre física fundamental (en el sentido de ‘¿Qué
son las partículas extrañas?’), pero que es más parecido a la física del
estado sólido en el sentido de que puede decirnos mucho de gran interés
sobre los extraños fenómenos que tienen lugar en situaciones complejas.
Además, un punto muy importante es que tendría un enorme número de
aplicaciones técnicas. De lo que quiero hablar es del problema de
manipular y controlar cosas en una escala pequeña”. Las escalas que
consideraba Feymann (1960: 34) llegaban a las atómicas: “No tengo miedo
de considerar la cuestión final de si, en última instancia –en un futuro
lejano–, podremos manipular los átomos de la forma en que queramos,
¡los mismísimos átomos, todo el camino hasta ellos! Qué sucederá si
pudiésemos manipularlos uno a uno de la manera que quisiésemos (dentro
de lo razonable, por supuesto; no podemos colocarlos, por ejemplo, de
forma que sean químicamente inestables)”.
Manipular átomo a átomo es lo que la nanotecnología ha logrado, lo
que en realidad es su fundamento. Claro que para lograr esto fue
necesario algo que Feynman también reclamó en su conferencia: mejores
microscopios que los electrónicos entonces disponibles. Y estos
llegaron: en 1981, dos físicos que trabajaban en los laboratorios de IBM
en Zúrich, Gerd Binning y Heinrich Roher, desarrollaron el microscopio
de efecto túnel, un instrumento que puede tomar imágenes de superficies a
nivel atómico. Sin él, la nanotecnología sería todavía un sueño
borroso, apenas definido, como lo era cuando Feynman pronunció su famosa
conferencia. Y sin él, Drexler no habría podido escribir su libro.
Estos hechos nos llevan a la siguiente reflexión: incluso aunque las
predicciones tecnológicas sean más seguras, estas necesitan de una base
científica, la mecánica cuántica y el microscopio de efecto túnel en el
caso de las predicciones de Drexler sobre la nanotecnología, o la
mecánica cuántica y el transistor para las de Negroponte. Es desde esta
perspectiva desde la que podemos entender predicciones que ahora, en la
era de los teléfonos móviles o celulares, nos resultan asombrosas, como
la que aventuró en el City Guilds Central Technical College de Londres,
ante el British Imperial Institute en 1897, William Edward Ayrton
(1847-1908), catedrático de Física aplicada e Ingeniería eléctrica desde
1884 hasta su muerte (Ayrton 1884: 548; citada en Marvin 1988: 157):
“No hay duda de que llegará el día, en el que probablemente tanto yo
como ustedes habremos sido olvidados, en el que los cables de cobre, el
hierro y la gutapercha que los recubre serán relegados al museo de
antigüedades. Entonces cuando una persona quiera telegrafiar a un amigo,
incluso sin saber dónde pueda estar, llamará con una voz
electromagnética que será escuchada por aquel que tenga el oído
electromagnético, pero que permanecerá silenciosa para todos los demás.
Dirá ‘¿dónde estás?’ y la respuesta llegará audible a la persona con el
oído electromagnético: ‘Estoy en el fondo de una mina de carbón, o
cruzando los Andes o en medio del Pacífico’”.
Ayrton, en efecto, especulaba provisto del soporte que le ofrecía el
nuevo mundo electromagnético que había surgido de trabajos de, entre
otros, Faraday, Maxwell y Marconi.
Ciencia versus tecnología
Antes de continuar, y puesto que he estado hablando de predicciones
tecnológicas, cuando en principio pretendía ocuparme de predicciones
científicas, es conveniente resaltar la íntima relación que existe entre
ciencia y tecnología. Es posible ofrecer numerosas evidencias a favor
de semejante conexión, que con frecuencia se minusvalora sosteniendo que
primero está la ciencia básica y cuando se aplica (ciencia aplicada) se
convierte en tecnología, una conexión que de ser cierta establecería
una relación de subordinación de la tecnología con respecto a la
ciencia. Pero no es así, al menos no así siempre; un ejemplo canónico en
este sentido es el de la termodinámica, la rama de la física que se
ocupa de los intercambios de calor, que nació después y en buena medida
como reflexión (piénsese en el trabajo clásico que Sadi Carnot publicó
en 1824: Réflexions sur la puissance motrice du feu et sur les machines
propres à développer cette puissance) sobre el funcionamiento y la
posible mejora de las máquinas de vapor que dieron lugar a la Revolución
industrial.
Entre los que entendieron bien la dual y dinámica relación entre
ciencia y tecnología se encuentra William Thomson (1824-1907), más
conocido como lord Kelvin, que transitó con fortuna y gusto por ambos
dominios, mejorando ambos. En una conferencia que pronunció en la
Institution of Civil Engineers el 3 de mayo de 1883, Thomson (1891:
86-87) señaló:
“No puede existir equivocación mayor que mirar con desdén a las
aplicaciones prácticas de la ciencia. La vida y alma de la ciencia es su
aplicación práctica, y exactamente igual que los grandes avances en
matemáticas se han realizado deseando descubrir las soluciones de
problemas de una clase altamente práctica en la ciencia matemática, en
la ciencia física muchos de los avances más importantes se han realizado
desde el principio del mundo hasta la actualidad debido al apremiante
deseo de convertir en útil para la humanidad el conocimiento de las
propiedades de la materia”.
Traducido a la cuestión de si las predicciones tecnológicas pueden
tener algún efecto en el futuro de la ciencia, habría que decir que sí,
que pueden tener efectos positivos. Cuando se intentan desarrollar
programas tecnológicos visionarios, es posible que ello implique en
algún momento la necesidad de resolver problemas científicos antes no
previstos, con lo que la ciencia se ve beneficiada. En el caso de la
nanotecnología, por ejemplo, el desarrollo de esta ayuda a impulsar el
estudio de los efectos cuánticos macroscópicos, durante décadas apenas
tratados.
Un sueño largamente acariciado: la inteligencia artificial
Entre los sueños más largamente acariciados por la humanidad, el de
lograr máquinas (robots o de otro tipo) que fuesen inteligentes –el
problema de la inteligencia artificial– es uno de los más antiguos.
Ramon Llull (1232-1315), por ejemplo, expresó en su Ars Magna (1315) la
idea de que el razonamiento podría implementarse de manera artificial en
una máquina, y cómo olvidar los esfuerzos de Charles Babbage
(1791-1871), que diseñó la primera máquina programable, aunque a pesar
de sus esfuerzos nunca llegó a construir una que funcionase
satisfactoriamente. Sin embargo, no me remontaré tan lejos, limitándome a
recordar algunas de las ideas y predicciones de tres de los científicos
más extraordinarios que conoció el siglo XX: Norbert Wiener (18941964),
John von Neumann (1903-1957) y Alan Turing (1912-1954).
En un artículo publicado en 1936, Turing (1936) introdujo lo que se
denomina “máquina de Turing”, artilugio teórico del que se deriva la
“máquina universal de Turing”, una máquina de Turing que puede imitar a
cualquier otra máquina de Turing. Si existe alguna esperanza de
conseguir máquinas que sean “inteligentes”, en el sentido de que sus
razonamientos y los resultados que proporcionen no se puedan distinguir
de los propios de los humanos, estas serán algún tipo de computadora, y
como el funcionamiento de estas se basa en última instancia en el modelo
de las máquinas de Turing, podremos comprender que Turing tuvo,
ciertamente, algo que ver con el campo de la inteligencia artificial
Por su parte, uno de los muchos logros de John von Neumann se halla en el campo de las computadoras, al que contribuyó con ideas fundamentales sobre los dispositivos de almacenamiento para instrucciones y para datos (arquitectura de Von Neumann), que son utilizados por casi todas las computadoras, ideas que llevó a la práctica contribuyendo a los esfuerzos que condujeron a la construcción (1944-1945) del ENIAC (Electronic Numerical Integrator and Computer; esto es, computadora integradora numérica electrónica), y luego dirigiendo el diseño y fabricación de otra computadora, JOHNNIAC, que entró en funcionamiento en 1952. Otra de las aportaciones de Von Neumann –que presentó en una conferencia que dio en Princeton en 1948– fue una teoría axiomática de la autorreproducción (“Teoría general y lógica de los autómatas”), lo suficientemente general para englobar tanto a organismos como a máquinas (Von Neumann 1948, 1966).
Por su parte, uno de los muchos logros de John von Neumann se halla en el campo de las computadoras, al que contribuyó con ideas fundamentales sobre los dispositivos de almacenamiento para instrucciones y para datos (arquitectura de Von Neumann), que son utilizados por casi todas las computadoras, ideas que llevó a la práctica contribuyendo a los esfuerzos que condujeron a la construcción (1944-1945) del ENIAC (Electronic Numerical Integrator and Computer; esto es, computadora integradora numérica electrónica), y luego dirigiendo el diseño y fabricación de otra computadora, JOHNNIAC, que entró en funcionamiento en 1952. Otra de las aportaciones de Von Neumann –que presentó en una conferencia que dio en Princeton en 1948– fue una teoría axiomática de la autorreproducción (“Teoría general y lógica de los autómatas”), lo suficientemente general para englobar tanto a organismos como a máquinas (Von Neumann 1948, 1966).
En cuanto a Norbert Wiener, seguramente bastaría con señalar que es
conocido como el “padre de la cibernética” (Wiener 1948), disciplina que
se puede definir como “la ciencia de las comunicaciones y sistemas
automáticos de control tanto en máquinas como en seres vivos”.
Efectuadas estas someras, e incompletas, presentaciones, veamos
algunas de las predicciones que realizaron estos tres científicos,
siguiendo un orden cronológico, comenzando por Von Neumann. Contamos
para ello con el valioso testimonio del físico y matemático inglés,
instalado permanentemente en el Institute for Advanced Study de
Princeton, Freeman Dyson (n. 1923) que en un artículo dedicado al,
precisamente, futuro de la ciencia (Dyson 2011) recordaba
–beneficiándose del hecho de que él estaba en el Instituto de Princeton
en las décadas de 1940 y 1950, cuando Von Neumann trabajaba en
computadoras– algunas de las ideas del genio matemático húngaro sobre el
futuro de las computadoras. Señalaba Dyson que uno de los aspectos que
más interesaban a Von Neumann sobre las computadoras era su aplicación a
la meteorología. Y que pensaba que tan pronto como fuese posible
simular en una computadora la dinámica de los fluidos atmosféricos con
la precisión suficiente, sería posible determinar si la situación
atmosférica en un momento determinado era estable o inestable. Si fuese
estable, se podría predecir su evolución futura, y si fuera inestable
introducir –con, por ejemplo, aviones que llevasen generadores de humo
que pudiesen hacer que la atmósfera se calentase o enfriase– pequeñas
perturbaciones para controlar su comportamiento posterior. Sin embargo,
esta predicción de Von Neumann resultó completamente errónea, por la
sencilla razón, entonces desconocida, de que los sistemas atmosféricos
son caóticos, en el sentido descubierto por Edward Lorenz (19172008) en
1963: pequeñas perturbaciones como las que Von Neumann pretendía
introducir en la atmósfera no harían sino que su comportamiento futuro
fuera aún más impredecible (recordemos la famosa frase de Lorenz: “El
aleteo de una mariposa en Brasil puede producir un tornado en Texas”)15.
En otras palabras, los avances futuros de la ciencia pueden destruir
nuestras predicciones, incluso las de científicos tan sobresalientes
como lo fue Von Neumann.
Otra predicción fallida del matemático húngaro de Princeton se
refirió al tamaño y número de las futuras computadoras. Creía que se
harían cada vez más grandes y caras. “Es posible”, manifestó (Von
Neumann 1948: 13; citado en George Dyson 2012: 303), “que en años
venideros los tamaños de las máquinas aumenten de nuevo, pero no es
probable, en tanto que se empleen las actuales técnicas y filosofía, que
se superen los 10 000 (o tal vez unas pocas veces 10 000) dispositivos
de conmutación. Unos 10 000 órganos parece ser el orden de magnitud
apropiado para una maquina de calcular”. Según una historia,
probablemente apócrifa, una vez le preguntaron cuántas computadoras se
necesitarían en Estados Unidos en el futuro, a lo que contestó:
“Dieciocho”. No tengo que detenerme en lo equivocado que estaba. El
transistor cambió radicalmente el tamaño, precio y posibilidades de las
viejas computadoras de válvulas de vacío: en 2010 se podía comprar una
computadora dotada de 1 000 millones de transistores; esto es, 10
000·105. Y no debe pasar desapercibido que el transistor fue inventado
(John Bardeen, Walter Brattain y William Shockely) en 1947, esto es, en
vida de Von Neumann, cuando este estaba trabajando en computadoras. En
consecuencia, no solo son los avances futuros de la ciencia los que
pueden arruinar nuestras predicciones, es muy posible también que no
sepamos apreciar las consecuencias de desarrollos que se producen a
nuestro lado, en nuestro tiempo.
Más consciente de las posibilidades que abría la nueva electrónica
fue Norbert Wiener, quien en un libro de carácter divulgativo que
publicó en 1950, The Human Use of Human Beings (Wiener 1950) predijo que
los aparatos de control, y en particular los electrónicos que
funcionaban mediante procesos de realimentación (feedback) conducirían
en unos pocos años a una segunda revolución industrial. “Esta segunda
revolución”, explicó en un artículo posterior (Wiener 1953; Masani 1985:
666), “diferirá de la gran Revolución industrial de comienzos del siglo
XIX en que reemplazará el poder generado por los hombres y los animales
de carga por el poder de la máquina; la segunda revolución industrial
reemplazará las decisiones humanas de bajo nivel por decisiones
iniciadas por órganos sensoriales mecánicos y desarrolladas por los
equivalentes mecánicos de cerebros; esto es, máquinas constituidas por
dispositivos de conmutación consecutivos mayoritariamente de naturaleza
electrónica”. Como las máquinas en las que estaba pensando eran
digitales (“Los computadores electrónicos están particularmente
adaptados a la escala de dos” escribía en el mismo artículo), no hay
duda de que aunque no pudiese imaginar los detalles concretos, Wiener
previó la revolución digital en la que nos encontramos instalados desde
hace tiempo. Fue, eso sí, muy cauto a la hora de imaginar que las
crecientes habilidades de esas máquinas electrónicas pudiesen
confundirse con habilidades propias de los humanos (Wiener 1953; Masani
1985: 670-671):
“Existe un gran obstáculo para extender la era mecánica de
comunicación y la era automática de control a campos que involucran lo
que se solía conocer como las ‘elevadas facultades humanas’. No
significa que exista en su naturaleza nada absolutamente diferente entre
lo humano y lo no humano, sino simplemente que el funcionamiento de una
conexión no humana en las relaciones humanas solamente puede ser
evaluada en términos humanos”.
Menos precavido fue Turing, que se aventuró a manifestarse acerca de
cuándo podría decirse que se habían construido máquinas que,
efectivamente, pensaban. La referencia apropiada en este sentido es un
artículo que publicó en 1950 en la revista de filosofía Mind, titulado
“Maquinaria de computación e inteligencia” (Turing 1950), en el que
escribió (Copeland 2004: 449):
“Creo que aproximadamente en los próximos cincuenta años será
posible programar computadoras, con una capacidad de almacenamiento de
unos 109, para que puedan desarrollar el juego de imitación tan bien que
un interrogador medio no tendrá más del 70 % de probabilidades de
realizar la identificación correcta después de 5 minutos de preguntas.
Sobre la cuestión inicial, ‘¿Pueden pensar las máquinas?’, creo que no
posee el suficiente sentido como para que merezca discutirse. Sin
embargo, pienso que al final del siglo el uso de palabras y de opiniones
razonadas de tipo general se habrá modificado tanto que uno podrá
hablar de máquinas que piensan sin esperar que le contradigan”16.
Las máquinas que piensen como seres humanos aún no han llegado, más
de sesenta años después de que Turing escribiese su artículo, aunque él
fue lo suficientemente precavido como para que podamos aceptar que las
máquinas que hoy existen se acercan tanto como él sugería a poseer
inteligencia. Y de lo que, en mi opinión, ni hay duda es de que con sus
trabajos y predicciones tanto Von Neumann como, más aún que este, Turing
y Wiener favorecieron no solo la llegada de las modernas computadoras
sino también el establecimiento de la “inteligencia artificial” –un
término acuñado en 1955 por John McCarthy– como un campo de gran
interés. En este sentido, intervinieron en el futuro.
Necesidades sociales y predicción del futuro
Probablemente no hay forma más segura de predecir algo del futuro que
identificar agudas necesidades presentes que deberán resolverse en los
años o décadas venideras con la ayuda de la ciencia y la tecnología. Un
ejemplo destacado de este tipo de predicción del futuro lo proporciona
el ya mencionado Freeman Dyson con un libro –producto de una serie de
conferencias que pronunció en la Biblioteca Pública de Nueva York en la
primavera de 1997– titulado The Sun, the Genome, and the Internet
(Freeman Dyson 2000). Su tema principal era (Freeman Dyson 2000: 17) “un
modelo de futuro cuyas fuerzas impulsoras son el Sol, el genoma e
internet”. En realidad no eran pronósticos difíciles: cuando finalizaba
el siglo XX era obvio que la revolución biológico-molecular, la de la
doble hélice del ADN, del ADN recombinante, el genoma, la clonación y
las células madre en curso iba a modificar profundamente –lo estaba
haciendo ya– nuestras posibilidades de intervenir en los organismos
vivos. De hecho, antes de que se obtuviesen estos conocimientos
científicos, se pensó sobre lo que podrían significar para la naturaleza
humana y los mecanismos reproductivos los avances en las ciencias
biomédicas. Un ejemplo bien conocido es el de la novela de Aldoux Huxley
(1894-1963), Brave New World (Un mundo feliz; 1932), en la que se
describe un mundo futuro formado por castas inmutables fruto de
progresos en los campos de la biología, la psicología y la fisiología.
Cuando se lee lo que escribió Huxley en el libro, Brave New World
Revisited (Nueva visita a un mundo feliz; 1958; capítulo II), en el que
revisaba sus predicciones de veintiséis años antes, se ve cuánto,
gracias al conocimiento del genoma, nos estamos acercando a poder hacer
lo que Huxley supuso en 1931 que se podría hacer:
“En el Mundo Feliz de mi fantasía, la eugenesia y la disgenesia
se practicaban sistemáticamente. En una serie de botellas, los huevos
biológicamente superiores, fecundados por esperma biológicamente
superior, recibían el tratamiento prenatal mejor posible y quedaban
finalmente decantados como Betas, Alfas y Alfas Pluses. En otra serie de
botellas, mucho más nutrida, los huevos biológicamente inferiores,
fecundados por esperma biológicamente inferior, eran sometidos al
Tratamiento Bonanovsky (noventa y seis gemelos idénticos de cada huevo) y
a operaciones prenatales con alcohol y otros venenos proteínicos. Los
seres finalmente decantados aquí eran casi subhumanos, pero podían
efectuar trabajos que no reclamaran pericia y, si se los acondicionaba
debidamente, calmándolos con un libre y frecuente acceso al sexo
opuesto, distrayéndolos constantemente con espectáculos gratuitos y
fortaleciendo sus normas de buena conducta con dosis diarias de soma,
cabía contar con que no darían trabajo a sus superiores”.
Afortunadamente, eso sí, en lugar de Betas, Alfas, Alfas Pluses o
seres casi subhumanos, la ciencia biológica-molecular habla de
ingeniería genética o de terapias génicas, con fines muy diferentes.
Con relación a internet, a finales del siglo XX era evidente que se
trataba de una ola imparable, que modificaría radicalmente nuestras
costumbres y posibilidades. No menos evidente era la necesidad de contar
en el futuro con recursos energéticos que sustituyesen al carbón y al
petróleo, y que las radiaciones emitidas por el Sol eran el sustituto
más seguro y obvio. De hecho, esto es algo que se entendió mucho antes;
así, en un artículo publicado en 1876 en la Revue des Deux Mondes,
traducido al inglés poco después para el Popular Science Monthly, el
profesor de Geología Louis Laurent Simonin (1830-1886) (Simonin 1876:
557-558) manifestaba: “Las generaciones futuras, una vez que se hayan
agotado las minas de carbón, contarán con el recurso del Sol para
conseguir el calor y la energía necesarios para la manufactura y la
economía doméstica”. Simonin describía un modelo de máquina de vapor que
aparentemente podría producir tales efectos, entre los cuales no se
encontraba uno que para nosotros es ahora fundamental: la producción de
electricidad a partir de la luz solar, en el presente uno de los
objetivos preferentes a través de células y paneles solares basados en
el efecto fotoeléctrico explicado por Einstein en 1905.
En una dirección parecida, pero ya hablando explícitamente de
electricidad, el genético y biólogo evolutivo británico John B. S.
Haldane (1892-1964), escribía en 1923, en Daedalus, or Science and the
Future (Haldane 2005: 41):
“En cuanto a la provisión de fuerza mecánica, es obvio que el
agotamiento de nuestro carbón y de nuestro petróleo solo es cuestión de
siglos […] La energía hidráulica no es un probable sucedáneo, por su
pequeña cantidad, sus fluctuaciones estacionales y su irregular
distribución. Podrá desplazarse el centro de gravedad industrial a
distritos montañosos bien regados, como las faldas del Himalaya, la
Columbia Británica y Armenia; pero al cabo tendremos que recurrir a las
fuentes de energía intermitentes, pero inextinguibles: el viento y la
luz solar. El problema se reduce a almacenar su energía en forma
conveniente, como si se tratase de carbón o de petróleo […] Tal vez
mañana se invente una batería de almacenaje barata, reducida y duradera
que transforme la energía intermitente del viento en energía eléctrica
continua.
Pienso que a la vuelta de cuatrocientos años la cuestión de la
energía se resolverá así en Inglaterra: el país estará cubierto por una
serie de molinos de viento metálicos que accionarán motores eléctricos,
los cuales, a su vez, enviarán su corriente de elevado voltaje a grandes
centrales eléctricas. A distancias convenientes habrá grandes
estaciones de energía, donde, en las temporadas ventosas, el exceso de
energía se empleará en descomponer electrolíticamente el agua en oxígeno
e hidrógeno. Estos gases serán licuados y almacenados en cubas y
depósitos resguardados al vacío, probablemente bajo tierra […] En tiempo
de calma, los gases se volverían a combinar en motores de explosión,
que accionan dinamos, o, más probablemente, en celdas de oxidación. El
hidrógeno es, a pesos iguales, el medio más eficaz de almacenar energía,
pues produce tres veces más calor por unidad que el petróleo”.
Los aerogeneradores, esto es, los molinos de viento productores de
electricidad en los que pensó Haldane son cada vez más frecuentes en la
geografía mundial, y tal vez –así lo sostienen algunos– en un futuro no
muy alejado el hidrógeno será también una fuente de energía ampliamente
utilizada.
También podría recordar un libro que cuando se publicó (1964) tuvo un
gran éxito, Engineers’ Dreams, del ingeniero de cohetes frustrado,
posteriormente divulgador científico, Willy Ley (19061969). Uno de los
sueños de los que Ley trató en su libro fue el “poder tomado del Sol”.
“Producir gasolina a partir de la luz del Sol”, escribía (Ley 1964:
184-185) “es un procedimiento que requiere tres pasos al mismo tiempo
que tres materiales básicos. El paso número 1 sería el familiar de
convertir la luz del Sol en corriente mediante colectores, calderas y
generadores. El paso número 2 sería utilizar la corriente eléctrica para
descomponer el agua en sus dos elementos constitutivos, hidrógeno y
oxígeno. El paso número 3 sería convertir el hidrógeno en la sustancia
conocida por los químicos como hidrocarburos (la gasolina es uno de
ellos), tomando el carbono del dióxido de carbono del aire”. “La mayor
dificultad”, añadía, y esta es la razón por la que me he detenido en
esta cita,
“se halla en el tercer paso, y la principal razón de estas
dificultades es que hay muy poco dióxido de carbón en la atmósfera
–solamente 0,03 % del total. Como los procesos químicos industriales
conocidos que producen hidrocarburos exigen dióxido de carbono
razonablemente puro, es necesario primero concentrarlo a partir del
aire. Esto no es difícil, solo tedioso y caro […] porque el contenido de
dióxido de carbono en aire cercano al suelo es solamente 0,03 % (el
dióxido de carbono está virtualmente ausente a alturas superiores), se
debe procesar un millón de pies cúbicos de aire para cada galón de
gasolina producido”.
Hoy vemos la dificultad que mencionaba Ley de manera muy diferente,
teniendo en cuenta el aumento de los niveles de dióxido de carbono que
se ha producido en la atmósfera, debido a los procesos industriales y al
empleo masivo de automóviles. Cualquier procedimiento que permita
extraer dióxido de carbono de la atmósfera es bienvenido y favorecido.
Así se ven a veces afectadas nuestras predicciones del futuro.
Ciencia ficción y la ciencia del futuro
Solo en un par de momentos de este artículo ha aparecido el término
ciencia ficción. En principio, es razonable que así sea porque las
predicciones que aparecen en obras de ciencia ficción no tienen por qué
tener bases científicas, o ir más allá de lo fácilmente imaginable
aunque su realización pueda estar cercana, lejana o ser imposible. Así,
por ejemplo los tan celebrados Jules Verne (1828-1905) y H. G. Wells
(1866-1946) imaginaron vuelos espaciales o submarinos, invasiones
extraterrestres o armamentos atómicos, pero no una innovación que
terminaría dominando prácticamente todas las sociedades como es el
automóvil. A pesar de todo esto, no es razonable minusvalorar
completamente ese género literario cuando se analiza lo que en el pasado
se aventuró sobre el futuro científico17. Sin necesidad de analizar lo
que significa el que, por ejemplo, el físico y uno de los pioneros y
promotores de un proyecto nuclear a finales de la década de 1930 y
primera mitad de la de 1940, Leo Szilard (1898-1964) leyese la novela de
Wells, The World Set Free (1914), la primera obra en la que se
predijeron bombas atómicas, lectura que efectuó en 1932, el año en que
se descubrió el neutrón y un año antes que se le ocurriese a él mismo la
idea de una reacción en cadena que produjese una explosión atómica, se
puede defender la utilidad de al menos algunas obras de ciencia ficción
recurriendo a la que muchos consideran la primera novela moderna del
género: Frankenstein: or the Modern Prometheus (1818), de Mary
Wollstonecraft Godwin, más conocida como Mary Shelley (1797-1851). Me
limitaré a citar y comentar el siguiente pasaje en el que Victor
Frankenstein, el protagonista principal de la novela, reflexiona en los
siguientes términos (Wollstonecraft-Shelley 2009: 76-77):
“Cuando me encontré con un poder tan asombroso en las manos,
durante mucho tiempo dudé cuál podría ser el modo de utilizarlo. Aunque
yo poseía la capacidad de infundir movimiento, preparar un ser para que
pudiera recibirlo con todo su laberinto inextricable de fibras, músculos
y venas aún continuaba siendo un trabajo de una dificultad y una
complejidad inconcebibles. Al principio dudé si debería intentar crear
un ser como yo u otro que tuviera un organismo más sencillo; pero mi
imaginación estaba demasiado exaltada por mi gran triunfo como para
permitirme dudar de mi capacidad para dotar de vida a un animal tan
complejo y maravilloso como un hombre. En aquel momento, los materiales
de que disponía difícilmente podían considerarse adecuados para una
tarea tan complicada y ardua, pero no tuve ninguna duda de que
finalmente tendría éxito en mi empeño. Me preparé para sufrir
innumerables reveses; mis trabajos podían frustrarse una y otra vez y
finalmente mi obra podía ser imperfecta; sin embargo, cuando consideraba
los avances que todos los días se producen en la ciencia y en la
mecánica, me animaba y confiaba en que el menos mis experimentos se
convertirían en la base de futuros éxitos”.
El punto que quiero señalar es que la lectura de pasajes como este
(al igual que otros del ya citado Brave New World de Huxley), que ha
terminado adquiriendo actualidad con el desarrollo de la biología
molecular y las posibilidades que esta abrió (ingeniería genética,
clonación), es apropiada para los científicos ya que esbozan cuestiones
de índole social que aunque los propios investigadores no dejen de
plantearse toman dimensiones diferentes, más profundas, de la mano de
los grandes escritores. Y no se trata únicamente de cuestiones sociales o
éticas, sino también de que pueden, como acaso fue en el caso de Wells,
presentar posibilidades a los científicos para que estos se pregunten
acerca de su base científica, si son posibles o meras elucubraciones sin
más justificación que la literaria.
Dos son las líneas maestras que en mi opinión guiarán, con intensidad creciente, a la ciencia a lo largo del presente siglo y los venideros. La primera es la interdisciplinariedad […] La segunda línea a la que aludía es lo que denomino Pequeña Ciencia, la investigación basada en grupos no demasiado numerosos, frente a la de los colosales proyectos de Gran Ciencia de los últimos años.
El último ejemplo que ofreceré es el de la novela de Isaac Asimov
(1920-1992), Yo, Robot (1950). Las famosas tres leyes de la robótica que
incluyó en esa obra pueden constituir una buena guía si en el futuro se
cumplen las predicciones de robots dotados de inteligencia artificial:
- “ Un robot no puede hacer daño a un ser humano o, por su inacción, permitir que un ser humano sufra daño.
- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entran en conflicto con la Primera Ley.
- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.”
Interdisclipinariedad y pequeña ciencia
Para terminar, iré algo más allá del papel que he procurado adoptar a
lo largo de este artículo: el papel del notario que refleja lo que
sucedió en el pasado con respecto a predicciones científicas y
tecnológicas; un notario, eso sí, que hace, aquí y allá, comentarios, y
que trata de guiar a sus clientes. Ahora me planteo hacer una lectura
personal de lo que la historia de la ciencia dice acerca de cómo será la
investigación científica del futuro, no de las novedades que esta
producirá sino de cómo se desarrollará la propia investigación
científica.
Dos son las líneas maestras que en mi opinión guiarán, con intensidad
creciente, a la ciencia a lo largo del presente siglo y los venideros.
La primera es la interdisciplinariedad, la reunión de grupos de
especialistas –no necesariamente muy numerosos– en disciplinas
científicas y tecnológicas diferentes, que, provistos de los suficientes
conocimientos generales como para poder entenderse entre sí,
colaborarán en resolver nuevos problemas, problemas que por su propia
naturaleza necesitan de esa colaboración. La naturaleza, recordemos, es
una y no conoce fronteras; somos nosotros, por necesidades prácticas,
los que las hemos establecido, constituyendo disciplinas que llamamos
física, química, biología, matemáticas, geología, etcétera. Pero al ir
avanzando en nuestro conocimiento de la naturaleza, se hace cada vez más
necesario ir más allá de esas fronteras, hacerse ciudadanos de la
interdisciplinariedad18.
La segunda línea a la que aludía es lo que denomino Pequeña Ciencia
–como contraposición a la Gran Ciencia, la Big Science–, la
investigación basada en grupos no demasiado numerosos, frente a la de
los colosales proyectos de Gran Ciencia de los últimos, aproximadamente,
setenta y cinco años, como los de la física experimental de altas
energías con sus gigantescos aceleradores, los de la NASA en la
investigación planetaria, o el Proyecto Genoma Humano en su diseño
inicial. La Gran Ciencia es demasiado costosa y demasiado lenta, aunque
pueda obtener resultados interesantes. Pensemos, por ejemplo, en la
física de altas energías. Es evidente que con los grandes aceleradores
de partículas se han conseguido resultados fundamentales en nuestro
conocimiento de la estructura de la materia, pero no es menos evidente
que su coste es cada vez asumible por menos países. Estados Unidos, la
nación más poderosa en ciencia y tecnología, que había sido pionera en
la construcción de esos aceleradores, fue también la primera en darse
cuenta de las dificultades de ese tipo de investigación, cancelando el
proyecto de un Supercolisionador Superconductor (Superconducting Super
Collider), que los físicos de altas energías estadounidenses estimaban
indispensable para continuar desarrollando la estructura del modelo
estándar. Iba a estar formado por un túnel de 84 kilómetros de longitud,
en el interior del cual miles de bobinas magnéticas superconductoras
guiarían dos haces de protones para que, después de millones de vueltas,
alcanzaran una energía veinte veces más alta que la conseguida en los
aceleradores existentes. En varios puntos a lo largo del anillo, los
protones de los dos haces chocarían, y enormes detectores controlarían
lo que sucediera en tales colisiones. El coste del proyecto, que
llevaría diez años, se estimaba inicialmente en 6 000 millones de
dólares. Después de una azarosa vida, con parte del trabajo de
infraestructura ya realizado (la excavación del túnel), el 19 de octubre
de 1993, y tras una prolongada, difícil y cambiante discusión
parlamentaria, tanto en el Congreso como el Senado, el Congreso canceló
el proyecto. Europa, como refleja el Large Hadron Collider (LHC) del
CERN, la institución paneuropea dedicada a la física de altas energías,
en el que recientemente (2012) se ha detectado el tan perseguido bosón
de Higgs, es uno de los enclaves en el que aún se mantiene ese tipo de
Gran Ciencia. ¿Durante cuánto tiempo? ¿Podrá Europa mantener este gasto,
que se extiende para lograr resultados a lo largo de décadas? Otra
manifestación de estas dificultades es la ralentización, cuando no la
cancelación, de algunos de los proyectos más queridos de la NASA, como
el de enviar astronautas a Marte. Y también cómo proyectos de tamaño
mucho menor que el proyecto Genoma Humano están obteniendo mejores
resultados y de manera más rápida (cierto es, gracias también a los
instrumentos de que se dispone, aunque cabe argumentar que la mayor
escasez de recursos ha estimulado a los grupos pequeños a idear
procedimientos más rápidos y económicos). Como ha escrito Freeman Dyson
(en Chiao et al. 2011: 41):
“El futuro de la ciencia será una mezcla de proyectos grandes y
pequeños, los proyectos grandes atraerán la mayor parte de la atención y
los proyectos pequeños obtendrán la mayor parte de los resultados […]
Según nos dirigimos al futuro, existe la tendencia de que los proyectos
grandes se hagan cada vez más grandes y menos numerosos. Esta tendencia
es particularmente clara en la física de partículas, pero también es
visible en otros campos de la ciencia, como la física del plasma, la
cristalografía, la astronomía y la genética, en donde dominan las
grandes máquinas y bases de datos. Pero el tamaño de los proyectos
pequeños no cambia mucho según transcurre el tiempo, porque su tamaño se
mide en seres humanos […] Debido a que es probable que el número de los
proyectos grandes se reduzca haciéndose además más lentos, mientras que
los proyectos pequeños se mantendrán aproximadamente constantes, es
razonable pensar que la importancia relativa de los proyectos pequeños
aumentará con el tiempo”.
¿Será así, o se tratará de una predicción más que no superará el paso del tiempo? El futuro, naturalmente, será quien lo dirá.
Bibliografía
Ayrton, William E. 1897.“Sixty years of submarine telegraphy”, The Electrician 38: 545-548.
Chiao, R. Y., M. L. Cohen, A. J. Leggett, W. D. Phillips, y Ch. L
Harper Jr. (eds.) 2011. Visions of Discovery. Cambridge: Cambridge
University Press.
Copeland, B. Jack (ed.). 2004. The Essential Turing. Oxford: Oxford University Press.
Croce, Benedetto. [1938] 1992. La historia como hazaña de la libertad. México D. F.: Fondo de Cultura Económica.
Darwin, Charles. 1859. On the Origin of Species. Londres: John Murray.
Darwin, Erasmus 1796. Zoonomia, or the Laws of Organic Life. I, 2.ª ed. corregida. Londres: J. Johnson.
Drexler, K. Eric. [1986] 1993. La nanotecnología. Barcelona: Gedisa.
Dyson, Freeman. [1999] 2000. El Sol, el genoma e internet. Madrid: Debate.
Dyson, Freeman. 2011. “The future of science”, en Chiao et al. (eds.)
Visions of Discovery. Cambridge: Cambridge University Press, 39-54.
Dyson, George. 2012. Turing’s Cathedral. Nueva York: Pantheon Books.
Feynman, Richard. 1960. “There’s plenty of room at the bottom: An
invitation to enter a new field of physics”, Engineering and Science 23
(5): 22-36.
Forman, Paul. 1987. “Behind quantum electronics: National security as
basis for physical research in the United States”, Historical Studies
in the Physical and Biological Sciences 18, 149-229.
Forman, Paul. 2002. “What the past tells us about the future of
science”, en Sánchez Ron (ed.), La ciencia y la tecnología ante el
Tercer Milenio. Madrid: España Nuevo Milenio, I, 27-37.
García Gual, Carlos (ed.). 2005. Viajes a la Luna. De la fantasía a la ciencia ficción. Madrid: Biblioteca ELR Ediciones.
Gibbons, G. W., E. P. S. Shellard y S. J. Rankin (eds.). 2003. The
Future of Theoretical Physics and Cosmology. Cambridge: Cambridge
University Press.
Godwin, Francis. 1638. The Man in the Moone, or a Discourse of a Voyage thither, by Domingo Gonsales. Londres: John Norton,
Gray, Jeremy J. [2000] 2003. El reto de Hilbert. Barcelona: Crítica.
Grossman, Jennifer. 2012. “Nanotechnology in cancer medicine”, Physics Today (agosto): 38-42.
Haldane, John B. S. 2005. Dédalo o la ciencia y el futuro. Oviedo: KRK.
Hawking, Stephen. [2001] 2002. El universo en una cáscara de nuez. Barcelona: Crítica.
Heilbron, J. L. (ed.) 2003. The Oxford Companion to the History of Modern Science. Oxford: Oxford University Press.
Hilbert, David. 1902. “Sur les problèmes futurs des mathématiques”,
en E. Duporcq (ed.), Compte rendu du deuxiéme congrès international des
mathématiques, tenu à Paris du 6 au 12 aout 1900. París:
Gauthier-Villars.
Kaku, Michio. [1998] 1998. Visiones. Madrid: Debate.
Kepler, Johannes. 2001. El sueño o la astronomía de la Luna, edición
de Francisco Socas. Huelva: Servicio de Publicaciones de la Universidad
de Huelva.
Kuhn, Thomas S. 1962. The Structure of Scientific Revolutions. Chicago: University of Chicago Press.
Lagemann, Robert. 1959. “Michelson on measurement”, American Journal of Physics 27: 182-184.
Ley, Willy. 1964. Engineers’ Dreams. Nueva York: The Viking Press.
Lorenz, Edward. 1993. The Essence of Caos. Seattle: University of Washington Press.
Marvin, Carolyn. 1988. When Old Technologies Were New. Oxford: Oxford University Press.
Masani, P. (ed.). 1985. Norbert Wiener: Collected Works. IV. Cambridge, Massachusetts: MIT Press.
Michelson, Albert Abraham. 1894. “Some of the objects and methods of
physical science”, Chicago: The University of Chicago. Quarterly
Calendar 111 (2, agosto): 12-15.
Millikan, Robert. 1951. The Autobiography of Robert A. Millikan. Londres: Macdonald.
Negroponte, Nicholas. 1995. El mundo digital. Barcelona: Ediciones B.
Rees, Martin. [2003] 2004. Nuestra hora final. Barcelona: Crítica.
Sánchez Ron, José M. (ed.). 2002. La ciencia y la tecnología ante el Tercer Milenio, 2 vols. Madrid: España Nuevo Milenio.
Sánchez Ron, José M. 2007. El poder de la ciencia. Barcelona: Crítica.
Sánchez Ron, José M. 2011. La Nueva Ilustración. Ciencia, tecnología y
humanidades en un mundo interdisciplinar. Oviedo: Ediciones Nobel.
Simonin, Louis Laurent. 1876. “Industrial applications of solar heat”, Popular Science Monthly 9 (septiembre), 550-560.
Stevenson, Mark. 2011. Un viaje optimista por el futuro. Barcelona: Galaxia Gutenberg/Círculo de Lectores.
Taub, A. H. 1963. John von Neumann Collected Works. Vol. V Design of
Computers, Theory of Automata and Numerical analysis. Oxford: Pergamon
Press.
Thomson, William. 1891. “Electrical units of measurement”, en William
Thomson, Popular Lectures and Addresses. Vol. I Constitution of matter.
Londres: Macmillan, 80-143.
Turing, Alan. 1936. “On computable numbers, with an application to
the Entscheidungsproblem”, Proceedings of the London Mathematical
Society 42: 230-265.
Turing, Alan. 1950. “Computing machinery and intelligence”, Mind 59:
433-460. Reproducido en B. Jack Copeland (ed.), 2004, The Essential
Turing. Oxford: Oxford University Press: 441-464.
Von Kármán, Theodore. 1955. “The Next fifty years”, Interavia 10 (1): 20-21.
Von Kármán, Theodore. 1975. Collected Works of Theodore von Kármán
1952-1963 Rhode-St-Genèse, Bélgica: Von Kármán Institute for Fluid
Dynamics.
Von Neumann, John. 1948. “The general and logical theory of
automata”, reproducido en A. H. Taub, John von Neumann Collected Works.
Vol. V Design of Computers, Theory of Automata and Numerical analysis.
Oxford: Pergamon Press. 288-318.
Von Neumann, John. 1966. Theory of Self-Reproducing Automata, edición de A. W. Burks Urbana: University of Illinois Press.
Westfahl, Gary. 2003. “Science fiction”, en J. L. Heilbron (ed.), The
Oxford Companion to the History of Modern Science. Oxford: Oxford
University Press. 735-737.
Wiener, Norbert. 1948. Cybernetics: Or Control and Communication in the Animal and the Machine. Nueva York: John Wiley.
Wiener, Norbert. 1950. The Human Use of Human Beings. Boston: Houghton Mifflin.
Wiener, Norbert. 1953, 1985. “The electronic brain and the next
industrial revolution”, Cleveland Athletic Club Journal. Reimpreso en P.
Masani, Norbert Wiener: Collected Works, IV. Cambridge, Massachusetts:
The MIT Press, 666-672.
Wollstonecraft-Shelley, Mary. 2009. Frankenstein o el moderno Prometeo. Madrid: Espasa.
Wren, Christopher. 1750. Parentalia: Or Memoirs of the Family of the
Wrensviz. of Mathew, Bishop of Ely, Christopher, Dean of Windsor etc.
but chiefly of Sir Christopher Wren… in which is contained, besides his
works, a great number of original papers and records… Compiled by his
son Christopher; now published by his grandson, Stephen Wren, Esq; with
the care of Joseph Ames. Londres.
Notas
- “Lo pasado es prólogo y lo que viene hemos de ejecutarlo nosotros”, William Shakespeare, La tempestad (acto II, escena 1).
- Edición y traducción directa del inglés realizada en 1768 por Domingo Manfredi Cano, incluida en García Gual, ed. (2005).
- Véase García Gual (2005).
- Existe una edición en español de esta obra de Kepler (2001).
- Michelson (1894). Véase, asimismo, Lagemann (1959). El también físico estadounidense (y, como Michelson, premio Nobel de Física) Robert Millikan ofreció una visión diferente al papel que desempeñó Michelson. Este, escribió (Millikan 1951: 39-40) “pronunció la conferencia sobre el papel en el progreso de la física de medidas muy precisas, una conferencia en la que citó a otro científico. Creo que fue a Kelvin, adjudicándole el haber dicho que era probable que se hubieran realizado ya todos los grandes descubrimientos de la física, y que el avance futuro seguramente tendría lugar en encontrar la sexta cifra decimal”. De todas maneras, para mis propósitos aquí, da lo mismo que fuese Michelson o Kelvin –un científico aún más notable que el norteamericano– quien pronunciase esas palabras.
- En este libro, Hawking explicaba también cómo la pérdida de información en los agujeros negros puede reducir nuestra capacidad de predecir el futuro. “La radiación de un agujero negro”, leemos (Hawking 2002: 121-122), “se llevará energía, lo cual significa que este deberá perder masa y encogerse. De ello se sigue que su temperatura aumentará y su tasa de radiación crecerá. Al final la masa del agujero negro se aproximará a cero. No sabemos calcular qué pasa en este punto, pero la única respuesta natural y razonable es que el agujero negro acabe de desaparecer por completo. Si es así, ¿qué ocurre con la parte de la función de onda y de la información que esta contiene sobre lo que había caído al agujero negro? […] Esta pérdida de información tendría consecuencias importantes para el determinismo”.
- Martin Rees, un personaje destacado en la comunidad científica británica (Astrónomo Real, máster del Trinity College, presidente de la Royal Society entre 2005 y 2010, y ennoblecido por la reina Isabel con el título de barón Rees de Ludlow), es uno de los científicos en activo al que le gusta especular sobre el futuro, como muestra uno de sus libros: Our Final Hour (2003), subtitulado ¿Será el siglo XXI el último de la humanidad? (Rees 2004).
- En la introducción, que no en cómo la interpreto, de esta cita de Shakespeare soy deudor de un artículo de Paul Forman (2002).
- Curiosamente, también Erasmus Darwin (1796: sección XXXIX, “On generation”, 4.8) especuló en líneas parecidas: “¿Debemos decir que el filamento vegetal vivo era inicialmente diferente para cada una de las tribus de animales descritas anteriormente? ¿Y que los filamentos vivos productivos de cada una de estas tribus fueron inicialmente diferentes entre sí? ¿O, según la tierra y el océano fueron poblados con productos vegetales mucho antes de la existencia de los animales, y muchas familias de estos animales mucho antes que otras familias de ellos, debemos suponer que una y la misma clase de filamentos vivos ha sido y es la causa de toda vida orgánica?”
- En un apéndice, el libro de Gray incluye el texto de la conferencia de Hilbert de 1900.
- Me he ocupado de alguna de estas cuestiones en Sánchez Ron (2007: capítulo 11). Véase, asimismo, Forman (1987).
- Véase en este sentido un reciente libro debido a Mark Stevenson, An Optimist’s Tour of the Future, donde se puede leer (Stevenson 2011: 112): “La nanotecnología, a primera vista, se parece mucho a la ciencia ficción. Pero parece probable que reconfigurará radicalmente nuestro futuro”. La nanotecnología –y la nanociencia– se ocupa de fenómenos habitualmente en la escala de entre 1 y 100 nanómetros, siendo 1 nanómetro igual a una milmillonésima de metro (10-9 metros).
- Véase en este sentido, como ejemplo reciente Grossman (2012).
- La reunión tuvo lugar en el California Institute of Technology, donde Feynman trabajaba y se publicó (Feynman 1960) en Engineering and Science, una revista cuatrimestral fundada en 1937 por la Oficina de Relaciones Públicas de Caltech para promover el interés por la ciencia.
- En realidad, la frase original es algo diferente: “Predictibilidad. ¿El aleteo de una mariposa en Brasil produce un tornado en Texas?”. Apareció como el título de la primera sección de una conferencia dictada el 29 de diciembre de 1972 en una sesión dedicada al Programa de Investigación Atmosférica Global dentro de la 139ª reunión de la American Association for the Advancement of Science. Se distribuyó en una nota de prensa y solo se publicó bastantes años más tarde como un apéndice a un libro que Lorenz escribió, titulado The Essence of Chaos (Lorenz 1993).
- El “juego de imitación” al que se refería consistía en enfrentar a alguien al problema de averiguar si quien respondía a sus preguntas era una máquina o una persona; a ninguna de las dos, naturalmente, podía observar directamente, únicamente sus respuestas.
- Sobre la ciencia ficción y la historia de la ciencia, véase Westfahl (2003).
- He dedicado un libro a estas cuestiones (Sánchez Ron 2011).
- Sánchez Ron, J. M., "El pasado es prólogo: futuro e historia de la ciencia", en Hay futuro. Visiones para un mundo mejor, Madrid, BBVA, 2012.
No hay comentarios:
Publicar un comentario