traductor

viernes, 3 de mayo de 2019

El espíritu en la máquina. La nanotecnología, la complejidad y nosotros.Sandip Tiwari

La historia de la tecnología nos muestra que la revolución industrial del siglo XIX fue una revolución en la mecánica que sirvió para automatizar el trabajo físico. Los actuales cambios que propicia la nanotecnología, los voy a enmarcar en una revolución existencial, porque nos afectan directamente como seres 
https://www.bbvaopenmind.com/articulos/el-espiritu-en-la-maquina-la-nanotecnologia-la-complejidad-y-nosotros/?fbclid=IwAR3bZHU6-aBmRmm_jRw08vSZ88-ZB6pLUPMcY_edHAGuOO2zD-9ylMhjB-Q 

El espíritu en la máquina. La nanotecnología, la complejidad y nosotros

Tiempo estimado de lectura 35 
La influencia de la nanotecnología en nuestra vida diaria se refleja en las herramientas de comunicación móvil, en los diagnósticos y nuevos tratamientos médicos, en el uso de datos por las empresas y los gobiernos y en la acumulación de los mismos en la nube. La sociedad reacciona despacio a los cambios tecnológicos, que se suceden con gran rapidez. La nanotecnología, con sus capacidades a escala atómica a las que se producen gran parte de las dinámicas del mundo natural y físico, tiene el potencial de hacer factibles avances sin precedentes en la historia de la humanidad. Los cambios evolutivos —la manipulación del mundo natural que se da, por ejemplo, en la genética— y los cambios emergentes —la manipulación y la autonomía del mundo físico que facilita, por ejemplo, la inteligencia artificial— pueden ahora combinarse y desembocar en profundas transformaciones existenciales. En el interior de las máquinas complejas que hemos creado mora un espíritu, y la humanidad debe trabajar en cada fase del proceso de construcción de las máquinas para asegurarse de que el espíritu sea benévolo.
«Incluso algunos de sus materialistas compatriotas están preparados para aceptar, al menos como una hipótesis de trabajo, que alguna entidad ha… por así decirlo, invadido a HAL. Sasha ha encontrado una buena manera de expresarlo: “El espíritu que mora en la máquina”».
Arthur C. Clarke, 2010: Odisea Dos, 1982
«La doctrina oficial, que se remonta principalmente a Descartes, viene a decir lo siguiente: […] todos los seres humanos cuentan con un cuerpo y una mente. […] Algunos preferirían decir los seres humanos son un cuerpo y una mente, juntos. De ordinario, el cuerpo y la mente de cada uno están unidos, pero después de la muerte su mente podría seguir existiendo y funcionando. […] Lo expuesto es la teoría oficial. Me referiré a ella a menudo, en un tono deliberadamente denigratorio, como “el dogma del espíritu que mora en la máquina”. Espero demostrar que es totalmente falso; no solo en sus aspectos concretos, también por principio».
Gilbert Ryle, El concepto de lo mental, 1949

Hace seis años, en mi artículo anterior1 para esta colección, analizamos las implicaciones de la capacidad de observar y ejercer control a escala atómica y molecular; es decir, de la nanotecnología. A modo de conclusión, planteábamos conjeturas y numerosas preguntas acerca de la complejidad física y biológica que nos descubrirá el futuro merced al desarrollo de esta tecnología. Nuestro argumento era que la complejidad de la naturaleza surgía en interacciones que tenían lugar a escala atómica: átomos que forman moléculas; moléculas complejas que, a su vez, derivan en fábricas moleculares, como las células responsables de la reproducción, y la formación de sistemas jerárquicos polifacéticos. Las leyes de la física, como la segunda ley de la termodinámica, siguen vigentes, de modo que este desarrollo de la complejidad se produce a lo largo de periodos prolongados y en sistemas de elevada eficiencia energética. El uso del control nanotecnológico a escala atómica (la escala de la naturaleza) ha comportado mejoras continuadas en la eficiencia de los sistemas físicos y la extensión de su uso a la biología y otros campos. Esta capacidad de tomar el control de la naturaleza mediante la tecnología física otorga al ser humano la facultad de intervenir benéficamente, pero también plantea preguntas existenciales sobre el humano y la máquina. Había ejemplos ilustrativos, como las denominadas máquinas emergentes , autómatas capaces de autorreproducirse, cuyo software y hardware se habían fusionado para formar sistemas vivos; o las máquinas evolutivas, cuya optimización mediante ingeniería modificaba el constructo evolutivo. En la actualidad las máquinas computacionales existen como variedad emergente, al mejorarse a sí mismas a medida que observan y manipulan más datos, modifican sus ajustes cambiando el modo de usar el hardware y realizan copias de sí mismas mediante la partición usando el hardware  existente, aunque todavía no se están fabricando, a excepción de la rudimentaria impresión en 3D. Hoy día son numerosos los productos químicos y los medicamentos producidos a través de células y enzimas que hacen las veces de factorías biológicas.
Desde aquel artículo de 2012, las preguntas existenciales que planteábamos a modo de conclusión no han hecho sino consolidarse. El rápido desarrollo de las CRISPR (repeticiones palindrómicas cortas agrupadas y regularmente interespaciadas) y la veloz evolución del aprendizaje automatizado hacia la inteligencia artificial (IA)2 nos han conducido a una difícil encrucijada. El presente capítulo, una reflexión científica y filosófica, pone de relieve las lecciones que nos han brindado estos años a fin de subrayar la rápida progresión realizada para, acto seguido, centrarse en las implicaciones futuras que ya se vislumbran. Analiza cómo los principios de la física han influido en el progreso y la evolución de la nanotecnología, en qué ámbitos esta ha tenido éxito y en cuáles no tanto, y por qué razones. Cuando aparecen nuevas tecnologías que generan cambios a gran velocidad, las instituciones de la sociedad, al igual que cada uno de sus individuos, tardan en potenciar sus aspectos positivos y limitar los negativos mediante unas restricciones (en el ámbito de la comunidad y del individuo) que aseguren un equilibrio saludable. A modo de ejemplo, cuando se inventó el ferrocarril moderno, los motores de vapor tendían a explotar y los trenes tenían accidentes por la ausencia de sistemas de señalización, pero la sociedad estableció mecanismos de seguridad. Actualmente, los motores siguen explotando y sigue habiendo accidentes, pero a una escala que la sociedad considera aceptable. Por otra parte, todavía estamos trabajando en el control de los plásticos y aún no hemos podido frenar el cambio climático, lo que ilustra lo mucho que tardan en responder la sociedad y los individuos a los avances tecnológicos.
BBVA-OpenMind-ilustración-Sandip-Tiwari-El-espiritu-en-la-maquina_la-nanotecnologia-la-complejidad-y-nosotros- Átomo de hidrógeno
Átomo de hidrógeno
Con el mismo ánimo que en el ensayo anterior, el presente artículo refleja la evolución de las capacidades que, gracias a la nanotecnología, se atisban en un futuro inminente, así como las cuestiones de gran calado sobre las cuales la sociedad debe empezar a reflexionar y actuar.
El uso del control nanotecnológico a escala atómica (la escala de la naturaleza) ha comportado mejoras continuadas en la eficiencia de los sistemas físicos y la extensión de su uso a la biología y otros campos, pero también plantea preguntas existenciales sobre el humano y la máquina
La última década ha sido testigo del empleo de la nanotecnología en muchas aplicaciones pasivas de ámbito general. En tanto material basado en la variedad de propiedades únicas al alcance de materiales específicos gracias a fenómenos a pequeña escala, el elemento nanotecnológico tiene un uso cada vez más generalizado en muchos productos, aunque con un coste económico bastante elevado. Sus aplicaciones van desde las relativamente sencillas hasta otras bastante complejas. Por ejemplo, los revestimientos aportan robustez y una resistencia elevada ante la corrosión y el desgaste y se aplican a los implantes médicos (como los estents, las válvulas y los marcapasos, entre otros). También se utilizan los revestimientos en superficies que requieren más resistencia en entornos difíciles: desde máquinas-herramienta hasta grandes superficies metálicas. Dado que el pequeño tamaño de un material modifica las propiedades ópticas, esta tecnología ha posibilitado aplicaciones que van desde usos generalizados pero triviales, como las cremas solares, hasta otros mucho más sofisticados, como las intervenciones por vía óptica en sistemas vivos y físicos. Algunas mejoras mecánicas, como las debidas a los nanotubos, se han integrado en el arsenal de compuestos de bajo peso. Por otra parte, las posibilidades a nanoescala y su consiguiente uso en las superficies han permitido mejoras en la filtración de virus y bacterias. Asimismo, las baterías utilizan la porosidad y las propiedades superficiales para mejorar las características de uso: la densidad energética y la retención de la carga, entre otras; y la proliferación de automóviles eléctricos y del almacenamiento de electricidad en baterías promete una utilización a gran escala. La aplicación de nanotecnología en superficies permite aprovechar la interacción a escala molecular para la unión y la interacción. En este sentido, este mecanismo posibilita una localización muy específica en el cuerpo, para mejorar tanto la detección de problemas como la administración de medicamentos. En concreto, la observación y eliminación de los crecimientos cancerosos tiene una presencia cada vez mayor en el arsenal médico. Esta misma propiedad superficial se utiliza en sensores capaces de detectar sustancias químicas específicas en el medioambiente. Lo más relevante del concepto de la máquina evolutiva es su capacidad (desarrollada mediante ensayos aleatorizados a gran escala basados en la reproducción de la naturaleza y efectuados sobre los dispositivos, algo que se conoce como «laboratorio sobre un chip») de distinguir, comprender y desarrollar una serie de remedios que se pueden administrar localmente en casos en que los mecanismos biológicos hayan dejado de funcionar. La investigación contra el cáncer, el verdadero rompecabezas a que se enfrenta la medicina, se ha beneficiado mucho de la observación e intervención propiciadas por las herramientas de la nanotecnología, aunque se trata de un fenómeno muy complejo (el cáncer engloba un conjunto de numerosas enfermedades diferentes) que está todavía muy lejos de una solución, a excepción de algunas de sus manifestaciones. El concepto de máquina evolutiva también ha quedado patente en los métodos de producción de diversos compuestos, de simples a complejos, que se han generalizado: desde la conversión del peróxido de hidrógeno en un oxidante intenso mediante enzimas hasta la vacuna contra el virus del Ébola producida con plantas de tabaco.
BBVA-OpenMind-ilustración-Sandip-Tiwari-El-espiritu-en-la-maquina_la-nanotecnologia-la-complejidad-y-nosotros-2-Lechada de grafeno, que contiene grafeno y polímeros de fijación, en el laboratorio del Instituto Nacional del Grafeno de la Universidad de Manchester, Reino Unido, en abril de 2018. El grafeno es un material cada vez más demandado para baterías
Lechada de grafeno, que contiene grafeno y polímeros de fijación, en el laboratorio del Instituto Nacional del Grafeno de la Universidad de Manchester, Reino Unido, en abril de 2018. El grafeno es un material cada vez más demandado para baterías

Lo más relevante del concepto de la máquina evolutiva es su capacidad de distinguir, comprender y desarrollar una serie de remedios que se pueden administrar localmente en casos en que los mecanismos biológicos hayan dejado de funcionar
Hay que reconocer que gran parte de este uso de la nanotecnología se ha centrado en aplicaciones cuyo coste es una preocupación secundaria y las propiedades específicas son lo bastante atractivas para hacer deseable el producto. Se nos plantea, pues, un obstáculo: el coste de fabricación sigue siendo un problema. Otra dificultad es el ya tradicional problema del exceso de entusiasmo que impulsa la cultura del mercado: pese a las expectativas, el grafeno, los nanotubos y otras tecnologías de este tipo todavía no han conseguido implantarse a gran escala. Un ejemplo de dicha cultura de mercado es el ascensor espacial, basado en los nanotubos de carbono, que despertó el interés popular: la termodinámica establece la probabilidad de errores, por ejemplo, en el montaje; y, pese a que los nanotubos de pequeño tamaño pueden mostrar una resistencia formidable, a partir de una longitud determinada la existencia de un solo defecto puede tener repercusiones graves. Por lo tanto, los ascensores espaciales siguen siendo ciencia ficción.
Con todo, hay un ámbito en el que el obstáculo económico se supera a un ritmo bastante asombroso. En las aplicaciones centradas en el ser humano, la evolución de la electrónica en la industria de la información (informática y comunicación), la reducción de costes y la generalización del uso de la nanotecnología han sido espectaculares. En este sentido, el teléfono móvil, ya convertido en teléfono inteligente con acceso a internet y reproducción de vídeo, ha sido una herramienta de transformación increíblemente beneficiosa para los desfavorecidos del tercer mundo.
La naturaleza del archivo de los datos y el acceso a los mismos ha cambiado gracias a las memorias y los recursos computacionales a nanoescala, situados cada vez más en un «no lugar» muy remoto al que nos referimos con el eufemismo de «la nube». Asimismo, accedemos a esta gracias a una serie de avances propiciados por la tecnología a nanoescala en las comunicaciones, ya sean inalámbricas u ópticas, y con los dispositivos a nuestro alcance. Los vídeos, los mensajes de texto, la comunicación instantánea y la difusión rápida de información son algo cotidiano. Por su parte, los electrodomésticos y dispositivos electrónicos, de pequeño o gran tamaño, están interconectados y controlados en un internet de las cosas que conforma un tejido en expansión tanto en casa como en el trabajo, con objetivos como reducir el consumo de energía, mejorar la salud o ahorrar al ser humano algunas tareas cotidianas.
La disponibilidad de información y la capacidad de derivar inferencias de ella han puesto el aprendizaje automático, también conocido como inteligencia artificial, en primer plano. Los datos se pueden analizar y las decisiones se pueden tomar automáticamente de un modo rudimentario, en el sentido de la máquina emergente. La combinación de la IA con la robótica (es decir, el uso físico de dicha información) también se está desplazando poco a poco de las fábricas a las aplicaciones personales que, como la conducción automática, aúnan la captación sensorial, la inferencia, el control y el manejo. Todo ello constituye un uso activo y representa un carácter tan emergente como evolutivo.
La computación cuántica es otra área con una progresión formidable en la última década. Para efectuar sus cálculos, la computación cuántica se basa en la superposición entrelazada de información accesible a escala cuántica, que es posible a escala nano. Es muy distinta del estilo tradicional de computación determinista, basado en los bits clásicos; clásicos en el sentido de que se dividen exclusivamente entre «0» y «1» lógicos (booleanos). Podemos transformar estos bits mediante funciones computacionales: un «0» en «1», por ejemplo, a través de un inversor; o una colección de ceros y unos (es decir, un número) en otro número, mediante la función que elijamos. Sumar o multiplicar es una operación funcional de este tipo y, en cada etapa de la computación, estos ceros y unos se transforman de un modo determinista. Esto es, en la computación clásica, por lo general, no se puede volver al punto de partida una vez efectuada una transformación, puesto que hay información que se va descartando en el proceso: el producto de una multiplicación suele tener múltiples combinaciones de multiplicandos y multiplicadores, que tras la operación no se pueden deducir del resultado.
Los bits cuánticos, en calidad de estados entrelazados superpuestos, en cambio son muy diferentes. Un sistema con un único bit cuántico consiste en una superposición de «0» y «1». No sabemos cuál de ellos es, solo que es uno de los dos; para saber si es «0» o «1», tendremos que medirlo. Un sistema con dos bits cuánticos puede ser un sistema entrelazado, donde los dos bits están interconectados. Por ejemplo, podría ser una superposición en que, si el primero es un 0, el segundo es un 1, pero si el primero es un 1, el segundo es un 0: esto es una superposición entrelazada. Solo al efectuar una medición podemos descubrir si se trata de la combinación «01» o de la combinación «10». En un sistema compuesto de un gran número de bits cuánticos, estos pueden formar muchas más conexiones de este tipo, que se pueden manipular mediante la computación (sin medir el resultado), de forma que sigan existiendo el entrelazamiento y sus transformaciones. Mientras se efectúa esta computación, sin haber observado el resultado, es posible retrotraerse hasta el punto inicial, porque no se ha descartado información alguna. Por lo tanto, la computación sigue adelante y no conocemos el resultado hasta que llevamos a cabo una medición, que sí nos devuelve al modo clásico. Esta capacidad —y las transformaciones que permite sin renunciar al entrelazamiento y sus consiguientes posibilidades (a diferencia del modo clásico, que las descarta)— otorga a la computación cuántica propiedades superiores a las de la computación clásica. En la actualidad existen sistemas de 50 bits cuánticos, lo que representa casi el umbral en que la computación cuántica empieza a superar las capacidades de la computación clásica. Son potencialmente resolubles ya numerosos problemas complejos, como en la criptografía (que no en vano fue la primera razón para aplicar este enfoque), pero también otros interesantes y de índole más práctica: por ejemplo, comprender las moléculas y sus interacciones para desarrollar su complejidad con vistas a descubrir nuevos medicamentos. A la hora de calcular, 50 bits cuánticos representan una complejidad mucho mayor. Si tenemos en cuenta que, en la diversidad de interacciones a la escala más reducida, la naturaleza se caracteriza por un comportamiento cuántico y que el comportamiento cuántico coincide, a una escala mayor y por el principio de correspondencia, a un comportamiento clásico (es decir, un resultado estadísticamente muy probable), entonces la computación cuántica representa una manera, recién descubierta, de simular cómo computa la propia naturaleza: ha nacido un nuevo tipo de computación.
La evolución en la AI, la robótica, la autonomía y la combinación de la maquinaria emergente la evolutiva son, en gran medida, comparables a los cambios surgidos con la invención de la imprenta y del transporte mecanizado
BBVA-OpenMind-ilustración-Sandip-Tiwari-El-espiritu-en-la-maquina_la-nanotecnologia-la-complejidad-y-nosotros-Detalle de la fachada del edificio Quantom Nano Centre, diseñado por el estudio de arquitectura KPMB. Waterloo, Canadá, 2013
Detalle de la fachada del edificio Quantom Nano Centre, diseñado por el estudio de arquitectura KPMB. Waterloo, Canadá, 2013
Estos cambios de tanta amplitud y relevancia, aún en su fase naciente, son en gran medida comparables a los surgidos con la invención de la imprenta y del transporte mecanizado. La imprenta democratizó el aprendizaje y la difusión de información. Por su parte, el transporte mecanizado hizo más pequeño el mundo y facilitó la distribución de bienes. Ambos tuvieron un papel decisivo a la hora de permitir un modo más eficiente (tanto en tiempo como en energía y en otros aspectos) de impulsar el progreso humano. Al mismo tiempo, los libros también transmiten atrocidades y los medios de transporte son una práctica herramienta tanto para los terroristas como para la represión estatal. Sin embargo, la sociedad ha encontrado maneras de limitar estos efectos negativos y sigue encontrando nuevas maneras de limitarlos a medida que nacen nuevas mutaciones. Las nuevas tecnologías también tienen atributos nocivos. En este sentido, los instrumentos de comunicación móvil y la ubicuidad de la disponibilidad de información nos han cambiado: nos alejan de un pensamiento y una articulación detenidos y de mayor alcance y modifican nuestra reacción ante cualquier información (debido a la confianza en la letra impresa que nos han inculcado). Los mercados financieros, las interacciones sociales e incluso nuestras relaciones familiares muestran algunas consecuencias de la ubicuidad de acceso propiciada por la tecnología a nanoescala. Los drones, como máquinas que permiten matar sin mancharnos las manos de sangre, son omnipresentes en los conflictos y, gracias a la explotación de la tecnología, trivializan la muerte y el destino humano.
La computación cuántica es un área con una progresión formidable en la última década. Hoy son potencialmente resolubles numerosos problemas complejos, como en la criptografía, pero también de índole más práctica: por ejemplo, comprender las moléculas y sus interacciones para desarrollar su complejidad con vistas a descubrir nuevos medicamentos
Esta evolución en la IA, la robótica, la autonomía y la combinación de la maquinaria emergente y la evolutiva plantea preguntas de gran calado. Además, la sociedad carece de los conocimientos, aunque sea rudimentarios, necesarios para abordar racionalmente, desde una perspectiva filosófica y científica, muchos de los problemas que sin duda surgirán (igual que aparecieron en anteriores puntos de inflexión desencadenados por la tecnología).
Me gustaría analizar esta transición estudiando las posibilidades de esta era en ciernes e integrando reflexiones que abarquen desde su punto de partida hasta su punto de destino, con pensamientos que hagan de puente entre la dimensión física y la dimensión natural de la nanotecnología.
La combinación de la AI con la robótica (es decir, el uso físico de dicha información) también se está desplazando poco a poco de las fábricas a las aplicaciones personales
BBVA-OpenMind-ilustración-Sandip-Tiwari-El-espiritu-en-la-maquina_la-nanotecnologia-la-complejidad-y-nosotros-Primer plano de un cristal reforzado mediante la aplicación de una nanocapa. La fotografía ha sido tomada en la fábrica moscovita P Glass
Primer plano de un cristal reforzado mediante la aplicación de una nanocapa. La fotografía ha sido tomada en la fábrica moscovita P Glass
La segunda ley de la termodinámica, formulada por primera vez por Sadi Carnot en 1824, establece que, en un sistema aislado, la entropía siempre crece. La entropía, en términos simplificados, es una medida de aleatoriedad. Según dicha ley, en ausencia de entrada de energía y materia exterior a un sistema, el sistema evolucionará hacia una aleatoriedad total; agotará todas sus capacidades. Este estado de máxima aleatoriedad constituye un equilibrio termodinámico. Este argumento, inicialmente empírico, cuenta ahora con unos fundamentos estadísticos concretos y es la razón por la cual los procesos naturales tienden a avanzar en una determinada dirección, al igual que el paso del tiempo. Por el contrario, nuestro mundo (el natural y el que hemos creado) tiene un grado muy alto de organización, además de la capacidad de llevar a cabo cosas verdaderamente interesantes: los átomos se agrupan en moléculas; a su vez, las moléculas van ganando complejidad; algunas moléculas muy complejas, como los ribosomas (formados por ARN y partes de proteína) se convierten en controladores y efectúan funciones de transcripción y transmisión de mensajes que son esenciales para la creación de proteínas; aparecen las células (con miles de variedades en el caso de los humanos) y se forman los órganos, que se desarrollan hasta desembocar en la diversidad de las creaciones de la naturaleza. La jerarquía resultante de este emparejamiento organizado dio lugar a una máquina emergente viva. Por su parte, nuestro sistema social, al igual que los sistemas de computación, gobierno o finanzas, también constituye una maquinaria de este tipo: componentes que se combinan con otros de acuerdo con una ortodoxia organizada y dotada de muchas capacidades. El vector hacia la aleatoriedad termodinámica que establecía la segunda ley se ha evitado gracias al flujo entrante de materia y energía, de manera que se ha generado una diversidad interesante.
Esta es la apariencia de la complejidad que adopta la forma de una jerarquía, que Herbert Simon caracteriza mediante una interesante parábola en su ensayo The Architecture of Complexity [La arquitectura de la complejidad],3 que habla de los relojeros Hora y Tempus. Ambos fabricaban relojes hechos de 1.000 pequeñas piezas individuales. Tempus elaboraba sus relojes juntando todas las piezas de una vez, pero, si le interrumpían (por ejemplo, con una llamada de teléfono), debía reconstruirlos enteros, con sus 1.000 piezas. Cuanto más éxito cosechaban sus relojes entre los clientes, más llamadas recibía y, por lo tanto, más se retrasaba en la fabricación. Los relojes de Hora eran igual de buenos, pero los fabricaba mediante una jerarquía de ensamblajes parciales. El primer grupo de ensamblajes utilizaba 10 piezas en cada uno; a continuación, se utilizaban 10 ensamblajes parciales para formar un ensamblaje parcial más grande; y así sucesivamente. Aunque al principio se hacían la competencia, Tempus acabó trabajando para Hora. Con una probabilidad de 1 entre 100 de una interrupción durante el proceso de ensamblaje, Tempus tenía que dedicar un promedio de 4.000 veces más de tiempo a producir un reloj. Con cada interrupción, Tempus tenía que empezar desde el principio, pero Hora solo tenía que rehacer parte del camino. La jerarquía hacía posible el éxito de Hora en este rudimentario sistema complejo.
La moraleja de esta parábola, en términos de termodinámica (generalizable, además, a nuestro mundo físico y natural), es que la complejidad surgió de un ensamblaje de piezas que, en general, puede ser aleatorio. La probabilidad de culminar una construcción a partir de un pequeño número de elementos que se ensamblan para formar un conjunto estable, inicialmente simple, pero cada vez más complejo a medida que se desarrolla la jerarquía, es mayor que la probabilidad de ensamblar un gran número de elementos de una vez. Por otra parte, aparecen nuevas propiedades en el producto final y, posiblemente, en los ensamblajes parciales intermedios. Por supuesto, esta es una descripción muy simplista y susceptible de muchas objeciones, pero lo importante es que surgió una estructura organizativa gracias al flujo de entrada de energía y piezas al sistema y a la existencia de formas intermedias estables que reducían la entropía. Con el tiempo suficiente, la naturaleza también forma jerarquías basadas en formas intermedias estables que descubre. Aparece así la negentropía: un descenso (negativo) de la entropía desde el estado de agotamiento, es decir, desde su máximo. Esta es la historia de cómo surgió la vida.
BBVA-OpenMind-ilustración-Sandip-Tiwari-El-espiritu-en-la-maquina_la-nanotecnologia-la-complejidad-y-nosotros-El joven Ari Dyckovsky, de diecisiete años, finalista del concurso de búsqueda de talento científico Science Talent Search de 2012, hace experimentos de física cuántica en el Laboratorio de Mediciones Físicas dedicado a la computación y la simulación cuánticas del NIST (Instituto Nacional de Estándares y Tecnologías) de Gaithersburg, Maryland, Estados Unidos
El joven Ari Dyckovsky, de diecisiete años, finalista del concurso de búsqueda de talento científico Science Talent Search de 2012, hace experimentos de física cuántica en el Laboratorio de Mediciones Físicas dedicado a la computación y la simulación cuánticas del NIST (Instituto Nacional de Estándares y Tecnologías) de Gaithersburg, Maryland, Estados Unidos
En su libro de 1967, The Ghost in the Machine [El espíritu que mora en la máquina] (es la tercera vez que aparece esta expresión),4 Arthur Koestler denomina este proceso «el efecto Jano»: los nodos de esta jerarquía son como el dios romano del mismo nombre, que tenía una cara que miraba hacia la parte dependiente y otra que miraba hacia el ápice. Este eslabón y la proliferación de eslabones como estos, asociados a sus inusuales propiedades, son clave para las propiedades emergentes del conjunto.
No obstante, la termodinámica plantea más limitaciones, que se manifiestan en la confluencia de la energía, la entropía y los errores. Todo sistema complejo está hecho de un gran número de subconjuntos jerárquicos, y un sistema que emplee objetos a nanoescala está sometido a estas restricciones en el proceso de su construcción. Para reducir los errores, debe haber una reducción considerable de la entropía, pero, como un proceso de reducción tal requiere usar más energía, se generará calor. Por lo tanto, para ser sostenible (es decir, para evitar el sobrecalentamiento aun cuando el flujo de energía mantenga el sistema en funcionamiento), requiere una eficiencia energética elevada, limitar la cantidad de energía que se transforma y mantener los errores bajo control. En este sentido, la necesidad de desplegar tanta energía en cada etapa hace que el sistema adolezca de una insaciable hambre de energía, una consecuencia termodinámica que influye negativamente en la computación y la comunicación. Las turbinas gigantes que convierten la energía en electricidad, desde el movimiento mecánico de las aspas hasta el flujo de corriente voltaica, deben ser extremadamente eficientes, de modo que solo un pequeño porcentaje (como mucho) de la energía se pierda; y todo ello, para una turbina, que no es un sistema tan complejo. Sin embargo, la computación y la comunicación todavía no han aprendido esta lección.
Con las CRISPR se abren las puertas al descubrimiento de medicamentos, la prevención de las enfermedades genéticas y cardíacas y las afecciones sanguíneas y la modificación de las propiedades de las plantas
La naturaleza ha encontrado una manera inteligente de evitar este problema. Pensemos en la compleja máquina biológica que es el ser humano. Los procesos de desarrollo o reemplazo tienen lugar de forma individual y en volúmenes muy pequeños (a nanoescala), en paralelo a la escala del número de Avogadro. Toda esta transcripción, transmisión de mensajes, generación de proteínas y de células, etcétera, requiere energía, pero la naturaleza evita el problema del error mediante la introducción de mecanismos de autorreparación. La rotura y la formación de estos vínculos consumen muy poca energía (10-100 kBT, donde kBT constituye una buena medida del orden de energía en un movimiento térmico). Los errores escalan de manera exponencial con estos prefactores. Con una energía de 10 kBT, una de cada 100.000 etapas de desarrollo (por ejemplo, cada etapa de extracción y copia de un elemento) tendrá un error, que deberá ser detectado. La máquina desarrolladora deberá, pues, retroceder, hasta el último estado correcto conocido y reconstruir dicho vínculo; en cierto modo, es como la llamada a Tempus y Hora, pero en la que Hora solo tiene que reiniciar la fabricación desde un estado intermedio. La naturaleza consigue hacerlo bastante bien: a diario, el cuerpo humano recicla su peso corporal en ATP (adenosina trifosfato, la molécula de la transformación de energía), a fin de permitir la síntesis química, la propagación de impulsos nerviosos y la contracción de los músculos. La comprobación y reparación posibilita este grado de complejidad, pese a las restricciones energéticas.
¿Qué relación guarda esta explicación sobre la nanotecnología con el «espíritu oculto»? A modo de ilustración, me gustaría poner en relación dos tecnologías nuevas de esta década: las CRISPR y la IA actual.
CRISPR es la abreviación de un método de edición de genes que se sirve de una proteína de origen natural (Cas9) y de ARN-guía específicos para alterar los genes portadores e insertar en ellos las secuencias deseadas. La intervención del ARN-guía complementando una secuencia de ADN foráneo posibilita que la proteína Cas9 desenmarañe la hélice de ADN de la secuencia y cree un corte en dos cadenas, que después la enzima reparadora volverá a empalmar mediante la inserción del ADN experimental deseado. La secuencia del ARN-guía es relativamente barata de diseñar, su eficiencia es alta y la proteína es inyectable. Además, permite hacer mutar múltiples genes de una vez. Este proceso se puede efectuar en el núcleo de una célula, en células madre, en embriones e, incluso, en un contexto extracelular. Se trata de una herramienta de edición genética que permite intervenir en el diseño del genoma. Cabe reiterar, en todo caso, que la termodinámica nos enseña que siempre habrá errores (cuya probabilidad será inversamente proporcional a la energía empleada), de modo que los sistemas de baja energía necesitan sistemas de autocorrección. Aun así, pueden escaparse fallos muy esporádicos. Las CRISPR son de ayuda precisamente en este apartado, con los errores naturales del mundo natural: un Jano defectuoso (un error en la construcción del sistema al modo de Hora) tiene arreglo.
Por tanto se abren las puertas al descubrimiento de medicamentos, la prevención de las enfermedades genéticas y cardíacas y las afecciones sanguíneas y la modificación de las propiedades de las plantas;5 tenemos un buen ejemplo en los tomates que pierden los pedículos (la parte que une el fruto a la planta), los cuales reciben la señal de morir y soltarse cuando el tomate está lo bastante maduro. Lo que a un sistema complejo de la naturaleza le llevaría muchas generaciones, mediante el cultivo de mejora de las plantas o la cría de especies vivas, se puede conseguir en una o unas pocas generaciones. Gracias a la intervención humana, ha nacido una máquina emergente-evolutiva y, por consiguiente, se pueden diseñar nuevos miembros del reino animal.
La segunda tecnología que abordaremos es la del aprendizaje automático, que hoy en día evoluciona hacia una inteligencia artificial. Dado que los dispositivos electrónicos han reducido su tamaño considerablemente y que se han desarrollado nuevas arquitecturas (algunas dotadas de rudimentarias formas de autoevaluación y autorreparación), con niveles todavía mayores de densidad e integración, ahora contamos con recursos de supercomputación sobre la mesa de nuestra casa y también en la nube. Hoy en día, esta ingente capacidad de selección y manipulación de datos basta para que los algoritmos programados descubran patrones, encuentren vínculos entre estos y, también, pongan en marcha otras tareas que planteen preguntas para contribuir a poner a prueba la validez de las inferencias y explorar en busca de más datos cuando no baste con los disponibles. Desde la perspectiva humana, la información consiste en asociaciones compactas. La fotografía de un perro contiene muchos datos en los píxeles e, incluso, es posible asociarla a una medida de información científica (una especie de negentropía). En todo caso, los humanos, al ver la fotografía, asociarán dicha información a la imagen de un perro, pero, más concretamente, a un perro golden retriever bien cuidado y quizá también la asociarán a la idea de que los perros de esta raza tienen tendencia al cáncer a causa de la cría selectiva, etcétera. Buena parte de esta información puede estar asociada al perro a modo de pequeños elementos de conocimiento, como, por ejemplo, la idea de que los perros no se llevan bien con los gatos y que los perros fueron domesticados (también mediante la cría selectiva) durante la fase en que los humanos eran cazadores-recolectores. A medida que nos alejamos más y más del perro como patrón (los perros evolucionaron a partir de los lobos), la capacidad de una máquina física se va debilitando a falta de una conexión entre dominios de información muy diferentes que puedan combinarse en forma de conocimiento. Para un humano, este problema no es tan grave. Si esta información fáctica sobre el lobo y el perro formara parte de la máquina como contenido, sería una buena cosa, pero si quisiéramos encontrar dicha conexión, habría que hacer preguntas, seguir el rastro genético, cotejar patrones y tomar otras medidas antes de poder establecer la conexión correspondiente. El aprendizaje y la creación de conocimiento del ser humano se producen a través de las hipótesis y el análisis de los resultados de experimentos y debates, que desembocan en un consenso. Esta capacidad, teniendo en cuenta que las máquinas pueden pedir y buscar información, está ya al alcance de la IA, aunque todavía no se ha conseguido conectar dos campos antes separados, el espacio y el tiempo (como en la relatividad). Por lo tanto, en los artículos sobre cómo efectúa la IA la evaluación preliminar de enfermedades y ayuda a diseñar moléculas y a desarrollar experimentos con las moléculas de diseño, se abordan tareas bastante complejas de combinación de patrones en las cuales se conectan datos e información.
Por otra parte, el formidable progreso de la computación cuántica abre otra serie de posibilidades de gran potencial. Las capacidades diferenciadas y excepcionales de la computación cuántica (entrelazamiento incluido) podrían hacer que determinadas conexiones, que eran invisibles bajo un enfoque clásico, se conviertan en latentes con un enfoque de mecánica cuántica. Esto implica, potencialmente, que la naturaleza de las asociaciones y conexiones que el ser humano ve —como las que Einstein identificó en la relatividad, y que el aprendizaje automático clásico solo podía ver si ya las había visto antes— pueden ser desentrañadas por la maquinaria de la computación cuántica, al constar en forma de datos entrelazados y fuera del alcance de un enfoque clásico.
BBVA-OpenMind-ilustración-Sandip-Tiwari-El-espiritu-en-la-maquina_la-nanotecnologia-la-complejidad-y-nosotros-Un investigador de la empresa Pirelli Labs, especializada en investigación nanotecnológica para aplicaciones fotónicas. Milán, Italia, 2010
Un investigador de la empresa Pirelli Labs, especializada en investigación nanotecnológica para aplicaciones fotónicas. Milán, Italia, 2010
Llegados a este punto, es el momento de poner en relación este debate con mis reflexiones sobre termodinámica.
Las CRISPR, como herramienta de modificación genética, fueron el producto de sustituir los ensayos aleatorizados de la naturaleza por la intervención humana, porque los científicos ya sabían cómo la respuesta inmune de las bacterias combate un ADN viral foráneo. En este contexto, las CRISPR sirven para producir dos cadenas de ARN (ARN-guía) que se agrupan con la enzima Cas9 para formar un complejo, que, a su vez, ataca al ADN viral, lo separa y, de este modo, lo desactiva. Por el modo en que la Cas9 se une al ADN, puede distinguir entre el ADN bacteriano y el AND viral; esta capacidad constituye una memoria que puede seguir corrigiendo amenazas futuras, es decir, los errores. En la actualidad ya hemos establecido vínculos entre el campo de las infecciones virales y bacterianas y el enorme campo de los procesos naturales que dependen del genoma; así, un proceso cuya estabilidad ya había demostrado la naturaleza se ha llevado a otros contextos que, pese a haber sido ya quizá descubiertos por la naturaleza, tal vez no hayan evolucionado en el sentido de Wallace y Darwin. Las restricciones de la termodinámica, tanto en lo referido al consumo de energía como a la necesidad de estabilidad y corrección de errores, se han cumplido en la aplicación física de las CRISPR al mundo natural. En consecuencia, ahora el ser humano puede aplicar este procedimiento a multitud de lugares donde la naturaleza no ha sabido cómo hacerlo o lo ha intentado sin éxito.
El apartado siguiente aborda la evolución de la computación hasta la IA que ha vivido nuestra tecnología física, así como las correspondientes ventajas y desventajas. La reducción del tamaño de los dispositivos electrónicos físicos significa que buena parte de lo que ocurre a escala cuántica es importante. El efecto túnel es uno de estos fenómenos: el hecho de que los electrones respondan a dicho efecto por la mera presencia de voltajes, y no porque se estén manipulando datos, trae consigo una producción de calor que no sirve para nada útil. La reducción de los errores en estos sistemas físicos (aunque todavía sin la capacidad general de corregir los errores durante las etapas individuales) comporta que no se pueda reducir la energía utilizada para manipular los datos. Por otra parte, la cantidad de energía consumida por un sistema biológico complejo para efectuar una transformación útil está muchos órdenes de magnitud por debajo de la de un sistema físico complejo. El cerebro humano consume la misma energía que una bombilla de 20 W, mientras que los sistemas físicos utilizados en el ámbito de la IA presentan, en caso de almacenamiento local, un consumo de energía cientos de veces superior, que se multiplica por más centenares aún si el almacenamiento está en la nube. Por lo tanto, esta ventaja para la IA ha venido acompañada de un ingente incremento en el consumo de energía, debido a la termodinámica propia del modo de aplicación de este sistema complejo.
La naturaleza de las asociaciones y conexiones que el ser humano ve, como las que Einstein identificó en la relatividad, y que el aprendizaje automático clásico solo podía ver si ya las había visto antes, pueden ser desentrañadas por la maquinaria de la computación cuántica, al constar en forma de datos entrelazados y fuera del alcance de un enfoque clásico
El pensamiento y el cerebro humanos constituyen una frontera que podemos entender en sus componentes, pero no como un conjunto complejo y asombroso; no conviene olvidar, en este sentido, las enseñanzas de la parábola de los ciegos y el elefante. En todo caso, hay varias características respecto a las que los científicos (psicólogos, científicos de la conducta y neurocientíficos) parecen estar de acuerdo en sus polifacéticos experimentos. El psicólogo conductista Daniel Kahneman6 distingue entre el pensamiento rápido y el lento. El rápido es un pensamiento correspondiente al sistema 1, que es veloz, heurístico, instintivo y emocional. Cuando efectúa juicios rápidos, una persona pone en relación otros contextos con el problema a que se enfrenta. Esta dependencia de la heurística comporta sesgos y, por lo tanto, errores sistemáticos. El pensamiento lento corresponde al sistema 2, que es deliberativo y analítico y, por ende, lento. El cerebro humano, como el de otros pocos mamíferos, es capaz de imaginar varios «mundos» pasados y futuros para desarrollar inferencias y respuestas situacionales. El neurocientífico Robert Sapolsky7 analiza los orígenes de la agresión y la recompensa en términos de lo que sucede en el cerebro. En mi opinión, en su mayor parte están relacionados con el pensamiento rápido, puesto que tienden a ser instintivos. En términos funcionales, el cerebro se puede dividir en tres partes. La primera capa, común al reino animal, es el núcleo interior, bastante autónomo y que regula el cuerpo para mantenerlo en equilibrio. La segunda capa, más reciente en la evolución, se expandió en los mamíferos y es, en proporción, la más avanzada de los humanos. La tercera capa, el neocórtex o superficie superior, es la que tiene un desarrollo más reciente (unos cientos de millones de años,8 hace relativamente poco tiempo) y tiene, como puntos fuertes, la cognición, la abstracción, la contemplación y el procesamiento sensorial. La capa 1 también recibe instrucciones de la capa 2 por medio del hipotálamo, y la capa 3 puede enviar señales a la capa 2, que a su vez las remite a la 1. La amígdala cerebral es una estructura límbica (una capa intermedia) situada bajo el córtex. En la agresión median la amígdala, el córtex frontal y el sistema de dopamina cortical. El sistema dopaminérgico (la generación de dopamina en varias zonas del cerebro) se activa en previsión de una recompensa, de modo que, en este aspecto en particular, este sistema complejo se puede entrenar (al estilo pavloviano) e inducir al aprendizaje mediante experiencias de entrenamiento de refuerzo o inhibición. Un ejemplo profundo del fallo de esta maquinaria lo representa Ulrike Meinhof, de la organización terrorista Fracción Baader-Meinhof del Ejército Rojo, formada en 1968 en Alemania. En 1962, cuando era periodista, a Meinhof le extirparon un tumor cerebral. En 1976 su autopsia reveló un tumor y un tejido cicatrizal quirúrgico que dañaba la amígdala cerebral, donde los contextos sociales, las ansiedades, las ambigüedades, etcétera se combinan para formar una respuesta de agresión. Gran parte de las tendencias de un humano dependen de esta maquinaria consistente en la relación entre la capa 3 y la 2, así como de los «Janos» que contienen. Si no se corrigen, los errores perniciosos en la manera de pensar y tomar decisiones, en el ámbito de la inteligencia, tienen una gran importancia. Esto, que es cierto en la naturaleza, también lo será en la IA.
BBVA-OpenMind-ilustración-Sandip-Tiwari-El-espiritu-en-la-maquina_la-nanotecnologia-la-complejidad-y-nosotros-Cámara de techo y sistema de radar del coche autónomo Ford Fusion de Uber durante una demostración de la tecnología de los coches sin conductor celebrada en Pittsburgh, Pensilvania, el 13 de septiembre de 2016

Cámara de techo y sistema de radar del coche autónomo Ford Fusion de Uber durante una demostración de la tecnología de los coches sin conductor celebrada en Pittsburgh, Pensilvania, el 13 de septiembre de 2016
Una vez expuestos los antecedentes del actual estado de las cosas y efectuado el correspondiente análisis, es el momento de mirar al futuro. La tecnología, cuando se ha empleado juiciosamente y por el bien general de la sociedad en su conjunto, ha sido una contribución única del ser humano a la naturaleza. En los casi dos siglos desde la invención del motor de vapor, las capacidades tecnológicas se han desarrollado a un ritmo asombroso.
En este contexto, en las últimas décadas, la nanotecnología ya casi ha franqueado la gran distancia que separaba lo físico de lo biológico. Las últimas décadas del siglo XX y las primeras del XXI han visto nacer muchas herramientas nanotecnológicas que posibilitan un conocimiento más afinado de los procesos biológicos complejos. A su vez, ello ha derivado en las increíbles capacidades de manipulación existentes en la actualidad, que representan una alternativa a los caminos naturales de la evolución. La IA aporta una capacidad cognitiva de tipo cerebral. El problema es que dicha capacidad puede aplicarse a una cantidad de datos asombrosamente mayor que la que ningún humano pueda contener y, a menudo, está en manos de grandes corporaciones.
La historia de la tecnología nos muestra que la revolución industrial del siglo XIX fue una revolución en la mecánica que sirvió para automatizar el trabajo físico. Los actuales cambios que propicia la nanotecnología, por su combinación de lo biológico y lo físico, los voy a enmarcar en una revolución existencial, porque nos afectan directamente como seres.
La revolución existencial y los cambios y trastornos que es probable que traiga consigo son de una clase y de una escala que harán inútiles los esfuerzos posteriores de la sociedad por recuperar el control (conseguirlo cuesta muchas décadas, ha ocurrido incluso con conflictos sociales como los derivados del marxismo tras la revolución industrial). Es necesario ser muy cuidadosos, previsores y juiciosos; de lo contrario nos enfrentaremos a repercusiones mucho más graves que la extinción de especies que se está produciendo ya debido a la expansión desenfrenada de la humanidad y su consiguiente necesidad de recursos.
Son muchos los indicios en este sentido, algunos con una conexión más profunda que otros. Entre 1965 y 2015, la producción de energía primaria en el mundo se ha incrementado de 40 PWh a 135 PWh (petavatios-hora) al año. Es decir, la producción se ha multiplicado por más de tres en cincuenta años, con el petróleo, el carbón y el gas como fuentes predominantes de energía. Además, durante el mismo periodo, el movimiento de energía anual solo en Estados Unidos pasó de unos 8 PWh a casi 42 PWh; es decir, se quintuplicó. En la actualidad, Estados Unidos consume, por sí solo, la misma cantidad de energía eléctrica que consumía el mundo entero hace unos cincuenta años. Además, el consumo de ese país equivale a una cuarta parte del consumo energético mundial, aunque la población estadounidense no suponga ni una vigésima parte del total de la población mundial. Cabe destacar que gran parte de este incremento en el consumo eléctrico es el resultado de la proliferación de la computación y la comunicación. El funcionamiento de cada teléfono móvil inteligente necesita electricidad equivalente al gasto de una nevera pequeña, que se consume en dispositivos de red y sistemas de conmutación. Cada búsqueda en la red y cada publicidad emitida gracias a los algoritmos de aprendizaje automático requieren otra cantidad equivalente de energía consumida en recursos computacionales. El calentamiento global es, en el fondo, un problema derivado del consumo eléctrico, alimentado a su vez por esta estructura de información, con sus orígenes termodinámicos.
En cuanto al aspecto cognitivo de la capacidad de las máquinas y la robótica, los coches autónomos constituyen la principal tendencia actual. Cabe preguntarse si, a medida que mejore dicho aspecto cognitivo, la gente vivirá más y más lejos de su trabajo y los automóviles se convertirán en oficinas sobre ruedas o si, por el contrario, la evolución desembocará en un uso eficiente de los coches, de modo que recogerán a las personas en lugares preestablecidos y las llevarán a sus respectivos destinos, lo que hará necesarios menos automóviles (por su eficiencia y porque solo existirán como servicio público o vehículo de empresa). Si ocurre esto último, se habrá encontrado una solución tecnológica para un gran problema que apareció en nuestra sociedad hace más de cien años, tras la invención del motor de combustión. Si ocurre lo primero, lo que habrá generado la tecnología será un nuevo incremento del consumo de energía. En este contexto y en términos existenciales, es engañosa la generalización continuada del argumento de que «el medio es el mensaje», porque las empresas tecnológicas con plataformas computaciolanes y el alcance necesario son, de hecho, empresas que impulsan publicidad, ideas y estilos de vida aprovechando su acceso al flujo de interacción social de los individuos.
En cuanto a la alteración biológica, los humanos no han objetado demasiado a la agricultura modificada genéticamente, que consiste en una modificación rudimentaria del genoma. La mejora del valor nutricional, la resistencia a las plagas y el estrés y otras propiedades han tenido una buena acogida, en especial en Estados Unidos y el tercer mundo. No se entiende tanto, sin embargo, el cruce de especies y la introducción de transgénicos foráneos en la naturaleza, tampoco los efectos que tiene sobre otras especies naturales este constructo artificial que no procede del proceso evolutivo de la naturaleza. La creciente resistencia a estas prácticas está asociada también con la invasividad, que conduce a una reducción de la diversidad. El maíz BT fertiliza otras cosechas y se convierte en un vector de contaminación cruzada de los genes al estilo mendeliano. Asimismo, el maíz BT afecta también a algunos insectos, como ejemplifica el caso de las mariposas monarca. Por lo tanto, del mismo modo que las bacterias resistentes a los antibióticos a las que nos enfrentamos hoy en día (en especial en los hospitales del tercer mundo con la persistencia de la tuberculosis, y en los grandes hospitales de Estados Unidos), la nueva intervención de diseño en la biología tendrá consecuencias nocivas. Sin embargo, a día de hoy carecemos de las capacidades necesarias para visualizar estas posibles amenazas, de modo que el tema merece un análisis más detenido.
Hablamos, pues, de la introducción de un cambio artificial programado con precisión en el mundo natural, donde la evolución tiene lugar por lo común mediante una selección basada en variaciones pequeñas y heredadas que incrementan la capacidad para competir, sobrevivir y reproducirse; es decir, mediante interacciones aleatorias naturales que solo siguen adelante en casos concretos. ¿Qué efecto tendrá la introducción de cambios artificiales? Conducirá a una prolongación del proceso natural de evolución, pero, en este caso, tras haber introducido una entidad no natural. La naturaleza evoluciona muy despacio y a largo plazo, de modo que minimiza las características dañinas, desde el nivel muy molecular básico hasta el nivel del sistema complejo, en cada una de las etapas del ensamblaje. Pese a que el cambio artificial es portador de una característica específica deseada por el ser humano, es posible que, como sucede en muchos casos, no cuente con las características que la naturaleza habría elegido por medio de la optimización inherente al proceso de evolución natural. La compresión de la escala temporal y la introducción de una programación específica y no natural llevan aparejadas unas posibilidades de error elevadas. No en vano, a diario somos testigos de las funestas consecuencias de dichos errores en los complejos sistemas de nuestro mundo. Por ejemplo, el fallo de situar a la persona equivocada en la jerarquía de una organización conduce al fracaso de esta; y el error de situar el componente equivocado en un sistema complejo, como el reloj de Hora, impedirá que el sistema funcione. Se puede conseguir una función concreta mediante una intervención deliberada, pero es posible que, al hacerlo, perdamos una función general.
La historia de la tecnología nos muestra que la revolución industrial del siglo XIX fue una revolución en la mecánica que sirvió para automatizar el trabajo físico. Los actuales cambios que propicia la nanotecnología, los voy a enmarcar en una revolución existencial, porque nos afectan directamente como seres
Las CRISPR hacen que las consecuencias de la modificación genética del mundo natural sean mucho más profundas, porque permiten el cambio programado de múltiples genes, no solo en las cosechas, sino en todos sus habitantes, vivos o no. Por añadidura, el efecto de múltiples cambios simultáneos agrava el riesgo. Un tomate que presente el mismo tamaño que una hamburguesa, tenga buen sabor, tarde mucho en pudrirse y crezca en una planta sin pedículos puede ser muy deseable para McDonald’s, el agricultor o el consumidor, pero, si sus genes se transmiten a otras especies, entraña riesgos extremos que, en realidad, ni siquiera son previsibles. Eso es precisamente lo que las restricciones termodinámicas sobre los procesos de la naturaleza (en cuanto a la energía, las tasas de error, la corrección de errores, las mutaciones generacionales y la autoselección) han atenuado durante miles de millones de años.
Una consecuencia de lo anterior es el potencial de programar algunas características de nuestros hijos. ¿Quién no quiere que sus hijos sean más inteligentes y más guapos? Hace cien años la eugenesia gozaba de inmensa popularidad en los países occidentales (con partidarios como John Maynard Keynes, Teddy Roosevelt, Bertrand Russell, Bernard Shaw y Winston Churchill) y trazó un camino que no tardó en culminar en Adolf Hitler. Entre las bolsas de alta incidencia del síndrome de Asperger se encuentra Silicon Valley, donde reside un gran número de expertos en altas tecnologías: un grupo con características específicas y similares y, por lo tanto, de diversidad reducida. Que el autismo represente un problema allí no puede sorprender a nadie. Los genes sirven a multitud de propósitos y de su coexistencia surgen varias características. Los humanos adquieren sus rasgos (en términos de enfermedades e inclinaciones, entre otras cosas) a partir de la diversidad. Si programamos estos aspectos, no podemos saber qué resultados nocivos podemos provocar y que, además, pueden pasar desapercibidos durante generaciones.
Otra vía de desarrollo de este enfoque consiste en la combinación de las CRISPR con la inteligencia artificial, a modo de fusión emergente-evolutiva. Con los datos suficientes, podría solicitarse una determinada serie de características en este grupo, utilizar los algoritmos para diseñar experimentos de CRISPR necesarios para conseguirlo y, así, se habría diseñado un nuevo ser humano o una nueva especie. Nada menos.
Como explicaba Leo Rosten, «cuando no sabes hacia qué lugar lleva la carretera, es indudable que te llevará hasta ese lugar». He aquí la paradoja existencial.
Lo que me lleva de vuelta al dilema planteado al principio del capítulo. Durante la primera mitad del siglo XX, movidos por motivaciones similares, aprendimos a crear sustancias químicas para propósitos concretos, como los pesticidas; y, pese a que la producción agrícola creció (un resultado deseable), nos enfrentamos también al problema plasmado en Primavera silenciosa, de Rachel Carson.9 Con el tiempo encontramos maneras de mitigarlo, pero el problema sigue ahí.
El desafío para la sociedad es someter todo esto a un orden civilizado. Hay que encontrar modos de funcionamiento que permitan la autorreparación en cada fase de la construcción de los sistemas complejos. No bastan un enfoque descendente, ni uno ascendente: la reparación debe operar en cada fase e incidir en el modo de funcionar tanto de la sociedad como de la tecnología.
El mundo complejo de nuestros días se enfrenta a este dilema existencial, la fusión entre lo emergente y lo evolutivo.
Hemos avanzado hasta dejar atrás el universo de Descartes y Ryle y los grandes fenomenólogos.
Esta maquinaria oculta un espíritu; y los espíritus pueden ser benévolos o diabólicos. Los benévolos nos beneficiarán enormemente: los medios de transporte han beneficiado la movilidad, los medicamentos, la salud y las comunicaciones, nuestra vida social y familiar. Del mismo modo, la computación ayuda a desarrollar las maravillas y tecnologías que utilizamos a diario. El ser humano debe entender la tecnología y darle forma. Si somos capaces de construir sistemas con un conocimiento claro y razonado sobre qué tipos de emprendimiento humano no son aceptables, nos guiamos por criterios de relevancia y procedencia y dotamos de fiabilidad a los sistemas, entonces se podrán conjugar la educación, la sanidad, la agricultura, las finanzas y todos los demás elementos esenciales para ser humanos civilizados y ciudadanos del planeta, por el bien de todos.
Por el contrario, si esta cuestión no se aborda de un modo juicioso, a escala mundial y otorgando un papel capital al reino de la naturaleza, la historia humana podría muy bien seguir el mismo camino que exponía este memorable fragmento de 2010: Odisea Dos, de Clarke: «El espíritu se había marchado; solo dejó tras de sí unas motas de polvo juguetonas, que retomaron sus movimientos aleatorios en el aire».

Notas

No hay comentarios: