El papel de la consciencia artificial en los sistemas de inteligencia artificial
La generación actual de inteligencia artificial ha transformado el mundo en el que vivimos. A lo largo de la última década, los algoritmos de aprendizaje profundo (deep learning) han permitido desarrollar sistemas de inteligencia artificial capaces de realizar tareas de reconocimiento de patrones, como reconocimiento de voz e imágenes, tan bien o incluso mejor que cualquier humano. Sin embargo, existe un consenso generalizado de que esta tecnología, por sí sola, no basta para desarrollar una inteligencia de nivel equiparable al humano [1]. Porque aunque los algoritmos de IA pueden superar al humano en potencia, su comprensión de lo que están haciendo es muy limitada. Según algunos investigadores de referencia en el campo de la IA, esta comprensión es necesaria porque aunque un programa de IA sea capaz de resolver un problema con un nivel de competencia equiparable al de un humano, es posible que carezca de un contexto más amplio para juzgar el valor de su solución. Dicho de otro modo, en la actualidad estos sistemas son incapaces de entender el significado, en un sentido humano, de lo que están haciendo. Se trata de un problema que guarda más relación con la consciencia que con la inteligencia. En este artículo, explico el papel de la consciencia artificial, de máquina, para mejorar los sistemas de IA.
Consciencia humana
Existe una diferencia entre inteligencia y consciencia. Dicho de manera simple, la inteligencia es la capacidad de resolver problemas. Así pues, por ejemplo, si un programa de ajedrez de IA es capaz de vencer a una mayoría de humanos, entonces es posible asumir que está dotado de un nivel determinado de inteligencia, el mismo que entendemos que debe poseer un humano para jugar bien al ajedrez.
En cuanto a la consciencia, se trata de un asunto diferente, porque es muy difícil encontrar una definición objetiva que capture la esencia de este concepto. Para algunos, la consciencia es ese estado que sentimos cuando estamos despiertos en contraposición con lo que sentimos cuando estamos dormidos. Pero esta definición no nos vale, dado que soñar es un estado de consciencia. Además, se trata de una definición demasiado limitada puesto que no hace ninguna referencia a aquello que nos sucede a todos durante cada instante de nuestras vidas. Todos sabemos por experiencia propia qué es la consciencia, pero es muy difícil de definir. Me viene a la cabeza la respuesta Louis Armstrong, trompetista de jazz, cuando le pidieron que definiera el jazz: “Si tienes que preguntar, nunca vas a saberlo”. Lo mismo ocurre con la consciencia.
A todos nos cuesta encontrar una definición adecuada, pero todos sabemos lo que se siente cuando nos tiramos a una piscina de agua fría, o cuando tomamos un trago de agua helada en un día muy caluroso y soleado, o el subidón que nos produce escuchar en la radio un clásico que teníamos prácticamente olvidado. Podemos visualizar multitud de experiencias – buenas, malas y neutrales – que nos ayudan a crear la realidad de la consciencia. Vivimos experiencias subjetivas internas cada día de nuestras vidas. Los filósofos se refieren a estas experiencias como “qualia”.
Estas experiencias “qualia” aportan significado a nuestras vidas. Pero ¿puede una consciencia artificial experimentar el significado de la realidad de la misma manera? Cuando pensamos en un caballo, por ejemplo, combinamos en nuestra mente todos nuestros sentidos de vista, oído, olfato, tacto, etc., para invocar el recuerdo de un caballo. Visualizamos un animal peludo de cuatro patas, trotando por una pradera, relinchando, con un olor muy particular. Somos capaces de visualizar infinidad de experiencias relacionadas con los caballos, como caballos tirando de un carro, en un establo, etc. Estas experiencias conscientes contribuyen a dar forma al “sentido común”, una manera de entender que nace nuestras experiencias conscientes. Hay sistemas de IA, como el sistema CYC, capaces de replicar este sentido común del conocimiento humano. CYC es capaz de conjugar toda esta información y relaciones relativas a los caballos, pero no es capaz de atribuirle a esa idea un significado y una comprensión equiparable a las de los humanos.
¿Importa? Sí, en ocasiones muy poco frecuentes, porque los programas de IA en ocasiones tienen problemas para gestionar situaciones nuevas e inesperadas. Por ejemplo, cuando conducimos utilizamos nuestra comprensión flexible de la realidad en el mundo para lidiar con situaciones imprevistas ante las que nunca nos habíamos encontrado. Por el contrario, un programa de inteligencia artificial recurriría a sus algoritmos de aprendizaje automático para tomar una decisión a partir de ejemplos de conducción anteriores aprendidos. Casi todo lo que hacemos mientras conducimos es rutinario y los programas de inteligencia artificial pueden reproducirlo sin problemas. Pero, imaginemos una situación en la que estamos conduciendo en el preciso instante en el que se produce un terremoto que provoca un hundimiento en la carretera. Por instinto, inconscientemente, quizás redujeramos la velocidad. Probablemente tomaríamos otras medidas de manera instintiva, como evitar circular por encima o en las inmediaciones de un puente, ante la posibilidad de que el puente se derrumbe por el efecto de la gravedad. En situaciones así, el conocimiento que aporta el sentido común tiene sus limitaciones, porque un suceso de esta naturaleza puede desarrollarse de infinitas maneras, con lo que nunca podríamos evaluarlas todas.
¿Qué haría un programa de inteligencia artificial ante una situación así? Podríamos pensar que es posible agregar más casos de aprendizaje a su base de conocimientos, pero ¿Cómo hacerlo si nunca se han producido casos similares? El problema es que el programa de inteligencia artificial tendría que actuar y razonar ante una situación inédita. Por extremadamente improbables que sean, se trata de situaciones que pueden darse. Además, los eventos raros de este tipo son cada vez más comunes. Nicolas Taleb, un estadístico matemático, comenzó a estudiar el concepto de sucesos extremadamente atípicos, a los que se refiere como “cisnes negros”, tras la crisis bancaria mundial de 2008. En su libro Cisne Negro[2], explica cómo este tipo de sucesos raros que tienen consecuencias catastróficas se racionalizan de manera inapropiada, dado que son cada vez más frecuentes. El título del libro hace referencia a la antigua creencia de que era imposible ver un cisne negro, porque se pensaba que todos los cisnes eran blancos. Es difícil no estar de acuerdo con su afirmación. Por ejemplo, ¿Quién podría haberse imaginado la pandemia de Covid-19? Se trata de un ejemplo perfecto de cisne negro.
Consciencia artificial
Esto implica que dotar a los programas de inteligencia artificial de sentido común quizás no baste para permitirles afrontar situaciones inéditas, porque es difícil trazar los límites del conocimiento del sentido común. Quizás la única manera de que las máquinas puedan alcanzar este nivel de comprensión sea dotándolas artificialmente de consciencia. Por supuesto, una consciencia artificial sería diferente de la humana. Filósofos como Descartes y Daniel Dennett o el físico Roger Penrose, y muchos otros han formulado teorías de la consciencia para explicar cómo el cerebro produce el pensamiento a partir de la actividad neuronal. Es posible que a medida que las herramientas de la neurociencia, como los escáneres de resonancia magnética, sigan avanzando lleguemos a entender mejor este tipo de procesos, lo cual quizás nos permita cruzar el umbral hacia una nueva etapa en la humanización de la IA. Pero eso implicaría enfrentarse a lo que el filósofo australiano David Chalmers se refiere como “el difícil problema de la consciencia”:¿cómo puede surgir la subjetividad de la materia? Dicho de otra manera, ¿cómo pueden surgir experiencias subjetivas de la actividad neuronal en el cerebro? Además, nuestra comprensión de la consciencia humana sólo puede entenderse a través de nuestra propia experiencia interior: la perspectiva en primera persona. Y esto mismo sucedería con la consciencia artificial.. Sólo nos será accesible desde la perspectiva en tercera persona. Y esto plantea otra pregunta: ¿Cómo sabremos si una máquina es consciente? En mi siguiente artículo profundizaré en esta cuestión con mayor detalle.
Referencias
[1] Marcus, G. and Davis, E. Rebooting AI. Building Artificial Intelligence we can trust. Pantheon Books, 2019.
[2] Taleb, N. N. The Black Swan: Second Edition, 2010.
2 comentarios:
Me interesa mucho este tipo de temas y lo has explicado de una forma fantástica, no podía parar de leerlo!
Me ha encantado toda la información que has puesto! Es un tema realmente interesante
Publicar un comentario