¿Pueden las tecnologías actuales emular la inteligencia humana?
En los últimos años la inteligencia artificial está avanzando a pasos
de gigante. El número de aplicaciones de inteligencia artificial
capaces de llevar a cabo tareas concretas mejor que un humano, por
ejemplo sistemas de diagnóstico
o en juegos, crece cada día. Muchos de estos avances se han venido
produciendo a lo largo de la última década, gracias a la incorporación y
el desarrollo de tecnologías y algoritmos de captura y aprovechamiento
de datos y machine learning (aprendizaje de máquina o automático). Sin embargo, a pesar del optimismo que despierta cada avance en este campo, muchos
investigadores advierten de la imposibilidad de desarrollar una
inteligencia artificial equiparable la humana, lo que se conoce como
Inteligencia Artificial Fuerte o Inteligencia Artificial General,
exclusivamente a partir de tecnologías de aprendizaje automático.
El ser humano posee la capacidad de aplicar los conocimientos
generales que va adquiriendo para resolver problemas de índole distinta.
En algunos casos, se trata de cosas como andar o hablar, esto es,
conocimientos que todo el mundo adquiere. En otros casos, se trata de
conocimientos especializados que sólo adquieren algunas personas, con
frecuencia relacionadas con su vocación, como es el caso de los
cirujanos, ingenieros civiles o conductores de camiones. La inteligencia
general nos permite, como seres humanos, combinar diferentes
habilidades cognitivas para pasar inmediatamente de una tarea a otra
cuando es necesario, de cara facilitar la resolución de un problema.
Sin embargo, a pesar de estos espectaculares
avances, parece que tendremos que seguir esperando antes de ver la
primera inteligencia artificial general. En este artículo, se explica brevemente por qué. En un artículo posterior, veremos los caminos que podrían hacerla posible de cara al futuro.
El paradigma actual de la inteligencia artificial – el aprendizaje profundo
El impacto de la IA en estos últimos 5 años es evidente. No pasa día
sin que en algún medio aparezca alguna noticia relacionada con alguna
aplicación de la inteligencia artificial. La actividad en este campo se
ha disparado y constantemente aparecen nuevas empresas para explorar las
posibilidades de la tecnología. Por ejemplo, según este informe, entre 2017 y 2018 la actividad de las empresas relacionadas con la IA se incrementó un 72%.
El aprendizaje automático (machine learning), una rama de la IA, ha sido el catalizador de este salto en actividad.
El término hace referencia a los métodos que permiten a un ordenador
aprender sin necesidad de una programación específica. El principal
paradigma utilizado en este campo es el de las Redes Neuronales
Artificiales (RNAs). Los conceptos de las RNAs se vienen utilizando de
manera experimental desde la década de los 60 del siglo pasado y deben
su origen al funcionamiento de las neuronas en el cerebro humano. En la
última década este campo ha comenzado a madurar gracias a una
arquitectura de red neuronal conocida como deep learning o
aprendizaje profundo. Esta red consiste en una jerarquía de capas,
llamadas capas ocultas, de manera que cada capa puede ayudar a
identificar manifestaciones más abstractas de los patrones que se
investigan. Este método permite reconocer patrones de la misma manera en
que lo hacemos los humanos, por ejemplo, cuando identificamos las caras
de otras personas. Este nuevo planteamiento supone un salto
cualitativo. En su origen, las RNAs se desarrollaban a partir de modelos
de perceptrones, esto es, software que utilizaba una única capa de
neuronas artificiales (perceptrones), sin disponer de acceso a las
enormes cantidades de datos necesarias para entrenar a los sistemas para
que sean capaces de llevar a cabo estas tareas. Sin embargo, los
algoritmos de aprendizaje profundo utilizan múltiples capas de RNAs
combinadas con cantidades ingentes de datos – disponibles ahora gracia a
las redes sociales y a las páginas de internet. Mejoran su rendimiento
afinando los parámetros que reciben de la información sensorial que les
aporta su entorno.
La tecnología de Deep Learning comenzó a acaparar titulares en 2012,
gracias al uso con éxito de un paradigma de identificación de patrones
en una aplicación de identificación de imágenes. A partir de ahí, su
éxito se ha extendido a otras áreas. Se están utilizando
aplicaciones de deep learning en una gran cantidad de aplicaciones,
tanto en empresas y comercios, como en áreas como el de la sanidad.
A medida que sigan mejorando los algoritmos y la capacidad de
procesamiento de los ordenadores, irán emergiendo nuevas aplicaciones de
IA y la tecnología irá haciéndose más ubicua de lo que ya lo es hoy en
día. Existen muchas aplicaciones específicas de deep learning que ya nos
superan en capacidad a los humanos. Hace tiempo que los algoritmos de
ajedrez superaron a los humanos. Lo que pocos esperaban que sucediera
tan a corto plazo es que una inteligencia artificial fuera capaz de
ganar a un gran campeón de Go, un juego muy complejo de origen chino.
Sin embargo, en 2016, AlphaGo, un programa de IA desarrollado por Google DeepMind,
se impuso en una serie de partidas al mejor jugador del mundo. Todo
ello tras estudiar los movimientos de expertos humanos y echar multitud
de partidas consigo mismo. En efecto, AlphaGo fue capaz de aprender por
cuenta propia, gracias al paradigma del aprendizaje por refuerzo, una
técnica de aprendizaje en la que el algoritmo aprende de sus propias
acciones previas jugando consigo mismo.
Las limitaciones del aprendizaje profundo
A pesar del éxito de las tecnologías de inteligencia
artificial de deep learning, algunos expertos dudan de que este
paradigma sea capaz por si sólo de alcanzar un nivel de inteligencia
similar al humano. Por ejemplo, Francois Chollet, un experto de
renombre en redes de deep learning, considera que no se puede alcanzar
un nivel de inteligencia general simplemente incrementando la escala de
las técnicas de aprendizaje profundo actuales.
El uso de esta tecnología también plantea otros problemas. Una de las
limitaciones de las RNAs es que son totalmente incapaces de explicar de
una manera transparente sus procesos de razonamiento durante la toma de
decisiones. Son arquitecturas de caja negra. Esta característica es
especialmente problemática en aplicaciones como los sistemas de
diagnóstico de salud – donde los especialistas sanitarios tienen que ser
capaces de entender los procesos de toma de decisiones. Como indica J.
Brockman [1], el motivo por el que las RNAs no son transparentes es que “funcionan
en modo estadístico, sin atenerse a un modelo, lo cual equivale a
encajar una función en una nube de puntos de datos”. Esto no debería
sorprender, puesto se trata de mecanismos de procesamiento estadístico
de números a partir de datos, y no entienden ningún tipo de contexto.
Esto significa que no disponen de ninguna herramienta de rastreo de
razonamiento causal y por lo tanto no pueden utilizarse como modelo para
desarrollar una inteligencia artificial similar a la humana. Entender
el razonamiento detrás de las decisiones puede servir de base para
responder a preguntas como: ¿Por qué está el sistema solicitando que se
le proporcione más información? o ¿cómo ha llegado el sistema a esas
conclusiones?”. Las explicaciones son considerados componentes clave
para la mejora de la inteligencia artificial. Hasta tal punto que,
DARPA, la agencia estadounidense de proyectos de investigación avanzados
para la defensa, lleva tiempo considerando que las características de
caja negra de la generación actual de tecnologías de inteligencia
artificial, a pesar de su innegable valor de cara al futuro, suponen un
grave impedimento para el uso de las mismas en la actualidad. En este
contexto, DARPA anunció en agosto de 2016 que iba a dotar una
partida presupuestaria para financiar una serie de nuevos proyectos de
Inteligencia Artificial Explicable (IAX). El propósito de estos
proyectos, según la agencia, sería crear herramientas que permitirían a
un humano entender el razonamiento detrás de una decisión adoptada por
un sistema de inteligencia artificial. Ya he escrito sobre la importancia de Mejorar la transparencia en programas de inteligencia artificial, porque los sistemas de deep learning en ocasiones adoptan decisiones impredecibles y, en esos casos, su aceptación depende totalmente de la confianza que inspiren.
Aunque parezca sorprendente, generaciones anteriores de inteligencia artificial, las conocidas como GOFAI o Good Old Fashioned AI,
algo así como los entrañables sistemas de IA del pasado, incorporaban
capacidades limitadas de explicación debido a la manera explícita en que
su conocimiento se representaba y manipulaba. Pero la capacidad de
aprendizaje de los sistemas GOFAI era muy limitada. Algunos sistemas
GOFAI funcionan bien, y siguen haciéndolo hoy en día. Pero su falta de
capacidad de aprendizaje suponía un gran impedimento para su aceptación.
Sin capacidades de aprendizaje, no son capaces de adaptarse a cambios
en su entorno, un aspecto clave para sistemas de conducción autónoma,
reconocimiento de imagen o robótica, entre muchas otras aplicaciones de
la inteligencia artificial moderna.
¿Será posible desarrollar una inteligencia artificial general a partir del aprendizaje profundo?
Existen algunos indicios que invitan al optimismo. Por ejemplo, Demis Hassabis, de DeepMind, ha indicado que cree que la clave para la inteligencia artificial general reside en lo que él llama aprendizaje por transferencia.
Se trata de una técnica en la que se redefine el propósito de un modelo
entrenado para una tarea concreta para que se encargue de una segunda
tarea. Esta técnica trata de replicar los procesos que seguimos los
humanos cuando tenemos que aprender una nueva tara. Por ejemplo, se ha
demostrado que para las personas bilingües suele ser más fácil aprender un nuevo idioma,
porque el idioma precedente que les permitió convertirse en bilingües
puede volver a aplicarse y facilitar el proceso de aprendizaje de un
nuevo idioma, al tener conciencia de la necesidad de aprender
estructuras y sintaxis lingüística, algo que generalmente se les
escaparía a aquellos que sólo dominan un idioma.
Extrapolando esta idea al aprendizaje de máquina, parecería lógico
pensar que el conocimiento precedente aprendido para una tarea
específica, le permitiría al sistema acelerar, por transferencia, el
proceso de entrenamiento para acometer una nueva tarea, requiriendo
menos supervisión, frente a un sistema que parte de cero para aprender a
llevar a cabo esa segunda tarea. Sin embargo, para que este aprendizaje
pudiera servir de génesis para una inteligencia artificial general
auténtica, el sistema debería ser capaz de transferir el aprendizaje a
un gran número de ámbitos. Como indica Hassabis, “creo que la clave para
el aprendizaje por transferencia residirá en la capacidad de adquirir
conocimiento conceptual, abstraído de los detalles perpetuos de contexto
en el que fue adquirido”. También reconoce que la comunidad IA sigue
teniendo un gran reto pendiente, dado que el conocimiento por
transferencia “funciona razonablemente bien cuando las tareas están
íntimamente relacionadas, pero, a partir de ahí, todo se complica
muchísimo”.
Por ello, muchos expertos siguen albergando serias dudas
sobre que alguna vez vayamos a poder desarrollar una inteligencia
artificial general utilizando, exclusivamente, técnicas de aprendizaje
profundo. Sin embargo, existen otros posibles caminos para el
desarrollo de la inteligencia artificial general que explicaré en mi
siguiente artículo.
Referencias
[1] Brockman, J. Possible Minds 25 ways of looking at AI. Capítulo escrito por Pearl, J. 2019.-
https://www.bbvaopenmind.com/tecnologia/inteligencia-artificial/pueden-las-tecnologias-actuales-emular-la-inteligencia-humana/?utm_source=facebook&utm_medium=social&utm_campaign=rrssopenmind&psm=psm::fb:----:rrssopenmind:::::20191204::sitlnk::&fbclid=IwAR2ivkntmwDcmLFtSwRLYcfDDf1rL7vA4KaVItsuyY1TcclhYU3hV5BdLjI
No hay comentarios:
Publicar un comentario