Inteligencia artificial: poniendo las cosas en su sitio
José Luis
Casal @jlcasal
5 febrero, 2022 04:18
La
historia
de la inteligencia artificial
ha estado marcada por repetidos ciclos de optimismo extremo y promesas,
seguidos de desilusión y decepción.
Estaremos de acuerdo si digo que la inteligencia artificial ya puede
realizar tareas complicadas en muchas áreas, como por ejemplo las
matemáticas y otras disciplinas científicas, los juegos, la generación de
imágenes… ¿no? Pero, sin embargo, algunos de los primeros objetivos de la IA,
como los robots domésticos y los coches autónomos, no acaban de estar tan cerca
como esperábamos. Se ve que eso de ser ‘autónomo’… ni los coches.
Pues
según parece, la falta de estos objetivos se debe a las suposiciones
incorrectas sobre la inteligencia artificial y la inteligencia natural. Y lo
dice este informe: Artificial Intelligence: A Guide For Thinking Humans.
La
misma autora, en un artículo titulado ‘Por qué la IA es más
difícil de lo que pensamos’, expone cuatro falacias comunes sobre la IA
que provocan malentendidos no sólo entre el público y los medios de
comunicación, sino también entre los expertos. Éstas
dan una falsa sensación de confianza sobre lo cerca que estamos de lograr la
inteligencia artificial general, sistemas de IA que pueden
igualar las habilidades cognitivas y de resolución de problemas generales de
los humanos.
La IA específica y la IA
general no están en la misma escala
El tipo de IA que tenemos hoy en día puede ser
muy buena para resolver problemas estrechamente definidos.
Pueden superar a los humanos en el Go y el ajedrez, encontrar patrones
cancerígenos en imágenes de rayos X con notable precisión, saber si una pieza
tiene defectos de fabricación, convertir datos de audio en texto o viceversa...
Pero diseñar sistemas que puedan resolver problemas aislados no nos acerca
necesariamente a la resolución de problemas más complejos.
Si
la gente ve que una máquina hace algo asombroso, aunque sea en un área limitada,
suele asumir que el campo está mucho más
avanzado de lo que realmente está.
Por
ejemplo, los sistemas actuales de procesamiento del
lenguaje natural han avanzado mucho en la resolución de muchos problemas
diferentes, como la traducción, la generación de textos y la
respuesta a preguntas sobre problemas específicos. Al mismo tiempo, tenemos
sistemas de deep learning que pueden convertir
los datos de voz en texto en tiempo real. Detrás de cada uno de estos logros
hay miles de horas de investigación y desarrollo… y millones de euros gastados
en computación y data. Pero la comunidad de expertos en inteligencia artificial
aún no ha resuelto el problema de crear agentes
que puedan entablar conversaciones abiertas sin perder la
coherencia durante un buen rato. Un sistema de este tipo requiere algo más que
la resolución de problemas menores; requiere sentido común, uno de los
principales retos no resueltos de la IA… y que en los humanos,
desgraciadamente, bueno, nada. Sigamos.
Las cosas fáciles son
difíciles de automatizar
Cuando
se trata de humanos, esperamos que una persona inteligente haga cosas difíciles
que requieren años de estudio y práctica, como resolver problemas de cálculo
matemático y física, jugar al ajedrez a nivel de gran maestro o memorizar un montón
de contenido.
Y
casualmente, después de décadas de investigación en IA, se ha demostrado que
las tareas difíciles, las que requieren atención consciente, son más fáciles de
automatizar. Son las tareas fáciles, las
cosas que damos por sentadas, las que son difíciles de automatizar.
Fijaos, las cosas que los humanos hacemos sin pensar demasiado, mirar al mundo
y dar sentido a lo que vemos (mantener una conversación, caminar por una acera
llena de gente sin chocar con nadie...) resultan ser los retos más difíciles
para las máquinas. Y por el contrario, a menudo es más fácil conseguir que las
máquinas hagan cosas que son muy difíciles para los humanos.
Inteligencia Artificial. Foto:
Pixabay
Consideremos la visión, por ejemplo.
A lo largo de miles de millones de años, los organismos han desarrollado
complejos aparatos para procesar las señales luminosas. Los animales utilizan sus ojos para observar
los objetos que les rodean, navegar por su entorno, encontrar
comida, detectar amenazas y realizar muchas otras tareas vitales para su
supervivenci a. Los seres humanos hemos heredado todas esas capacidades de
nuestros antepasados y las utilizamos sin pensar conscientemente. Pero el
mecanismo subyacente es realmente más complicado que las grandes fórmulas matemáticas
que nos frustran durante los años de colegio y la universidad.
Y
si nos vamos hacia el mundo de la tecnología, vemos que todavía no tenemos sistemas de visión por
computador que sean tan versátiles como la visión humana. Hemos
conseguido crear redes neuronales artificiales que imitan aproximadamente
partes del sistema de visión animal y humano, como la detección de objetos y la
segmentación de imágenes. Pero son frágiles, sensibles a
muchos tipos de perturbaciones y no pueden imitar todo el abanico de tareas que
puede realizar la visión biológica. Por eso, por ejemplo, los
sistemas de visión artificial utilizados en los coches autónomos deben
complementarse con tecnología avanzada, como ‘Lidar’ o datos cartográficos.
Otro
campo que ha demostrado ser muy difícil para las maquínas son las habilidades sensoriomotoras que los
humanos dominan sin un entrenamiento explícito. Piense en cómo
maneja los objetos, camina, corre y salta. Se trata de tareas que puedes hacer
sin pensar conscientemente. De hecho, mientras caminas, puedes hacer otras
cosas, como escuchar un podcast o hablar por teléfono. Pero este tipo de
habilidades siguen siendo un gran y costoso reto para los actuales sistemas
artificiales.
Quizás
la clave de que la inteligencia artificial sea más difícil de lo que creemos
esté en que somos, en gran medida, inconscientes de la
complejidad de nuestros propios procesos de pensamiento.
Antropomorfizar la
inteligencia artificial no ayuda
El
campo de la IA está repleto de vocabulario que sitúa al software al mismo nivel
que la inteligencia humana. Utilizamos términos como
‘aprender’, ‘entender’, ‘leer’ y ‘pensar’ para describir el funcionamiento de
los algoritmos pero, aunque estos términos antropomórficos a
menudo sirven como abreviatura para ayudar a transmitir complejos mecanismos de
software, pueden inducirnos a pensar que los actuales sistemas de IA funcionan
como la mente humana.
En
el artículo, Mitchell denomina a esta falacia ‘el
señuelo de la mnemotecnia ilusoria’ y aclara que esta forma de
expresarse puede inducir a error al público que trata de entender estos
resultados… y a los medios de comunicación que informan sobre ellos, y también
puede moldear inconscientemente el modo en que
incluso los expertos en IA piensan en sus sistemas y en lo
mucho que estos sistemas se parecen a la inteligencia humana.
Image: Inteligencia Artificial
y robots
Os
pongo un ejemplo de hace unos años. Un proyecto de 2017 de Facebook Artificial Intelligence Research,
en el que los científicos entrenaron a dos agentes de IA para negociar en
tareas basadas en conversaciones humanas. En la entrada de su blog, los investigadores señalaron que ‘la actualización
de los parámetros de ambos agentes condujo a la
divergencia del lenguaje humano, ya que los agentes desarrollaron su propio
lenguaje para negociar’. Esto provocó un montón de artículos en
medios que advertían sobre sistemas de IA que se estaban volviendo más
inteligentes que los humanos y que se comunicaban en dialectos secretos. Pero
no, la verdad es que cinco años después, ¡cómo pasa el tiempo!, los modelos
lingüísticos más avanzados siguen teniendo dificultades para entender conceptos
básicos que la mayoría de los humanos aprenden a una edad muy temprana sin
recibir instrucciones.
Inteligencia artificial sin
cuerpo
¿Puede existir la inteligencia aislada de una
rica experiencia física del mundo? Esta es una pregunta que los
científicos y los filósofos se han planteado durante siglos.
Una
escuela de pensamiento cree que la inteligencia está toda en el cerebro y puede
separarse del cuerpo, también conocida como la teoría del ‘cerebro en
una cuba’ y, volviendo a las falacias, ésta se denomina ‘la inteligencia está toda en el cerebro’.
Con los algoritmos y los datos adecuados, la idea es que podemos crear una IA
que viva en servidores y que se equipare a la inteligencia humana. Para los
defensores de esta forma de pensar, especialmente los que apoyan los enfoques
basados en el aprendizaje profundo puro, alcanzar la IA general
depende de reunir la cantidad adecuada de datos y crear redes neuronales cada
vez más grandes. No es por hacer spoiler
pero cada vez hay más pruebas de que este enfoque está condenado al fracaso.
El
cerebro humano y el de los animales han evolucionado junto con todos los demás
órganos del cuerpo con el objetivo último de mejorar las posibilidades de
supervivencia. Nuestra inteligencia está
estrechamente ligada a los límites y capacidades de nuestros cuerpos.
Y existe un campo en expansión de la IA encarnada que pretende crear agentes
que desarrollen habilidades inteligentes al interactuar con su entorno a través
de diferentes estímulos sensoriales.
Ameca, robots humanoides Engineered Arts Omicrono
De
hecho, las investigaciones neurocientíficas sugieren que las estructuras
neuronales que controlan la cognición están ricamente vinculadas a
las que controlan los sistemas sensoriales y motores, y que el
pensamiento abstracto explota los mapas neuronales basados en el cuerpo. Y de
hecho, cada vez hay más pruebas e investigaciones que demuestran que la
retroalimentación de las distintas áreas sensoriales del cerebro afecta a
nuestros pensamientos tanto conscientes como inconscientes.
Las emociones, los sentimientos, los sesgos
inconscientes y la experiencia física son inseparables de la inteligencia.
Lo que nos da una comprensión del mundo basada en el sentido común. Nada en el
conocimiento de la psicología o la neurociencia apoya la posibilidad de que la
'racionalidad pura' sea separable de las emociones y los sesgos culturales que
dan forma a nuestra cognición y nuestros objetivos.
Sentido común en la
inteligencia artificial
El
desarrollo de la IA general requiere un ajuste de nuestra comprensión de la
propia inteligencia. Seguimos luchando por definir
qué es la inteligencia y cómo medirla en los seres artificiales y naturales
Y
en el lote tenemos que incluir el menos común de los sentidos, y que incluye
los conocimientos que adquirimos sobre el mundo y los aplicamos cada día sin
mucho esfuerzo. Aprendemos muchas cosas sin
que se nos instruya explícitamente, explorando el mundo cuando somos niños.
Entre ellos están conceptos como el espacio, el tiempo, la gravedad y las propiedades
físicas de los objetos. Por ejemplo, un niño aprende a una edad muy temprana
que cuando un objeto queda oculto detrás de otro, no ha desaparecido y sigue
existiendo, o que cuando una pelota rueda por una mesa y llega a la cornisa,
debe caerse. Utilizamos este conocimiento
para construir modelos mentales del mundo, hacer inferencias
causales y predecir estados futuros con una precisión decente.
Este
tipo de conocimiento no existe en los sistemas de
inteligencia artificial actuales, lo que los hace imprevisibles
y ávidos de datos. De hecho, las tareas domésticas y la conducción, las dos
aplicaciones de la IA mencionadas al principio de este artículo, son cosas que
la mayoría de los humanos aprenden con el sentido común y un poco de práctica.
El sentido común también incluye hechos básicos
sobre la naturaleza humana y la vida, cosas que omitimos en
nuestras conversaciones y escritos porque sabemos que quienes nos leen y oyen
las conocen. Por ejemplo, sabemos que si dos personas están ‘hablando por teléfono’,
significa que no están en la misma habitación. También sabemos que si ‘Juan
cogió el azúcar’, significa que había un recipiente con azúcar dentro en algún
lugar cerca de Juan. Este tipo de conocimiento es
crucial para áreas como el procesamiento del lenguaje natural.
Nadie sabe todavía cómo capturar esos
conocimientos o habilidades en las máquinas. Esta es la
frontera actual de la investigación en IA, y una forma alentadora de avanzar es
aprovechar lo que se sabe sobre el desarrollo de estas capacidades en los niños
pequeños.
Aunque
no sabemos aún las respuestas a muchas de estas preguntas, un primer paso para
encontrar soluciones es ser conscientes de nuestros propios pensamientos
erróneos. Entender estas falacias y sus sutiles
influencias puede señalar direcciones para crear sistemas de inteligencia
artificial más robustos, fiables y, quizás, realmente inteligentes.
José Luis
Casal @jlcasal
https://www.elespanol.com/invertia/disruptores-innovadores/opinion/20220205/inteligencia-artificial-poniendo-cosas-sitio/647815226_13.html?twclid=2-358gyddc3vk4qawcgq1kcf06r