Avanzamos sin darnos cuenta hacia una sociedad en la que las máquinas
tomarán decisiones cada vez más complicadas. De su presencia en tareas
altamente automatizables hasta su introducción en las llamadas compañías
data driven —gobernadas por datos informatizados—, el potencial de los algoritmos para sustituir el control humano es tan enorme que asusta.
Al margen de los miedos que despierta la posibilidad de que sistemas de inteligencia artificial nos quiten el trabajo
—y si permitimos sus virtudes en la medida en que nos simplifiquen la
vida—, es vital que, al menos, respondan correctamente y de forma
eficiente si les vamos a dejar tomar cierto tipo de decisiones. Porque
las máquinas también son susceptibles de equivocarse.
Quienes diseñan sus algoritmos parten de suposiciones
basadas en sus propios datos sobre cómo deberían hacerlos funcionar, y
estas suposiciones no son siempre acertadas. “Como hemos aprendido de
los grandes bancos durante el colapso financiero, los modelos
matemáticos basados en suposiciones equivocadas pueden ser peligrosos
cuando depositamos demasiada confianza en sus predicciones sin
considerar lo que podría ir mal”, afirma Jennifer Wortman, investigadora senior en Microsoft especializada en aprendizaje automático y economía algorítmica.
Afrontando el problema
Fotograma de la película 'Yo, robot'
Pero, ¿qué pasaría si estos sistemas fueran conscientes de
ello? ¿Si supieran que pueden haber cometido un error y fueran capaces
de enmendarlo? Una de las ramas más interesantes que se están
desarrollando actualmente en aprendizaje automático está destinada a
este propósito: que las máquinas puedan lidiar con la incertidumbre.
Compañías como Uber o Google ya trabajan en modificar los marcos
tradicionales de aprendizaje profundo —más conocido por su denominación
inglesa, deep learning— para construir programas de
inteligencia artificial que midan su confianza en una decisión para
saber cuándo deberían dudar de sí mismos y sean menos propensos a
fallar.
“Si un automóvil que se conduce solo no sabe que es capaz de
equivocarse, puede cometer un error fatal, y eso puede ser
catastrófico”, afirmaba durante un congreso en California Dustin Tran,
que trabaja en el desarrollo de este tipo de sistemas en Google.
Normalmente, el vehículo reconoce objetos en las imágenes que captura
por sus cámaras y estima la distancia a la que se encuentran. Con esta
nueva aproximación, calcularía la probabilidad de que sus estimaciones
fueran correctas y la de cada una de las posibles consecuencias de sus
decisiones, y lo tendría en cuenta antes de actuar.
En este sentido, la aplicación de dichas mecánicas también
es relevante en ámbitos como la salud, donde los algoritmos podrían
determinar la posibilidad de acierto en el diagnóstico de un paciente y
sus potenciales respuestas al aplicarle un determinado tratamiento.
Para alcanzar este ideal, que se enmarca como la próxima
frontera de la inteligencia artificial —máquinas capaces de realizar
labores complejas teniendo en cuenta parámetros de incertidumbre a la
hora de establecer sus predicciones— es necesaria la combinación de
modelos de aprendizaje profundo con sistemas probabilísticos
La unión hace la fuerza
“El aprendizaje profundo es un tipo de machine learning
que utiliza redes neuronales. Además de aplicarse en el campo de la
investigación, lo emplean Google, Facebook, Microsoft, Amazon, Netflix,
Spotify y Uber para describir con lenguaje natural el contenido de una
imagen o para el reconocimiento de voz”, ilustra Francisco Rodríguez
Ruiz, investigador en las universidades de Columbia y Cambridge con experiencia en estos sistemas. “Su principal ventaja es que permite modelar relaciones complejas entre entradas y salidas (inputs y outputs)”.
Por su parte, los sistemas probabilísticos son modelos
estadísticos que introducen una serie de parámetros para estimar la
incertidumbre. “Esto es particularmente útil a la hora de entender lo
que puede pasar. Si el modelo duda de sí mismo, este hecho se reflejará
en sus predicciones para que puedan tenerlo en cuenta”, aclara
Rodríguez.
Pero estos sistemas no encajan tan fácilmente y su
combinación presenta varios retos técnicos en el medio plazo. La
complejidad que añade el aprendizaje automático cuando se aplica a
modelos probabilísticos dificulta que el cálculo sobre la incertidumbre
de los parámetros fijados sea preciso. “Esto representa un problema en
aplicaciones en tiempo real donde sea necesaria una respuesta en un
período limitado de tiempo”, expone Rodríguez. “Por ejemplo, un vehículo
autónomo necesitaría responder a determinados estímulos en cuestión de
una fracción de segundo”.
El camino a recorrer se antoja largo y empinado. El tiempo
determinará si este enfoque permitirá disfrutar de las ventajas de ambos
modelos y desarrollar sistemas cuyas dudas les ayuden a ser más
eficientes.
No hay comentarios:
Publicar un comentario