¿Por qué la IA es la ‘nueva electricidad’?
Tal y como la electricidad transformó el funcionamiento de las industrias en el siglo pasado, la inteligencia artificial (IA) —la ciencia que programa habilidades cognitivas en máquinas— tiene el poder de cambiar drásticamente la sociedad en los próximos 100 años. La IA está encauzándose para permitir realizar tareas como robots domésticos, taxis-robots y chatbots especializados en salud mental, todo dirigido al bienestar del usuario.
Hay un startup que desarrolla robots con IA que los acercan a
la inteligencia humana. La IA, por cierto, ya se está insinuando en la
vida cotidiana, ella está detrás de los asistentes digitales Siri y
Alexa. Permite al consumidor comprar e investigar online con mayor
precisión y eficiencia, entre otras tareas que la gente da por sentadas.
“La IA es la nueva electricidad”, dijo Andrew Ng, uno de los fundadores de Coursera
y profesor adjunto de Stanford, responsable de la creación del Proyecto
Google de Aprendizaje Mental Profundo. La frase fue pronunciada durante
la conferencia de apertura del congreso AI Frontiers
(Fronteras de la IA), realizado a finales de la semana pasada en el
Valle del Silicio. “Hace aproximadamente 100 años, la electricidad
transformó a todas las grandes industrias. La IA ha avanzado de tal
manera que puede” transformar los principales sectores industriales en
los próximos años. Aunque existe la percepción de que la IA es algo que
se ha desarrollado recientemente, en realidad existe desde hace décadas,
dijo Ng. Sin embargo, sólo ahora está despegando debido a su capacidad
de trabajar con escala de datos y computación.
Ng dijo que la mayor parte del valor creado por la IA hoy en día se
debe al aprendizaje supervisado, en que la entrada de X lleva a Y. Sin
embargo, hubo dos grandes olas de progreso: la primera de ellas recurrió
al aprendizaje profundo para hacer posibles cosas como prever si el
consumidor hará clic en un anuncio online después de que el algoritmo
haya reunido información acerca de ello. La segunda ola vino cuando la
salida de datos dejó de ser un número o una integral dando lugar a cosas
como el reconocimiento de voz, la estructura de una frase en otra
lengua o un audio. Por ejemplo, en los coches autónomos, la entrada de
una imagen puede llevar a una salida de datos con la posición de los
otros coches en la carretera.
El aprendizaje profundo —en el que el ordenador aprende de un
conjunto de datos a realizar funciones, en lugar de realizar tareas
específicas para las que fue programado— fue fundamental para que se
llegase a la paridad humana en el caso del reconocimiento de voz, dijo
Xuedong Huang, líder del equipo de Microsoft con motivo de la conquista histórica de 2016,
cuando su sistema registró un índice de errores del 5,9%, el mismo de
una transcripción realizada por un humano. “Gracias al aprendizaje
profundo, pudimos llegar a la paridad humana después de 20 años”, dijo
en un congreso. Desde entonces, el equipo ha reducido aún más su índice
de errores llegando al 5,1%.
El auge de los asistentes digitales
A partir de 2010, la calidad del reconocimiento de voz en la
industria comenzó a mejorar, lo que llevó a la creación de Siri y de
Alexa. “Ahora, pasa casi desapercibido”, dijo Ng. Pero eso no es todo.
El reconocimiento de voz debería ocupar el lugar de la mecanografía en
la entrada de datos, dijo Ruhi Sarikaya, director de Amazon Alexa. La
clave para una mayor precisión consiste en comprender el contexto. Por
ejemplo, si una persona le pregunta a Alexa qué debe hacer para la cena,
el asistente digital tendrá que evaluar la intención del usuario. ¿Está
pidiendo a Alexa que haga una reserva en un restaurante, quiere que
pida comida o encuentre una receta? Si pide a Alexa que encuentre
“Hunger Games”, ¿quiere que el asistente busque la música, el vídeo o el
audiolibro? Lo que el futuro reserva al asistente digital es algo aún
más avanzado: comprender “el sentido más allá de las palabras”, dijo
Dilek Hakkani-Tur, científico investigador de Google. Por ejemplo, si la
persona usa las palabras “más tarde”, puede que se refiera a un período
entre las 7 y 9 de la noche, en el caso de una cena, o entre las 3 y 4
de la tarde, en el caso de una reunión. El próximo nivel incluirá
también diálogos más complejos y dinámicos, tareas en áreas variadas e
interacciones entre fronteras de dominios, dijo Dilek Hakkani-Tur.
Además, prosiguió Hakkani-Tur, los asistentes digitales deben ser
capaces de hacer cosas como leer y resumir correos electrónicos
fácilmente.
Después del reconocimiento de voz, la “visión de ordenador” o la
capacidad de reconocer imágenes y clasificarlas, fue el salto siguiente,
dijeron los oradores. Con tanta gente cargando imágenes y vídeos, se
volvió engorroso agregar metadatos al contenido para clasificarlo.
Facebook ha desarrollado una IA para comprender y clasificar vídeos en
grandes cantidades llamada Lumos, dijo Manohar Paluri, líder del sector
de investigaciones en la empresa. Facebook utiliza Lumos, por ejemplo,
para recopilar datos de imágenes y vídeos en los que aparecen fuegos
artificiales. La plataforma también puede utilizar la actitud de las
personas para identificar un vídeo: por ejemplo, clasifica como gente
pasando (o matando) el tiempo a aquellos que están en posición relajada
en los sofás.
Es imprescindible determinar el contenido semántico elemental del
vídeo publicado, añadió Rahul Sukthankar, director de la comprensión de
vídeo de Google. Y para ayudar al ordenador a identificar correctamente
el contenido del vídeo —por ejemplo, si son profesionales o aficionados
los que aparecen bailando— su equipo recurre a YouTube en busca de
contenido similar con el que la IA pueda aprender. Sukthankar añade que
una dirección prometedora para futuras investigaciones consistirá en
entrenamientos a través del ordenador usando vídeos. Así, si se muestra a
un robot el vídeo de una persona sirviéndose cereales en un tazón desde
varios ángulos diferentes, debería aprender viendo el vídeo.
En Alibaba, la IA se utiliza para estimular las ventas. Por ejemplo,
quien compra en Taobao, el sitio de comercio electrónico de la empresa,
puede subir la imagen de un producto que le gustaría comprar: por
ejemplo, un bolso de moda usado por un desconocido en la calle. El sitio
mostrará entonces varios bolsos a la venta que se parecen al de la foto
publicada. Alibaba recurre también a la realidad aumentada y virtual
para que las personas vean y compren en tiendas como Costco. En Youku,
sitio de vídeos de la empresa similar a YouTube, Alibaba está
desarrollando una forma de insertar objetos virtuales en 3D en los
vídeos publicados por los usuarios para elevar los ingresos. Esto se
debe al hecho de que muchos sitios de vídeo luchan por ser rentables.
“YouTube todavía tiene pérdidas”, dijo Xiaofeng Ren, científico jefe de
Alibaba.
Rosie y el robot doméstico
Sin embargo, a pesar de todos los avances en el campo de la IA,
todavía no es equiparable al cerebro humano. Vicarious es una startup
cuyo objetivo es llenar esa laguna a través del desarrollo de la
inteligencia de nivel humano en robots. Dileep George, fundador de la
empresa, dijo que ya existen componentes para robots más inteligentes.
“Tenemos motores más baratos, sensores, baterías, plásticos y
procesadores […] entonces ¿por qué todavía no tenemos a Rosie?” Se
refería a la empleada robot que realizaba varias funciones en los
dibujos animados de los años 60, Los Jetsons, cuyas historias
tenían lugar en la era espacial. George compara el nivel actual de la
IA, que él llama “cerebro viejo”, con la habilidad cognitiva de los
ratones. El “cerebro nuevo” es más desarrollado, tal y como vemos en
primates y ballenas.
George dijo que la IA de “cerebro viejo” se siente confundida cuando
hay cambios en datos de entrada de pequeño tamaño. Por ejemplo, un robot
capaz de jugar videojuegos se siente confuso cuando los colores se
vuelven tan solo un 2% más intensos. “La IA actual aún no está lista”,
dijo. Vicarious utiliza el aprendizaje profundo para que el robot quede
más cerca de la capacidad de reconocimiento del ser humano. En la misma
prueba, un robot con IA de Vicarious continuó jugando aunque la
intensidad de los colores había sido alterada. Otra cosa que confunde el
“cerebro viejo” de la IA ocurre cuando se colocan dos objetos juntos.
Las personas logran distinguir dos cosas superpuestas como, por ejemplo,
una taza de café que oscurece en parte un vaso en una foto, pero los
robots lo confunden con un objeto no identificado. Vicarious, que tiene
entre sus inversores a Mark Zuckerberg, consejero delegado de Facebook,
pretende solucionar este tipo de problema.
La inteligencia en el interior de Kuri,
un robot creado para cumplir funciones de compañía y de camarógrafo
para el hogar, es diferente. Kaijen Hsiao, director de tecnología de la
empresa de creación Mayfield Robotics, dijo que hay una cámara detrás
del ojo izquierdo del robot que filma en HD. Kuri tiene sensores de
profundidad que mapean la casa y usan imágenes para perfeccionar la
navegación. Está equipado también con recursos para la detección de
animales domésticos y de personas, de manera que pueda sonreír o
reaccionar en presencia de ellos. Kuri opera también con reconocimiento
espacial, de modo que pueda recordar que ya ha estado en un determinado
lugar antes, aunque la iluminación se vea alterada como, por ejemplo, el
ambiente de la cocina durante el día y la noche. La selección del
momento es otra característica del robot, lo que le permite reconocer
vídeos similares grabados por él —como el del padre que juega con el
bebé en la sala de estar— y borrar otros parecidos.
“Su trabajo es llevar a la casa del usuario un poco de vida. El
proporciona entretenimiento, puede reproducir música, podcasts,
audiolibros. El usuario puede ver lo que pasa en su casa desde cualquier
lugar”, dijo Hsiao. Kuri es el camarógrafo de la familia: él va por la
casa grabando y no deja a nadie fuera. El robot elige los vídeos y
muestra los mejores. Para eso, Kuri utiliza algoritmos de visión y de
aprendizaje profundo. “Lo que él tiene de especial es la personalidad
[…] Es una compañía agradable”, dijo Hsiao. Kuri llegará al mercado en
diciembre por 799 dólares.
La respuesta de las empresas a la IA
Estados Unidos y China lideran el mundo de las inversiones en IA,
según explica James Manyika, presidente y director del Instituto Global
McKinsey. El año pasado, la inversión en IA en América del Norte se
ubicó entre 15.000 y 23.000 millones de dólares, en Asia (principalmente
en China), el total fue de 8.000 millones a 12.000 millones de dólares,
y Europa se situó por detrás con 3.000 millones a 4.000 millones de
dólares. Los gigantes de la tecnología son los principales inversores en
IA, volcando en el sector entre US $ 20.000 millones y US $ 30.000
millones, además de US $ 6.000 millones a US $ 9.000 millones
provenientes de otros sectores, tales como capitalistas de riesgo y
empresas de private equity.
¿Dónde se ha invertido ese dinero? El aprendizaje de máquina se quedó
con el 56% de las inversiones, la visión a través de computadoras se
situó en segundo lugar, con el 28%. El lenguaje natural representó el
7%; los vehículos autónomos, el 6%; y los asistentes virtuales
recibieron el resto de las inversiones. Sin embargo, a pesar del nivel
de inversión, la adopción efectiva de la IA por parte de las empresas
sigue siendo limitada, incluso entre empresas que reconocen las
capacidades de la IA, dijo Manyika. Cerca del 40% de ellas están
analizando el tema, el 40% ya hizo experimentos y apenas el 20% adoptó
de hecho la IA en algunas pocas áreas.
La razón de tal reticencia se explica por el hecho de que el 41% de
las empresas encuestadas no están convencidas de obtener retorno con la
inversión realizada; el 30% dijo que no hay propiamente un estudio de
viabilidad y el resto comentó que no tienen los recursos para lidiar con
la IA. Sin embargo, McKinsey cree que la IA puede más que duplicar el
impacto de otras analíticas y tiene el potencial para mejorar
materialmente el rendimiento de las empresas.
Algunas compañías entienden lo que esto significa. Entre los sectores
que lideran el sector de IA están las empresas de telecomunicaciones y
de tecnología, instituciones financieras y fabricantes de automóviles.
Muchasika dijo que estas empresas pioneras en el sector suelen ser de
mayor tamaño y digitalmente maduras, incorporando la IA a actividades
básicas, dando prioridad al crecimiento y la innovación en detrimento
del ahorro de costes, además de contar con el apoyo de los ejecutivos
que dirigen la empresa. Las empresas que se demoran más en adoptar la IA
son las del área de salud, viajes, servicios profesionales, educación y
construcción. Sin embargo, a medida que la IA se está ampliando, será
sólo cuestión de tiempo que las empresas empiecen a usarla, dicen los
expertos.
http://www.knowledgeatwharton.com.es/article/la-ia-la-nueva-electricidad/?utm_source=kw_newsletter&utm_medium=email&utm_campaign=2017-11-22
No hay comentarios:
Publicar un comentario