traductor

jueves, 23 de febrero de 2017

Del gen egoísta y solitario a la sociedad de genes.

Genómica

Del gen egoísta y solitario a la sociedad de genes.
THE SOCIETY OF GENES
Itai Yanai y Martin Lercher
Harvard University Press, 2016

Hace cuarenta años aparecía El gen egoísta, de Richard Dawkins. Con él arraigó la idea de que la unidad genuina de la evolución no era el individuo, sino el gen, que buscaba siempre su propio interés y tenía en el organismo su medio de pervivencia y reproducción. Esa perspectiva ha dominado la genética evolutiva desde entonces. En The society of genes, los biólogos Itai Yanai y Martin Lercher proponen un cambio: sustituir la metáfora del gen egoísta por otra nueva que ponga el acento en las relaciones entre genes. No somos mera suma de genes aislados; los genes forman una sociedad en la que trabajan juntos, crean rivalidades y establecen alianzas. La sociedad constituye la vía para conformar un cuerpo que los sustente y los propulse hacia la generación siguiente. La lectura del libro de Dawkins cambiaría antes la vida de los autores, uno especializado en ciencias de la computación y otro en física, que se convirtieron al campo de la biología evolutiva. Su aventura personal recuerda episodios similares en la creación de la biología molecular: participaron científicos brillantes que, procediendo de otras disciplinas, se sintieron atraídos por los fenómenos de la vida tras la lectura de ¿Qué es la vida?, de Erwin Schrödinger.
Hace unos 250 años, Adam Smith advirtió que son las interacciones de intereses propios entre individuos lo que hacía eficientes los mercados. De manera similar es la competición y la cooperación entre genes, en lucha por su propia supervivencia a largo plazo, lo que promueve la persistencia de la humanidad. Todos los genomas humanos contienen los mismos genes. Pero las copias individuales de un gen pueden diferir debido a las mutaciones, y existe una feroz pugna entre copias que se debaten por alcanzar la supremacía en las generaciones del futuro. Debido a las nuevas interacciones complejas, su cooperación y competición, entenderemos mejor la función de los genes si los consideramos en una sociedad. Tal es la tesis del libro.
El genoma humano contiene unos 20.000 genes, cada uno de ellos encargado de una función determinada. Los genes se necesitan para construir y poner en marcha el organismo. Pero sería un error pensar que se encuentran en franca armonía: la sociedad de genes es la suma colectiva de todos los alelos de todos los genes que se dan en una población determinada. El genoma no es algo fijo, cambia en el transcurso de la vida. Los genes de la sociedad tejen una compleja red de relaciones. Los aprovechados constituyen una amenaza inevitable contra la sociedad. A lo largo de los últimos 4000 millones de años ha aparecido una diversidad espectacular de formas explotadoras. Resultado de ello es el tamaño exagerado del genoma humano, cargado con muchos genes capaces de copiarse a sí mismos dentro del genoma y sin aportar nada al conjunto. Los virus son los progenitores de todas las formas aprovechadas.
La información genómica que se ha venido acumulando desde hace unos decenios nos ha revelado las líneas maestras de la estructura de la sociedad de genes. Igual que en la industria, unos genes son obreros, otros maestros de taller y otros gestionan la operación como un todo. Descubrimos estajanovistas en la nave de la fábrica, como la hemoglobina, que porta oxígeno a las fraguas de las células, y la polimerasa, que produce copias fidedignas de otros genes; hay mensajeros, como el gen FGFR3, que registra las señales de desarrollo, las transmite y causa pulsos de enfermedades genéticas cuando se interrumpen; está el gen FOXP2, que dirige una fuerza laboral implicada en el lenguaje humano; y SOX9, que, si se interrumpe, permite el desarrollo de una hembra que, de otro modo, hubiera sido macho. Hay grandes ejércitos de aprovechados que se sirven de otros miembros de la sociedad de genes, como los elementos LINE1, que enturbian nuestro genoma con medio millón de copias; y hay sujetos peligrosos, como algunas versiones del gen BRCA1, causante del cáncer de mama, nos recuerda la obra.
Se parte del concepto de sociedad de genes para replantearse el dominio entero de la genética. El cáncer, por tomar un ejemplo familiar, recibe una nueva interpretación, más cabal, si lo asociamos a la patología del genoma: la quiebra de los equilibrios entre genes que impide la división normal de las células. Los tumores se forman porque fracasan varios miembros de la sociedad de genes. El cáncer comienza cuando un gen X adquiere una mutación que enloquece a las células y las induce a dividirse con una rapidez mayor que la normal y a desarrollarse fuera de norma. Por suerte, nuestro cuerpo ha desarrollado salvaguardas que nos protegen del cáncer tras sufrir una mutación procancerosa. Se conocían hasta ocho formas que tenían las mutaciones de superar las defensas del cuerpo. Ahora sabemos que los genes portadores de esas mutaciones se ayudan mutuamente: las células con la primera mutación procancerosa se dividen más rápidamente, los descendientes se hacen más abundantes para que se produzca una nueva mutación, etcétera, [véase «El genoma del cáncer», por Francis S. Collins y Anna D. Barker; Investigación y Ciencia, mayo de 2007.]
Fuera del ámbito del cáncer, se repara en la paradoja de Clinton, en referencia al expresidente de EE.UU., quien fue un gran defensor del Proyecto Genoma Humano. La determinación de la secuencia nucleotídica completa del genoma humano, que arrancó en 1990, se desarrolló durante 13 años y comportó un sinnúmero de innovaciones técnicas. En una de las Conferencias del Milenio celebradas en 1999, Eric Lander, líder del proyecto, expuso ante la audiencia que dos personas cualesquiera de este planeta compartían un 99,9 por ciento de su genoma. Clinton se sintió obligado a preguntar si todas las guerras, todas las diferencias culturales, todas nuestras rivalidades destructivas se debían a ese escuálido 0,1 por ciento de diferencia. Lander respondió que nuestro genoma presenta una secuencia de 6000 millones de letras: aunque ese 0,1 pudiera parecer mínimo, constituye nada menos que una diferencia de seis millones de nucleótidos. Quizás eso pudiera espolear la rivalidad.
El libro contiene múltiples ejemplos más que revelan cómo los genes cooperan y se oponen entre sí, con un estilo muy ágil y una imaginación que deleitan al enseñar. Como, por ejemplo, cuando los autores comparan el cerebro humano con la compañía Colgate para resaltar que el primero es más poderoso que el de otras especies en virtud de la naturaleza peculiar de la interconexión de los genes, no de la cuantía de los mismos. ¿Por qué Colgate? Se cuenta que, hace años, la compañía estaba a punto de entrar en bancarrota, pero que para salvarla bastaría con ensanchar el tubo de descarga de la pasta. La composición del dentífrico no cambió, pero la gente empezó a usarlo más. Es lo mismo que acontece en el cerebro humano: los genes son los mismos, pero la forma en que se emplean son diferentes. Para terminar con una cuestión que podría parecer inquietante: el cromosoma Y, que distingue a los varones de las mujeres, podría pronto desaparecer, pues se está convirtiendo en inútil, [véase «El cromosoma de la masculinidad», por Karin Jegalian y Bruce T. Lahn; Investigación y Ciencia, abril de 2001].

Puede conseguir el artículo en:

El cuadrante de Steve o la teoría de la simplicidad

Cuando en 1997 Steve Jobs volvió a dirigir Apple después de haber sido despedido en 1985, una de las primeras decisiones que tomó fue la de revisar la cartera de productos. El anterior CEO, Gil Amelio, había estado multiplicando las versiones de cada modelo hasta generar un exceso que multiplicaba los esfuerzos de marketing y confundía sobre la naturaleza de Apple. Recordemos que una de las cosas que había conseguido Jobs fue la de posicionar Apple como una empresa en cierto modo a contracorriente, dispuesta a romper con el statu quo, pero que con esa estrategia de multiplicar la cartera de productos se comportaba como cualquier empresa.
La estrategia tradicional era que los mercados están hipersegmentados y que cada segmento (o microsegmento) requería de un producto adecuado para él. Para Jobs hay productos, como los ordenadores, que no necesitan esa hipersegmentación, porqueson los propios clientes los que se segmentan con los distintos usos que dan al producto. Por eso, cuando revisó la cartera de productos decidió reducirla al máximo, y para ello se presentó ante el consejo de administración con un cuadrante parecido a éste.
Cuadrante_Steve_Sintetia1
Con este cuadrante Jobs quería reducir al máximo el número de productos sobre los que los ingenieros y diseñadores debían trabajar, mejorando así el foco y disminuyendo costes de producción y marketing. De este modo la cartera de productos prácticamente se redujo a lo siguiente.
Cuadrante_Steve_2_Sintetia
La importancia de esta decisión es mayor de lo que pueda parecer porque:
1.-Reduce costes de producción y marketing, como he dicho.
2.-Centra el mensaje de marca y evita la dispersión y la confusión pudendo crear una identidad más reconocible y diferenciada.
3.-Mejora la gestión de los diseñadores e ingenieroscentrando sus esfuerzos en menos productos y mejor definidos.
4.-Focaliza y direcciona toda la empresa en unos objetivos más claros.
La utilización de esta matriz con este enfoque (que llamaré Matriz de Steve) suponecentrar estratégicamente la empresa quitando lo que puede ser superfluo y mejorando nuestra capacidad de conocimiento de la misma.
Jony_IVe_Sintetia
Supongamos que un hotel quiere establecer una estrategia clara en su gestión y su marketing. No es cierto que las empresas puedan y deban enfocarse a todos los mercados posibles, porque así lo único que consiguen es descentrarse y perder absolutamente el pulso del mercado, por lo que en el caso del hotel sería interesante que, por ejemplo, se centrara en dos segmentos y en dos características de su producto que considerara como claves. Más o menos así.
Cuadrante_Steve_Servicios_Sintetia
Y a partir de aquí crear productos para cada segmento y según esas características. También puede, por supuesto, servir para desarrollar campañas de marketing creando mensajes, campañas o utilizando canales específicos para cada segmento y característica.
¿Pero por qué es interesante el Cuadrante de Steve? Esta herramienta nos ayuda a quitar lo superfluo de nuestros productos, campañas de marketing o estrategia empresarial centrándonos en lo relevante. Y esto en absoluto supone una debilidad o una pérdida de información u oportunidades. Como dice el vicepresidente senior de diseño de Apple, Jony Ive, “tienes que entender en profundidad la esencia de un producto para poder deshacerte de todos los elementos que no son esenciales.”
Jobs siempre trabajó con la máxima de que “menos es más”, y recordemos que ha sido capaz de transformar el mercado del Smartphone con un solo modelo de teléfono. Por lo tanto, una manera de trabajar con el Cuadrante de Steve sería:
1.-Define las categorías con las que vas a trabajar en el cuadrante (segmentos de clientes, tipos de producto, valores de la empresa, canales de distribución…)
2.-Elige dos y sólo dos elementos de cada categoría.
3.-Haz los cruces de los elementos de cada categoría.
4.-Reflexiona sobre el resultado de los cruces.
Con esto vas a conseguir un mayor foco y un mayor conocimiento de tu empresa. ¿Por qué eliges unos segmentos y no otros? ¿Por qué crees que son más relevantes unos valores y no otros? ¿Por qué es interesante que trabaje en estos mensajes de marketing y no en otros? Como he dicho, no es cierto que nos debamos focalizar a todo el mercado. Es preferible optimizar recursos, generalmente escasos, donde podemos ser más relevantes, y el Cuadrante de Steve nos ayuda a establecer, definir y fortalecer ese foco.
Mantener una constante dispersión en el mensaje, en los productos y en el posicionamiento confunde al mercado, nos convierte en empresas vulgares y nos obliga a dedicar demasiados recursos a la producción, al marketing y al posicionamiento. El Cuadrante de Steve puede ser una buena herramienta para la toma de decisiones estratégicas y un mejor conocimiento interno de nuestras organizaciones.

Con la colaboración de Sintetia
Autor: Juan Sobejano es Fundador de Innodriven. Graduado en turismo y especializado en marketing y dirección hotelera. Experto en innovación, estrategia, modelos de negocio y socialmedia.
Imagen: REUTERS/Denis Sinyakov

sábado, 11 de febrero de 2017

Francis Mojica: “Algunas bacterias quieren que los virus las infecten”

Francis Mojica: “Algunas bacterias quieren que los virus las infecten”

  • El microbiólogo de la Universidad de Alicante descubrió el sistema en el que se basa la técnica de edición genética CRISPR y es candidato al premio Vanguardia de la Ciencia
  • http://www.lavanguardia.com/ciencia/quien/20170211/414247346137/premio-vanguardia-ciencia-entrevista-francis-mojica.html

El microbiólogo Francis Mojica descubrió hace 25 años que unos microbios de una laguna de Santa Pola, en Alicante, tenían unas intrigantes secuencias genéticas repetidas en su ADN. Las llamó CRISPR, por las iniciales en inglés de “repeticiones palindrómicas cortas agrupadas y regularmente interespaciadas”. El descubrimiento atrajo poco interés dentro de la comunidad científica y ninguno fuera de ella. Pero Mojica decidió estudiar las CRISPR a fondo para tratar de comprender qué función tenían en la historia de la vida. Tras una década de investigaciones, descubrió en el 2003 que eran un mecanismo de defensa de las bacterias y las arqueas frente a los virus.
A partir de sus trabajos, otros investigadores desarrollaron la técnica de CRISPR-Cas9, que se ha convertido en una herramienta de edición de genes utilizada en laboratorios de todo el mundo. Por el impacto que está teniendo CRISPR-Cas9, Mojica recibió el 31 de enero el premio Fronteras del Conocimiento de la Fundación BBVA en la categoría de biomedicina junto a la estadounidense Jennifer Doudna y la francesa Emmanuelle Charpentier. Mientras miles de investigadores trabajan ahora con esta técnica, Mojica sigue explorando en su laboratorio de la Universidad de Alicante para tratar de comprender el asombroso mundo de las CRISPR.
En uno de sus últimos trabajos, en el que ha tenido una contribución destacada el primer autor Cristóbal Almendros, ha descubierto que muchas bacterias rechazan las proteínas Cas que las protegerían de los virus. Lo hacen para dejar la puerta abierta a los virus, incorporar su material genético, evolucionar rápido y adaptarse a entornos cambiantes. Mojica atiende a La Vanguardia por Skype.
¿Qué son las CRISPR?
Si el genoma es un libro de instrucciones, las CRISPR son palabras que aparecen repetidas dentro del libro. Sólo se encuentran en el genoma de los procariotas, es decir, las bacterias y las arqueas, que son organismos unicelulares sin núcleo. Las CRISPR no aparecen seguidas en el libro sino espaciadas a intervalos regulares. Son algo realmente muy peculiar.
¿De dónde vienen?
Esto es lo más interesante. Las secuencias que se localizan entre las repeticiones proceden de elementos genéticos invasores. Son una memoria de las infecciones que ha tenido la bacteria en el pasado. Así, cuando un virus entra en una bacteria, esta coge un fragmento del material genético del virus y lo guarda en una región CRISPR. De este modo, queda inmunizada frente al virus en el futuro.
En su último trabajo habla de proteínas Cas. ¿Qué son?
Son las proteínas que, a partir de la información guardada en las regiones CRISPR, después reconocen al virus y lo destruyen.
¿Todas las bacterias presentan este sistema inmunitario?
Lo que hemos descubierto es precisamente que las secuencias entre repeticiones CRISPR de algunas bacterias no se corresponden con el genoma de ningún virus. Lo cual al principio nos desconcertó. Si estas regiones no las defendían de virus, ¿por qué las tenían?
¿Alguna hipótesis?
Primero pensamos que eran regiones no funcionales. Pero no tenía sentido que, después de millones de años de evolución, las bacterias las conservaran. Si no sirvieran de nada, se hubieran desprendido de ellas, porque mantenerlas tiene un coste para las bacterias.
¿Otras hipótesis?
Si no las defendían de virus, tal vez las defendían de otra cosa.
¿De qué?
¡De las propias proteínas Cas! Las bacterias de la especie E. coli, con las que hicimos los experimentos, tienen un mecanismo de defensa contra su propio mecanismo de defensa. Fue toda una sorpresa. Piense que el 40% de las bacterias del océano son destruidas por virus cada día. ¿Por qué iban a renunciar a su propio mecanismo de defensa?
¿Tiene alguna lógica?
Desde luego. A algunas bacterias les sale más a cuenta dejarse infectar por virus y arriesgarse a morir que mantener a los virus a raya.
¿Por qué?
Porque, al incorporar el material genético de los virus en su propio genoma, las bacterias pueden evolucionar con rapidez. Hay situaciones en que esto puede ser una ventaja. Por ejemplo, para bacterias que evolucionan para volverse resistentes a los antibióticos.
Sus primeras investigaciones sobre CRISPR abrieron la vía a la técnica CRISPR-Cas9. ¿Espera que este nuevo trabajo tenga también utilidad práctica?
No lo hago con el objetivo de desarrollar ninguna técnica sino para comprender cómo funciona la vida. Pero puede que sí tenga utilidad. Los sistemas CRISPR-Cas son muy diversos en la naturaleza. Son una caja de herramientas variada que han desarrollado los procariotas. La técnica CRISPR-Cas9 utiliza sólo una de estas herramientas. Está muy bien, pero lo hace todo con un único tipo de tijeras. Si aprendemos a hacer funcionar otros sistemas CRISPR-Cas, dispondremos de una caja de herramientas mejor en los laboratorios.
Biografía Exprés
Francisco Martínez Mojica (Elx, 1963) se licenció en Biología por la Universidad de Valencia. Empezó a investigar los sistemas CRISPR en 1992 mientras realizaba el doctorado. Amplió su formación como investigador posdoctoral en las universidades de Utah (EE.UU., 1993) y de Oxford (Reino Unido, 1995-96). Regresó a España en 1997 al obtenir una plaza de professor titular en la Universidad de Alicante. Ha sido reconocido internacionalment a raíz del desarrollo, en el 2012, de la técnica CRISPR-Cas9 de edición genètica en células de mamífero.
En este enlace puedes votar cuál es para ti la mejor ciencia de 2016.

lunes, 6 de febrero de 2017

CUANDO LOS ROBOTS VAN DE FAROL X.Ferras

CUANDO LOS ROBOTS VAN DE FAROL

Tras conquistar el podio del ajedrez mundial en 1997, y del go (juego oriental de estrategia) en marzo de 2016, esta semana la inteligencia artificial  (AI, Artificial Intelligence) ha superado otro hito en su capacidad de desarrollo de pensamiento estratégico en un juego de competición: en el Rivers Casino de Pittsuburg, el sistema Libratus de Carnegie Mellon derrotó a los cuatro mejores jugadores de póker del mundo. No es un tema menor. Vencer en póker significa que las máquinas pueden desarrollar algún tipo de intuición estratégica: pueden hacer hipótesis válidas sobre las combinaciones de cartas que tienen sus oponentes, y que no están a la vista. Los algoritmos son capaces de detectar cuándo el comportamiento de un jugador muestra expectativas superiores a sus posibilidades reales de ganar (cuándo va de farol), aunque las cartas de los competidores permanecen escondidas, y objetivamente es imposible determinar si una jugada es buena o no. La épica contienda de póker contra un supercomputador en Pittsburg (que duró 20 días) ha mostrado que los algoritmos saben desplegar estrategias acertadas en entornos de información imperfecta. Si en ajedrez o go (los últimos juegos de estrategia conquistados por las máquinas) toda la información está en el tablero de juego, en póker, como en la vida real, se juega con información limitada y contra estrategias rivales que simulan capacidades falsas (“faroles”). A la vez, el propio algoritmo ha de ser capaz desplegar movimientos cuyo objetivo sea engañar o desorientar al adversario. La máquina simulaba sobreexpectativas. Los robots también se marcan faroles.

Libratus, el ordenador vencedor, disponía de sistemas de redes neuronales profundas (deep neural networks), y mecanismos de aprendizaje de refuerzo (reinforcement learning), un sistema que le permitía aprender de sí mismo mediante prueba y error. Si AlphaGo (el sistema de Google que venció al campeón mundial de go) analizó 30 millones de partidas de go para aprender el juego, Libratus aprendió póker de la nada, interactuando consigo mismo, para acabar batiendo la mejor intuición humana. Libratus representa una nueva línea de sistemas de uso genérico que pueden ser aplicadas a cualquier campo de la economía y la sociedad. Y, sin duda, van a ser aplicadas masivamente en los próximos años.

La inteligencia artificial (AI) comprende un amplio conjunto de sistemas de información capaces de interactuar con el entorno, comprender y procesar datos, actuar en consecuencia para lograr determinados objetivos, y aprender de sí mismos. Integra múltiples tecnologías que permiten a los computadores percibir el mundo (visión por computador, procesado de audio, sensores), analizar y entender la información adquirida (incluso lenguaje natural), tomar decisiones, evaluar los resultados, y corregir sus mecanismos  de decisión para aprender de su experiencia. Este campo de la tecnología va a revolucionar la práctica totalidad de sectores económicos en los próximos años. Lamentablemente, estamos abstraídos de este debate, cerrados en nuestra cotidianeidad y atónitos ante la especie de apocalipsis político que estamos viviendo tras las primeras semanas de Trump en la Casa Blanca. Pero una revolución sin precedentes se está gestando en la interacción entre  la lógica matemática, la tecnología y la estrategia.
http://xavierferras.blogspot.com.es/2017/02/cuando-los-robots-van-de-farol.html

La consultora Gartner nos dice que tecnologías “core” de la inteligencia artificial se encuentran actualmente en el máximo de su ciclo de sobreexpectativas. Es decir, que quizá su impacto real en el futuro sea inferior al que actualmente se considera. Pero no lo creo. Personalmente, pienso que la AI va a ser el gran catalizador de la nueva revolución industrial (industria 4.0) y del siguiente paradigma web (que no va a ser un paradigma de búsqueda de datos, sino de interacción mediante lenguaje natural: vamos a conversar con nuestros PCs). De hecho, no directamente con nuestros PCs, sino con asistentes electrónicos conectados vía cloud a un centro de supercomputación con terminal doméstico. Y es que, si bien hace ya muchos años que la AI se está gestando en universidades y centros de investigación públicos, ahora ya finalmente ha saltado al campo privado y se ha situado en el centro de las tecnologías estratégicas que precisarán los grandes líderes empresariales emergentes (e indiscutibles) de la economía del siglo XXI. Esta semana hemos sabido que Apple se ha unido al gran consorcio formado por Facebook, Amazon, Google, IBM y Microsoft para unir esfuerzos en el desarrollo de la inteligencia artificial. Estas compañías son hoy las más ricas del mundo por capitalización bursátil. Amasan montañas de dinero en cash¿Se imaginan la velocidad de crucero que tomará la inteligencia artificial en los próximos años con estas superpotencias tecnológicas impulsando su desarrollo?

De los datos a la inteligencia artificial

Un artículo sobre los avances de Facebook en el reconocimiento de imágenes, que le permite ya establecer sistemas de búsqueda en función del contenido que aparece en ellas, me lleva a reflexionar sobre la importancia de la disponibilidad de datos de cara al desarrollo de algoritmos de machine learning e inteligencia artificial: a nadie se le escapa que la capacidad de Facebook para desarrollar estos sistemas de procesamiento y reconocimiento de patrones en imágenes tiene que ver ni más ni menos que con sus posibilidades de acceder a decenas de millones de imágenes etiquetadas y comentadas de sus usuarios en la propia red de Facebook y en la de Instagram.
A la hora de pensar en las posibilidades de la inteligencia artificial para nuestro negocio, tenemos que comenzar por las posibilidades de que disponemos para obtener datos que analizar. Datos que, además, no son todos creados iguales: no se trata solo de que el archivo en papel no vaya a servirnos de nada, sino que además, necesitamos formatos y herramientas suficientemente abiertos como para permitir su procesamiento, algo que no siempre es sencillo cuando hablamos de compañías que, durante mucho tiempo, procesaron sus datos en sistemas legacy de difícil integración.
El hecho de provenir de una etapa en la que muchas industrias se han preocupado de ponerse al día en temas relacionados con el llamado big data facilita en cierta medida esa tarea: cuando ya tienes data scientists en plantilla, lo mínimo que cabe esperar es que hayan llevado a cabo la limpieza y catalogación de las fuentes de datos con las que pretenden contar en sus analíticas y visualizaciones. Pero tras el big data, llega el siguiente paso: la inteligencia artificial. De hecho, los progresos en inteligencia artificial están llevando a los data scientists a darse cuenta de que necesitan evolucionar hacia esa disciplina, o ser considerados profesionales obsoletos.
Los datos son la auténtica gasolina que mueve la inteligencia artificial. La disponibilidad de datos nos permite desarrollar los mejores algoritmos, y sobre todo, mejorarlos a lo largo del tiempo para que vayan produciendo mejores resultados y se adapten a condiciones cambiantes. La disponibilidad de cada vez más datos en conducción autónoma a medida que sus flotas hacen más y más kilómetros es lo que permite a Tesla reducir el número de disengagements, episodios en los que el conductor se ve obligado a tomar el control, hasta los niveles actuales: tan solo entre octubre y noviembre del pasado 2016, cuatro vehículos autónomos de la compañía recorrieron 885 km en carreteras californianas, y experimentaron 182 de esos momentos, en lo que representa un punto de partida a partir del cual seguir mejorando con la experiencia acumulada. De hecho, Waymo, que cuenta con los datos acumulados por todos los experimentos en conducción autónoma de Google, consiguió a lo largo del año 2016 hacer descender el número de esos disengagements desde los 0.8 por cada mil millas, hasta los 0.2, en lo que supone una progresión impresionante alimentada, de nuevo, por la disponibilidad de datos que procesar.
El verdadero error en inteligencia artificial es pretender juzgar un algoritmo por sus resultados en el momento en que lo obtenemos, sin tener en cuenta los progresos que puede alcanzar a medida que dispone de más y mejores datos. Escribir una crítica sobre el Echo de Amazon diciendo que es poco menos que un despertador con radio un poco ilustrado es una actitud que olvida lo fundamental: que con ocho millones de dispositivos en el mercado, las posibilidades que Amazon tiene de ir mejorando la inteligencia de Echo son prácticamente ilimitadas, y que eso significa que cada vez nos entenderá mejor, que irá reduciendo progresivamente sus errores y que se convertirá, sin duda, en un aparato que terminaremos planteándonos cómo podíamos vivir sin él.
¿En qué deporte pueden plantearse primero la llegada de árbitros basados en inteligencia artificial? Por supuesto, en el fútbol americano, el ejemplo clásico de deporte en el que todo está cuantificado, analizado y procesado hasta el límite. ¿Qué compañías de seguros serán capaces primero de acceder a los ahorros y las mejoras de la peritación basada en inteligencia artificial? Aquellas que dispongan de grandes cantidades de datos correctamente almacenados y estructurados para poder procesarlos y entrenar con ellos a la máquina. ¿Qué instituciones académicas serán las primeras en extraer partido de la inteligencia artificial en el proceso educativo? Las que dispongan de archivos completos, correctamente estructurados y preparados para su tratamiento. Y puedo asegurar que eso, que parece tan básico, no lo tienen todas las instituciones que conozco.
Entender la evolución de los datos al machine learning y a la inteligencia artificial es, para cualquier directivo, cada vez más importante, y para una compañía, cada vez más estratégico. Es así como se decidirá qué compañías terminan a qué lado del nuevo digital divide.


This post is also available in English in my Medium page, “From data to artificial intelligence
 https://www.enriquedans.com/2017/02/de-los-datos-a-la-inteligencia-artificial.html