El gigante tecnológico ha anunciado
una alianza con OpenAI para intentar desarrollar una inteligencia
artificial capaz de resolver problemas complejos de cualquier tipo, a lo
que se denomina ‘inteligencia artificial general’ o ‘fuerte’.
Conseguir una inteligencia artificial que supere a la humana tendría un fuerte impacto en campos tan relevantes como la medicina, el trabajo o la educación. Los gigantes tecnológicos, que son conscientes de ello, tratan de fichar a los mejores expertos y apostar por empresas incipientes del sector para lograr los mayores avances. Es el caso de Microsoft, que ha invertido 1.000 millones de dólares en la organización sin ánimo de lucro OpenAI para mejorar las capacidades de la plataforma en la nube Azure e intentar desarrollar un cerebro de inteligencia artificial —o una inteligencia artificial fuerte o general—.
La digitalización y el
desarrollo de tecnologías avanzadas marcan desde hace tiempo la agenda
de las grandes multinacionales bajo el paraguas que se ha denominado la
Revolución 4.0. Una coyuntura en la que también tiene un rol cada vez
más importante la llegada de pequeñas compañías emergentes, capaces de
revolucionar el mercado mundial en poco tiempo con sus propuestas
disruptivas. Estas son las que mayor financiación han obtenido en 2019.
“Una inteligencia artificial fuerte es aquella que no solo resuelve
una cuestión concreta, sino que es capaz de solucionar muchas otras
tareas de un modo abierto y simultáneo. Y en muchas ocasiones es superior a la propia capacidad humana”, explica Juan Pablo Peñarrubia, presidente del Consejo General de Colegios Profesionales de Ingeniería Informática de España.
Durante la última década, las aplicaciones del ‘deep learning’ junto
al aumento de la potencia de computación han propiciado continuos
avances en áreas como el procesamiento de la visión, el habla, el
lenguaje, la traducción, la robótica e incluso los videojuegos. En la
actualidad los sistemas de inteligencia artificial sirven para
solucionar problemas en un dominio específico, es a lo que se denomina
inteligencia artificial estrecha o ‘narrow AI’. Frente a esta, una
inteligencia artificial fuerte o general (‘general AI’) podría ser aplicada a problemas más complejos
y de cualquier tipo: “Haciendo una analogía humana sería como poder
usar un Einstein, pero no solo para la física sino para cualquier
ámbito”.
El objetivo de Microsoft y OpenAI,
una organización de investigación fundada por Elon Musk y el
emprendedor Sam Altman, es que la inteligencia artificial general trabaje con las personas para ayudar a resolver grandes retos,
como el cambio climático, una mejor atención sanitaria y una educación
más personalizada. “Las posibilidades de la inteligencia artificial son
inimaginables. Facilitará grandes avances en áreas como la sanidad, por
ejemplo en la lucha contra el cáncer, en la agricultura, la educación,
el transporte o en la lucha contra el cambio climático, para crear un
mundo más sostenible y accesible”, apuntan fuentes de Microsoft.
Sam Altman, CEO de OpenAI y Satya Nadella, CEO de Microsoft.
Microsoft ya ha puesto en marcha múltiples iniciativas, por ejemplo en el ámbito de la sanidad. El proyecto InnerEye evalúa imágenes 3D pixel a pixel para proporcionar al radiólogo información precisa
de la evolución de un tumor desde la última prueba diagnóstica, lo que
permite tomar decisiones mejor informadas sobre el tratamiento que debe
seguir un paciente. Investigadores de Microsoft trabajan también junto a
biólogos y oncólogos en el proyecto Hanover
para descifrar el funcionamiento de las células cancerígenas. A través
del análisis de datos masivos relacionados con el cáncer, los sistemas
de inteligencia artificial pueden extraer conclusiones y proponer tratamientos personalizados para los pacientes, algo que a un médico especialista le llevaría meses e incluso años de investigación.
Impacto en la sociedad
Pero la inteligencia artificial no solo impactará en este sector. “Cada empresa, cada proceso, cada producto y la forma de trabajar de cada empleado serán redefinidos en los próximos años
mediante el uso de la inteligencia artificial”, sostienen desde
Microsoft. La adopción de esta tecnología presenta desafíos importantes:
“Las personas y las empresas no van a utilizar tecnología en la que no
confíen. Las reticencias que puedan tener hacia la inteligencia
artificial irán desapareciendo a medida que la vean no como un sustituto
de la inteligencia humana, sino como una herramienta a través de la cual potenciar la capacidad de las personas”.
Para intentar garantizar que la inteligencia artificial tenga un
impacto positivo en las personas y la sociedad, Microsoft ha creado un
comité de ética.
Gonzalo Rodríguez Rodríguez es
el responsable global de Customer Solutions de BBVA, la unidad de
negocio encargada de construir el futuro de los servicios financieros
minoristas. En esta entrevista, Gonzalo explica cómo ve el futuro de la
banca y en qué punto se encuentra BBVA en la actualidad.
Antes que conseguir una inteligencia artificial general, Microsoft
asegura que su prioridad es garantizar que la tarea se aborda siguiendo
los principios de confianza, seguridad, privacidad, transparencia, ética
e inclusión. Pero, ¿cómo de lejos se está de conseguir una inteligencia
artificial que iguale o exceda la inteligencia humana? Peñarrubia
sostiene que la consecución no es inminente, pero destaca los avances producidos en las últimas décadas:
“Hace 100 años estábamos mucho más lejos, solo era un ejercicio de
ficción. Pero desde la eclosión y madurez de la ingeniería informática
es un ejercicio tecnológico real y en progresión”.
El avance hacia la posible llegada de la inteligencia artificial general fue uno de los temas abordados durante la reciente presentación de la Factoría de IA de BBVA. Los expertos allí presentes coincidieron en que con el avance del ‘deep learning’, se podrá abrir la posibilidad de crear sistemas capaces de razonar,
escribir sus propios programas de inteligencia artificial o incluso
enseñar a aprender a otras máquinas. Para ello, según explicó Darío Gil,
director de IBM Research, aún queda un largo camino y será necesario
unir la lógica con la que ya cuentan determinados sistemas inteligentes
“con el razonamiento y que las máquinas sean capaces de ir más allá de
las reglas”.
1.Cómo el consumo de carne cambió a los primeros humanos
RedacciónBBC Mundo
Comer carne cruda y
utilizar herramientas de piedra podrían ser las razones de que los
primeros homínidos tuvieran mandíbulas más pequeñas que las de sus
antecesores más primitivos.
Así lo señala una investigación de la
Universidad de Harvard conocida este jueves, que sugiere que el consumo
de carne y el desarrollo de herramientas, y no la capacidad de cocinar,
fueron las razones que desencadenaron que los primeros humanos
desarrollaran mandíbulas más pequeñas y por ende un significativo cambio en su rostro.
Esto habría permitido, además, el mejoramiento de la capacidad de hablar e incluso en el tamaño del cerebro.
El
estudio, liderado por los profesores Daniel Lieberman y Katherine Zink,
también sugiere que la práctica de cocinar los alimentos es un hábito
que llegó mucho tiempo después.
Homo erectus
Para el tiempo de la aparición de la especie Homo erectus, hace dos millones de años, los homínidos tenían un cerebro más grande y cuerpos que requerían de un consumo mayor de energía.
Pero
paradójicamente, de acuerdo a los hallazgos en Harvard, tenían dientes
pequeños y una mandíbula débil para masticar los alimentos.
Y, hasta hace poco, se pensaba que una de las razones de esos cambios en la mandíbula y los dientes del Homo erectus
con respecto a sus antecesores se debía al hecho de la introducción del
hábito de cocinar dentro de las sociedades primitivas. Pero eso solo ocurrió hace unos 500 mil años.
Esto sugiere que la cocción de los alimentos no influyó en la evolución hacia una mandíbula más pequeña.
"Si pasaras un tiempo con los chimpancés te darías cuenta que ellos pasan la mitad del día masticando", dijo el profesor Lieberman.
"Pero
en algún punto de la evolución humana se produjo un cambio, comenzamos a
comer menos. Y solo fue posible por dos factores: alimentos con mayor
contenido de energía, pero también que eran más difíciles de digerir",
añadió.
Para llegar a sus conclusiones, los científicos
evaluaron el desempeño de masticar alimentando a personas adultas con
pedazos de carne y con la clase de vegetales que nuestros primeros
ancestros consumieron antes de convertirse en carnívoros.
Se midió el esfuerzo muscular que se requería para masticar ambos alimentos y qué tanto era masticada antes de ser tragada.
Los
hallazgos sugieren que una dieta con carne y usando herramientas de
piedra para procesar la comida –cortando la carne y triturando los
vegetales– el Homo erectus hubiera necesitado masticar entre un 17% y un 26% menos que sus antecesores.
En
su artículo, Lieberman y Zink argumentan que: "Siempre dedujimos que el
consumo de la carne estuvo conectado con el proceso mecánico que hizo
posible cortar la carne en pedazos".
"La carne requiere menor esfuerzo para ser masticada que otro tipo de plantas y semillas
de las que se alimentaban los primeros humanos, pero su incapacidad de
los molares para que masticar la carne cruda podría ser una de las
razones por las que no se consumía hasta que no se inventaron las
primeras herramientas de piedra, hace 3 millones de años", concluye el
estudio.
2.El cerebro humano creció y se desarrolló gracias a estos genes: NOTCH2NL
La expansión cerebral resultaba evidente al observar las diferentes
cavidades craneales en los fósiles de nuestros antepasados, pero
faltaban por descubrir aquellos cambios genéticos que nos hicieron
humanos
Aparición de los genes NOTCH2NL
Diagrama que muestra como aparecieron
los genes NOTCH2NL a través de la duplicación en un ancestro común a
los humanos, chimpancés y gorilas, pero sólo se convirtieron en genes
funcionales en el linaje humano.
Hace unos 3-4 millones de años aparecieron unos genes en nuestros
antepasados humanos y, a partir de ahí, tal y como demuestran los
fósiles, se produjo un aumento extraordinario en el tamaño cerebral de
nuestros ancestros. Esta evolución hacia unos cerebros más grandes fue
de gran importancia para nuestra especie por la habilidad que nos dio
para pensar, para solucionar problemas y para desarrollar la cultura. La
expansión cerebral resultaba evidente al observar las diferentes
cavidades craneales en los fósiles de nuestros antepasados, pero
faltaban por descubrir aquellos cambios genéticos que nos hicieron
humanos. Dos estudios, publicados ayer en Cell, anuncian el descubrimiento de estos genes, denominados NOTCH2NL y que son específicamente humanos: todo parece indicar que fueron la fuerza impulsora en la evolución hacia cerebros más grandes.
"Nuestros cerebros se volvieron tres veces más grandes de lo que eran
gracias a la expansión de ciertas áreas funcionales de la corteza
cerebral y ese sustrato fundamental nos debió de hacer humanos. No me
puedo imaginar otra cuestión científica más emocionante que descubrir y
decodificar los misteriosos cambios genéticos que nos hicieron lo que
somos", dice David Haussler, de la Universidad de California en Santa
Cruz y coautor de uno de los estudios. El estudio firmado por Haussler
ha conllevado más de cinco años de trabajo: para caracterizar los genes,
para conocer su función en el desarrollo neurológico y para conocer sus
orígenes evolutivos. Pertenecen a una antigua familia de genes conocida como los genes Notch,
primeramente descubiertos en la mosca de la fruta y que reciben ese
nombre por un defecto genético que consiste en la aparición de unas
muescas en los bordes de las alas (notched wings) de la mosca de la fruta Drosophila melanogaster. "Es una familia de genes que se remonta a cientos de millones de años atrás en la historia evolutiva y es conocida por su importante función en el desarrollo embrionario.
Descubrir que los humanos tienen un nuevo miembro de esta familia que
está implicado en el desarrollo cerebral es algo sumamente emocionante",
comenta Haussler.
Los científicos han detectado los genes NOTCH2NL en células humanas,
pero no en aquellas de los macacos, tampoco en el ADN de los
orangutanes y sólo de forma truncada e inactiva en nuestros parientes
más cercanos, los gorilas y los chimpancés. ¿Qué significa todo esto?
Por un proceso denominado conversión génica se produjo una reparación de
la versión no funcional de NOTCH2NL y esta reparación sólo ocurrió en los humanos hace unos 3-4 millones de años, más o menos en la época en la que, según el registro fósil, el cerebro humano se comenzó a expandir. Una vez reparado, pero antes de que divergiéramos de nuestro ancestro en común con los neandertales,
NOTCH2NL fue duplicado dos veces más (emergió originalmente como una
duplicación parcial de NOTCH2, un gen esencial del desarrollo
neurológico). Queda manifiesto, por tanto, que los genes NOTCH2NL,
además de otros detectados por el equipo de Pierre Vanderhaeghen de la
Universidad Libre de Bruselas, son específicamente humanos y activos durante el desarrollo de la corteza cerebral.
Por último, en los humanos modernos estos genes están relacionados
con defectos genéticos asociados a trastornos neurológicos: grandes
segmentos de ADN son duplicados, en el caso de la macrocefalia y la esquizofrenia, o eliminados, en el caso de la microcefalia y el autismo.
"Puede que hayamos conseguido unos cerebros más grandes en parte a
través de la duplicación de estos genes, pero a costa de una mayor
inestabilidad en la región del cromosoma 1, lo que nos hace susceptibles
al síndrome de la duplicación-eliminación", concluye Haussler.
-
-https://www.nationalgeographic.com.es/ciencia/actualidad/cerebro-humano-crecio-y-se-desarrollo-gracias-a-estos-genes-notch2nl_12775/5
-
"Creemos que aunque el consumo de carne fue importante, el crecimiento
del cerebro hubiera sido menos probable sin la energía proporcionada por
los carbohidratos. Por otra parte, aunque las hipótesis reconocen la
importante contribución que tuvo el desarrollo de cocinar, consideramos
que los carbohidratos cocinados sólo tienen sentido si el cuerpo tiene
la dotación enzimática necesaria para procesarlos", explica Karen Hardy.
En este sentido, los investigadores también apuntan al incremento de
genes amilasa salival en los humanos modernos, que aumenta la cantidad
de amilasa producida en la saliva. Para Kate Brown, doctoranda de la
University College London, "mientras otros primates tienen sólo dos
copias de estos genes, los humanos modernos tenemos de media unos seis y
esto nos permite tener más amilasa salival y digerir el almidón de
manera más eficiente. No sabemos exactamente cuándo se multiplicó el
número de copias, pero los datos genéticos sugieren que fue en el último
millón de años; un período de tiempo que coincide con la evidencia
arqueológica del cocinado de alimentos. Esto es particularmente
interesante porque el uso del fuego para cocinar permitió un aumento
considerable del potencial de digerir más fácilmente el almidón. Hay aún
incerteza sobre cuándo los genes de la amilasa salival se multiplicaron
y cuándo los humanos empezaron a cocinar alimentos, pero los beneficios
combinados de ambos para alimentar nuestros cerebros, cada vez más
hambrientos de glucosa, son difíciles de ignorar".
Les Copeland, de la Universidad de Sydney, explica que los
investigadores creen que "los carbohidratos, junto con la carne, fueron
esenciales para la evolución de los humanos modernos y sus grandes
cerebros. La evidencia sugiere que los humanos del Paleolítico no
habrían evolucionado con la que hoy se denomina "dieta del Paleolítico".
Después que el uso del fuego para cocinar alimentos se extendiera, la
digestión de los carbohidratos ricos en almidón avanzó y se convirtió en
una fuente de glucosa preformada que permitió la aceleración del
crecimiento del cerebro".
5-La ONU pide reducir el consumo de carne para frenar el cambio climático
Los esfuerzos para frenar las emisiones
de gases de efecto invernadero y los impactos del calentamiento global
se quedarán muy cortos sin cambios drásticos en el uso global de la
tierra, la agricultura y la dieta humana, según advierte el último
informe del Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC, por sus siglas en inglés) de la Organización de las Naciones Unidas (ONU).
El
documento especial del IPCC sobre el cambio climático y la tierra,
publicado hoy en Ginebra, analiza el papel de las decisiones sobre
manejo de la tierra tanto para reducir como para adaptarse al
calentamiento global.
“Sería beneficioso para el clima y la salud humana que la gente
de países desarrollados consumiera menos carne”, dice Hans-Otto Pörtner
Destacan entre las medidas la necesidad de preservar y restaurar los
bosques, ya que absorben el carbono del aire, y las turberas, porque
liberan carbono si se desentierran. El ganado criado en pastizales de
bosques despejados es particularmente intensivo en emisiones, dice el
informe. Las vacas también producen una gran cantidad de metano, un
potente gas de efecto invernadero, al digerir sus alimentos.
El
documento corrobora que las dietas equilibradas que contienen alimentos
de origen vegetal y de origen animal producidos de forma sostenible
"presentan grandes oportunidades para la adaptación y la mitigación, a
la vez que generan importantes beneficios colaterales en términos de
salud humana".
“No queremos decir a la gente qué comer”,
dice Hans-Otto Pörtner, presidente del grupo de trabajo del IPCC sobre
impactos, adaptación y vulnerabilidad. “Pero sería realmente
beneficioso, tanto para el clima como para la salud humana, que la gente
de muchos países desarrollados consumiera menos carne, y que la
política creara incentivos apropiados a tal efecto”.
Aumento de la deforestación
Para
2050, los cambios en la dieta podrían liberar millones de kilómetros
cuadrados de tierra y reducir las emisiones mundiales de CO2 hasta en ocho mil millones de toneladas al año, en relación con la situación actual, según los científicos.
Los
investigadores también señalan la importancia del informe para las
selvas tropicales, donde aumentan las preocupaciones sobre la
aceleración de las tasas de deforestación. La selva
amazónica es un enorme sumidero de carbono que actúa para enfriar la
temperatura global, pero las tasas de deforestación están aumentando, en
parte debido a las políticas y acciones del gobierno del presidente
brasileño Jair Bolsonaro.
Si no se detiene, la deforestación liberará más de 50.000 millones de toneladas de carbono a la atmósfera en 30 o 50 años
“Desafortunadamente, algunos países no parecen entender la necesidad
urgente de detener la deforestación en los trópicos”, dice Pörtner.“No
podemos forzar a ningún gobierno a interferir. Pero esperamos que
nuestro informe influya lo suficiente en la opinión pública a tal
efecto”.
Si no se detiene, la deforestación podría convertir gran
parte de los bosques amazónicos en un tipo de desierto degradado,
liberando posiblemente más de 50.000 millones de toneladas de carbono a
la atmósfera en 30 o 50 años, afirma Carlos Nobre, científico experto en
clima de la Universidad de São Paulo, en Brasil.
El informe
advierte que la tierra debe seguir siendo productiva para alimentar a
una población mundial en aumento. El calentamiento aumenta el
crecimiento de las plantas en algunas regiones, pero en otras
–incluyendo el norte de Eurasia, partes de Norteamérica, Asia Central y
África tropical– el aumento del estrés hídrico parece reducir la tasa de
fotosíntesis.
Por lo tanto, el uso de cultivos para
biocombustibles y la creación de nuevos bosques –considerados como
medidas con potencial para mitigar el calentamiento global– deben
gestionarse cuidadosamente para evitar el riesgo de escasez de alimentos
y pérdida de biodiversidad, dice el informe.
Afectará a la seguridad alimentaria
Los
expertos también destacan que los agricultores y las comunidades de
todo el mundo deberán hacer frente a lluvias más intensas, inundaciones y
sequías como resultado del cambio climático. La degradación de la
tierra y la expansión de los desiertos amenazan con afectar la seguridad
alimentaria, aumentar la pobreza e impulsar la migración, según el
informe.
Alrededor de una cuarta parte de la superficie terrestre
de la Tierra parece sufrir ya la degradación del suelo, y se espera que
la crisis climática empeore las cosas, en particular en las zonas
costeras bajas, los deltas de los ríos, las tierras secas y las zonas de
permafrost.
“Necesitamos una transformación radical, no cambios incrementales”, afirma Ruth Richardson
Las prácticas agrícolas industrializadas son responsables de gran
parte de la erosión y la contaminación del suelo, dice Andre Laperrière,
director ejecutivo de Global Open Data for Agriculture and Nutrition,
con sede en Oxford (Reino Unid), una iniciativa para hacer accesible a
todo el mundo la información científica pertinente.
“Necesitamos
una transformación radical hacia un uso global de la tierra y un sistema
alimentario que satisfaga nuestras necesidades climáticas”, dice Ruth
Richardson, directora ejecutiva de la Alianza Global para el Futuro de
la Alimentación, una coalición estratégica de fundaciones filantrópicas
con sede en Toronto, Canadá.
Un informe especial publicado el año
pasado concluyó que las emisiones mundiales de gases de efecto
invernadero, que alcanzaron un máximo histórico de más de 37.000
millones de toneladas en 2018, deben disminuir drásticamente en un
futuro muy cercano para limitar el calentamiento global a 1,5 grados, y
que esto requerirá una acción drástica sin más demora.
Los
gobiernos de todo el mundo considerarán las últimas conclusiones del
IPCC en la cumbre climática de la ONU que se celebrará el mes próximo en
Nueva York.
En fin, dieta mediterranea, de
todo un poco sin abusar de nada...y seguir a las cocineras de Galica,
porque alli dicen que los gallegos son los que viven mas años..
When
Caitlin Cornell looked down her microscope, she saw large bright spots
against a black background. They resembled miniatures suns, blazing
against the backdrop of space. And when Cornell showed the spots to her
supervisor, Sarah Keller,
a chemist at the University of Washington, “we got really excited,” she
recalls. “It was a bit of an ‘Aha!’ moment.” Those spots, she realized, might help address a long-standing puzzle about the origin of life itself.
The
cells that make up all living things, despite their endless variations,
contain three fundamental elements. There are molecules that encode
information and can be copied—DNA and its simpler relative, RNA. There are proteins—workhorse molecules that perform important tasks. And encapsulating them all, there’s a membrane made from fatty acids.
Go back far enough in time, before animals and plants and even bacteria
existed, and you’d find that the precursor of all life—what scientists
call a “protocell”—likely
had this same trinity of parts: RNA and proteins, in a membrane. As the
physicist Freeman Dyson once said, “Life began with little bags of
garbage.”
The bags—the membranes—were crucial. Without something
to corral the other molecules, they would all just float away, diffusing
into the world and achieving nothing. By concentrating them, membranes
transformed an inanimate world of disordered chemicals into one teeming
with redwoods and redstarts, elephants and E. coli, humans and hagfish. Life, at its core, is about creating compartments. And that’s much easier and much harder than it might seem.
First,
the easy bit. Early cell membranes were built from fatty
acids—molecules that look like lollipops, with round heads and long
tails. The heads enjoy the company of water; the tails despise it. So,
when placed in water, fatty acids self-assemble into hollow spheres,
with the water-hating tails pointing inward and the water-loving heads
on the surface. These spheres can enclose RNA and proteins, making
protocells. Fatty acids, then, can automatically create the compartments that were necessary for life to emerge. It almost seems too good to be true.
And it is, for two reasons. Life first arose in salty oceans,
and salt catastrophically destabilizes the fatty-acid spheres. Also,
certain ions, including magnesium and iron, cause the spheres to
collapse, which is problematic since RNA—another key component of early
protocells—requires these ions. How, then, could life possibly have
arisen, when the compartments it needs are destroyed by the conditions
in which it first emerged, and by the very ingredients it needs to
thrive?
Caitlin Cornell and Sarah Keller have an answer to this paradox.
They’ve shown that the spheres can withstand both salt and magnesium
ions, as long as they’re in the presence of amino acids—the simple
molecules that are the building blocks of proteins. The little suns that
Cornell saw under her microscope were mixtures of amino acids and fatty
acids, holding their spherical shape in the presence of salt.
I find that utterly magical. It means that two of the essential components of life, a protocell’s membrane and its proteins, provided the conditions for each other to exist. By
sticking to the fatty acids, the amino acids gave them stability. In
turn, the fatty acids concentrated the amino acids, perhaps encouraging
them to coalesce into proteins. From the very beginning, these partners
were locked in a two-step dance that continued for 3.5 billion years,
and helped create all the richness of biology from a starting place of
mere chemistry. “I agree completely,” Keller tells me. “It’s completely
magical. You need those two parts together.”
“It’s fantastic work,” says Neal Devaraj, of UC San Diego. “Their suggestion that membranes could promote the synthesis of [proteins] is really fascinating.”
This
discovery happened almost by accident. Originally, Keller set out to
address a different problem, posed to her by her colleague Roy Black. He
noted that no one had good ideas about how exactly the protocell
trinity—RNA, proteins, and membranes—actually assembled in the first
place. It seemed that people were just waving their hands and
attributing this crucial convergence to some random event. Black,
instead, suggested that the membranes themselves were key. If fatty
acids can stick to the constituents of both proteins and RNA, they could
have gathered these building blocks together as they themselves
assembled.
Cornell tested that idea by incubating a fatty acid
with three different amino acids, all of which are thought to have
existed on the primordial Earth. Sure enough, as Black had suspected,
the molecules interacted with one another. But when she looked under the
microscope, Cornell realized something special was happening.
On
their own, the fatty acids predictably self-assembled into hollow
spheres. “They looked like jellyfish: clear insides with opaque edges,
floating around,” she says. If she added salt or magnesium ions, these
jellyfish disintegrated. But if she did that after adding amino acids,
they held their shape. What’s more, they transformed into shapes that
Cornell likens to glowing onions. Their once-hollow centers were filled
with another layer of fatty acids—spheres within spheres. Not
coincidentally, that’s what our actual cells are like, with membranes
that comprise two fatty layers instead of one.
So, the presence of
amino acids not only protects the fatty-acid spheres, but also turns
them into something more obviously biological. Why? “We have no idea,
and we wouldn’t have predicted it,” Keller says, laughing. “We’re in a
lovely place that opens the field up to future theory.”
“This is great work,” says Kate Adamala
of the University of Minnesota. Other studies, she notes, have found
interactions between any two of amino acids, fatty-acid membranes, and
RNA, but Cornell and Keller’s study effectively ties all three together.
Amino acids allow membranes to exist in the presence of magnesium,
which RNA needs to function.
The
study of life’s origins is always contentious. Scientists often
disagree furiously about things that are happening right now, let alone
events that occurred more than 3.5 billion years ago. Some researchers, for example, think that life began in shallow volcanic pools, while others argue that it must have arisen in underwater vents.
Keller’s ideas, mercifully, work in both environments. “I’m agnostic,”
she says. “I’m excited that [our study] makes the idea of protocells
more plausible independent of the location.”
She’s now looking into what happens after the
protocells assemble. Sure, there’s a compartment that contains the
building blocks for making proteins and RNA. “But how do those
individual building blocks bond to form the larger molecules?” she says.
“It’s a very hard question.”
We want to hear what you think about this article. Submit a letter to the editor or write to letters@theatlantic.com.
Ed Yong is a staff writer at The Atlantic, where he covers science.
Los dos principales avances farmacológicos introducidos en los últimos años contra el cáncer, las terapias moleculares y los tratamientos de inmunoterapia, se han combinado por primera vez con éxito en tres ensayos clínicos presentados en la revista Nature Medicine.
Los ensayos se han realizado en pacientes con melanomas con
metástasis, pero la misma estrategia podría utilizarse en el futuro
contra otros tipos de tumor. Sin embargo, dados los efectos secundarios
registrados, que fueron manejables pero importantes, esta combinación de
fármacos se reservaría en un principio a casos graves para los que no
hay otras opciones de tratamiento.
Avance conceptual
Combinar las terapias moleculares con las inmunoterapias es uno de los grandes retos de la oncología
Las terapias moleculares, también llamadas terapias
dirigidas porque apuntan a alteraciones características de cada tumor,
suelen tener una eficacia elevada por un periodo limitado, ya que con el
tiempo aparecen células tumorales resistentes a los fármacos. Por el
contrario, los fármacos de inmunoterapia, que ayudan al sistema
inmunitario a eliminar células tumorales, suelen ser eficaces durante
periodos prolongados, pero en un porcentaje bajo de pacientes.
“Si estas dos terapias se pueden combinar, y cómo
hacerlo, es una de las grandes preguntas aún sin respuesta entre
oncólogos de todo el mundo”, destacan Elisa Rozeman y Christian Blank,
del Instituto del Cáncer de los Países Bajos en Amsterdam, en un artículo de análisis publicado en Nature Medicine. Los tres nuevos ensayos clínicos, dos liderados desde UCLA y el
tercero desde el hospital General de Massachusetts, demuestran por
primera vez que sí es posible.
Los ensayos se han realizado en personas con melanoma que
tenían una mutación en el gen BRAF. Los efectos de esta alteración,
presente en cerca de la mitad de casos de melanoma, se pueden
contrarrestar con dos tipos de fármacos: unos que bloquean directamente
la acción de BRAF y otros que bloquean la acción del gen MEK.
El tratamiento experimental ha consistido en
combinar estos dos tipos de fármacos para atacar las células tumorales
por dos flancos distintos y reducir así la probabilidad de que se
volvieran resistentes a la terapia. Además, se ha añadido un tercer
fármaco de inmunoterapia para ayudar a las células inmunitarias a
reconocer y destruir las células tumorales.
En un ensayo clínico de fase 1 de UCLA en
el que participaron 16 pacientes, el tratamiento fue eficaz en 11 (un
73%). Seis de ellos (40%) siguen respondiendo al tratamiento en el
momento de presentar los resultados después de un seguimiento medio de
27 meses.
Resultados esperanzadores
Una minoría de pacientes ha respondido al tratamiento durante periodos excepcionalmente largos
En el ensayo clínico del hospital General de Massachusetts,
con 67 pacientes, los porcentajes fueron similares: un 72% respondió
inicialmente al tratamiento y un 39% seguía respondiendo al presentar
los datos después de un seguimiento medio de 29 meses.
En el tercer ensayo clínico, de fase 2, realizado en UCLA con
120 pacientes, quienes recibieron la combinación de tres fármacos
pasaron una media de 16 meses sin que la enfermedad progresara. En
quienes recibieron sólo dos fármacos –las dos mismas terapias
moleculares pero no la inmunoterapia-, el tiempo medio sin que el cáncer
progresara fue de 10 meses.
Efectos secundarios
Esta combinación de fármacos se reservaría en un principio a casos graves para los que no hay otras opciones de tratamiento
Como ha ocurrido en ensayos anteriores con
inmunoterapias, una minoría de pacientes ha respondido al tratamiento
durante periodos excepcionalmente largos. Una de ellas, una joven
operadora bursátil de Wall Street gran aficionada al snowboard y al
montañismo, se ha prestado a contar su experiencia.
Cuando le diagnosticaron el melanoma en 2014, tenía tumores
del tamaño de pelotas de golf en varios órganos. Poco después, con una
esperanza de vida de meses, empezó a depender de una silla de ruedas. En
aquel momento, parecía que nunca más podría volver a las montañas. Pero
empezó a mejorar días después de iniciar el tratamiento. “El tamaño de
los tumores empezó a reducirse casi inmediatamente”, recuerda en un
comunicado difundido por UCLA. “Antes de un mes, podía volver a caminar
por mí misma, y tres meses después estaba en un avión rumbo a las
montañas rocosas de Canadá”. Cinco años más tarde, está aparentemente
curada, sin ningún rastro detectable de cáncer.
“No es un caso típico”, admite Ribas. Pero es una
prueba de que la combinación de terapias moleculares e inmunoterapias
“ofrece una nueva posibilidad de tratamiento a pacientes para los que
hasta ahora no teníamos ninguna opción”.
AlphaZero: la inteligencia artificial con intuición humana
El
programa de ajedrez creado por DeepMind muestra características que se
creían exclusivas de las personas y abre nuevas vías de investigación
científica
A menudo se abusa de la expresión “cambio de paradigma”
cuando se trata de explicar el alcance de los avances tecnológicos que
han acontecido en las últimas décadas. En ocasiones está justificada,
como en el caso de la irrupción de internet a finales del siglo pasado o
la presentación del iPhone en 2007; en algunos casos está por ver si
las tecnologías cumplen la promesa de transformación que apuntan (como
el papel de los robots en la sociedad del futuro próximo o la magnitud
del sistemas de conducción autónomos, por ejemplo); y en otros muchos,
la profecía de “metamorfosis social” se ha quedado en nada (¿quién se
acuerda de las Google Glass?).
La inteligencia artificial es el campo que casi todas las mentes preclaras del planeta perciben como el principal impulsor de las grandes transformaciones que se avecinan.
Coloquialmente, este término se refiere a la capacidad de las máquinas
de razonar y comportarse como los seres humanos. Lo habitual es que
estos sistemas se alimenten del conocimiento aportado por personas, ya
sea mediante la programación informática o a través de su capacidad de captar y procesar ingentes cantidades de datos -generados también por la actividad humana- con la finalidad de mejorar el rendimiento de los hombres en múltiples áreas.
Un antes y un después en el mundo del ajedrez
Diciembre de 2017: AlphaZero arrasa a Stockfish
Sin embargo, la evolución que significa AlphaZero, un
programa desarrollado por la empresa inglesa DeepMind -adquirida por
Google en 2014- amenaza con cambiarlo todo. El rasgo diferencial de este
sistema de aprendizaje profundo -que de momento se ha aplicado al
ajedrez y a otros juegos de estrategia- es que no necesita del conocimiento de la supervisión humana
para adquirir en solo unas horas un nivel de entendimiento del juego
superior al del mejor de los humanos. No sólo es superior a nosotros por
su capacidad superlativa de manejar millones de cálculos por segundo y
analizar todos los patrones de desarrollo estratégico posibles (lo que
en computación se conoce como “fuerza bruta”), sino que también nos
supera en características que creíamos exclusivas de las personas: la intuición, la creatividad, la capacidad de tomar riesgos e incluso el talento para generar belleza a través del juego. Los maestros del ajedrez que han analizado las partidas de
AlphaZero alucinan. No porque gane, sino por las estrategias que
despliega para ganar. En su presentación en sociedad, en diciembre de 2017, AlphaZero arrasó a Stockfish,
el mejor programa de ajedrez del momento y la herramienta de
preparación de la mayoría de ajedrecistas de élite. De 100 partidas,
ganó 28 e hizo tablas en 72. No perdió ni una. Fue un auténtico shock.
Los expertos dijeron entonces que el ajedrez había cambiado para
siempre.
La nueva máquina aprendió a jugar por su cuenta con un solo input:
las reglas del juego. Lo único que sabía era cuáles eran los movimientos
posibles de cada pieza. No tenía información alguna sobre libros de aperturas o tabla de finales,
el amplísimo abanico de jugadas teóricas que supuestamente proporciona
las mínimas ventajas que los grandes jugadores (y programas
informáticos) necesitan para dominar y ganar las partidas. Tampoco
conocía el supuesto valor de cada pieza. AlphaZero adquirió un
inigualable conocimiento del juego “único y superior” -tal como lo
definió el legendario maestro de ajedrez Gary Kasparov- en una sola
jornada de trabajo enfrentándose a sí mismo en 44 millones de partidas,
más de mil por segundo.
Más allá de la “fuerza bruta”
Una máquina que se guía (también) por su instinto
El impacto que ha supuesto la aparición de AlphaZero en la comunidad ajedrecística ha sido tal que Magnus Carlsen
(28 años), actual campeón del mundo, dijo que el programa es su “nuevo
héroe”, admitiendo explícitamente que ha incorporado a su estilo de
juego ideas prestadas de las partidas del sistema de inteligencia
artificial: En su número de junio, la revista ‘Peón de Rey’, dirigida y editada por el Gran Maestro Internacional español Miguel Illescas,
analiza precisamente cómo ha variado el juego de Carlsen sobre la base
de lo que el Gran Maestro noruego parece haber aprendido de AlphaZero.
El principal aprendizaje que Carlsen ha imitado de la máquina es su
disposición a sacrificar piezas al principio de la partida a cambio de
mantener la iniciativa del juego. Esto es algo que va en contra de los
principios del ajedrez clásico y de la propia manera de jugar del número
1 en los últimos años, mucho más académica y basada en explotar una
mínima ventaja para ir avanzando lenta pero inexorablemente hacia la
victoria final.
Según el análisis de Illescas y su equipo, Carlsen juega ahora de manera mucho más dinámica y agresiva:
realiza maniobras a priori extrañas desde el punto de vista
“académico”, especula con piezas valiosas para obtener ventajas a largo
plazo y parece ignorar algunos de los patrones esenciales del juego. Y
los resultados son excepcionales: Carlsen está en mejor forma que nunca,
jugando a un nivel nunca visto en la historia de este deporte.
Nuevas vías para la investigación
El potencial que se esconde tras AlphaZero
¿Qué nos dice el hecho que el mejor de los humanos en su especialidad aprenda de una máquina cuya principal virtud es la falta de prejuicios en su proceso de aprendizaje?
Una posible respuesta es que AlphaZero puede significar, esta vez sí,
un cambio de paradigma. Y no solo en el ajedrez, sino en un sinfín de
disciplinas científicas: un sistema que descubre nuevas vías hacia la excelencia
sobre la base del método de ensayo y error puede significar avances en
casi cualquier área. “No sería la primera vez que el ajedrez sirve como
campo de pruebas para el desarrollo del conocimiento humano en
direcciones insospechadas”, recuerda el biólogo e investigador Diego
Rasskin Gutman en la crítica que publica en el mismo número de ‘Peón de Rey’ sobre el libro ‘Game Changer’, que analiza las mejores partidas de AlphaZero.
El propio Gary Kasparov afirmó recientemente que cree que el
programa podría mejorar notablemente la investigación médica. No en
vano, una versión modificada del mismo, AlphaFold, ya ha
demostrado una precisión extraordinaria para predecir cómo se pliegan
ciertas proteínas basándose únicamente en su secuencia genética. Este
avance sugiere que este tipo de softwares podrían ser de vital importancia para ayudar a los científicos en el diagnóstico y el tratamiento de enfermedades como el Parkinson y el Alzheimer, asociadas precisamente a deformaciones en proteínas que intervienen en funciones cerebrales como el aprendizaje o la memoria.
Investigadores del Hospital Clínic de Barcelona e ISGlobal, en
colaboración con el Centro de Medicina de Precisión del Imperial College
London, han desarrollado un modelo matemático que permite determinar la secuencia de aparición de los síntomas de la malaria grave. El sistema, que puede vaticinar el final más probable de una persona con esta enfermedad, puede ser trasladable a otras patologías, como el cáncer, y permitirá al médico ir un paso por delante de la enfermedad.
“Sería el equivalente a establecer la línea narrativa de una película en base a un solo fotograma”, explica a La Vanguardia
el doctor Climent Casals-Pascual, microbiólogo, consultor del Centre de
Diagnòstic Biomèdic del Hospital Clínic y principal responsable de la
investigación, publicada en la revista Nature Digital Medicine. “Pero todavía hay más, este método nos permite determinar el final
más probable de la película, con el objetivo de modificarlo”, añade. Lo que han conseguido estos investigadores es establecer la
línea temporal por la que discurre la malaria grave. Pongamos que la
patología está compuesta, es un decir, por 10 síntomas, siendo el número
uno el primero que aparece y el décimo el último que cierra la
cronología. “Si al médico le llega a la consulta un paciente con el
cuarto síntoma, el profesional sabrá que esta persona está mejor que una
que se hubiera presentado con el sexto”, esgrime Casals-Pascual.
Al final, lo que pretenden los investigadores “es establecer esta
secuencia para ver qué tratamiento es más adecuado en cada momento”.
“Por eso se llama medicina de precisión”, subraya este microbiólogo. “A
cada paciente hay que darle un riesgo y una probabilidad individual, y
esa es la transición que estamos haciendo”, agrega.
A cada paciente hay que darle un riesgo y una probabilidad individual”
Climent Casals-PascualMicrobiólogo y consultor del Centre de Diagnòstic Biomèdic del Hospital ClínicLos responsables del estudio han desarrollado el modelo
matemático gracias al análisis de los casos de 3.000 niños de Gambia
afectados por la malaria grave, una enfermedad que mata anualmente a
casi medio millón de personas, la mayoría niños menores de cinco años
del África subsahariana.
“El ordenador seleccionó cuáles eran los rasgos clínicos más
probables que acaban con la vida de las personas –explica
Casals-Pascual-, y gracias a ese aprendizaje [machine learning] la máquina puede predecir la posibilidad que tiene un paciente de sobrevivir”.
Es como si fuera un software de identificación facial: te reconoce en qué punto estás de la enfermedad”
Climent Casals-PascualMicrobiólogo y consultor del Centre de Diagnòstic Biomèdic del Hospital Clínic“Es como si fuera un software de identificación facial: te
reconoce en qué punto estás de la enfermedad y las probabilidades de
supervivencia”, prosigue este investigador. Esta información “ayuda al
médico a saber si el paciente requiere de un tratamiento más agresivo o
más leve en función de si está en un estadio más o menos avanzado”.
Para validar su método, los investigadores enviaron un cuestionario,
con la misma lista de síntomas analizados por el algoritmo, a 30
expertos mundiales de malaria con gran experiencia en el trópico para
que los ordenaran cronológicamente. “Vimos que había una correlación muy
buena”, explica Casals-Pascual. Eso les llevó a la conclusión de que es
posible “establecer una equiparación entre el proceso lógico de
pensamiento de un médico y un ordenador que no sabe nada de medicina”.
Las matemáticas no nos solucionan el problema, si no, la medicina la harían los robots, pero sí nos ayudan”
Climent Casals-PascualMicrobiólogo y consultor del Centre de Diagnòstic Biomèdic del Hospital ClínicSegún este investigador, los síntomas que deben poner al
profesional en alerta ante un paciente con malaria son la pérdida de
consciencia y la dificultad para respirar. “Eso ya lo sabíamos
clínicamente sin necesidad de haber desarrollado nuestro modelo, pero lo
interesante es que sólo dándole unos parámetros fríos, un algoritmo te
permite aprender medicina”, subraya el investigador del Clínic.
Casals-Pascual ahonda en esta última idea: “El algoritmo nos puede
enseñar algo de la enfermedad que nosotros hasta ahora no habíamos
captado, que tiene más relevancia de lo que creíamos”. Al final se trata
de usar la medicina digital para avanzar: “Las matemáticas no nos
solucionan el problema, si no, la medicina la harían los robots, pero sí
nos ayudan”.
Otra buena noticia es que este modelo puede ser exportable a otras
patologías: “Se podrá aplicar en cánceres, en lo que se quiera”, arguye
este microbiólogo. Eso sí, con matices: cada enfermedad requerirá de
unos ajustes. “Nosotros hemos incluido en el algoritmo unos datos que
tienen mucho sentido para el estudio de la malaria. Si alguien quisiera
hacer lo mismo con cáncer, obviamente no habría ningún problema, pero
habría que utilizar y optimizar el algoritmo para el estudio de esa
enfermedad concreta”, agrega este investigador del Clínic.
“En el momento que tuvieran una base de datos equivalente a la
nuestra, los investigadores de cáncer que quisieran podrían usar nuestro
modelo matemático, que está abierto a todo aquel que lo quiera usar”,
añade.
El modelo funciona con cualquier enfermedad que tenga un cierto grado de complejidad”
Climent Casals-PascualMicrobiólogo y consultor del Centre de Diagnòstic Biomèdic del Hospital Clínic
Según Casals-Pascual, “el modelo funciona con cualquier
enfermedad que tenga un cierto grado de complejidad, donde la secuencia
de los acontecimientos no queda muy clara”.
“La limitación de la explotación del big data dependerá de la
cantidad de información digitalizada por cada enfermedad. Pero en los
hospitales hoy en día ya se digitaliza todo”, concluye este
investigador.