traductor

viernes, 30 de agosto de 2019

¿Por qué Microsoft ha invertido 1.000 millones de dólares en un cerebro de IA?

¿Por qué Microsoft ha invertido 1.000 millones de dólares en un cerebro de IA?

El gigante tecnológico ha anunciado una alianza con OpenAI para intentar desarrollar una inteligencia artificial capaz de resolver problemas complejos de cualquier tipo, a lo que se denomina ‘inteligencia artificial general’ o ‘fuerte’.
Conseguir una inteligencia artificial que supere a la humana tendría un fuerte impacto en campos tan relevantes como la medicina, el trabajo o la educación. Los gigantes tecnológicos, que son conscientes de ello, tratan de fichar a los mejores expertos y apostar por empresas incipientes del sector para lograr los mayores avances. Es el caso de Microsoft, que ha invertido 1.000 millones de dólares en la organización sin ánimo de lucro OpenAI para mejorar las capacidades de la plataforma en la nube Azure e intentar desarrollar un cerebro de inteligencia artificial —o una inteligencia artificial fuerte o general—.
“Una inteligencia artificial fuerte es aquella que no solo resuelve una cuestión concreta, sino que es capaz de solucionar muchas otras tareas de un modo abierto y simultáneo. Y en muchas ocasiones es superior a la propia capacidad humana”, explica Juan Pablo Peñarrubia, presidente del Consejo General de Colegios Profesionales de Ingeniería Informática de España.
Durante la última década, las aplicaciones del ‘deep learning’ junto al aumento de la potencia de computación han propiciado continuos avances en áreas como el procesamiento de la visión, el habla, el lenguaje, la traducción, la robótica e incluso los videojuegos. En la actualidad los sistemas de inteligencia artificial sirven para solucionar problemas en un dominio específico, es a lo que se denomina inteligencia artificial estrecha o ‘narrow AI’. Frente a esta, una inteligencia artificial fuerte o general (‘general AI’) podría ser aplicada a problemas más complejos y de cualquier tipo: “Haciendo una analogía humana sería como poder usar un Einstein, pero no solo para la física sino para cualquier ámbito”.
El objetivo de Microsoft y OpenAI, una organización de investigación fundada por Elon Musk y el emprendedor Sam Altman, es que la inteligencia artificial general trabaje con las personas para ayudar a resolver grandes retos, como el cambio climático, una mejor atención sanitaria y una educación más personalizada. “Las posibilidades de la inteligencia artificial son inimaginables. Facilitará grandes avances en áreas como la sanidad, por ejemplo en la lucha contra el cáncer, en la agricultura, la educación, el transporte o en la lucha contra el cambio climático, para crear un mundo más sostenible y accesible”, apuntan fuentes de Microsoft.
bbva-microsoft-ia
Sam Altman, CEO de OpenAI y Satya Nadella, CEO de Microsoft.
Microsoft ya ha puesto en marcha múltiples iniciativas, por ejemplo en el ámbito de la sanidad. El proyecto InnerEye evalúa imágenes 3D pixel a pixel para proporcionar al radiólogo información precisa de la evolución de un tumor desde la última prueba diagnóstica, lo que permite tomar decisiones mejor informadas sobre el tratamiento que debe seguir un paciente. Investigadores de Microsoft trabajan también junto a biólogos y oncólogos en el proyecto Hanover para descifrar el funcionamiento de las células cancerígenas. A través del análisis de datos masivos relacionados con el cáncer, los sistemas de inteligencia artificial pueden extraer conclusiones y proponer tratamientos personalizados para los pacientes, algo que a un médico especialista le llevaría meses e incluso años de investigación.

Impacto en la sociedad

Pero la inteligencia artificial no solo impactará en este sector. “Cada empresa, cada proceso, cada producto y la forma de trabajar de cada empleado serán redefinidos en los próximos años mediante el uso de la inteligencia artificial”, sostienen desde Microsoft. La adopción de esta tecnología presenta desafíos importantes: “Las personas y las empresas no van a utilizar tecnología en la que no confíen. Las reticencias que puedan tener hacia la inteligencia artificial irán desapareciendo a medida que la vean no como un sustituto de la inteligencia humana, sino como una herramienta a través de la cual potenciar la capacidad de las personas”. Para intentar garantizar que la inteligencia artificial tenga un impacto positivo en las personas y la sociedad, Microsoft ha creado un comité de ética.
Antes que conseguir una inteligencia artificial general, Microsoft asegura que su prioridad es garantizar que la tarea se aborda siguiendo los principios de confianza, seguridad, privacidad, transparencia, ética e inclusión. Pero, ¿cómo de lejos se está de conseguir una inteligencia artificial que iguale o exceda la inteligencia humana? Peñarrubia sostiene que la consecución no es inminente, pero destaca los avances producidos en las últimas décadas: “Hace 100 años estábamos mucho más lejos, solo era un ejercicio de ficción. Pero desde la eclosión y madurez de la ingeniería informática es un ejercicio tecnológico real y en progresión”.
El avance hacia la posible llegada de la inteligencia artificial general fue uno de los temas abordados durante la reciente presentación de la Factoría de IA de BBVA. Los expertos allí presentes coincidieron en que con el avance del ‘deep learning’, se podrá abrir la posibilidad de crear sistemas  capaces de razonar, escribir sus propios programas de inteligencia artificial o incluso enseñar a aprender a otras máquinas. Para ello, según explicó Darío Gil, director de IBM Research, aún queda un largo camino y será necesario unir la lógica con la que ya cuentan determinados sistemas inteligentes “con el razonamiento y que las máquinas sean capaces de ir más allá de las reglas”.
-
https://www.bbva.com/es/por-que-microsoft-ha-invertido-1-000-millones-de-dolares-en-un-cerebro-de-ia/

miércoles, 14 de agosto de 2019

Limitar el consumo de carne ?



 Limitar el consumo de carne ?

1.Cómo el consumo de carne cambió a los primeros humanos

 

 


Comer carne cruda y utilizar herramientas de piedra podrían ser las razones de que los primeros homínidos tuvieran mandíbulas más pequeñas que las de sus antecesores más primitivos.
Así lo señala una investigación de la Universidad de Harvard conocida este jueves, que sugiere que el consumo de carne y el desarrollo de herramientas, y no la capacidad de cocinar, fueron las razones que desencadenaron que los primeros humanos desarrollaran mandíbulas más pequeñas y por ende un significativo cambio en su rostro.
Esto habría permitido, además, el mejoramiento de la capacidad de hablar e incluso en el tamaño del cerebro.
El estudio, liderado por los profesores Daniel Lieberman y Katherine Zink, también sugiere que la práctica de cocinar los alimentos es un hábito que llegó mucho tiempo después.

Homo erectus

Para el tiempo de la aparición de la especie Homo erectus, hace dos millones de años, los homínidos tenían un cerebro más grande y cuerpos que requerían de un consumo mayor de energía.
Pero paradójicamente, de acuerdo a los hallazgos en Harvard, tenían dientes pequeños y una mandíbula débil para masticar los alimentos.
Y, hasta hace poco, se pensaba que una de las razones de esos cambios en la mandíbula y los dientes del Homo erectus con respecto a sus antecesores se debía al hecho de la introducción del hábito de cocinar dentro de las sociedades primitivas. Pero eso solo ocurrió hace unos 500 mil años.


Derechos de autor de la imagen SPL
Image caption La evolución de la mandíbula habría permitido un cambio en la forma del cerebro.
Esto sugiere que la cocción de los alimentos no influyó en la evolución hacia una mandíbula más pequeña.
"Si pasaras un tiempo con los chimpancés te darías cuenta que ellos pasan la mitad del día masticando", dijo el profesor Lieberman.
"Pero en algún punto de la evolución humana se produjo un cambio, comenzamos a comer menos. Y solo fue posible por dos factores: alimentos con mayor contenido de energía, pero también que eran más difíciles de digerir", añadió.

El proceso



Para llegar a sus conclusiones, los científicos evaluaron el desempeño de masticar alimentando a personas adultas con pedazos de carne y con la clase de vegetales que nuestros primeros ancestros consumieron antes de convertirse en carnívoros.
Se midió el esfuerzo muscular que se requería para masticar ambos alimentos y qué tanto era masticada antes de ser tragada.
Los hallazgos sugieren que una dieta con carne y usando herramientas de piedra para procesar la comida –cortando la carne y triturando los vegetales– el Homo erectus hubiera necesitado masticar entre un 17% y un 26% menos que sus antecesores.
En su artículo, Lieberman y Zink argumentan que: "Siempre dedujimos que el consumo de la carne estuvo conectado con el proceso mecánico que hizo posible cortar la carne en pedazos".
"La carne requiere menor esfuerzo para ser masticada que otro tipo de plantas y semillas de las que se alimentaban los primeros humanos, pero su incapacidad de los molares para que masticar la carne cruda podría ser una de las razones por las que no se consumía hasta que no se inventaron las primeras herramientas de piedra, hace 3 millones de años", concluye el estudio.

 https://www.bbc.com/mundo/noticias/2016/03/160310_homo_eructus_carne_consumo_herramientas_ciencia_amv


2.El cerebro humano creció y se desarrolló gracias a estos genes: NOTCH2NL

La expansión cerebral resultaba evidente al observar las diferentes cavidades craneales en los fósiles de nuestros antepasados, pero faltaban por descubrir aquellos cambios genéticos que nos hicieron humanos 

Aparición de los genes NOTCH2NL

Diagrama que muestra como aparecieron los genes NOTCH2NL a través de la duplicación en un ancestro común a los humanos, chimpancés y gorilas, pero sólo se convirtieron en genes funcionales en el linaje humano.
Hace unos 3-4 millones de años aparecieron unos genes en nuestros antepasados humanos y, a partir de ahí, tal y como demuestran los fósiles, se produjo un aumento extraordinario en el tamaño cerebral de nuestros ancestros. Esta evolución hacia unos cerebros más grandes fue de gran importancia para nuestra especie por la habilidad que nos dio para pensar, para solucionar problemas y para desarrollar la cultura. La expansión cerebral resultaba evidente al observar las diferentes cavidades craneales en los fósiles de nuestros antepasados, pero faltaban por descubrir aquellos cambios genéticos que nos hicieron humanos. Dos estudios, publicados ayer en Cell, anuncian el descubrimiento de estos genes, denominados NOTCH2NL y que son específicamente humanos: todo parece indicar que fueron la fuerza impulsora en la evolución hacia cerebros más grandes.


"Nuestros cerebros se volvieron tres veces más grandes de lo que eran gracias a la expansión de ciertas áreas funcionales de la corteza cerebral y ese sustrato fundamental nos debió de hacer humanos. No me puedo imaginar otra cuestión científica más emocionante que descubrir y decodificar los misteriosos cambios genéticos que nos hicieron lo que somos", dice David Haussler, de la Universidad de California en Santa Cruz y coautor de uno de los estudios. El estudio firmado por Haussler ha conllevado más de cinco años de trabajo: para caracterizar los genes, para conocer su función en el desarrollo neurológico y para conocer sus orígenes evolutivos. Pertenecen a una antigua familia de genes conocida como los genes Notch, primeramente descubiertos en la mosca de la fruta y que reciben ese nombre por un defecto genético que consiste en la aparición de unas muescas en los bordes de las alas (notched wings) de la mosca de la fruta Drosophila melanogaster. "Es una familia de genes que se remonta a cientos de millones de años atrás en la historia evolutiva y es conocida por su importante función en el desarrollo embrionario. Descubrir que los humanos tienen un nuevo miembro de esta familia que está implicado en el desarrollo cerebral es algo sumamente emocionante", comenta Haussler.
Los científicos han detectado los genes NOTCH2NL en células humanas, pero no en aquellas de los macacos, tampoco en el ADN de los orangutanes y sólo de forma truncada e inactiva en nuestros parientes más cercanos, los gorilas y los chimpancés. ¿Qué significa todo esto? Por un proceso denominado conversión génica se produjo una reparación de la versión no funcional de NOTCH2NL y esta reparación sólo ocurrió en los humanos hace unos 3-4 millones de años, más o menos en la época en la que, según el registro fósil, el cerebro humano se comenzó a expandir. Una vez reparado, pero antes de que divergiéramos de nuestro ancestro en común con los neandertales, NOTCH2NL fue duplicado dos veces más (emergió originalmente como una duplicación parcial de NOTCH2, un gen esencial del desarrollo neurológico). Queda manifiesto, por tanto, que los genes NOTCH2NL, además de otros detectados por el equipo de Pierre Vanderhaeghen de la Universidad Libre de Bruselas, son específicamente humanos y activos durante el desarrollo de la corteza cerebral.
Por último, en los humanos modernos estos genes están relacionados con defectos genéticos asociados a trastornos neurológicos: grandes segmentos de ADN son duplicados, en el caso de la macrocefalia y la esquizofrenia, o eliminados, en el caso de la microcefalia y el autismo. "Puede que hayamos conseguido unos cerebros más grandes en parte a través de la duplicación de estos genes, pero a costa de una mayor inestabilidad en la región del cromosoma 1, lo que nos hace susceptibles al síndrome de la duplicación-eliminación", concluye Haussler.
-
-https://www.nationalgeographic.com.es/ciencia/actualidad/cerebro-humano-crecio-y-se-desarrollo-gracias-a-estos-genes-notch2nl_12775/5
-

3.The Importance of Dietary Carbohydrate in Human Evolution.

"Creemos que aunque el consumo de carne fue importante, el crecimiento del cerebro hubiera sido menos probable sin la energía proporcionada por los carbohidratos. Por otra parte, aunque las hipótesis reconocen la importante contribución que tuvo el desarrollo de cocinar, consideramos que los carbohidratos cocinados sólo tienen sentido si el cuerpo tiene la dotación enzimática necesaria para procesarlos", explica Karen Hardy.

En este sentido, los investigadores también apuntan al incremento de genes amilasa salival en los humanos modernos, que aumenta la cantidad de amilasa producida en la saliva. Para Kate Brown, doctoranda de la University College London, "mientras otros primates tienen sólo dos copias de estos genes, los humanos modernos tenemos de media unos seis y esto nos permite tener más amilasa salival y digerir el almidón de manera más eficiente. No sabemos exactamente cuándo se multiplicó el número de copias, pero los datos genéticos sugieren que fue en el último millón de años; un período de tiempo que coincide con la evidencia arqueológica del cocinado de alimentos. Esto es particularmente interesante porque el uso del fuego para cocinar permitió un aumento considerable del potencial de digerir más fácilmente el almidón. Hay aún incerteza sobre cuándo los genes de la amilasa salival se multiplicaron y cuándo los humanos empezaron a cocinar alimentos, pero los beneficios combinados de ambos para alimentar nuestros cerebros, cada vez más hambrientos de glucosa, son difíciles de ignorar".

Les Copeland, de la Universidad de Sydney, explica que los investigadores creen que "los carbohidratos, junto con la carne, fueron esenciales para la evolución de los humanos modernos y sus grandes cerebros. La evidencia sugiere que los humanos del Paleolítico no habrían evolucionado con la que hoy se denomina "dieta del Paleolítico". Después que el uso del fuego para cocinar alimentos se extendiera, la digestión de los carbohidratos ricos en almidón avanzó y se convirtió en una fuente de glucosa preformada que permitió la aceleración del crecimiento del cerebro".

Artículo: Karen Hardy, Jennie Brand-Miller, Katherine D. Brown, Mark G. Thomas, Les Copeland. The Importance of Dietary Carbohydrate in Human Evolution. The Quarterly Review of Biology, 2015; 90 (3): 251 DOI: 10.1086/682587


5-La ONU pide reducir el consumo de carne para frenar el cambio climático

Los esfuerzos para frenar las emisiones de gases de efecto invernadero y los impactos del calentamiento global se quedarán muy cortos sin cambios drásticos en el uso global de la tierra, la agricultura y la dieta humana, según advierte el último informe del Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC, por sus siglas en inglés) de la Organización de las Naciones Unidas (ONU).
El documento especial del IPCC sobre el cambio climático y la tierra, publicado hoy en Ginebra, analiza el papel de las decisiones sobre manejo de la tierra tanto para reducir como para adaptarse al calentamiento global.
“Sería beneficioso para el clima y la salud humana que la gente de países desarrollados consumiera menos carne”, dice Hans-Otto Pörtner
Destacan entre las medidas la necesidad de preservar y restaurar los bosques, ya que absorben el carbono del aire, y las turberas, porque liberan carbono si se desentierran. El ganado criado en pastizales de bosques despejados es particularmente intensivo en emisiones, dice el informe. Las vacas también producen una gran cantidad de metano, un potente gas de efecto invernadero, al digerir sus alimentos.
El documento corrobora que las dietas equilibradas que contienen alimentos de origen vegetal y de origen animal producidos de forma sostenible "presentan grandes oportunidades para la adaptación y la mitigación, a la vez que generan importantes beneficios colaterales en términos de salud humana".
“No queremos decir a la gente qué comer”, dice Hans-Otto Pörtner, presidente del grupo de trabajo del IPCC sobre impactos, adaptación y vulnerabilidad. “Pero sería realmente beneficioso, tanto para el clima como para la salud humana, que la gente de muchos países desarrollados consumiera menos carne, y que la política creara incentivos apropiados a tal efecto”.

Aumento de la deforestación

Para 2050, los cambios en la dieta podrían liberar millones de kilómetros cuadrados de tierra y reducir las emisiones mundiales de CO2 hasta en ocho mil millones de toneladas al año, en relación con la situación actual, según los científicos.
Los investigadores también señalan la importancia del informe para las selvas tropicales, donde aumentan las preocupaciones sobre la aceleración de las tasas de deforestación. La selva amazónica es un enorme sumidero de carbono que actúa para enfriar la temperatura global, pero las tasas de deforestación están aumentando, en parte debido a las políticas y acciones del gobierno del presidente brasileño Jair Bolsonaro.
Si no se detiene, la deforestación liberará más de 50.000 millones de toneladas de carbono a la atmósfera en 30 o 50 años
“Desafortunadamente, algunos países no parecen entender la necesidad urgente de detener la deforestación en los trópicos”, dice Pörtner.“No podemos forzar a ningún gobierno a interferir. Pero esperamos que nuestro informe influya lo suficiente en la opinión pública a tal efecto”.
Si no se detiene, la deforestación podría convertir gran parte de los bosques amazónicos en un tipo de desierto degradado, liberando posiblemente más de 50.000 millones de toneladas de carbono a la atmósfera en 30 o 50 años, afirma Carlos Nobre, científico experto en clima de la Universidad de São Paulo, en Brasil.
El informe advierte que la tierra debe seguir siendo productiva para alimentar a una población mundial en aumento. El calentamiento aumenta el crecimiento de las plantas en algunas regiones, pero en otras –incluyendo el norte de Eurasia, partes de Norteamérica, Asia Central y África tropical– el aumento del estrés hídrico parece reducir la tasa de fotosíntesis.
Por lo tanto, el uso de cultivos para biocombustibles y la creación de nuevos bosques –considerados como medidas con potencial para mitigar el calentamiento global– deben gestionarse cuidadosamente para evitar el riesgo de escasez de alimentos y pérdida de biodiversidad, dice el informe.

Afectará a la seguridad alimentaria

Los expertos también destacan que los agricultores y las comunidades de todo el mundo deberán hacer frente a lluvias más intensas, inundaciones y sequías como resultado del cambio climático. La degradación de la tierra y la expansión de los desiertos amenazan con afectar la seguridad alimentaria, aumentar la pobreza e impulsar la migración, según el informe.
Alrededor de una cuarta parte de la superficie terrestre de la Tierra parece sufrir ya la degradación del suelo, y se espera que la crisis climática empeore las cosas, en particular en las zonas costeras bajas, los deltas de los ríos, las tierras secas y las zonas de permafrost.
“Necesitamos una transformación radical, no cambios incrementales”, afirma Ruth Richardson
Las prácticas agrícolas industrializadas son responsables de gran parte de la erosión y la contaminación del suelo, dice Andre Laperrière, director ejecutivo de Global Open Data for Agriculture and Nutrition, con sede en Oxford (Reino Unid), una iniciativa para hacer accesible a todo el mundo la información científica pertinente.
“Necesitamos una transformación radical hacia un uso global de la tierra y un sistema alimentario que satisfaga nuestras necesidades climáticas”, dice Ruth Richardson, directora ejecutiva de la Alianza Global para el Futuro de la Alimentación, una coalición estratégica de fundaciones filantrópicas con sede en Toronto, Canadá.
Un informe especial publicado el año pasado concluyó que las emisiones mundiales de gases de efecto invernadero, que alcanzaron un máximo histórico de más de 37.000 millones de toneladas en 2018, deben disminuir drásticamente en un futuro muy cercano para limitar el calentamiento global a 1,5 grados, y que esto requerirá una acción drástica sin más demora.
Los gobiernos de todo el mundo considerarán las últimas conclusiones del IPCC en la cumbre climática de la ONU que se celebrará el mes próximo en Nueva York.
Zona geográfica: España
Fuente: SINC

https://www.agenciasinc.es/Noticias/La-ONU-pide-reducir-el-consumo-de-carne-para-frenar-el-cambio-climatico

En fin, dieta mediterranea, de todo un poco sin abusar de nada...y seguir a las cocineras de Galica, porque alli dicen que los gallegos son los que viven mas años..

martes, 13 de agosto de 2019

A New Clue to How Life Originated

A New Clue to How Life Originated

A cellJuhari Muhade / Getty
When Caitlin Cornell looked down her microscope, she saw large bright spots against a black background. They resembled miniatures suns, blazing against the backdrop of space. And when Cornell showed the spots to her supervisor, Sarah Keller, a chemist at the University of Washington, “we got really excited,” she recalls. “It was a bit of an ‘Aha!’ moment.” Those spots, she realized, might help address a long-standing puzzle about the origin of life itself.
The cells that make up all living things, despite their endless variations, contain three fundamental elements. There are molecules that encode information and can be copied—DNA and its simpler relative, RNA. There are proteins—workhorse molecules that perform important tasks. And encapsulating them all, there’s a membrane made from fatty acids. Go back far enough in time, before animals and plants and even bacteria existed, and you’d find that the precursor of all life—what scientists call a “protocell”—likely had this same trinity of parts: RNA and proteins, in a membrane. As the physicist Freeman Dyson once said, “Life began with little bags of garbage.”
The bags—the membranes—were crucial. Without something to corral the other molecules, they would all just float away, diffusing into the world and achieving nothing. By concentrating them, membranes transformed an inanimate world of disordered chemicals into one teeming with redwoods and redstarts, elephants and E. coli, humans and hagfish. Life, at its core, is about creating compartments. And that’s much easier and much harder than it might seem.
First, the easy bit. Early cell membranes were built from fatty acids—molecules that look like lollipops, with round heads and long tails. The heads enjoy the company of water; the tails despise it. So, when placed in water, fatty acids self-assemble into hollow spheres, with the water-hating tails pointing inward and the water-loving heads on the surface. These spheres can enclose RNA and proteins, making protocells. Fatty acids, then, can automatically create the compartments that were necessary for life to emerge. It almost seems too good to be true.
And it is, for two reasons. Life first arose in salty oceans, and salt catastrophically destabilizes the fatty-acid spheres. Also, certain ions, including magnesium and iron, cause the spheres to collapse, which is problematic since RNA—another key component of early protocells—requires these ions. How, then, could life possibly have arisen, when the compartments it needs are destroyed by the conditions in which it first emerged, and by the very ingredients it needs to thrive?
Caitlin Cornell and Sarah Keller have an answer to this paradox. They’ve shown that the spheres can withstand both salt and magnesium ions, as long as they’re in the presence of amino acids—the simple molecules that are the building blocks of proteins. The little suns that Cornell saw under her microscope were mixtures of amino acids and fatty acids, holding their spherical shape in the presence of salt.
I find that utterly magical. It means that two of the essential components of life, a protocell’s membrane and its proteins, provided the conditions for each other to exist. By sticking to the fatty acids, the amino acids gave them stability. In turn, the fatty acids concentrated the amino acids, perhaps encouraging them to coalesce into proteins. From the very beginning, these partners were locked in a two-step dance that continued for 3.5 billion years, and helped create all the richness of biology from a starting place of mere chemistry. “I agree completely,” Keller tells me. “It’s completely magical. You need those two parts together.”
“It’s fantastic work,” says Neal Devaraj, of UC San Diego. “Their suggestion that membranes could promote the synthesis of [proteins] is really fascinating.”
This discovery happened almost by accident. Originally, Keller set out to address a different problem, posed to her by her colleague Roy Black. He noted that no one had good ideas about how exactly the protocell trinity—RNA, proteins, and membranes—actually assembled in the first place. It seemed that people were just waving their hands and attributing this crucial convergence to some random event. Black, instead, suggested that the membranes themselves were key. If fatty acids can stick to the constituents of both proteins and RNA, they could have gathered these building blocks together as they themselves assembled.
Cornell tested that idea by incubating a fatty acid with three different amino acids, all of which are thought to have existed on the primordial Earth. Sure enough, as Black had suspected, the molecules interacted with one another. But when she looked under the microscope, Cornell realized something special was happening.
On their own, the fatty acids predictably self-assembled into hollow spheres. “They looked like jellyfish: clear insides with opaque edges, floating around,” she says. If she added salt or magnesium ions, these jellyfish disintegrated. But if she did that after adding amino acids, they held their shape. What’s more, they transformed into shapes that Cornell likens to glowing onions. Their once-hollow centers were filled with another layer of fatty acids—spheres within spheres. Not coincidentally, that’s what our actual cells are like, with membranes that comprise two fatty layers instead of one.
So, the presence of amino acids not only protects the fatty-acid spheres, but also turns them into something more obviously biological. Why? “We have no idea, and we wouldn’t have predicted it,” Keller says, laughing. “We’re in a lovely place that opens the field up to future theory.”
“This is great work,” says Kate Adamala of the University of Minnesota. Other studies, she notes, have found interactions between any two of amino acids, fatty-acid membranes, and RNA, but Cornell and Keller’s study effectively ties all three together. Amino acids allow membranes to exist in the presence of magnesium, which RNA needs to function.
The study of life’s origins is always contentious. Scientists often disagree furiously about things that are happening right now, let alone events that occurred more than 3.5 billion years ago. Some researchers, for example, think that life began in shallow volcanic pools, while others argue that it must have arisen in underwater vents. Keller’s ideas, mercifully, work in both environments. “I’m agnostic,” she says. “I’m excited that [our study] makes the idea of protocells more plausible independent of the location.”
She’s now looking into what happens after the protocells assemble. Sure, there’s a compartment that contains the building blocks for making proteins and RNA. “But how do those individual building blocks bond to form the larger molecules?” she says. “It’s a very hard question.”
We want to hear what you think about this article. Submit a letter to the editor or write to letters@theatlantic.com.
Ed Yong is a staff writer at The Atlantic, where he covers science.

jueves, 8 de agosto de 2019

Ensayada con éxito una innovadora combinación de fármacos contra el cáncer

Ensayada con éxito una innovadora combinación de fármacos contra el cáncer

Pacientes con melanoma, los primeros en beneficiarse del avance

Antoni Ribas, de la Universidad de California en Los Ángeles, lidera la investigación

Ensayada con éxito una innovadora combinación de fármacos contra el cáncer
Imagen virtual de células tumorales (vitanovski / Getty)
Los dos principales avances farmacológicos introducidos en los últimos años contra el cáncer, las terapias moleculares y los tratamientos de inmunoterapia, se han combinado por primera vez con éxito en tres ensayos clínicos presentados en la revista Nature Medicine.
Los ensayos se han realizado en pacientes con melanomas con metástasis, pero la misma estrategia podría utilizarse en el futuro contra otros tipos de tumor. Sin embargo, dados los efectos secundarios registrados, que fueron manejables pero importantes, esta combinación de fármacos se reservaría en un principio a casos graves para los que no hay otras opciones de tratamiento.

Avance conceptual

Combinar las terapias moleculares con las inmunoterapias es uno de los grandes retos de la oncología

“El objetivo es lograr la eficacia prolongada de la inmunoterapia en el alto porcentaje de pacientes que responden a las terapias moleculares”, explica Antoni Ribas, oncólogo de la Universidad de California en Los Angeles (UCLA) y director de dos de los tres ensayos clínicos.
Las terapias moleculares, también llamadas terapias dirigidas porque apuntan a alteraciones características de cada tumor, suelen tener una eficacia elevada por un periodo limitado, ya que con el tiempo aparecen células tumorales resistentes a los fármacos. Por el contrario, los fármacos de inmunoterapia, que ayudan al sistema inmunitario a eliminar células tumorales, suelen ser eficaces durante periodos prolongados, pero en un porcentaje bajo de pacientes.
Joanna, superviviente de melanoma, regresa a las montañas tras haber sido tratada con una innovadora combinación de fármacos
Joanna, superviviente de melanoma, regresa a las montañas tras haber sido tratada con una innovadora combinación de fármacos (UCLA)
“Si estas dos terapias se pueden combinar, y cómo hacerlo, es una de las grandes preguntas aún sin respuesta entre oncólogos de todo el mundo”, destacan Elisa Rozeman y Christian Blank, del Instituto del Cáncer de los Países Bajos en Amsterdam, en un artículo de análisis publicado en Nature Medicine . Los tres nuevos ensayos clínicos, dos liderados desde UCLA y el tercero desde el hospital General de Massachusetts, demuestran por primera vez que sí es posible.
Los ensayos se han realizado en personas con melanoma que tenían una mutación en el gen BRAF. Los efectos de esta alteración, presente en cerca de la mitad de casos de melanoma, se pueden contrarrestar con dos tipos de fármacos: unos que bloquean directamente la acción de BRAF y otros que bloquean la acción del gen MEK.
Antoni Ribas, oncólogo especialista en melanoma y en inmunoterapia, en la Universidad de California en Los Ángeles
Antoni Ribas, oncólogo especialista en melanoma y en inmunoterapia, en la Universidad de California en Los Ángeles (UCLA)
El tratamiento experimental ha consistido en combinar estos dos tipos de fármacos para atacar las células tumorales por dos flancos distintos y reducir así la probabilidad de que se volvieran resistentes a la terapia. Además, se ha añadido un tercer fármaco de inmunoterapia para ayudar a las células inmunitarias a reconocer y destruir las células tumorales.
En un ensayo clínico de fase 1 de UCLA en el que participaron 16 pacientes, el tratamiento fue eficaz en 11 (un 73%). Seis de ellos (40%) siguen respondiendo al tratamiento en el momento de presentar los resultados después de un seguimiento medio de 27 meses.

Resultados esperanzadores

Una minoría de pacientes ha respondido al tratamiento durante periodos excepcionalmente largos

En el ensayo clínico del hospital General de Massachusetts, con 67 pacientes, los porcentajes fueron similares: un 72% respondió inicialmente al tratamiento y un 39% seguía respondiendo al presentar los datos después de un seguimiento medio de 29 meses.
En el tercer ensayo clínico, de fase 2, realizado en UCLA con 120 pacientes, quienes recibieron la combinación de tres fármacos pasaron una media de 16 meses sin que la enfermedad progresara. En quienes recibieron sólo dos fármacos –las dos mismas terapias moleculares pero no la inmunoterapia-, el tiempo medio sin que el cáncer progresara fue de 10 meses.

Efectos secundarios

Esta combinación de fármacos se reservaría en un principio a casos graves para los que no hay otras opciones de tratamiento

Como ha ocurrido en ensayos anteriores con inmunoterapias, una minoría de pacientes ha respondido al tratamiento durante periodos excepcionalmente largos. Una de ellas, una joven operadora bursátil de Wall Street gran aficionada al snowboard y al montañismo, se ha prestado a contar su experiencia.
Cuando le diagnosticaron el melanoma en 2014, tenía tumores del tamaño de pelotas de golf en varios órganos. Poco después, con una esperanza de vida de meses, empezó a depender de una silla de ruedas. En aquel momento, parecía que nunca más podría volver a las montañas. Pero empezó a mejorar días después de iniciar el tratamiento. “El tamaño de los tumores empezó a reducirse casi inmediatamente”, recuerda en un comunicado difundido por UCLA. “Antes de un mes, podía volver a caminar por mí misma, y tres meses después estaba en un avión rumbo a las montañas rocosas de Canadá”. Cinco años más tarde, está aparentemente curada, sin ningún rastro detectable de cáncer.
“No es un caso típico”, admite Ribas. Pero es una prueba de que la combinación de terapias moleculares e inmunoterapias “ofrece una nueva posibilidad de tratamiento a pacientes para los que hasta ahora no teníamos ninguna opción”.
-
https://www.lavanguardia.com/ciencia/20190808/463938936263/combinacion-farmacos-cancer-melanoma-antoni-ribas.html

 

miércoles, 7 de agosto de 2019

AlphaZero: la inteligencia artificial con intuición humana

AlphaZero: la inteligencia artificial con intuición humana

El programa de ajedrez creado por DeepMind muestra características que se creían exclusivas de las personas y abre nuevas vías de investigación científica


AlphaZero: la inteligencia artificial con intuición humana
Con un entrenamiento de unas pocas horas, AlphaZero derrotó a los mejores programas de inteligencia artificial (DeepMind Technologies Ltd)
A menudo se abusa de la expresión “cambio de paradigma” cuando se trata de explicar el alcance de los avances tecnológicos que han acontecido en las últimas décadas. En ocasiones está justificada, como en el caso de la irrupción de internet a finales del siglo pasado o la presentación del iPhone en 2007; en algunos casos está por ver si las tecnologías cumplen la promesa de transformación que apuntan (como el papel de los robots en la sociedad del futuro próximo o la magnitud del sistemas de conducción autónomos, por ejemplo); y en otros muchos, la profecía de “metamorfosis social” se ha quedado en nada (¿quién se acuerda de las Google Glass?).
La inteligencia artificial es el campo que casi todas las mentes preclaras del planeta perciben como el principal impulsor de las grandes transformaciones que se avecinan. Coloquialmente, este término se refiere a la capacidad de las máquinas de razonar y comportarse como los seres humanos. Lo habitual es que estos sistemas se alimenten del conocimiento aportado por personas, ya sea mediante la programación informática o a través de su capacidad de captar y procesar ingentes cantidades de datos -generados también por la actividad humana- con la finalidad de mejorar el rendimiento de los hombres en múltiples áreas.


Un antes y un después en el mundo del ajedrez

Diciembre de 2017: AlphaZero arrasa a Stockfish

Sin embargo, la evolución que significa AlphaZero, un programa desarrollado por la empresa inglesa DeepMind -adquirida por Google en 2014- amenaza con cambiarlo todo. El rasgo diferencial de este sistema de aprendizaje profundo -que de momento se ha aplicado al ajedrez y a otros juegos de estrategia- es que no necesita del conocimiento de la supervisión humana para adquirir en solo unas horas un nivel de entendimiento del juego superior al del mejor de los humanos. No sólo es superior a nosotros por su capacidad superlativa de manejar millones de cálculos por segundo y analizar todos los patrones de desarrollo estratégico posibles (lo que en computación se conoce como “fuerza bruta”), sino que también nos supera en características que creíamos exclusivas de las personas: la intuición, la creatividad, la capacidad de tomar riesgos e incluso el talento para generar belleza a través del juego.

El noruego Magnus Carlsen, actual campeón mundial de ajedrez
El noruego Magnus Carlsen, actual campeón mundial de ajedrez
Los maestros del ajedrez que han analizado las partidas de AlphaZero alucinan. No porque gane, sino por las estrategias que despliega para ganar. En su presentación en sociedad, en diciembre de 2017, AlphaZero arrasó a Stockfish, el mejor programa de ajedrez del momento y la herramienta de preparación de la mayoría de ajedrecistas de élite. De 100 partidas, ganó 28 e hizo tablas en 72. No perdió ni una. Fue un auténtico shock. Los expertos dijeron entonces que el ajedrez había cambiado para siempre.
La nueva máquina aprendió a jugar por su cuenta con un solo input: las reglas del juego. Lo único que sabía era cuáles eran los movimientos posibles de cada pieza. No tenía información alguna sobre libros de aperturas o tabla de finales, el amplísimo abanico de jugadas teóricas que supuestamente proporciona las mínimas ventajas que los grandes jugadores (y programas informáticos) necesitan para dominar y ganar las partidas. Tampoco conocía el supuesto valor de cada pieza. AlphaZero adquirió un inigualable conocimiento del juego “único y superior” -tal como lo definió el legendario maestro de ajedrez Gary Kasparov- en una sola jornada de trabajo enfrentándose a sí mismo en 44 millones de partidas, más de mil por segundo.

Más allá de la “fuerza bruta”

Una máquina que se guía (también) por su instinto

El impacto que ha supuesto la aparición de AlphaZero en la comunidad ajedrecística ha sido tal que Magnus Carlsen (28 años), actual campeón del mundo, dijo que el programa es su “nuevo héroe”, admitiendo explícitamente que ha incorporado a su estilo de juego ideas prestadas de las partidas del sistema de inteligencia artificial:
En su número de junio, la revista ‘Peón de Rey’, dirigida y editada por el Gran Maestro Internacional español Miguel Illescas, analiza precisamente cómo ha variado el juego de Carlsen sobre la base de lo que el Gran Maestro noruego parece haber aprendido de AlphaZero. El principal aprendizaje que Carlsen ha imitado de la máquina es su disposición a sacrificar piezas al principio de la partida a cambio de mantener la iniciativa del juego. Esto es algo que va en contra de los principios del ajedrez clásico y de la propia manera de jugar del número 1 en los últimos años, mucho más académica y basada en explotar una mínima ventaja para ir avanzando lenta pero inexorablemente hacia la victoria final.
Según el análisis de Illescas y su equipo, Carlsen juega ahora de manera mucho más dinámica y agresiva: realiza maniobras a priori extrañas desde el punto de vista “académico”, especula con piezas valiosas para obtener ventajas a largo plazo y parece ignorar algunos de los patrones esenciales del juego. Y los resultados son excepcionales: Carlsen está en mejor forma que nunca, jugando a un nivel nunca visto en la historia de este deporte.

Nuevas vías para la investigación

El potencial que se esconde tras AlphaZero


¿Qué nos dice el hecho que el mejor de los humanos en su especialidad aprenda de una máquina cuya principal virtud es la falta de prejuicios en su proceso de aprendizaje? Una posible respuesta es que AlphaZero puede significar, esta vez sí, un cambio de paradigma. Y no solo en el ajedrez, sino en un sinfín de disciplinas científicas: un sistema que descubre nuevas vías hacia la excelencia sobre la base del método de ensayo y error puede significar avances en casi cualquier área. “No sería la primera vez que el ajedrez sirve como campo de pruebas para el desarrollo del conocimiento humano en direcciones insospechadas”, recuerda el biólogo e investigador Diego Rasskin Gutman en la crítica que publica en el mismo número de ‘Peón de Rey’ sobre el libro ‘Game Changer’, que analiza las mejores partidas de AlphaZero.
El propio Gary Kasparov afirmó recientemente que cree que el programa podría mejorar notablemente la investigación médica. No en vano, una versión modificada del mismo, AlphaFold, ya ha demostrado una precisión extraordinaria para predecir cómo se pliegan ciertas proteínas basándose únicamente en su secuencia genética. Este avance sugiere que este tipo de softwares podrían ser de vital importancia para ayudar a los científicos en el diagnóstico y el tratamiento de enfermedades como el Parkinson y el Alzheimer, asociadas precisamente a deformaciones en proteínas que intervienen en funciones cerebrales como el aprendizaje o la memoria.

El Alzheimer es la enfermedad neurodegenerativa más prevalente en el mundo.Dlumen
El Alzheimer es la enfermedad neurodegenerativa más prevalente en el mundo.Dlumen
-
https://www.lavanguardia.com/tecnologia/20190807/463277991361/alphazero-inteligencia-artificial.html

El método que predice la probabilidad de sobrevivir a una enfermedad grave

El método que predice la probabilidad de sobrevivir a una enfermedad grave

El Clínic desarrolla un modelo matemático para determinar la secuencia de aparición de los síntomas de la malaria severa

El método que predice la probabilidad de sobrevivir a una enfermedad grave
Un modelo matemático para ayudar a combatir las enfermedades graves (Freepik / Mario Chaparro)
Investigadores del Hospital Clínic de Barcelona e ISGlobal, en colaboración con el Centro de Medicina de Precisión del Imperial College London, han desarrollado un modelo matemático que permite determinar la secuencia de aparición de los síntomas de la malaria grave. El sistema, que puede vaticinar el final más probable de una persona con esta enfermedad, puede ser trasladable a otras patologías, como el cáncer, y permitirá al médico ir un paso por delante de la enfermedad.
“Sería el equivalente a establecer la línea narrativa de una película en base a un solo fotograma”, explica a La Vanguardia el doctor Climent Casals-Pascual, microbiólogo, consultor del Centre de Diagnòstic Biomèdic del Hospital Clínic y principal responsable de la investigación, publicada en la revista Nature Digital Medicine . “Pero todavía hay más, este método nos permite determinar el final más probable de la película, con el objetivo de modificarlo”, añade.
Algoritmos para ir un paso por delante de la enfermedad
Algoritmos para ir un paso por delante de la enfermedad (Freepik / Mario Chaparro)
Lo que han conseguido estos investigadores es establecer la línea temporal por la que discurre la malaria grave. Pongamos que la patología está compuesta, es un decir, por 10 síntomas, siendo el número uno el primero que aparece y el décimo el último que cierra la cronología. “Si al médico le llega a la consulta un paciente con el cuarto síntoma, el profesional sabrá que esta persona está mejor que una que se hubiera presentado con el sexto”, esgrime Casals-Pascual.
Al final, lo que pretenden los investigadores “es establecer esta secuencia para ver qué tratamiento es más adecuado en cada momento”. “Por eso se llama medicina de precisión”, subraya este microbiólogo. “A cada paciente hay que darle un riesgo y una probabilidad individual, y esa es la transición que estamos haciendo”, agrega.

A cada paciente hay que darle un riesgo y una probabilidad individual”

Los responsables del estudio han desarrollado el modelo matemático gracias al análisis de los casos de 3.000 niños de Gambia afectados por la malaria grave, una enfermedad que mata anualmente a casi medio millón de personas, la mayoría niños menores de cinco años del África subsahariana.
“El ordenador seleccionó cuáles eran los rasgos clínicos más probables que acaban con la vida de las personas –explica Casals-Pascual-, y gracias a ese aprendizaje [machine learning] la máquina puede predecir la posibilidad que tiene un paciente de sobrevivir”.

Es como si fuera un software de identificación facial: te reconoce en qué punto estás de la enfermedad”

“Es como si fuera un software de identificación facial: te reconoce en qué punto estás de la enfermedad y las probabilidades de supervivencia”, prosigue este investigador. Esta información “ayuda al médico a saber si el paciente requiere de un tratamiento más agresivo o más leve en función de si está en un estadio más o menos avanzado”.
Para validar su método, los investigadores enviaron un cuestionario, con la misma lista de síntomas analizados por el algoritmo, a 30 expertos mundiales de malaria con gran experiencia en el trópico para que los ordenaran cronológicamente. “Vimos que había una correlación muy buena”, explica Casals-Pascual. Eso les llevó a la conclusión de que es posible “establecer una equiparación entre el proceso lógico de pensamiento de un médico y un ordenador que no sabe nada de medicina”.

Las matemáticas no nos solucionan el problema, si no, la medicina la harían los robots, pero sí nos ayudan”

Según este investigador, los síntomas que deben poner al profesional en alerta ante un paciente con malaria son la pérdida de consciencia y la dificultad para respirar. “Eso ya lo sabíamos clínicamente sin necesidad de haber desarrollado nuestro modelo, pero lo interesante es que sólo dándole unos parámetros fríos, un algoritmo te permite aprender medicina”, subraya el investigador del Clínic.
Casals-Pascual ahonda en esta última idea: “El algoritmo nos puede enseñar algo de la enfermedad que nosotros hasta ahora no habíamos captado, que tiene más relevancia de lo que creíamos”. Al final se trata de usar la medicina digital para avanzar: “Las matemáticas no nos solucionan el problema, si no, la medicina la harían los robots, pero sí nos ayudan”.
Este sistema matemático podrá ser usado para otras patologías
Este sistema matemático podrá ser usado para otras patologías (Freepik / Mario Chaparro)
Otra buena noticia es que este modelo puede ser exportable a otras patologías: “Se podrá aplicar en cánceres, en lo que se quiera”, arguye este microbiólogo. Eso sí, con matices: cada enfermedad requerirá de unos ajustes. “Nosotros hemos incluido en el algoritmo unos datos que tienen mucho sentido para el estudio de la malaria. Si alguien quisiera hacer lo mismo con cáncer, obviamente no habría ningún problema, pero habría que utilizar y optimizar el algoritmo para el estudio de esa enfermedad concreta”, agrega este investigador del Clínic.
“En el momento que tuvieran una base de datos equivalente a la nuestra, los investigadores de cáncer que quisieran podrían usar nuestro modelo matemático, que está abierto a todo aquel que lo quiera usar”, añade.

El modelo funciona con cualquier enfermedad que tenga un cierto grado de complejidad”

Según Casals-Pascual, “el modelo funciona con cualquier enfermedad que tenga un cierto grado de complejidad, donde la secuencia de los acontecimientos no queda muy clara”.
“La limitación de la explotación del big data dependerá de la cantidad de información digitalizada por cada enfermedad. Pero en los hospitales hoy en día ya se digitaliza todo”, concluye este investigador.