traductor

miércoles, 28 de noviembre de 2018

A Statistical Search for Genomic Truths

A Statistical Search for Genomic Truths

The computer scientist Barbara Engelhardt develops machine-learning models and methods to scour human genomes for the elusive causes and mechanisms of disease.

“We don’t have much ground truth in biology.” According to Barbara Engelhardt, a computer scientist at Princeton University, that’s just one of the many challenges that researchers face when trying to prime traditional machine-learning methods to analyze genomic data. Techniques in artificial intelligence and machine learning are dramatically altering the landscape of biological research, but Engelhardt doesn’t think those “black box” approaches are enough to provide the insights necessary for understanding, diagnosing and treating disease. Instead, she’s been developing new statistical tools that search for expected biological patterns to map out the genome’s real but elusive “ground truth.”
Engelhardt likens the effort to detective work, as it involves combing through constellations of genetic variation, and even discarded data, for hidden gems. In research published last October, for example, she used one of her models to determine how mutations relate to the regulation of genes on other chromosomes (referred to as distal genes) in 44 human tissues. Among other findings, the results pointed to a potential genetic target for thyroid cancer therapies. Her work has similarly linked mutations and gene expression to specific features found in pathology images.
The applications of Engelhardt’s research extend beyond genomic studies. She built a different kind of machine-learning model, for instance, that makes recommendations to doctors about when to remove their patients from a ventilator and allow them to breathe on their own.
She hopes her statistical approaches will help clinicians catch certain conditions early, unpack their underlying mechanisms, and treat their causes rather than their symptoms. “We’re talking about solving diseases,” she said.
To this end, she works as a principal investigator with the Genotype-Tissue Expression (GTEx) Consortium, an international research collaboration studying how gene regulation, expression and variation contribute to both healthy phenotypes and disease. Right now, she’s particularly interested in working on neuropsychiatric and neurodegenerative diseases, which are difficult to diagnose and treat.
Quanta Magazine recently spoke with Engelhardt about the shortcomings of black-box machine learning when applied to biological data, the methods she’s developed to address those shortcomings, and the need to sift through “noise” in the data to uncover interesting information. The interview has been condensed and edited for clarity.

What motivated you to focus your machine-learning work on questions in biology?

I’ve always been excited about statistics and machine learning. In graduate school, my adviser, Michael Jordan [at the University of California, Berkeley], said something to the effect of: “You can’t just develop these methods in a vacuum. You need to think about some motivating applications.” I very quickly turned to biology, and ever since, most of the questions that drive my research are not statistical, but rather biological: understanding the genetics and underlying mechanisms of disease, hopefully leading to better diagnostics and therapeutics. But when I think about the field I am in — what papers I read, conferences I attend, classes I teach and students I mentor — my academic focus is on machine learning and applied statistics.
We’ve been finding many associations between genomic markers and disease risk, but except in a few cases, those associations are not predictive and have not allowed us to understand how to diagnose, target and treat diseases. A genetic marker associated with disease risk is often not the true causal marker of the disease — one disease can have many possible genetic causes, and a complex disease might be caused by many, many genetic markers possibly interacting with the environment. These are all challenges that someone with a background in statistical genetics and machine learning, working together with wet-lab scientists and medical doctors, can begin to address and solve. Which would mean we could actually treat genetic diseases — their causes, not just their symptoms.

You’ve spoken before about how traditional statistical approaches won’t suffice for applications in genomics and health care. Why not?

First, because of a lack of interpretability. In machine learning, we often use “black-box” methods — [classification algorithms called] random forests, or deeper learning approaches. But those don’t really allow us to “open” the box, to understand which genes are differentially regulated in particular cell types or which mutations lead to a higher risk of a disease. I’m interested in understanding what’s going on biologically. I can’t just have something that gives an answer without explaining why.
The goal of these methods is often prediction, but given a person’s genotype, it is not particularly useful to estimate the probability that they’ll get Type 2 diabetes. I want to know how they’re going to get Type 2 diabetes: which mutation causes the dysregulation of which gene to lead to the development of the condition. Prediction is not sufficient for the questions I’m asking.
A second reason has to do with sample size. Most of the driving applications of statistics assume that you’re working with a large and growing number of data samples — say, the number of Netflix users or emails coming into your inbox — with a limited number of features or observations that have interesting structure. But when it comes to biomedical data, we don’t have that at all. Instead, we have a limited number of patients in the hospital, a limited number of genotypes we can sequence — but a gigantic set of features or observations for any one person, including all the mutations in their genome. Consequently, many theoretical and applied approaches from statistics can’t be used for genomic data.

What makes the genomic data so challenging to analyze?

The most important signals in biomedical data are often incredibly small and completely swamped by technical noise. It’s not just about how you model the real, biological signal — the questions you’re trying to ask about the data — but also how you model that in the presence of this incredibly heavy-handed noise that’s driven by things you don’t care about, like which population the individuals came from or which technician ran the samples in the lab. You have to get rid of that noise carefully. And we often have a lot of questions that we would like to answer using the data, and we need to run an incredibly large number of statistical tests — literally trillions — to figure out the answers. For example, to identify an association between a mutation in a genome and some trait of interest, where that trait might be the expression levels of a specific gene in a tissue. So how can we develop rigorous, robust testing mechanisms where the signals are really, really small and sometimes very hard to distinguish from noise? How do we correct for all this structure and noise that we know is going to exist?

So what approach do we need to take instead?

My group relies heavily on what we call sparse latent factor models, which can sound quite mathematically complicated. The fundamental idea is that these models partition all the variation we observed in the samples, with respect to only a very small number of features. One of these partitions might include 10 genes, for example, or 20 mutations. And then as a scientist, I can look at those 10 genes and figure out what they have in common, determine what this given partition represents in terms of a biological signal that affects sample variance.
So I think of it as a two-step process: First, build a model that separates all the sources of variation as carefully as possible. Then go in as a scientist to understand what all those partitions represent in terms of a biological signal. After this, we can validate those conclusions in other data sets and think about what else we know about these samples (for instance, whether everyone of the same age is included in one of these partitions).

When you say “go in as a scientist,” what do you mean?

I’m trying to find particular biological patterns, so I build these models with a lot of structure and include a lot about what kinds of signals I’m expecting. I establish a scaffold, a set of parameters that will tell me what the data say, and what patterns may or may not be there. The model itself has only a certain amount of expressivity, so I’ll only be able to find certain types of patterns. From what I’ve seen, existing general models don’t do a great job of finding signals we can interpret biologically: They often just determine the biggest influencers of variance in the data, as opposed to the most biologically impactful sources of variance. The scaffold I build instead represents a very structured, very complex family of possible patterns to describe the data. The data then fill in that scaffold to tell me which parts of that structure are represented and which are not.
So instead of using general models, my group and I carefully look at the data, try to understand what’s going on from the biological perspective, and tailor our models based on what types of patterns we see.

How does the latent factor model work in practice?

We applied one of these latent factor models to pathology images [pictures of tissue slices under a microscope], which are often used to diagnose cancer. For every image, we also had data about the set of genes expressed in those tissues. We wanted to see how the images and the corresponding gene expression levels were coordinated.
We developed a set of features describing each of the images, using a deep-learning method to identify not just pixel-level values but also patterns in the image. We pulled out over a thousand features from each image, give or take, and then applied a latent factor model and found some pretty exciting things.
For example, we found sets of genes and features in one of these partitions that described the presence of immune cells in the brain. You don’t necessarily see these cells on the pathology images, but when we looked at our model, we saw a component there that represented only genes and features associated with immune cells, not brain cells. As far as I know, no one’s seen this kind of signal before. But it becomes incredibly clear when we look at these latent factor components.
Barbara Engelhardt, a computer scientist at Princeton University, explains why traditional machine-learning techniques have often fallen short for genomic analysis, and how researchers are overcoming that challenge.
Video: Barbara Engelhardt, a computer scientist at Princeton University, explains why traditional machine-learning techniques have often fallen short for genomic analysis, and how researchers are overcoming that challenge.
Sarah Blesener for Quanta Magazine

You’ve worked with dozens of human tissue types to unpack how specific genetic variations help shape complex traits. What insights have your methods provided?

We had 44 tissues, donated from 449 human cadavers, and their genotypes (sequences of their whole genomes). We wanted to understand more about the differences in how those genotypes expressed their genes in all those tissues, so we did more than 3 trillion tests, one by one, comparing every mutation in the genome with every gene expressed in each tissue. (Running that many tests on the computing clusters we’re using now takes about two weeks; when we move this iteration of GTEx to the cloud as planned, we expect it to take around two hours.) We were trying to figure out whether the [mutant] genotype was driving distal gene expression. In other words, we were looking for mutations that weren’t located on the same chromosome as the genes they were regulating. We didn’t find very much: a little over 600 of these distal associations. Their signals were very low.
But one of the signals was strong: an exciting thyroid association, in which a mutation appeared to distally regulate two different genes. We asked ourselves: How is this mutation affecting expression levels in a completely different part of the genome? In collaboration with Alexis Battle’s lab at Johns Hopkins University, we looked near the mutation on the genome and found a gene called FOXE1, for a transcription factor that regulates the transcription of genes all over the genome. The FOXE1 gene is only expressed in thyroid tissues, which was interesting. But we saw no association between the mutant genotype and the expression levels of FOXE1. So we had to look at the components of the original signal we’d removed before — everything that had appeared to be a technical artifact — to see if we could detect the effects of the FOXE1 protein broadly on the genome.
We found a huge impact of FOXE1 in the technical artifacts we’d removed. FOXE1, it seems, regulates a large number of genes only in the thyroid. Its variation is driven by the mutant genotype we found. And that genotype is also associated with thyroid cancer risk. We went back to the thyroid cancer samples — we had about 500 from the Cancer Genome Atlas — and replicated the distal association signal. These things tell a compelling story, but we wouldn’t have learned it unless we had tried to understand the signal that we’d removed.

What are the implications of such an association?

Now we have a particular mechanism for the development of thyroid cancer and the dysregulation of thyroid cells. If FOXE1 is a druggable target — if we can go back and think about designing drugs to enhance or suppress the expression of FOXE1 — then we can hope to prevent people at high thyroid cancer risk from getting it, or to treat people with thyroid cancer more effectively.
The signal from broad-effect transcription factors like FOXE1 actually looks a lot like the effects we typically remove as part of the noise: population structure, or the batches the samples were run in, or the effects of age or sex. A lot of those technical influences are going to affect approximately similar numbers of genes — around 10 percent — in a similar way. That’s why we usually remove signals that have that pattern. In this case, though, we had to understand the domain we were working in. As scientists, we looked through all the signals we’d gotten rid of, and this allowed us to find the effects of FOXE1 showing up so strongly in there. It involved manual labor and insights from a biological background, but we’re thinking about how to develop methods to do it in a more automated way.

So with traditional modeling techniques, we’re missing a lot of real biological effects because they look too similar to noise?

Yes. There are a ton of cases in which the interesting pattern and the noise look similar. Take these distal effects: Pretty much all of them, if they are broad effects, are going to look like the noise signal we systematically get rid of. It’s methodologically challenging. We have to think carefully about how to characterize when a signal is biologically relevant or just noise, and how to distinguish the two. My group is working fairly aggressively on figuring that out.

Why are those relationships so difficult to map, and why look for them?

There are so many tests we have to do; the threshold for the statistical significance of a discovery has to be really, really high. That creates problems for finding these signals, which are often incredibly small; if our threshold is that high, we’re going to miss a lot of them. And biologically, it’s not clear that there are many of these really broad-effect distal signals. You can imagine that natural selection would eliminate the kinds of mutations that affect 10 percent of genes — that we wouldn’t want that kind of variability in the population for so many genes.
But I think there’s no doubt that these distal associations play an enormous role in disease, and that they may be considered as druggable targets. Understanding their role broadly is incredibly important for human health.
This article was reprinted on Wired.com.
Barbara Engelhardt, a Princeton University computer scientist, wants to strengthen the foundation of biological knowledge in machine-learning approaches to genomic analysis.
Sarah Blesener for Quanta Magazine
https://www.quantamagazine.org/barbara-engelhardts-statistical-search-for-genomic-truths-20180227/?utm_content=buffer59aec&utm_medium=social&utm_source=twitter.com&utm_campaign=buffer

 

lunes, 26 de noviembre de 2018

Javier Santaolalla, el youtuber de la física

Doctor en Física de Partículas, ha encontrado en YouTube un medio para difundir el conocimiento científico con humor

Javier Santaolalla, el youtuber de la física
Javier Santaolalla posa en las instalaciones del CERN, donde investigó con una beca predoctoral del Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (Ignacio Izquierdo / Ignacio Izquierdo)
 












“Nací físico, y me hice ingeniero, primera contradicción. (...) Tras doctorarme en Física de Partículas ahora me dedico a hablar de física. Soy miembro fundador de Big Van, científicos sobre ruedas, hago monólogos científicos, soy autor de seis libros (...) y tengo una trilogía de canales de YouTube: Date un Voltio, Date un Vlog y Date un Mi”. Así resume el propio Javier Santaolalla (Burgos, 1982) su trayectoria profesional, en la que también caben experiencia laboral en satélites en la agencia del espacio francesa (CNES), un periodo de investigación en el CERN y la coordinación nacional del proyecto de innovación educativa Creations, financiado por la Comisión Europea.
¿Y qué hace un ingeniero de Telecomunicaciones y doctor en Física de Partículas actuando como monologuista y youtuber? “Comencé haciendo divulgación mientras investigaba, incorporándome como guía voluntario para acompañar a los grupos de escolares, jubilados y profesionales que venían a visitar el CERN; ahí me di cuenta del esfuerzo que supone transmitir conceptos complejos al público en general, vi que yo disfrutaba haciéndolo porque aprendía, y la gente lo apreciaba y lo valoraba, así que cuando la faceta de investigador y la de divulgador se hicieron incompatibles aposté por la segunda porque creo que hay una necesidad social de comunicar la física a un nivel diferente”, responde Santaolalla en una conversación telefónica con La Vanguardia.

Sus tres canales –’Date un voltio’, ‘Date un Vlog’ y ‘Date un mi’– reúnen más de 30 millones de reproducciones

Con esa vocación de comunicar empezó a hacer monólogos científicos con humor, escribió libros, organizó talleres y, hace tres años, creó su primer canal en YouTube. “Comencé con Date un voltio para abordar curiosidades científicas, a modo de revista de ciencia; luego decidí complementarlo con Date un Vlog para quienes ya tienen ciertos conocimientos de física y quieren profundizar más; y finalmente, viendo que mi familia no veía mis vídeos porque no les interesaban, lancé Date un mi para ese público que busca una mínima cultura sobre ciencia pero sin entrar en detalles”. En todos ellos recurre a las analogías, el humor y un lenguaje cercano para explicar conceptos abstractos y, a juzgar por los resultados –más de 600.000 suscriptores y 30 millones de reproducciones– parece que lo consigue.
“Quizá mi trabajo funciona porque yo no soy un friki; fui un niño normal, curioso, pero más aficionado al deporte que a los libros, pegado a la calle, con una infancia promedio y amigos promedio, y eso me conecta a las personas”, justifica.
Admite que, por el camino del humor y la divulgación, sus explicaciones a veces pierden algo de rigurosidad, pero cree que vale la pena si así se acerca la ciencia al gran público y se fomentan vocaciones científicas. “Con un vídeo en YouTube o un monólogo no puedes pretender dar una clase de universidad, te has de permitir ciertas libertades para poder comunicar”, comenta. Y añade que ese lenguaje más cercano y trufado de humor forma parte del mensaje que trata de transmitir: “Que un científico es una persona normal, con aficiones normales, y no necesariamente alguien a quien le cuesta socializar” .
Como explicó en el encuentro de divulgadores organizado este verano por la UCC+i en la Universidad de Barcelona, su aspiración es “normalizar la ciencia” y lograr que “hablar de física cuántica sea algo común entre los jóvenes”. Y cree que en ese reto YouTube puede ser una herramienta muy útil porque es a esta plataforma a donde acuden los jóvenes y adolescentes en busca de entretenimiento, “y haciendo entretenimiento científico cuelo yo la ciencia”.
Santaolalla asegura que en realidad su trabajo como youtuber no dista tanto de la labor científica convencional porque se pasa el día leyendo, estudiando, pensando, investigando, aprendiendo... para luego transmitir. Con la diferencia de que tiene un retorno más inmediato a través de los mensajes de su público. “Soy una persona curiosa a la que le gusta mucho aprender, captar la vida al máximo y compartir lo que aprendo, y recibir mensajes de cariño e interés de quienes ven mi trabajo resulta gratificante y muy adictivo”, relata.
Pero aunque dedica mucho tiempo a sus canales de YouTube, su labor de divulgación de la física no se limita a ellos. “Una de las cosas que me gusta de mi trabajo es que es variado y que no tengo jefe; me muevo por impulsos creativos y por proyectos que me motivan, que me suponen un reto”. De ese modo explica que además de crear vídeos e impartir conferencias haya impulsado un proyecto teatral, un programa de radio, una iniciativa cinematográfica... Acaba de publicar un anuario científico, está terminando un libro sobre física dirigido a adolescentes y mantiene negociaciones sobre un par de proyectos audiovisuales que podrían acabar “colando” la física en televisión. “Me gusta variar, voy por rachas, pero siempre sobre el pilar de mi vida, que es aprender en base a mi curiosidad y luego compartirlo de forma asequible para todas las personas”, reitera.
https://www.lavanguardia.com/ciencia/20181006/452184555899/javier-santaolalla-youtube-fisica-.html?utm_campaign=botones_sociales&utm_source=facebook&utm_medium=social 
-
 
 https://javiersantaolalla.es/
Nací físico, y me hice ingeniero, primera contradicción. Burgalés y canario, científico y artista, practico el arte de abarcar mucho y apretar lo que se puede. Viajo mucho, hago deporte, me encantan mi familia y mis amigos, pero como igual esto te importa más bien poco, te cuento lo que sé hacer. Ingeniero de telecomunicaciones por la ULPGC, con experiencia laboral en satélites en la agencia del espacio francesa (CNES). Me titulé en física estudiando los veranos mientras mis amigos iban a la playa. Obtuve un máster en física fundamental investigando con una beca del CIEMAT en el CERN. Todo ello en 9 años y sin usar poderes cuánticos. Tras doctorarme en física de partículas ahora me dedico a hablar de física. Soy miembro fundador de Big Van, científicos sobre ruedas, hago espectáculos científicos (monólogos), conductor de galas, soy autor de 6 libros, presento el Telecienciario en el  diario El Mundo, investigo en educación con un proyecto europeo y tengo una trilogía de  canales de Youtube: Date un Voltio, Date un Vlog y Date un Mí. Y lo mejor de todo es que encima me pagan por hacerlo.
 
https://javiersantaolalla.es/biografia
-------------

Date un Mi

Tesla:
 
https://www.youtube.com/watch?v=Av3DCy2SZCQ&feature=share 
---
https://www.youtube.com/watch?v=Z6yvJb4LjHE&feature=share
---
https://www.youtube.com/watch?v=x1J3Z-3Vs0g&feature=share
-
https://www.youtube.com/watch?v=fSez55O2oSE&feature=share
-
https://www.youtube.com/watch?v=F4BaHKDS3pE&feature=share
-
https://www.youtube.com/watch?v=2KkYvmyPozI&feature=share
-
 
CERN
https://www.eldiario.es/turing/CERN-guia-visita_0_282072167.html?fbclid=IwAR2muxZzaSkHem1D2RxTaUG3KM_t8XkHdgTaxo2bkQ3BNVuKXK5o-K0Ecck
En FAce
https://www.facebook.com/Javier-Santaolalla-Date-un-Voltio-343219849200135/?__tn__=kCH-R&eid=ARA3Ylhzu8GB_AVl90TSiQAAa45dQPSYREz8UgVXjyU1MK9pRj4MWpkKzqARHIDbIvBjlTiIN3-S6uwi&hc_ref=ARS9HfvuGc6nzkNbwDHh2FPt1KkKZQNXgs45vUIvavcbFRngXHnGFrR_gf_TivHGeLI&fref=nf&__xts__[0]=68.ARAJHEKb6FBL2QeITMn9Xelu5MCftboXoF2_KUd-wexuy9a0Pak4BXX8cF7s9tcB0Xp8SR-EK5D0FyYevLmsVF9caaXdh_DaTWu5EQeXoAW1R8rDf0ZNMJU1S_xQvaPa2TOuPOUvyhYmKo4CLg-98Ps-sqA-e2TwxVe8fHhgLq---k7wr2fUH4ZXttWYhSIVh0DgybPd6GKqnDyE5u0doEmDumOHdEG5kyzn--3Ddgrmdu2e89u3klGepxiXF6QgDbM1GeDwvEt-yj5y3ut9yNEtcPBnDwXcG6cnrcTIx7c0n980swz1VeJkvL57T4euYcLAvI9O7tRvpiEM3ulX-SdMOikGs-c

 
 

sábado, 24 de noviembre de 2018

Los diagramas de Feynman, aplicados a interacciones entre láser y átomo

Los diagramas de Feynman, aplicados a interacciones entre láser y átomo





Un grupo de científicos pertenecientes a cinco instituciones europeas (una de Francia, tres de Alemania, y una de Bosnia), bajo la dirección de M. Lewenstein de la Universidad de Hannover (Alemania), ha llevado a cabo un trabajo (Science, 4 de mayo) sobre una nueva aplicación de los conocidos diagramas de Feynman. Los investigadores han estudiado las interacciones entre átomos y láseres muy intensos, con energías capaces de arrancar electrones ionizando los átomos. En el proceso de arrancar los electrones se genera luz a frecuencias que son un múltiplo muy grande (más de 300) de la frecuencia del láser que los excita; al mismo tiempo, los electrones necesitan más energía para ser liberados del átomo cuando se les excita con láseres intensos que con otros métodos. Los electrones quedan atrapados en la vecindad del ión, interaccionan con la luz y llegan a emitir rayos X antes de salir disparados a altas velocidades.
El trabajo citado (Salieres et al.) muestra de una manera clara cómo se pueden entender estos procesos mediante la formulación de Feynman de la mecánica cuántica. La comprensión del fenómeno permitirá optimizar la producción de rayos X, con una longitud de onda hasta 1.000 veces menor que la visible, de manera coherente con solo un láser de longitud de onda visible.
La mecánica cuántica nació hace poco mas de 100 años con el trabajo de Planck. Durante los primeros 30 años del siglo XX su construcción alcanzó madurez y credibilidad con la formulación de la ecuación de Schrödinger. El éxito en su capacidad predictiva fue y sigue siendo enorme, pero requiere dejar a un lado nuestra intuición basada en el mundo macroscópico.
A finales de los años cuarenta, un joven físico estadounidense, Richard Feynman, reformuló la mecánica cuántica en términos de órbitas, un concepto mucho más cercano a la intuición macroscópica. Feynman estableció que los resultados mecánico-cuánticos pueden representarse como la suma de todos los posibles recorridos de las órbitas que unen un punto inicial en el espacio y en el tiempo, con un punto final también en el espacio y en el tiempo. Cada uno de esos recorridos contribuye de manera especial y lleva una fase característica (un reloj propio relacionado con el recorrido). Para encontrar el resultado es necesario tomar en cuenta cada una de las fases, pues si un recorrido llegara con la manecilla apuntando a las 12 y otro apuntando a las 6, los dos se anularían, pues tendrían una interferencia destructiva.
Esta formulación ha sido muy utilizada en la física de altas energías, la que estudia las partículas y los campos elementales. Gracias a la formulación de Feynman ha sido posible calcular efectos sutiles que muestran las interacciones de las fuerzas de la naturaleza. La dificultad siempre reside en la necesidad de encontrar un número muy grande, de hecho infinito, de recorridos y calcular detalladamente las fases para luego poder sumarlos y obtener el resultado deseado.
Los investigadores del equipo franco-bosnio-alemán encontraron al estudiar la interacción entre un láser intenso y un átomo que cuando el electrón queda liberado del átomo, tiene un número muy reducido de órbitas que puede seguir. El electrón puede alejarse del ión y terminar así su interacción, pero mucho más interesante es que el electrón propulsado por el campo eléctrico del láser siga una órbita que primero lo aleje y luego lo vuelva a acercar al ión provocando una colisión con éste o una segunda vuelta antes de salir disparado. Si bien el átomo ya es un ión, el electrón todavía no está libre y se mantiene en su vecindad, incluso le da la vuelta, retrasando el fin de la ionización. La identificación de las dos o tres órbitas más importantes con sus respectivas fases o relojes propios, permite a los científicos calcular con gran exactitud el complejo fenómeno de la interacción entre el átomo y el láser intenso. Han aprovechado la formulación de Feynman para ilustrar de manera muy clara el proceso físico involucrado.
Esta visión de órbitas, casi 'astronómicas', en donde el electrón parece ser un satélite con reloj propio (fase) enviado al espacio desde la Tierra, ayuda a dilucidar procesos que si no resultan muy complicados. Los trabajos de la colaboración dirigida por Lewenstein van a permitir incrementar la eficiencia en la generación de rayos X coherentes sin necesidad de aceleradores grandes y costosos; pero, sobre todo, nos han mostrado que los recorridos mecánico cuánticos de Feynman no son una pura invención matemática, sino una realidad de la naturaleza.

Luis Orozco es físico en la Universidad del Estado de Nueva York.

* Este artículo apareció en la edición impresa del Miércoles, 13 de junio de 2001

---
https://elpais.com/diario/2001/06/13/futuro/992383206_850215.html

Diagramas de Feynman

https://www.youtube.com/watch?v=8TVGAyqlFAo&fbclid=IwAR2XfVazN1Tswcn4qb0Ze5UQ_X-FzvMdKXYzRbxfOZi-b3mNa_Z4RVldses
https://www.youtube.com/watch?v=IP-rnMj5d1Y
https://periodicos.ufsc.br/index.php/fisica/article/viewFile/1090/849
-

Documental: vida y obra de Richard Feynman (1918-1988)


Richard Phillips Feynman (11 mayo 1918 hasta 15 febrero 1988) fue un físico teórico estadounidense conocido por su trabajo en la formulación integral de la trayectoria de la mecánica cuántica, la teoría de la electrodinámica cuántica y la física de la superfluidez del helio líquido subenfriado, así como en la física de partículas para el que propuso el modelo Parton. Por sus contribuciones al desarrollo de la electrodinámica cuantica, Feynman, en forma conjunta con Julian Schwinger y Sin-Itiro Tomonaga, recibió el Premio Nobel de Física en 1965. Él desarrolló un esquema de representación pictórica ampliamente utilizada para las expresiones matemáticas que rigen el comportamiento de las partículas subatómicas, que más tarde se conoció como los diagramas de Feynman. Durante su vida, Feynman se convirtió en uno de los científicos más conocidos en el mundo. En una encuesta de 1999 de los 130 principales físicos de todo el mundo de la revista británica Physics World, Feynman fue clasificado como uno de los diez más grandes físicos de todos los tiempos.
Ayudó en el desarrollo de la bomba atómica durante la Segunda Guerra Mundial y se hizo conocido a un amplio público en la década de 1980 como miembro de la Comisión Rogers, el panel que investigó el desastre del transbordador espacial Challenger. Además de su trabajo en física teórica, Feynman se ha acreditado con pioneros en el campo de la computación cuántica, e introdujo el concepto de nanotecnología. Ocupó la cátedra de Richard Chace Tolman en física teórica en el Instituto Tecnológico de California.
Feynman fue un divulgador entusiasta de la física a través de libros y conferencias, incluyendo una charla de 1959 sobre nanotecnología de arriba hacia abajo llamada “There’s Plenty of Room at the Bottom” (Hay mucho sitio al fondo), y la publicación de tres volúmenes de sus conferencias de pre-grado,The Feynman Lectures on Physics. Feynman también se dio a conocer a través de sus libros semi-autobiográficos “Surely You’re Joking, Mr. Feynman!(“Está usted de broma Sr. Feynman?) y “What Do You Care What Other People Think?” (¿Qué te importa lo que otros piensan?) y los libros escritos sobre él , como “Tuva or Bust!” y “Genius: The Life and Science of Richard Feynman by James Gleick”. (fuente wikipedia)
Personalmente recomiendo dos libros maravillosos: Está usted de broma Sr. Feynman? y El arco iris de Feynman
  •   https://www.youtube.com/watch?v=Qf1BGZ739xY&feature=youtu.be

Dialgo con otras disciplinas
http://www.fce.unal.edu.co/media/files/CentroEditorial/catalogo/Libros_Digitalizados/A_Dialogos_Economia_Otras_Ciencias.pdf

Lynn Margulis, la científica rebelde

Lynn Margulis, la científica rebelde

En la década de 1960, una joven bióloga estadounidense tuvo una idea revolucionaria sobre la evolución de la vida y el origen de las células modernas. Las células de plantas y animales disponen de unos minúsculos órganos internos, u orgánulos, especializados en obtener energía usando la luz del sol y el oxígeno. Son los cloroplastos y mitocondrias, respectivamente. Por su tamaño, por sus funciones y por la particularidad de llevar su propio y pequeño genoma, estos orgánulos recuerdan poderosamente a ciertas bacterias.
Células vegetales, del musgo Plagiomnium affine, con cloroplastos visibles. Crédito: Kristian Peters
¿Sería posible –se preguntó aquella bióloga– que estos orgánulos fueran en realidad descendientes de antiguas bacterias, reclutadas en un pasado lejano por otras células para usarlas como centrales de energía internas? Un fenómeno semejante era ya bien conocido y tenía un nombre en biología: la simbiosis, una asociación de mutuo beneficio.
El gran problema del origen de la vida en la Tierra es que no había nadie allí para observarlo, por lo que el nacimiento de los primeros organismos terrestres continuará siendo eternamente la materia oscura de la biología, una incógnita abierta a hipótesis de imposible demostración. Entre ellas, la teoría de la endosimbiosis o simbiogénesis es una de las respuestas más plausibles y brillantes para explicar la aparición de las células eucariotas, constituyentes de todo organismo vivo que no sea una bacteria o una arqueobacteria.
Lynn Margulis en 2009. Crédito: SINC
La entonces joven científica autora de la teoría fue Lynn Margulis, uno de los personajes más influyentes de la biología del siglo XX. Y ello a pesar de que sus propuestas (en los márgenes de la ciencia establecida) le granjearon fama de heterodoxa, cuando no de rebelde. Margulis, de soltera Alexander, nació en Chicago en 1938. Intelectualmente precoz, su vida personal tampoco se quedó atrás: a los 42 años ya se había divorciado dos veces, la primera del astrónomo Carl Sagan y la segunda del químico Thomas Margulis.
Margulis admiraba el trabajo de Charles Darwin, pero opinaba que sus sucesores neodarwinistas no habían logrado explicar las incógnitas que dejó planteadas el naturalista inglés; entre ellas y sobre todo, la fuente de las variaciones que impulsa la evolución. Según Margulis, las mutaciones genéticas aleatorias no bastaban para explicar la capacidad de la evolución biológica de inventar rasgos nuevos en los seres vivos.
La joven bióloga fue más allá y recogió las ideas de pioneros como el estadounidense Ivan Wallin y el ruso Konstantin Mereschkowski, que habían postulado la simbiosis entre organismos simples como fuerza creadora de seres más complejos. El estudio de Margulis fue rechazado por 15 revistas científicas, y finalmente se publicó en marzo de 1967 sin ninguna repercusión inicial. Según recogía el diario británico The Telegraph en el obituario dedicado a Margulis tras su fallecimiento en 2011, una de sus solicitudes de financiación para sus proyectos recibió la siguiente réplica: “Su investigación es basura. No se moleste en volver a solicitar”.
Pero Margulis no desistió. En 1970 desarrollaba su teoría en el libro Origin of Eukaryotic Cells. A través de los años, la simbiogénesis ha ido ganando apoyo experimental: en los años 70 se descubrió que los genes de las mitocondrias y los cloroplastos se parecían más a los de ciertas bacterias que a los de las células eucarióticas a las que pertenecen. Y recientemente, un nuevo estudio ha venido a prestar nueva y extensa credibilidad a la teoría de la endosimbiosis. Un equipo de investigadores dirigido por el biólogo evolutivo William F. Martin, de la Universidad Heinrich Heine de Dusseldorf (Alemania), ha comparado casi un millón de genes de 55 especies eucariotas y más de seis millones de genes de procariotas, un análisis exhaustivo que solo hoy es posible gracias al uso de avanzadas herramientas bioinformáticas.
La investigación, publicada en Nature el pasado agosto, rastrea el origen de los genes bacterianos que forman parte integral del ADN presente en el núcleo celular de los organismos superiores, incluidos los humanos. Y frente a la posibilidad de que estas innovaciones genéticas pudieran haberse colado en nuestras células por un largo y continuo proceso gradual de transferencia de genes al azar, los resultados muestran que, por el contrario, la huella bacteriana en nuestro ADN es el producto de un salto evolutivo bruscoque corresponde a la adquisición de las mitocondrias (o de los cloroplastos, en el caso de los vegetales).
“Lo que hemos mostrado es que la contribución genética de los ancestros endosimbióticos de plástidos y mitocondrias al material genético de partida del linaje eucariótico fue mucho mayor de lo que nadie había sospechado”, resume Martin a OpenMind. “Los eucariotas adquirieron genes de los procariotas en el origen de la mitocondria y en el origen de los plástidos”, añade, lo que supone “un clamoroso apoyo a la teoría endosimbiótica”. Para Martin “el caso está cerrado: no hay una alternativa científica aceptable a la teoría de que los cloroplastos y las mitocondrias surgieron de endosimbiontes”.
Martin rememora hoy las discusiones que mantenía con Margulis, en las que ambos discrepaban sobre ciertos aspectos. Y sin embargo, prosigue el biólogo, “ser criticado por Lynn (y ella me criticó mucho) era realmente un honor”. En el fondo “solo nos separaba un centímetro en estas cuestiones, mientras que ella estaba a millas de distancia de los neodarwinistas”, recuerda. El tiempo y la ciencia han acabado por dar la razón a la científica rebelde. “Ojalá hubiera vivido para verlo”, concluye William F. Martin.

Javier Yanes para Ventana al Conocimiento