traductor

miércoles, 10 de abril de 2024

David Bueno, biólogo: "Tomar cervezas con los amigos es muy bueno para nuestro cerebro "

 David Bueno, biólogo: "Tomar cervezas con los amigos es muy bueno para nuestro cerebro "

 

El biólogo especialista en neuroeducación asegura que la socialización física con los amigos tiene efectos muchos más sanos y reparadores que hacerlo por las redes sociales

Cuanto más cuidamos y trabajamos el cerebro, más fácil es mantenerlo activo y sano. De la misma forma que tenemos muy interiorizado que haciendo deporte nos mantenemos en forma, seguramente nos falta asumir que también debemos ejercitar nuestro cerebro para que rinda de la mejor manera sin estresarlo ni tensionarlo.

El biólogo experto en neuroeducación, David Bueno, ha explicado en el programa Vía lliure (RAC 1) cuál es la receta, que también detalla en su último libro Educa tu cerebro que ha publicado este 2024.

¿Qué hay que hacer para entrenar el cerebro y mantenerlo activo? 

 David Bueno asegura que es "hacer lo que te gusta". Y añade que esto puede ser un amplio abanico de opciones: leer, ir al teatro, o estar con amigos discutiendo... y tomando cervezas.

Horizontal

Foto de archivo

Xavier Cervera / Propias

"Tomar cervezas con los amigos es bueno para el cerebro porque estás pendiente de lo que te están diciendo, estás pendiente de participar en la conversación... te mantiene el cerebro activo", afirma. Sobre la búsqueda de bebidas que ayuden al cerebro, Bueno explica que la más potente es "el café con canela". Sin embargo la clave es "ir combinando" todo de cosas que nos gusten sin pasarnos.

Hacer deporte es muy sano para el cerebro, pero debe ser un deporte moderado de más de 20 minutos de duración y diario. Otra forma de consentir el cerebro es distraerse con cosas simples,  "por ejemplo mirando una puesta de sol".  También aburrirnos, que deberíamos hacerlo cada día un rato, porque estimula la creatividad.

El gran motor: tener objetivos y propósitos vitales 

Pero aparte de todas estas opciones que presenta David Bueno, la más importante y fundamental es una. 

"Tener propósitos vitales, tener un objetivo, tener una dirección que te empuje a hacer cosas nuevas".

Y añade, "eso no quiere decir que tengas que llegar o tengas que cumplir con ese objetivo, en el fondo esto es bastante irrelevante. Pero al cerebro le sirve para ser mucho más plástico que los que no tienen objetivos".

  • https://www.lavanguardia.com/cribeo/estilo-de-vida/20240408/9589759/david-bueno-biologo-cervezas-amigos-bueno-cerebro-mmn.html 

"cosas que nos gusten sin pasarnos..."

Un grupo de turistas alemanes bebe más de 1.300 vasos de cerveza en un pub de Mallorca

...los participantes bebieron mas de 5.8 litros de cerveza por persona

Sevilla-Bilbainos

“Casi 300 cervezas para 15 personas: la brutal cuenta de unos aficionados al Athletic en la final de la Copa en Sevilla

En concreto, la bebida tomada por estos aficionados al fútbol ascendió a la friolera de 290 cañas de cerveza que sumó a la cuenta final 522 euros, así como 29 aguas, seis refrescos y una maceta de cerveza

sábado, 6 de abril de 2024

Eric Schmidt: This is how AI will transform the way science gets done

 

Eric Schmidt: This is how AI will transform the way science gets done

Science is about to become much more exciting—and that will affect us all, argues Google's former CEO.

Christoph Burgstedt/Science Photo Library

Eric Schmidt: así es como la IA transformará la forma de hacer ciencia

La ciencia está a punto de volverse mucho más apasionante, y eso nos afectará a todos, afirma el ex consejero delegado de Google

It’s yet another summer of extreme weather, with unprecedented heat waves, wildfires, and floods battering countries around the world. In response to the challenge of accurately predicting such extremes, semiconductor giant Nvidia is building an AI-powered “digital twin” for the entire planet. 

This digital twin, called Earth-2, will use predictions from FourCastNet, an AI model that uses tens of terabytes of Earth system data and can predict the next two weeks of weather tens of thousands of times faster and more accurately than current forecasting methods. 

Usual weather prediction systems have the capacity to generate around 50 predictions for the week ahead. FourCastNet can instead predict thousands of possibilities, accurately capturing the risk of rare but deadly disasters and thereby giving vulnerable populations valuable time to prepare and evacuate. 

The hoped-for revolution in climate modeling is just the beginning. With the advent of AI, science is about to become much more exciting—and in some ways unrecognizable. The reverberations of this shift will be felt far outside the lab; they will affect us all. 

If we play our cards right, with sensible regulation and proper support for innovative uses of AI to address science’s most pressing issues, AI can rewrite the scientific process. We can build a future where AI-powered tools will both save us from mindless and time-consuming labor and also lead us to creative inventions and discoveries, encouraging breakthroughs that would otherwise take decades.

AI in recent months has become almost synonymous with large language models, or LLMs, but in science there are a multitude of different model architectures that may have even bigger impacts. In the past decade, most progress in science has come through smaller, “classical” models focused on specific questions. These models have already brought about profound advances. More recently, larger deep-learning models that are beginning to incorporate cross-domain knowledge and generative AI have expanded what is possible.

Scientists at McMaster and MIT, for example, used an AI model to identify an antibiotic to combat a pathogen that the World Health Organization labeled one of the world’s most dangerous antibiotic-resistant bacteria for hospital patients. A Google DeepMind model can control plasma in nuclear fusion reactions, bringing us closer to a clean-energy revolution. Within health care, the US Food and Drug Administration has already cleared 523 devices that use AI—75% of them for use in radiology.

Reimagining science

At its core, the scientific process we all learned in elementary school will remain the same: conduct background research, identify a hypothesis, test it through experimentation, analyze the collected data, and reach a conclusion. But AI has the potential to revolutionize how each of these components looks in the future. 

Artificial intelligence is already transforming how some scientists conduct literature reviews. Tools like PaperQA and Elicit harness LLMs to scan databases of articles and produce succinct and accurate summaries of the existing literature—citations included.

Once the literature review is complete, scientists form a hypothesis to be tested. LLMs at their core work by predicting the next word in a sentence, building up to entire sentences and paragraphs. This technique makes LLMs uniquely suited to scaled problems intrinsic to science’s hierarchical structure and could enable them to predict the next big discovery in physics or biology. 

AI can also spread the search net for hypotheses wider and narrow the net more quickly. As a result, AI tools can help formulate stronger hypotheses, such as models that spit out more promising candidates for new drugs. We’re already seeing simulations running multiple orders of magnitude faster than just a few years ago, allowing scientists to try more design options in simulation before carrying out real-world experiments. 

Scientists at Caltech, for example, used an AI fluid simulation model to automatically design a better catheter that prevents bacteria from swimming upstream and causing infections. This kind of ability will fundamentally shift the incremental process of scientific discovery, allowing researchers to design for the optimal solution from the outset rather than progress through a long line of progressively better designs, as we saw in years of innovation on filaments in lightbulb design.

Moving on to the experimentation step, AI will be able to conduct experiments faster, cheaper, and at greater scale. For example, we can build AI-powered machines with hundreds of micropipettes running day and night to create samples at a rate no human could match. Instead of limiting themselves to just six experiments, scientists can use AI tools to run a thousand.

Scientists who are worried about their next grant, publication, or tenure process will no longer be bound to safe experiments with the highest odds of success; they will be free to pursue bolder and more interdisciplinary hypotheses. When evaluating new molecules, for example, researchers tend to stick to candidates similar in structure to those we already know, but AI models do not have to have the same biases and constraints. 

Eventually, much of science will be conducted at “self-driving labs”—automated robotic platforms combined with artificial intelligence. Here, we can bring AI prowess from the digital realm into the physical world. Such self-driving labs are already emerging at companies like Emerald Cloud Lab and Artificial and even at Argonne National Laboratory

Finally, at the stage of analysis and conclusion, self-driving labs will move beyond automation and, informed by experimental results they produced, use LLMs to interpret the results and recommend the next experiment to run. Then, as partners in the research process, the AI lab assistant could order supplies to replace those used in earlier experiments and set up and run the next recommended experiments overnight, with results ready to deliver in the morning—all while the experimenter is home sleeping.

Possibilities and limitations

Young researchers might be shifting nervously in their seats at the prospect. Luckily, the new jobs that emerge from this revolution are likely to be more creative and less mindless than most current lab work. 

AI tools can lower the barrier to entry for new scientists and open up opportunities to those traditionally excluded from the field. With LLMs able to assist in building code, STEM students will no longer have to master obscure coding languages, opening the doors of the ivory tower to new, nontraditional talent and making it easier for scientists to engage with fields beyond their own. Soon, specifically trained LLMs might move beyond offering first drafts of written work like grant proposals and might be developed to offer “peer” reviews of new papers alongside human reviewers. 

AI tools have incredible potential, but we must recognize where the human touch is still important and avoid running before we can walk. For example, successfully melding AI and robotics through self-driving labs will not be easy. There is a lot of tacit knowledge that scientists learn in labs that is difficult to pass to AI-powered robotics. Similarly, we should be cognizant of the limitations—and even hallucinations—of current LLMs before we offload much of our paperwork, research, and analysis to them. 

Companies like OpenAI and DeepMind are still leading the way in new breakthroughs, models, and research papers, but the current dominance of industry won’t last forever. DeepMind has so far excelled by focusing on well-defined problems with clear objectives and metrics. One of its most famous successes came at the Critical Assessment of Structure Prediction, a biennial competition where research teams predict a protein’s exact shape from the order of its amino acids. 

From 2006 to 2016, the average score in the hardest category ranged from around 30 to 40 on CASP’s scale of 1 to 100. Suddenly, in 2018, DeepMind’s AlphaFold model scored a whopping 58. An updated version called AlphaFold2 scored 87 two years later, leaving its human competitors even further in the dust.

Thanks to open-source resources, we’re beginning to see a pattern where industry hits certain benchmarks and then academia steps in to refine the model. After DeepMind’s release of AlphaFold, Minkyung Baek and David Baker at the University of Washington released RoseTTAFold, which uses DeepMind’s framework to predict the structures of protein complexes instead of only the single protein structures that AlphaFold could originally handle. More important, academics are more shielded from the competitive pressures of the market, so they can venture beyond the well-defined problems and measurable successes that attract DeepMind. 

In addition to reaching new heights, AI can help verify what we already know by addressing science’s replicability crisis. Around 70% of scientists report having been unable to reproduce another scientist’s experiment—a disheartening figure. As AI lowers the cost and effort of running experiments, it will in some cases be easier to replicate results or conclude that they can’t be replicated, contributing to a greater trust in science.

The key to replicability and trust is transparency. In an ideal world, everything in science would be open access, from articles without paywalls to open-source data, code, and models. Sadly, with the dangers that such models are able to unleash, it isn’t always realistic to make all models open source. In many cases, the risks of being completely transparent outweigh the benefits of trust and equity. Nevertheless, to the extent that we can be transparent with models—especially classical AI models with more limited uses—we should be. 

The importance of regulation

With all these areas, it’s essential to remember the inherent limitations and risks of artificial intelligence. AI is such a powerful tool because it allows humans to accomplish more with less: less time, less education, less equipment. But these capabilities make it a dangerous weapon in the wrong hands. Andrew White, a professor at the University of Rochester, was contracted by OpenAI to participate in a “red team” that could expose GPT-4’s risks before it was released. Using the language model and giving it access to tools, White found it could propose dangerous compounds and even order them from a chemical supplier. To test the process, he had a (safe) test compound shipped to his house the next week. OpenAI says it used his findings to tweak GPT-4 before it was released.

Even humans with entirely good intentions can still prompt AIs to produce bad outcomes. We should worry less about creating the Terminator and, as computer scientist Stuart Russell has put it, more about becoming King Midas, who wished for everything he touched to turn to gold and thereby accidentally killed his daughter with a hug. 

We have no mechanism to prompt an AI to change its goal, even when it reacts to its goal in a way we don’t anticipate. One oft-cited hypothetical asks you to imagine telling an AI to produce as many paper clips as possible. Determined to accomplish its goal, the model hijacks the electrical grid and kills any human who tries to stop it as the paper clips keep piling up. The world is left in shambles. The AI pats itself on the back; it has done its job. (In a wink to this famous thought experiment, many OpenAI employees carry around branded paper clips.)

OpenAI has managed to implement an impressive array of safeguards, but these will only remain in place as long as GPT-4 is housed on OpenAI’s servers. The day will likely soon come when someone manages to copy the model and house it on their own servers. Such frontier models need to be protected to prevent thieves from removing the AI safety guardrails so carefully added by their original developers.

To address both intentional and unintentional bad uses of AI, we need smart, well-informed regulation—on both tech giants and open-source models—that doesn’t keep us from using AI in ways that can be beneficial to science. Although tech companies have made strides in AI safety, government regulators are currently woefully underprepared to enact proper laws and should take greater steps to educate themselves on the latest developments.

Beyond regulation, governments—along with philanthropy—can support scientific projects with a high social return but little financial return or academic incentive. Several areas are especially urgent, including climate change, biosecurity, and pandemic preparedness. It is in these areas where we most need the speed and scale that AI simulations and self-driving labs offer. 

Government can also help develop large, high-quality data sets such as those on which AlphaFold relied—insofar as safety concerns allow. Open data sets are public goods: they benefit many researchers, but researchers have little incentive to create them themselves. Government and philanthropic organizations can work with universities and companies to pinpoint seminal challenges in science that would benefit from access to powerful databases. 

Chemistry, for example, has one language that unites the field, which would seem to lend itself to easy analysis by AI models. But no one has properly aggregated data on molecular properties stored across dozens of databases, which keeps us from accessing insights into the field that would be within reach of AI models if we had a single source. Biology, meanwhile, lacks the known and calculable data that underlies physics or chemistry, with subfields like intrinsically disordered proteins that are still mysterious to us. It will therefore require a more concerted effort to understand—and even record—the data for an aggregated database.

The road ahead to broad AI adoption in the sciences is long, with a lot that we must get right, from building the right databases to implementing the right regulations, mitigating biases in AI algorithms to ensuring equal access to computing resources across borders. 

Nevertheless, this is a profoundly optimistic moment. Previous paradigm shifts in science, like the emergence of the scientific process or big data, have been inwardly focused—making science more precise, accurate, and methodical. AI, meanwhile, is expansive, allowing us to combine information in novel ways and bring creativity and progress in the sciences to new heights.

Eric Schmidt was the CEO of Google from 2001 to 2011. He is currently cofounder of Schmidt Futures, a philanthropic initiative that bets early on exceptional people making the world better, applying science and technology, and bringing people together across fields.

7-2023

https://www.technologyreview.com/2023/07/05/1075865/eric-schmidt-ai-will-transform-science/

13 recent scientific breakthroughs

 

13 recent scientific breakthroughs

From photos of the infant universe to an energy advancement that could save the planetPetri dish illustration

Researchers have reported a dizzying number of recent discoveries and achievements
(Image credit: Suzanne Bainton/Getty Images)

Scientists in many fields received little recognition for the last couple of years, as the world focused on the emergency push to develop vaccines and treatments for Covid-19. But that doesn't mean they weren't still busy researching a dizzying series of developments that are now being reported as major discoveries and achievements.

1. First pig kidney transplant

The U.S. Food and Drug Administration (FDA) approved the first cellular therapy for aggressive forms of melanoma. The treatment, called Amtagvi, is "designed to fight off advanced forms of melanoma by extracting and replicating T cells derived from a patient's tumor," said NPR. These cells are also called tumor-infiltrating lymphocytes (TIL). T cells are integral in the immune system but can become "dysfunctional inside tumors.

martes, 2 de abril de 2024

Famosos, pseudoterapias y un cantante de rancheras

 

Famosos, pseudoterapias y un cantante de rancheras

Si tomáramos un famoso al azar, por ejemplo, qué sé yo, a Bertín Osborne, y le preguntáramos qué es el «factor h» obtendríamos probablemente una cara de sorpresa, como poco. Puede, que por eso de decir algo, terminara elucubrando que nos referimos al próximo reality cocinado a fuego lento para el éxito.

Pero no.

Para todo investigador, es decir aquel que basa su trabajo no solo en decir que algo funciona u ocurre sino en demostrarlo, el «factor h» es un valor numérico que permite conocer de forma más o menos objetiva el impacto de sus publicaciones y trabajos. Los científicos, individuos profesionales en lo suyo y con mucho «factor h» del bueno, del de verdad, no acostumbran a aparecer en televisión o radio ni ocupan portadas y columnas de algunos periódicos o revistas del corazón. Sabemos que un discurso sin voz puede ser perfecto, pero si no suena no se oye.

De este modo ese impacto invisible se ve en ocasiones engullido por la opinión e impresiones de gente sin base científica. Gente famosa. Gente por ejemplo con un programa de televisión o con muchos seguidores en Instagram que visibiliza terapias y otras excelencias que pueden cambiar, a peor, la vida de determinadas personas. Cae así rendida a un lado la evidencia golpeada por alguien que sabe hablar delante de un micrófono o que atraviesa la cámara con ojos de saber de lo que habla. Los famosos tienen impacto en la vida de la gente. Son un ejemplo de lo que brilla. Influyen sobre nosotros cuando explican sus dietas, sus viajes o sus nuevos tratamientos de lo que sea. No poseen «factor h» pero abruman con otro tipo de impacto. Es por eso que antes de seguir, y para que nadie confunda a partir de ahora en este texto a un científico con un famoso, utilizaré una denominación particular del impacto de una celebridad hablando de cosas que atañen a la salud o la vida: el «factor f» del famoso (pido perdón por el juego de palabras). Este «factor f» puede hacer que cambies de banco, que te quites el gluten de la dieta o que decidas probar o abandonar un tratamiento determinado. A propósito de esto último, nadie más dispuesto a probar cualquier cosa que quien sufre una enfermedad limitante o sin cura en el momento actual. En ellos el «factor f» tiene en ocasiones demasiado fácil hacer diana.

La relación de algunos famosos y las pseudoterapias es más que conocida. No la estamos descubriendo en estos párrafos. Las redes sociales han permitido un continuo en el que su vida, y sus cosas particulares, se comparten. Además, el fácil acceso del que disponen a los medios de comunicación les permite realizar afirmaciones sobre la vida, las cosas del comer, las del querer y las  de la salud desde un altar estupendo. Ellos, en su distancia, se permiten jugar con determinadas actitudes extrañas creyendo que no solo es lo mejor sino que además dan ejemplo. Ahí tenemos a Gwyneth Paltrow, con más trucos que un mago, o a la familia real británica hablando maravillas de su homeópata de cabecera… hasta que se ponen enfermos de verdad. Tampoco se escapan los deportistas de élite como por ejemplo Diego Costa. El de Lagarto, lugar donde nació, se fue a Serbia en 2014 para inyectarse placenta de yegua y llegar como nuevo a la final de la Champions. Lo mismo al tiempo estaba Sergio Ramos haciendo una interconsulta a la «Virgen del Mayor Dolor y Traspaso» para asegurarse marcar un gol en el descuento, quién sabe. El caso es que Diego Costa duró diez minutos en el campo y aquello de la yegua quedó en una anécdota que todavía sonroja a los traumatólogos. Lo de Sergio Ramos le ha llevado hasta a tirar los penaltis como Panenka, será que la interconsulta venía con intereses.

En otros casos los famosos o sus familiares sufren enfermedades, tal y como ocurre con el resto de los mortales. En esa situación, y aunque disponen generalmente de más recursos que el ciudadano medio, optan a veces por equivocarse sin saberlo. Un ejemplo prototípico es el de Steve Jobs y su cáncer de páncreas. Al diagnóstico operable, y por lo tanto curable. Pero decidió no escuchar a sus médicos e ignorar a su mujer y amigos. Alguien le convenció para abordar el problema de otra manera. Los errores saben de disfraces y conversaciones profundas. Él debió tener más de una charla con alguien que cambió su dieta, modificó ciertos hábitos de su vida y acabó con sus posibilidades de curación. No le salieron las cuentas. Jobs no quiso escuchar y cuando lo hizo terminó siendo tarde. Los capítulos dedicados a esto por Walter Isaacson en su biografía son un ejemplo terrible pero matemático.

También nos encontramos con casos en los que no se desprecia la medicina científica, sino que se opta por creer que más allá de la frontera de nuestro país se hacen mejor las cosas. Con esto no quiero decir que aquí en España tengamos la mejor medicina del mundo, que también tenemos nuestros remiendos, con esto quiero decir que en España tenemos la mejor medicina que en el momento actual se puede hacer. Cuando un famoso se marcha a otro país para tratarse de determinadas enfermedades porque «aquí no se puede» se debe aclarar que generalmente sí que se puede. Lo que ocurre es que el famoso en cuestión o no lo sabía o no se lo han contado o directamente no ha querido hacerlo aquí. Cada uno debe actuar como desea, obviamente, pero el «factor f» aporta en este caso una mezcla agitada y revuelta de desconocimiento que quizá traduzca mensajes equivocados. Y es en este momento cuando regresamos a Bertín.

Como es conocido Bertín tiene un hijo con daño cerebral adquirido. Una putada, con perdón. Como es lógico todo padre en una situación como esa busca lo mejor para su hijo. Se aplica así un principio de benevolencia que en ocasiones no se corresponde con otro principio: el de beneficencia. El objetivo debe ser no solo querer el bien sino también lograrlo. No es tan sencillo como parece y la distancia entre las dos cosas, buscar el bien y lograrlo, puede ser enorme y hasta tender a infinito. Uno de los trabajos de los buenos médicos es decir la verdad aunque no coincida con lo que el enfermo o su familia creen o quieren creer. Hacer ver a un padre o una madre esa distancia entre lo que proponen y la realidad es sin duda complejo pero también es justo y necesario. Pocas cosas más peligrosas que un médico que calla para dejar que pasen los días. Si hace eso con la información puede terminar haciéndolo también con las expectativas.

En nuestro país la atención al daño cerebral adquirido en la población infantil es muy escasa. La capacidad de recuperación de los niños es amplia y no iniciarla de forma precoz es hacer cicatriz en las posibilidades de mejora. Los recursos de atención temprana son o casi inexistentes o muestran mucho tiempo de espera al encontrarse las unidades especializadas sobrecargadas. Eso convierte a muchos padres en verdaderos cazatratamientos que por nuevos o distintos permitan la mejora de sus hijos. El objetivo muchas veces no es recuperar completamente la función perdida o dañada, se pelea por lograr pequeños avances que sumados permitan cierto grado de independencia. Si hay un caldo de cultivo idóneo para que el «factor f» tenga efecto es en grupos de pacientes como estos. Constituyen además una oportunidad de negocio. La esperanza, que es el motor que mueve a muchas de estas familias, se convierte en cheque al portador y siempre hay alguien que quiere cobrarlo.

Siempre.

En el caso de Bertín su «factor f» ha traído a España una terapia para niños con daño cerebral. Con origen en Estados Unidos, esta terapia es recomendada por algunas personas desde su fundación. Recuerden, ya dijimos que estar más allá de la frontera viste mucho cualquier tratamiento. Se trata de una terapia obsoleta y dañina desde el punto de vista sanitario, económico y emocional que ha visitado medios de comunicación, ayuntamientos y reportajes obteniendo una publicidad estupenda. Muchas familias se han visto atraídas y muchas familias han visto que cambiaba su vida pero no como esperaban. Para llevarla a cabo los padres, y sus hijos, primero tienen que ir a Italia para ser aceptados. Después deben viajar al origen de todo, Estados Unidos, donde recibirán las instrucciones necesarias para llevarla a cabo. Todo eso a costa de su tiempo, su dinero y la salud de sus hijos. La hipoteca más cara del mundo. Es por eso que merece la pena realizar un pequeño viaje al interior de esta terapia. Vayan preparados porque está oscuro, hace frío y no descarto que tengan que retirar de vez en cuando la mirada.

La terapia a la que nos referimos es la terapia Doman-Delacato. También se conoce como la terapia Philadelphia dado que es allí donde se encuentra su origen. Como pueden imaginar su nombre es producto de la suma de sus creadores. Los señores Glen Doman, fisioterapeuta, y Carl Delacato, psicólogo educativo. Ambos eran jóvenes en un momento en el que el neurodesarrollo era aún un vacío por describir. La tierra de las oportunidades para la gente con ideas. Así en el año 1955 crean «Los Institutos para el Logro del Potencial Humano» (IAHP). Creo que no es necesario explicar mucho acerca de lo que se proponían si leemos con atención el nombre que le pusieron a su lugar de trabajo. ¿Recuerdan haber escuchado que todos los niños podían ser como Einstein con un abordaje determinado? Pues Doman, creador del IAHP, se hizo un poquito de oro vendiendo libros con eso. En ese instituto se vinieron arriba y lo malo, o lo peor, es que todavía no se han bajado. De este modo, y como algo ineludible, en 1960 dan a conocer un método para mejorar el estado de los niños con daño cerebral de cualquier tipo. Como se hace con los barcos hicieron partir su método desde un puerto rimbombante y con el cielo lleno de confeti. Lo malo de algunos barcos es que no llegan a puerto y el capitán salta por la borda, porque se va a pique, antes de que se den cuenta los viajeros.

Se puede resumir su hipótesis terapéutica en cuatro puntos fundamentales. El primero de ellos está basado en las ideas del neurofisiólogo Temple Fay. El señor Fay explicaba el neurodesarrollo desde un concepto muy de Jumanji: la «filogenia ontogenia recapitulada» o «teoría de la recapitulación». Según este señor el cerebro del ser humano se desarrolla navegando de forma lineal las diversas etapas «animales» que de algún modo nos conforman. Es decir, que en teoría hacemos un flash-forward desde la fase de pez pasando por los reptiles y algunos mamíferos hasta llegar ser como somos, bípedos como un humano. Este razonamiento en los sesenta encontraba su público, pero en el momento actual está más que superado y resulta ya obsoleto. Si tienen un niño cerca dudo mucho que lo hayan visto primero mover las piernas como si fuera una salmón a contracorriente para después reptar como la serpiente de Voldemort, Nagini. Por suerte generalmente somos mucho más complejos. Fíjense que he escrito generalmente.

En segundo lugar añaden al zoo descrito la repetición. Los autores indican que mediante la repetición de movimientos o sonidos se podrían «despertar» las regiones afectadas y por lo tanto su reflejo en el sistema nervioso central. Para ello no solo trabajan haciendo movimientos reiterados sino que también bloquean aquellas regiones que sí se mueven con normalidad. Es decir, si un niño tiene una parálisis o rigidez (espasticidad) de la pierna izquierda lo que se opta es por bloquear la pierna derecha para así recuperar el miembro afectado. Algo nada frustrante y doloroso para el niño, pero al revés. Esta repeticiones con bloqueo se deben realizar por al menos cuatro o cinco personas y atando o sosteniendo al niño como se precise. Según los creadores no sería efectiva de otra manera. También se debe llevar a cabo varias veces a lo largo del día. Pero ahí no acaba esta tortura disimulada, esperen. Para lograr esa estimulación no solo vale el bloqueo, si la cosa está muy dormida se pueden añadir estímulos dolorosos como un estropajo, pequeñas cucharadas de agua hirviendo o una trompeta en el oído. Lo de la trompeta, aclaro, es porque aseguran que así se puede recuperar la audición en el caso de que esté afectada. Ahora piensen en niños sujetos para lograr el estímulo de aquellas regiones que no mueven con normalidad. Niños sujetos y estimulados por sus padres. Es sobrecogedor para los niños y para los padres. En los años ochenta la Academia Americana de Pediatría publicó varios documentos dejando claro que esto no llevaba a ningún sitio. Yo no había nacido y ya estas prácticas deberían haberse abandonado. Y aquí me tienen escribiendo sobre ello en un presente maravilloso. A veces es terrible descubrir que hay cosas que no han cambiado, ¿verdad?

En tercer lugar los terapeutas, o lo que sean, proponen la retirada de todos los fármacos a estos niños. Críos con espasticidad, trastornos del sueño o epilepsias en ocasiones complejas. Su argumento es aplastante: hay que dejar al cerebro libre de influencias para que muestre su potencial. Que muestre dolor, insomnio o crisis convulsivas de repetición parece que no les importa mucho. La palabra potencial es lo que tiene. Sobre las convulsiones llegan a afirmar que resultan una defensa natural para el cerebro y que por lo tanto no son directamente perjudiciales. Que haya gente que afirme eso, que lo explique y que se lo crea es terrible. Como un pirómano hablando de las bondades del fuego. Pero no se quedan ahí. Aunque con tres patas hay mesas que no se caen ellos requieren de una cuarta para dejar armada su práctica.

Como cuarto y último fundamento he dejado aquel que creo es más extravagante y peligroso. Los señores Doman-Delacato defienden la utilidad del dióxido de carbono como herramienta para mejorar la perfusión del cerebro de un niño enfermo. Lo explico un poco. Nuestro cerebro, como órgano importante que es, tiene una capacidad peculiar y fundamental en cuanto al aporte de sangre y oxígeno se refiere. Se autorregula, es capaz de gestionar el flujo sanguíneo que recibe para así asegurarse estar siempre en las mejores condiciones. Sabe que es un privilegiado y se gestiona como tal. Por ejemplo, en situaciones de tensión arterial baja será capaz de modificar el estado de sus vasos sanguíneos o la tensión arterial a través del latido cardiaco para no quedarse sin gasolina. Usted podrá estar pálido pero notará que el corazón comienza a latir fuerte. Eso no es para avisarle, es para que el cerebro no pase frío o cosas peores. La cara pálida pero las neuronas bien perfundidas es un mantra ahí arriba. Una de las sustancias que participa en eso es el dióxido de carbono. Si el dióxido de carbono sube los vasos sanguíneos del cerebro se dilatan, si baja lo contrario. Entender esto es fundamental para comprender el homenaje al marqués de Sade que viene a continuación. En la terapia Doman-Delacato lo que se defiende es el efecto beneficioso sobre las neuronas del incremento de flujo sanguíneo cerebral mediante la vasodilatación. Este incremento se logra a través del dióxido de carbono. Como su aumento provoca más flujo de sangre al cerebro, asumen que esto será bueno para mejorar su estado. Asumen terriblemente mal, aclaro. ¿Cómo logran esto? Retirando el tratamiento para las convulsiones o haciendo a los niños respirar en el interior de una bolsa para que retengan dióxido de carbono en su sangre. Pueden volver a leer la oración anterior, no me he equivocado. Bolsa y niños respirando en su interior. Sería un remedo de lo que hacía el personaje de Sigourney Weaver en Copycat, donde para tratar sus ataques de ansiedad por agorafobia respiraba en una bolsa de papel hasta perder el conocimiento. Ahora piensen en plantear a un padre hacer algo así. Esa es otra película, pero esta vez de terror.

En resumen, estos cuatro pilares fundamentan la terapia Doman-Delacato. Reconozco que da vértigo mirar hacia atrás para echar un vistazo. Animales, repeticiones, quitar fármacos y respirar dióxido de carbono. Nada de ello ha demostrado utilidad. Como comentamos esta terapia zarpa en los años sesenta. Si en el momento actual buscamos trabajos que demuestren su utilidad no encontramos ninguno. Es una terapia que hoy navega aun estando ya hundida. Pero no se queda ahí. Reclama a los padres unos recursos económicos que en muchos casos derivan en situaciones precarias. Al tiempo les obliga a convertirse en cuidadores profesionales de sus hijos. Drena los recursos monetarios y emocionales. Hace daño en el daño. Y si no hay mejora, si no hay cambios, solo hay culpa en quien realiza de forma inadecuada lo que ellos les recomiendan allí en el lugar donde se alzan los IAHP. Por supuesto no se puede replicar porque toda la responsabilidad recae en los padres y no en profesionales. Es una red bien tejida que deja escapar la evidencia, pero no los beneficios de vender algo que no funciona.

Probablemente Bertín y su fundación ignoren o no comprendan del todo lo que supone defender una terapia así. Quizá solo ven lo que tiene alrededor, sus circunstancias, y no se han planteado nunca mirar más allá. Pero su «factor f» ha permitido la llegada de esta terapia a nuestro país. Padres que escuchan a alguien famoso, con cierto carisma, con una vivencia similar y que les asegura que funciona. Ahí está el impacto. Ayuntamientos que abren sus puertas para que defensores de este abordaje cuenten las maravillas de lo que no se ve. Porque siempre es sencillo hablar en condicional y decir que todo va a ir a mejor con lo que suena bien. Sencillo pero muy injusto para los que luego tienen que peregrinar a ninguna parte. Los famosos, con su «factor f», disponen de un valor maravilloso cuando transmiten mensajes adecuados y bellos. Pero se transforman en un peligro cuando alimentan bulos o falsos tratamientos.

Este texto no se dirige contra nadie, obviamente, pero sí contra algo. Es muy sencillo opinar sobre salud cuando no sabes lo que ocurre al otro lado de tu discurso. Las caras conocidas, los dueños del «factor f», poseen la capacidad de comunicar y llegar a la gente, algo de lo que no disponen muchos científicos o profesionales sanitarios. Tienen una responsabilidad real en no confundir a familias o enfermos que habitan en la esperanza mientras buscan una luz que les permita seguir hacia delante. Muchas veces esa luz viene de una pantalla de móvil, de una radio o de una televisión. Ellos deben saber que sus palabras no se las lleva el viento por mucho que las digan mientras sonríen. Que no es cuestión de buscar culpables, pero tampoco está demás que alguien de vez en cuando les deje al menos por escrito las consecuencias.


Referencias:

1. Walter Isaacson (2011), «Steve Jobs: la biografia».

2. Sociedad española de Fisioterapia en Pediatría (SEFIP), «Fisioterapia en Pediatría y evidencia del método Doman Delacato».

3. Academia Americana de Pediatría (1999),




Los famosos son el canario en la mina de la desinformación | Articulos.claves (articulosclaves.blogspot.com)