traductor

miércoles, 4 de marzo de 2026

IA aplicada a la bioinformática

 Los nuevos algoritmos de IA + grandes cantidades de datos biomédicos compartidos están permitiendo avances enormes en bioinformática.

Tradicionalmente: • Se analizaban factores de riesgo y pruebas sencillas (sangre, histología). • Para conocer el impacto de una mutación era necesario generar experimentalmente la estructura 3D de la proteína

Hoy, con IA aplicada a la bioinformática: • Podemos inferir riesgo de infarto en 10 años a partir del metiloma. • Deep Learning + transcriptómica espacial permiten estimar el infiltrado de linfocitos T en tumores con mayor capacidad predictiva de supervivencia

Mutaciones en genes como SCN5A (asociadas a muerte súbita) pueden estudiarse mediante algoritmos que predicen la estructura de la proteína mutada. Además, se pueden hacer cribados virtuales de fármacos y estimar afinidades según variantes genéticas.


Descubrimiento de algoritmos de aprendizaje multiagente con modelos de lenguaje grandes

 

Google DeepMind han cogido AlphaEvolve (su sistema de IA que "evoluciona" código como si fuese selección natural) y lo han puesto a diseñar algoritmos de teoría de juegos. No a ejecutarlos. No a optimizar parámetros. A inventar algoritmos nuevos desde cero

Y los algoritmos que ha descubierto funcionan mejor que los que los investigadores humanos llevan años perfeccionando.

Much of the advancement of Multi-Agent Reinforcement Learning (MARL) in imperfect-information games has historically depended on manual iterative refinement of baselines. While foundational families like Counterfactual Regret Minimization (CFR) and Policy Space Response Oracles (PSRO) rest on solid theoretical ground, the design of their most effective variants often relies on human intuition to navigate a vast algorithmic design space. In this work, we propose the use of AlphaEvolve, an evolutionary coding agent powered by large language models, to automatically discover new multiagent learning algorithms. We demonstrate the generality of this framework by evolving novel variants for two distinct paradigms of game-theoretic learning. First, in the domain of iterative regret minimization, we evolve the logic governing regret accumulation and policy derivation, discovering a new algorithm, Volatility-Adaptive Discounted (VAD-)CFR. VAD-CFR employs novel, non-intuitive mechanisms-including volatility-sensitive discounting, consistency-enforced optimism, and a hard warm-start policy accumulation schedule-to outperform state-of-the-art baselines like Discounted Predictive CFR+. Second, in the regime of population based training algorithms, we evolve training-time and evaluation-time meta strategy solvers for PSRO, discovering a new variant, Smoothed Hybrid Optimistic Regret (SHOR-)PSRO. SHOR-PSRO introduces a hybrid meta-solver that linearly blends Optimistic Regret Matching with a smoothed, temperature-controlled distribution over best pure strategies. By dynamically annealing this blending factor and diversity bonuses during training, the algorithm automates the transition from population diversity to rigorous equilibrium finding, yielding superior empirical convergence compared to standard static meta-solvers.

https://arxiv.org/abs/2602.16928

. En teoría de juegos hay dos grandes familias de algoritmos para resolver juegos de información imperfecta (como el póker): CFR y PSRO. Llevan décadas siendo la base de todo. Los investigadores los mejoran publicando variantes — ajustando pesos, cambiando fórmulas de descuento, probando combinaciones. Es un trabajo lento, basado en intuición y papers de conferencias.
Lo que ha hecho DeepMind es tratar el diseño de esos algoritmos como un problema de búsqueda. En vez de que un investigador piense "¿y si ajusto este parámetro?", AlphaEvolve trata el código fuente del algoritmo como un genoma que puede mutar, recombinar y seleccionar. No ajusta números. Reescribe lógica. Puede inventar operaciones nuevas que no existían. ¿El resultado? Dos algoritmos nuevos. El primero, VAD-CFR, introduce algo que ningún investigador humano habría probado: un mecanismo de "calentamiento" que filtra el ruido de las primeras iteraciones y pesos que se adaptan a la volatilidad de cada momento del entrenamiento. Lo probaron en 11 juegos distintos. Lo entrenaron solo en 4. Y los mecanismos funcionaron en los 7 que no había visto nunca. Es decir, no son trucos específicos para un juego — la lógica se generaliza. El segundo, SHOR-PSRO, descubrió por su cuenta algo que a un humano le costaría plantear: que el algoritmo que usas para entrenar y el que usas para evaluar deberían ser diferentes. Arranca explorando de forma agresiva y gradualmente va apretando hacia el equilibrio exacto. Esa asimetría es contraintuitiva (normalmente usas el mismo algoritmo en ambas fases) y sin embargo funciona mejor. Ahora bien, seamos realistas sobre el alcance. Estamos hablando de juegos relativamente pequeños. Variantes de póker, dados, Goofspiel. No es StarCraft. No son sistemas multiagente a gran escala del mundo real. Los algoritmos descubiertos no tienen garantías teóricas de convergencia — funcionan empíricamente, pero no están formalmente demostrados. Y ya había trabajo previo (DDCFR, 2023) que intentaba aprender parámetros de descuento con reinforcement learning. La diferencia es que esos enfoques anteriores ajustaban botones que ya existían. AlphaEvolve puede inventar botones nuevos. Esa distinción es clave: optimizar parámetros encuentra mejores ajustes. Evolucionar código encuentra mejores algoritmos. Y creo que ahí está la idea de fondo que merece la pena retener. El diseño de algoritmos siempre ha sido un proceso artesanal. Un investigador tiene una intuición, la formaliza, la prueba, publica un paper y otro investigador construye encima. Es lento. Es brillante. Y ha funcionado durante décadas. Lo que DeepMind está proponiendo (y demostrando) es que ese espacio de posibles algoritmos es tan enorme que la exploración humana solo araña la superficie. AlphaEvolve no entiende teoría de juegos. No tiene intuición. Pero explora ese espacio a una velocidad y con una amplitud que ningún equipo humano puede igualar. Y ya está encontrando cosas que los humanos no habían visto. Me recuerda a algo que llevo diciendo desde hace tiempo: la IA no va a sustituir al investigador. Pero el investigador que use IA va a dejar atrás al que no la use. Esto no es "la IA reemplaza a los diseñadores de algoritmos." Es que diseñar algoritmos acaba de convertirse en un problema que la IA puede ayudar a resolver. Y eso lo cambia todo... aunque suene menos llamativo que un titular sobre la singularidad. Estoy convencido de que vamos a ver esto en muchos más campos. La IA como herramienta de exploración de espacios de diseño que los humanos no podemos recorrer solos. Fármacos, materiales, arquitectura de redes, logística. El patrón es el mismo: hay un espacio enorme de posibilidades, la intuición humana explora un rincón, y la IA puede explorar el resto. La pregunta es si estamos preparados para aceptar que un algoritmo diseñado por una máquina (que no "entiende" lo que hace) puede ser mejor que el nuestro.

martes, 3 de marzo de 2026

El "botón de parada" ? El hallazgo de la Universidad de Osaka

 

Cuando los investigadores desactivaron la proteína en cuestión en células envejecidas, estas retomaron su capacidad de división, recuperando características propias de células jóvenes

  • Laura Mesonero Ortiz

Como si fuera el argumento de una película de ciencia ficción, un grupo de científicos japoneses asegura haber encontrado algo parecido a un “botón de parada” del envejecimiento. Un hallazgo que, de confirmarse en humanos, podría abrir la puerta a alargar la vida durante décadas… incluso hasta 250 años más en términos teóricos.

Y no es casual que este tipo de descubrimientos generen tanta expectación. Una de las grandes preocupaciones del ser humano es, precisamente, el paso del tiempo. Ver cómo la gravedad hace su efecto, cómo aparecen arrugas, cómo el cuerpo cambia. Pero no solo a nivel físico: también cambian las prioridades, los gustos y la forma de sentir.

Hay quienes afrontan el envejecimiento con serenidad, como una etapa más que agradecer. Son los que, ante un “gracias”, responden con un “muchas veces” o los que desean “que cumplas muchos y yo los vea”. Pero también están quienes miran atrás con nostalgia, que repiten “cuando yo era joven…” o hablan del “cuando yo no esté…” con más presencia que el propio presente.

Para estos últimos, y también para la medicina del futuro, una nueva investigación trae un rayo de esperanza: científicos han logrado revertir el envejecimiento celular en laboratorio desactivando una sola proteína.

El hallazgo de la Universidad de Osaka

El descubrimiento ha sido liderado por investigadores de la Universidad de Osaka, quienes han identificado una proteína clave en el proceso de envejecimiento celular: la AP2A1.

El estudio, publicado en la revista Cellular Signalling, señala que esta proteína desempeña un papel fundamental en la senescencia celular, el proceso por el cual las células envejecen, dejan de dividirse y se vuelven más grandes y menos activas.

Con el paso del tiempo, estas células senescentes se acumulan en el organismo y están asociadas a enfermedades como la osteoporosis, patologías cardiovasculares, ciertos tipos de cáncer y trastornos neurodegenerativos.

Según explicó Pirawan Chantachotikul, uno de los autores del estudio, las células envejecidas presentan fibras internas mucho más gruesas que las jóvenes, lo que contribuye a su rigidez e inactividad. La proteína AP2A1 aparece en mayores cantidades en estas células “viejas” y parece ser responsable directa de ese endurecimiento.

El experimento fue claro. Cuando los investigadores desactivaron la proteína AP2A1 en células envejecidas, estas redujeron su tamaño y retomaron su capacidad de división, recuperando características propias de células jóvenes.

En cambio, cuando aumentaron los niveles de AP2A1 en células jóvenes, el envejecimiento se aceleró.

“La supresión de AP2A1 en células envejecidas revirtió la senescencia y promovió la renovación celular”, explicó Shinji Deguchi, coautor del estudio.

Además, el equipo combinó esta estrategia con un compuesto llamado IU1, que favorece la eliminación de proteínas dañadas dentro de la célula. La combinación del bloqueo de AP2A1 y el uso de IU1 redujo de forma medible los marcadores del envejecimiento celular, lo que apunta a una posible inversión parcial del reloj biológico a nivel microscópico.

El descubrimiento aún se encuentra en una fase temprana y solo ha sido probado en laboratorio. Sin embargo, abre una puerta fascinante para la medicina regenerativa y la biología del envejecimiento.

Puede que el “botón de pausa” del tiempo no esté todavía al alcance de la mano, pero por primera vez la ciencia parece haber encontrado uno de sus interruptores más prometedores.

Parece ciencia ficción pero no lo es: científicos japoneses han descubierto el "botón de parada" que podría darnos 250 años más de vida

viernes, 20 de febrero de 2026

La arquitectura de la cognición sintética

  

La arquitectura de la cognición sintética

El paradigma de DeepMind, la Biología Digital y la búsqueda de la Inteligencia General Artificial (AGI).

Bajo la luz de esta máxima ineludible de don Santiago Ramón y Cajal, la evolución contemporánea de la inteligencia artificial (IA) adquiere una dimensión que trasciende la mera automatización de tareas procedimentales. Hoy, nos adentramos en la resolución de los misterios más arcanos de la biología molecular, la física fundamental y la naturaleza misma de la cognición. En el epicentro de esta transformación paradigmática se encuentra DeepMind, la organización de investigación que ha redefinido los límites epistemológicos y técnicos de lo computacionalmente posible. La reciente atención mediática y académica, catalizada por el documental The Thinking Game, documenta la vasta y compleja trayectoria de su cofundador, Demis Hassabis. Esta odisea investigativa equipara la creación de la Inteligencia General Artificial (AGI) con hitos civilizatorios de la magnitud del descubrimiento del fuego o el dominio de la electricidad.

Vamos a realizar un análisis exhaustivo de la trayectoria y los fundamentos algorítmicos del ecosistema de DeepMind y sus entidades afiliadas, como Isomorphic Labs. A través del escrutinio de su progresión metódica —desde los entornos simulados de los juegos clásicos hasta la biología digital galardonada con el Premio Nobel de Química en 2024— se revela un enfoque sistemático para descifrar la inteligencia. Sin embargo, a medida que los modelos fundacionales se acercan a la abstracción humana, surgen complejos dilemas sobre el propósito, la economía y la esencia misma de nuestra especie.

1. Ontología de la inteligencia: la información, la entropía y el escultor del cerebro

El desarrollo de la AGI exige sistemas dotados de una flexibilidad cognitiva comparable a la inteligencia humana a través de cualquier dominio. La arquitectura conceptual de DeepMind se cimentó en la intersección del aprendizaje profundo (Deep Learning) y el aprendizaje por refuerzo (Reinforcement Learning).

1.1 El fundamento neurobiológico y el tejido de la realidad

El maestro Cajal sentenció con clarividencia: “Todo ser humano, si se lo propone, puede ser escultor de su propio cerebro”. Esta afirmación despojaba al aprendizaje de su carácter abstracto para enraizarlo en la transformación física y tangible del tejido nervioso mediante el esfuerzo sostenido y la repetición. Demis Hassabis, neurocientífico de formación, ha llevado esta concepción un paso más allá en sus recientes reflexiones, postulando una teoría unificadora: la información, y no la materia o la energía, es la unidad más fundamental del universo.

Bajo este prisma, la biología misma, y por extensión el cerebro que Cajal dibujaba con devoción, no es más que un “sistema de información que resiste a la entropía”. Los seres vivos mantienen su estructura y significado frente al ruido y la aleatoriedad del cosmos. Las redes neuronales artificiales contemporáneas representan el audaz intento del homo sapiens por recrear esta arquitectura sublime en sustratos de silicio.

No es una mera coincidencia poética: tal y como documenta detalladamente la revista The Neuroscientist, las precisas descripciones de Cajal aportaron el léxico fundamental de las redes neuronales discretas y la direccionalidad de la información. Aún más revelador es el papel de su más brillante discípulo, Rafael Lorente de Nó. En la década de 1930, Lorente de Nó descubrió los “circuitos reverberantes” o bucles de retroalimentación en la corteza cerebral, describiendo el mecanismo biológico subyacente a la memoria a corto plazo. Este hallazgo fue la inspiración biológica directa que permitió a pioneros como Warren McCulloch y Walter Pitts formular en 1943 el primer modelo matemático de una red neuronal artificial. Lorente de Nó, participando activamente en las históricas Conferencias Macy junto a gigantes matemáticos como John von Neumann y Norbert Wiener, afianzó la “conexión cibernética española”. Juntos, maestro y discípulo, se erigen hoy como verdaderos padres fundacionales de la IA, tejiendo un hilo conductor histórico entre los dibujos a tinta de la escuela histológica española y las modernas Redes Neuronales Recurrentes (RNN) que impulsan la tecnología contemporánea.

Mientras nuestro sistema biológico utiliza la plasticidad sináptica para aprender y consolidar la memoria de forma extraordinariamente eficiente , la IA simula este prodigio mediante algoritmos que ajustan inexorablemente los “pesos sinápticos” de la red para corregir errores, esculpiendo el conocimiento para combatir el caos entrópico.

1.2 La consolidación institucional y la fusión con Google

Operando bajo un secretismo riguroso en sus primeros años, DeepMind atrajo a inversores que validaron la audacia de su visión. El imperativo de escalar el poder computacional forzó la adquisición por parte de Google en 2014. En aquel momento, Hassabis exigió un “cortafuegos contractual” que prohibía el uso de su tecnología para aplicaciones militares, erigiendo una barrera ética que, tristemente, experimentaría una profunda erosión corporativa en la década posterior ante la incesante presión geopolítica.

2. Los campos de prueba: juegos como microcosmos de la realidad

Para desarrollar algoritmos de propósito general, los investigadores requerían entornos con reglas claras y retroalimentación inmediata, emulando la tensión y el esfuerzo que el cerebro necesita para reorganizarse.

2.1 El entorno Atari y el comportamiento emergente

El primer gran hito validatorio fue la conquista de Atari 2600. Al enfrentar a su agente a juegos como Breakout, el sistema solo recibía los píxeles crudos y la puntuación como recompensa. A través de iteraciones de ensayo y error, el agente descubrió de manera autónoma estrategias óptimas contra-intuitivas, demostrando un comportamiento emergente sin preprogramación humana.

2.2 AlphaGo y la trascendencia epistemológica del Movimiento 37

El logro que catapultó a DeepMind al panteón histórico fue el dominio del Go, un juego con más configuraciones posibles que átomos en el universo observable. El sistema AlphaGo resolvió esta complejidad integrando redes neuronales profundas con la Búsqueda de Árbol de Monte Carlo (MCTS).

Durante la histórica partida contra el campeón Lee Sedol, AlphaGo ejecutó el inaudito “Movimiento 37”, desafiando siglos de sabiduría humana acumulada. Este instante demostró que un sistema no era meramente imitativo, sino inherentemente complejo y capaz de una creatividad exógena a la cognición humana.

2.3 Generalización y tabula rasa: AlphaZero y AlphaStar

AlphaZero eliminó por completo la dependencia de datos humanos, aprendiendo desde una tabula rasa (pizarra en blanco). Jugando contra sí mismo, superó a los mejores motores en horas, demostrando que los sesgos cognitivos humanos actúan como un techo artificial. Posteriormente, AlphaStar dominó la niebla de guerra en StarCraft II, demostrando planificación a largo plazo bajo información imperfecta

3. Descifrando las maravillas de la histología: la revolución de AlphaFold

Así como Cajal se maravillaba escudriñando los misterios de la teoría celular a través de su microscopio, el imperativo estratégico de DeepMind viró hacia las estructuras primordiales del mundo real: las proteínas. Predecir la compleja geometría espacial en 3D de estas “máquinas de la vida” a partir de una secuencia de aminoácidos era un enigma de cincuenta años considerado el “santo grial” de la biología molecular.

3.1 El imperativo moral: “Publicadlo ya”

Tras iteraciones iniciales, AlphaFold 2 resolvió definitivamente el problema en 2020 integrando conocimiento biológico evolutivo en su arquitectura (Evoformer). Llegado el momento del triunfo, el equipo se enfrentó a una disyuntiva ética sobre cómo proceder con este inconmensurable poder. Fiel a la convicción de que la IA debe ser un motor para el bien común, Hassabis zanjó el debate interno con una directriz clara: “Publicadlo ya”.

En una decisión monumental que honra el espíritu de la ciencia abierta, DeepMind publicó la base de datos de estructuras de proteínas de manera gratuita, catalogando más de 200 millones de proteínas, prácticamente todas las conocidas por la ciencia. Esta democratización ha sido utilizada por millones de investigadores en el mundo , acelerando vías clínicas desde la malaria hasta el Alzheimer, y consolidando a Hassabis y Jumper como ganadores del Premio Nobel de Química en 2024.

3.2 AlphaFold 3 y la célula virtual

Presentado en 2024, AlphaFold 3 representa una simulación biomolecular holística, prediciendo las interacciones dinámicas de proteínas, ADN, ARN, ligandos e iones. El galardón de la Academia Sueca validó una visión mucho más profunda expuesta por Hassabis: el próximo gran horizonte científico de la humanidad es la creación de una “célula virtual”. Así como Cajal se asomó al ocular del microscopio para desentrañar el tupido bosque neuronal, DeepMind aspira a modelar in silico el comportamiento integral y dinámico de la maquinaria celular viva. Esta herramienta permitiría a los científicos predecir con precisión atómica los efectos de cualquier mutación genética o intervención farmacológica antes de sintetizar un solo compuesto físico en el laboratorio.

4. Isomorphic Labs y las profecías de Cajal: farmacología de precisión

Al adentrarnos en la era de la farmacología digital impulsada por Isomorphic Labs (subsidiaria de Alphabet), resulta inevitable evocar las inquietudes visionarias del Sabio. En su relato de ciencia ficción juvenil “La vida en el año 6000”, redactado en la década de 1880, Cajal anticipó con asombrosa lucidez un futuro marcado por la “máquina diagnosticadora” y los “logaritmos terapéuticos”. Vislumbró el preciso instante en el que la medicina se fundiría con la automatización computacional.

Sin embargo, su advertencia era profunda y perturbadora: el terror en su distopía no emanaba de una rebelión violenta de las máquinas, sino de su funcionamiento perfecto e infalible. Cajal temía que delegar las decisiones clínicas a estos aparatos degradara al médico a un mero “ingeniero biológico” o recolector de datos encargado únicamente de alimentar a la máquina, provocando la atrofia del juicio humano y sumiendo a la sociedad en una complaciente “mediocridad inducida”.

Hoy, Isomorphic Labs materializa esta profecía técnica (esperando evitar su condena ética) mediante su motor IsoDDE, diseñado para interactuar con la topología sutil de las proteínas y descubrir “bolsillos crípticos” e inhibidores complejos exclusivamente en silico. Respaldada por una inyección de 600 millones de dólares en 2025 y alianzas multimillonarias con titanes como Novartis y Eli Lilly, la compañía aspira a iniciar ensayos clínicos en humanos para sus fármacos oncológicos hacia finales de 2026, una compresión temporal sin precedentes en la industria médica que redefinirá, tal y como temía y soñaba Cajal, el papel del ser humano en el arte de curar.

5. El concepto de “nodos raíz”: de la biorremediación a la fusión nuclear

La estrategia de DeepMind no consiste en resolver problemas aislados, sino en atacar lo que Hassabis denomina “nodos raíz” (root nodes). Un nodo raíz es un desafío científico fundamental que, una vez resuelto, desencadena una cascada de soluciones para innumerables problemas subsidiarios.

Si AlphaFold fue el nodo raíz de la biología, la compañía ahora dirige su mirada a la ciencia de materiales y la física de plasmas. El objetivo final es la energía de fusión nuclear. Si la IA logra estabilizar y controlar el plasma dentro de los imanes de un reactor Tokamak, la humanidad accedería a una fuente de energía limpia, barata e ilimitada. Al resolver este nodo raíz energético, se resuelven de forma inherente crisis derivadas: el cambio climático, la viabilidad de la desalinización masiva del agua e incluso la síntesis de nuevos combustibles. Es, en esencia, ingeniería computacional aplicada directamente a la supervivencia y prosperidad a largo plazo de la especie.

Paralelamente, a nivel ambiental, la biología digital ya ataca la contaminación plástica. A través del diseño computacional, se están moldeando enzimas hidrolíticas (como la PETasa) capaces de escindir los enlaces del PET en condiciones industriales extremas, instaurando una auténtica economía circular a nivel atómico.

6. Modelos de mundo y el dilema de la “inteligencia dentada”

A pesar de sus proezas, la inteligencia artificial contemporánea sufre de profundas asimetrías. Demis Hassabis ha diagnosticado con precisión clínica esta sintomatología, caracterizando a la tecnología actual como una “inteligencia dentada” (jagged intelligence). Resulta paradójico observar cómo los sistemas fundacionales son capaces de ganar medallas de oro en las complejísimas Olimpiadas Internacionales de Matemáticas, para acto seguido fracasar estrepitosamente al intentar resolver un problema lógico de secundaria o un simple juego de tres en raya. Esta inconsistencia expone una brecha insalvable: mientras nuestra mente se esculpe a sí misma continuamente mediante el aprendizaje orgánico, los modelos de IA quedan “congelados” tras su entrenamiento y adolecen de memoria a largo plazo (el síndrome del “pez dorado”).

Para sanar esta fragilidad, la industria sabe que el mero escalado de datos ha comenzado a mostrar rendimientos decrecientes. El progreso futuro exige un 50% de fuerza bruta computacional y un 50% de innovación arquitectónica pura.

6.1 La búsqueda y la pausa reflexiva

La cura inmediata reside en dotar a los modelos de “tiempo de inferencia” o “tiempo de pensamiento”. Modelos como la serie o1 de OpenAI introducen una “Cadena de Pensamiento” oculta y reflexiva. Simultáneamente, Gemini 3 Pro de Google formaliza esta pausa reflexiva —ese instante de meditación que Cajal consideraba indispensable para la forja de las ideas— mediante algoritmos de Búsqueda Reflectiva de Árbol de Monte Carlo (R-MCTS). Este sistema permite al agente detenerse, verificar sus propias respuestas y planificar a largo plazo antes de emitir un resultado.

6.2 De leer el mundo a simular el mundo

Pero el salto definitivo hacia la AGI requiere trascender el lenguaje. Un LLM actual es como un estudiante que se ha leído todos los manuales de aviación del mundo; conoce la teoría de la sustentación, pero no sabe pilotar. Para aprender verdaderamente la física, la inercia y la causalidad, se requiere un simulador de vuelo.

DeepMind está enfocada en crear “modelos de mundo” (a través de proyectos como los generadores de video y agentes en entornos virtuales). Estos sistemas no solo generan píxeles, sino que actúan como motores de física intuitiva. Al soltar agentes de IA dentro de estas simulaciones para que aprendan empíricamente de sus interacciones fallidas, se está forjando el intelecto que próximamente se transferirá a la robótica en el mundo físico. Para interactuar con esta nueva realidad, Hassabis prevé que el formato natural no será el teléfono móvil, sino las gafas inteligentes, convirtiendo a la IA en un asistente universal, visual y omnipresente.

7. La AGI y el debate de la máquina de Turing

Hassabis define la Inteligencia General Artificial no como una simple calculadora avanzada, sino como un sistema capaz de exhibir toda la amplitud cognitiva humana: desde el control físico del cuerpo en el deporte hasta la invención de conjeturas científicas que cambien paradigmas (a la altura de la Relatividad de Einstein) o la creación de géneros artísticos inéditos. Con los avances en modelos de mundo y arquitecturas reflexivas, estima que este punto de inflexión absoluto podría materializarse en apenas 5 a 10 años

Esta inminencia plantea la pregunta ontológica definitiva: ¿Es el universo completamente computable? Si logramos construir una AGI en un ordenador clásico (una máquina de Turing) que sea indistinguible en consciencia, emoción y creatividad de una mente humana, habremos demostrado empíricamente que no hay “magia” en el cerebro; que todo nuestro ser es reducible a física e información procesable. Por el contrario, si tras perfeccionar el sistema descubrimos que aún falta una “chispa” vital, podríamos dar la razón a físicos como Roger Penrose, quienes argumentan que la mente biológica opera mediante procesos cuánticos inalcanzables para el silicio. Percibir humanidad en los algoritmos actuales es, a menudo, un episodio de “pareidolia cognitiva”: proyectamos mente donde solo habitan patrones estocásticos.

8. El legado de Cajal, la post-escasez y el pacto social

“Las ideas no duran mucho. Hay que hacer algo con ellas”, nos advertía el Sabio. La narrativa de DeepMind augura que la AGI generará un impacto social “diez veces mayor y diez veces más rápido” que la Revolución Industrial. La promesa es una utopía de “abundancia post-escasez” facilitada por la energía de fusión y la curación de enfermedades.

Sin embargo, si la automatización nos exime de la necesidad de trabajar para sobrevivir, la humanidad se enfrentará a una profunda crisis de propósito y significado. Necesitaremos, en palabras de Hassabis, “nuevos grandes filósofos” que nos guíen en esta reconfiguración de la condición humana.

Es aquí donde la lucidez histórica cobra todo su valor. El maestro Cajal utilizaba sus relatos de ficción como un auténtico laboratorio moral, practicando lo que hoy podríamos denominar una “pre-computación ética”. A través de la literatura, Cajal testeaba las consecuencias sociales de los avances científicos, buscando el indispensable “alineamiento” de la tecnología con los valores humanistas un siglo antes de que este concepto obsesionara a la industria de la IA. En su visión del año 6000, temía precisamente esta tragedia silenciosa: la homogeneización cultural dictada por las máquinas, la extirpación de la poesía y el amor, y la pérdida irremediable del esfuerzo intelectual que nos hace orgánicamente humanos.

A esta profunda crisis existencial se suma el riesgo tangible de la desinformación, el despliegue de armamento autónomo y la erosión del cortafuegos ético originario bajo las presiones del complejo militar-industrial.

Conclusión

La inmersión panorámica en la odisea de DeepMind encarna la metamorfosis más sublime y desafiante de nuestro tiempo. Aquellas “misteriosas mariposas del alma”, cuyo intrincado batir de alas Santiago Ramón y Cajal escudriñaba con la esperanza de revelar el secreto de la vida mental, parecen hoy estar siendo codificadas en matrices de silicio, demostrando que la información es, en efecto, el sustrato mismo de la realidad.

Desde la conquista de los tableros de Go hasta el rediseño de las proteínas y la búsqueda de los nodos raíz de la energía y la física, la inteligencia sintética avanza como una fuerza de la naturaleza. Sin embargo, su legado definitivo no estará dictado por el triunfo técnico de superar su “inteligencia dentada” mediante modelos de mundo y simulación. El veredicto de la historia dependerá de nuestra capacidad como especie para gobernar esta transición monumental. Si hemos de esculpir este nuevo cerebro universal y adentrarnos en la era de la AGI, debemos asegurar con inquebrantable firmeza moral que la máquina, por perfecta que sea, jamás aniquile la poesía de nuestra propia condición humana

Mientras el cerebro sea un misterio, el universo continuará siendo un misterio.

Santiago Ramón y Cajalhttps://santiagoramonycajal.org/2026/02/20/la-arquitectura-de-la-cognicion-sintetica

miércoles, 18 de febrero de 2026

Una vacuna para el cáncer de mama triple negativo consigue una respuesta completa en once pacientes

 

Una vacuna para el cáncer de mama triple negativo consigue una respuesta completa en once pacientes

La Voz de la SaludLA VOZ DE LA SALUD

ENFERMEDADES

Resultado de una mamografía.
Resultado de una mamografía. Istock

Un ensayo clínico realizado por la farmacéutica BioNtech consiguió elaborar vacunas de ARN mensajero que estimularon la acción de los linfocitos T frente al tumor en más de una decena de casos

18 feb 2026 . Actualizado a las 19:02 h.

El cáncer de mama triple negativo, que se caracteriza por no dar positivo en receptores de estrógeno, progesterona ni proteína HER2, es considerado el tumor mamario más agresivo y con mayor tasa de recaídas, debido a su rápido crecimiento. Tiende a producir metástasis incluso en etapas tempranas y a menudo afecta a pacientes relativamente jóvenes. De ahí la importancia de encontrar nuevas alternativas terapéuticas que puedan ser efectivas para tratarlo. Entre estas estrategias, el uso de inmunoterapia, con fármacos que actúan como «vacunas», preparando al sistema inmunitario para atacar al tumor, es una de las áreas más prometedoras. Ahora, una nueva investigación publicada en Nature ha evaluado una vacuna personalizada de ARN mensajero que, en combinación con la cirugía y otras terapias, logró generar en catorce pacientes una respuesta por parte de los linfocitos T, claves en las defensas del organismo. En el estudio, once de las pacientes alcanzaron la respuesta completa y llevan seis años sin recaídas, un verdadero hito en un subtipo de cáncer en el que estas se producen frecuentemente durante los primeros tres años.

El estudio

La investigación, llevada a cabo en Alemania y Suecia, exploró el uso de una vacuna personalizada de ARN mensajero contra el tumor de cada paciente. En este ensayo clínico de fase I, se puso a prueba por primera vez en humanos un fármaco de estas características en cáncer de mama triple negativo para analizar su viabilidad, seguridad y eficacia.

Para ello, los científicos seleccionaron a catorce pacientes que hubieran recibido tratamientos estándar para el cáncer de mama triple negativo —una combinación de quimioterapia y cirugía dirigida al tumor primario— y elaboraron estas vacunas en base a las características específicas del genoma del cáncer que cada una tenía. Seleccionaron hasta 20 proteínas presentes en cada tumor, conocidas como neoantígenos, y desarrollaron fármacos que funcionan igual que otras vacunas de ARN mensajero, es decir, que aportan instrucciones para que el propio organismo produzca linfocitos T capaces de identificar y destruir las células malignas.

Los resultados fueron alentadores. «En la sangre periférica de casi todas las pacientes, se detectaron respuestas de linfocitos T de alta magnitud, inducidas por la vacuna, a múltiples neoantígenos que permanecieron funcionales durante varios años», concluyen los expertos. En otras palabras, la vacuna fue bien tolerada y provocó respuestas consistentes y potentes por parte de los linfocitos T, el objetivo buscado para una terapia de este tipo.

Once de las catorce pacientes mostraron una respuesta completa frente al tumor y continuaron sin cáncer durante seis años. «Nuestro estudio demuestra la viabilidad clínica, la seguridad y la robusta inmunogenicidad de una vacuna individualizada de neoantígenos basada en ARNm de uridina en pacientes con cáncer de mama triple negativo tras terapia adyuvante o neoadyuvante», concluyen los investigadores.

Para que estas terapias lleguen a un uso clínico extendido queda, sin embargo, mucho camino por andar. Tras este ensayo de fase I habrá que realizar más estudios, con muestras más amplias y grupos de control, que permitan corroborar la validez de estas terapias.

La investigación fue desarrollada por la farmacéutica BioNtech, que también está llevando a cabo ensayos en fase II con vacunas para tumores de colon, páncreas y vejiga. A estos se suma un estudio de la empresa que consiguió resultados prometedores con una inmunización similar para pacientes con melanoma. Según ha asegurado uno de los fundadores de la compañía, se espera que al menos una vacuna personalizada de ARN mensajero para el cáncer esté aprobada para el año 2030.

Qué es el cáncer de mama triple negativo

El cáncer de mama triple negativo es un tipo de tumor mamario particularmente agresivo que representa entre un 10 y un 15 % del total de los casos. Está fuertemente ligado a mutaciones genéticas, especialmente al gen BRCA1, siendo más común en mujeres menores de 40 años.

Su característica principal es que sus células carecen de receptores hormonales y de proteína HER2. Por esta razón, no responde a terapias hormonales ni a tratamientos dirigidos contra la proteína HER2. En este tipo de casos, se utiliza la quimioterapia como principal tratamiento sistémico.

Este cáncer puede crecer y se puede propagar más rápido que otros tumores mamarios. Las opciones disponibles para su tratamiento son más limitadas y tiene más probabilidad de reaparecer con respecto a aquellos que dan resultados positivos en las pruebas para receptores. Por estos motivos, las tasas de supervivencia generalmente no son tan altas como en otros tipos de cáncer de mama.

De manera conjunta, el cáncer de mama es el tumor más frecuentemente diagnosticado en la mujer, según datos de la Sociedad Española de Oncología Médica (SEOM). Se estima que una de cada ocho mujeres lo padecerán a lo largo de su vida

EDEN: el sistema de IA que aprende de un millón de especies para diseñar nuevos tratamientos

  El modelo permite la modificación precisa y compleja de células y moléculas para curar enfermedades

https://elpais.com/ciencia/2026-02-18/eden-el-sistema-de-ia-que-aprende-de-un-millon-de-especies-para-disenar-nuevos-tratamientos.html?ssm=TW_CC

No es lo mismo recibir una carta que una tarta o hundirse en vez de fundirse; una sola alteración cambia el significado de una palabra y del posterior relato. En el ámbito biológico, si se consideran los genes como letras, la consecuencia de un error en el código genómico puede derivar en anemia falciforme (deformación de los glóbulos rojos), una predisposición al colesterol alto o en un cáncer, entre otras miles de consecuencias. Entender las repercusiones de una alteración genética y su evolución es clave para el desarrollo de tratamientos y es el paso que ha dado una alianza de los gigantes informáticos Nvidia y Microsoft, la compañía de inteligencia artificial (IA) Basecamp Research e investigadores del laboratorio del español César de la Fuente en la Universidad de Pensilvania: utilizar la IA para aprovechar y aprender de modelos evolutivos genéticos a gran escala con el fin de desarrollar terapias programables. Es decir, modificar células y moléculas a partir de una gigantesca biblioteca genética de la vida para curar o prevenir una enfermedad.
La herramienta fundamental de la edición genética es la tijera molecular de cortar y pegar secuencias del código genómico (CRISPR/Cas), reconocida con el Nobel en 2020. Esta técnica se ha desarrollado desde entonces hasta aspirar a ser uno de los 10 avances más disruptivos del año, según propone el Instituto de Tecnología de Massachusetts (MIT, por sus siglas en Inglés).
La nueva investigación lo demuestra con la primera generación de modelos de IA capaces de modificar e insertar genes de forma programable: reemplazar códigos génicos defectuosos y reprogramar células con fines terapéuticos, para desarrollar una nueva generación de tratamientos contra el cáncer y enfermedades hereditarias.
La fuente del nuevo sistema es la vida en todos los ámbitos. “Los modelos evolutivos genéticos a gran escala de IA”, según explica el biotecnólogo español, “intentan capturar la lógica profunda de la vida aprendiendo directamente de la evolución, que es, en esencia, un proceso de optimización a escala planetaria porque ha explorado un espacio inmenso de secuencias y ha retenido configuraciones que funcionan en el mundo real”.
“De esta forma, a partir de la base de datos natural de ADN y proteínas de muchísimas especies y ecosistemas, se conocen qué patrones son estables, qué combinaciones son viables y qué estructuras tienden a producir ciertas funciones”, relata De La Fuente.
La inteligencia artificial es la clave para desentrañar esta nueva estrategia. “Durante décadas”, añade en este sentido el investigador de la Universidad de Pensilvania, “hemos estado descifrando las reglas de la biología a base de experimentos. Estos modelos [evolutivos de IA] permiten acelerar ese proceso: no usamos la IA para clasificar o predecir, sino como un sistema generativo capaz de proponer nuevas soluciones, como moléculas, enzimas o constructos [teorías], con un objetivo terapéutico y compatibles con las restricciones biológicas”.

Antibióticos y anticancerígenos

El laboratorio de De la Fuente ha llevado a la práctica este nuevo modelo con el diseño de nuevas moléculas contra infecciones resistentes a los antibióticos existentes. Las cadenas cortas de aminoácidos (péptidos) desarrolladas mostraron una eficacia del 97% en pruebas de laboratorio. “Esto abre un nuevo camino para encontrar rápidamente candidatos contra los patógenos más temidos”, resalta el investigador.
Pero los resultados van más allá. “Creemos que estamos al inicio de una expansión importante de lo que es posible para los pacientes con cáncer y enfermedades genéticas. Al usar IA para diseñar terapias, esperamos desarrollar soluciones para miles de enfermedades incurables y transformar millones de vidas,” afirma John Finn, director científico de Basecamp Research. La tecnológica ha empleado el modelo para generar linfocitos CAR-T (células inmunitarias) con una eficacia del 90% contra células tumorales en ensayos in vitro.
El trabajo mejora los enfoques basados en la galardonada técnica de edición genómica, que permite alteraciones limitadas y requiere dañar el ADN. “CRISPR es muy potente para ediciones pequeñas y precisas, pero la biología clínica, a menudo, necesita algo distinto, como añadir funciones completas, es decir, insertar genes o grupos de tamaño significativo y hacerlo en lugares definidos del genoma con alta fiabilidad”, explica De la Fuente.
“La inserción programable [del nuevo modelo] apunta a ese objetivo: tratar el genoma como un sistema donde no solo editas caracteres, sino donde puedes instalar módulos de manera más dirigida. En términos conceptuales, es un paso desde la edición puntual hacia la integración controlada, siempre con el requisito de evaluar con rigor seguridad, especificidad y entrega”, precisa.
El nuevo sistema de IA para el gigantesco conjunto de datos genómicos del mundo, denominado EDEN, ha conseguido la inserción correcta de ADN en el lugar preciso del genoma humano con el 73% de las enzimas probadas.
EDEN (siglas de Environmentally-derived evolutionary network) procesa ADN evolutivo de más de un millón de especies recién descubiertas, recolectadas durante cinco años en 150 ubicaciones de 28 países. El modelo ha sido entrenado y acelerado por Nvidia para alcanzar una escala que la compañía compara con GPT-4, de OpenAI.
“La edición genómica tiene un potencial único para corregir las anomalías genéticas hereditarias asociadas a enfermedades“, afirma Tomoji Mashimo, ajeno al trabajo y autor principal de una investigación publicada en Nature Biotechnology en la que aplica una variante de CRISPR (Cas3) para evitar los depósitos amiloides de proteínas causantes de amiloidosis por transtiretina (ATTR). “En los próximos años, esta tecnología puede conducir a aplicaciones clínicas no solo para ATTR, sino también para otras enfermedades hereditarias actualmente incurables“, señala.
También puede ser usada la tecnología genómica para diagnósticos y tratamientos precisos. Es el caso del sistema Sherlock, un método diagnóstico basado también en CRISPR que permite la detección de secuencias de ácidos nucleicos derivadas de patógenos. La investigación, publicada en Nature Biomedical Engineering, facilita la cuantificación rápida y precisa de cepas y mutaciones del hongo Candida auris. “Los métodos diagnósticos actuales para detectar C. auris son demasiado costosos, lentos y dependen de equipos complejos y personal entrenado para provocar un cambio real", explica Justin Rolando, autor principal del trabajo.
Las infecciones por C. auris, muy problemáticas para pacientes con el sistema inmunológico debilitado, se tratan con medicamentos antifúngicos, pero algunas de las cepas del patógeno han desarrollado resistencia a los antimicrobianos, lo que obliga a tratarlas con otros fármacos o son intratables.
Raul Limon