"Hay avances tecnológicos que cambiarán el mundo y que no tienen
ninguna relevancia en los medios. Por eso es tan importante revertirlo
en plataformas de conocimiento como esta. Hoy os hablo de
'tech-humanismo' y del hecho de que una mujer ciega haya logrado ver
gracias a un nuevo implante cerebral. Con él identifica luces del techo,
letras y formas básicas.
La resolución de lo que ve es de 10 por 10 píxeles. No puede identificar detalles de una cara, no obstante. Pero no me digáis
que no es maravilloso. Los responsables del proyecto aseguran que
lograrán un dispositivo que ofrezca visión absolutamente realista con un
software que identifica todas las imágenes posibles y trasmitirlas al
propio cerebro. Para ello necesitará una resolución de 60 x 60 píxeles.
No se sabe cuánta información sintética puede recibir el cerebro humano sin sentirse colapsado. "M.Vidal
Blind Woman Sees With New Implant, Plays Video Game Sent Straight to Her Brain
Jason Dorrier
It’s been over a decade since artificial
retinas first began helping the blind see. But for many people, whose
blindness originates beyond the retina, the technology falls short.
Which is why new research out of Spain skips the eye entirely, instead
sending signals straight to the brain’s visual cortex.
Amazingly, 15 years after losing her sight, Bernardeta Gómez, who
suffers from toxic optic neuropathy, used the experimental technology to
recognize lights, letters, shapes, people—and even to play a basic
video game sent directly to her brain via an implant.
According to MIT Technology Review,
Gómez first began working with researchers in late 2018. Over the next
six months, she spent four days a week dialing in the technology’s
settings and testing its limits.
The system, developed by Eduardo Fernandez, director of neuroengineering at the University of Miguel Hernandez, works like this.
A camera embedded in a pair of thick, black-rimmed glasses records
Gómez’s field of view and sends it to a computer. The computer
translates the data into electrical impulses the brain can read and
forwards it to a brain implant by way of a cable plugged into a port in
the skull. The implant stimulates neurons in Gómez’s visual cortex,
which her brain interprets as incoming sensory information. Gómez
perceives a low-resolution depiction of her surroundings in the form of
yellow dots and shapes called phosphenes which she’s learned to
interpret as objects in the world around her.
The technology itself is still very much in the early stages—Gómez is
the first to test it—but the team aims to work with five more patients
in the next few years. Eventually, Fernandez hopes their efforts can
help return sight to many more of the world’s blind people.
A Brief History of Artificial Eyes
This isn’t the first time researchers have used technology to help the blind see again.
Roughly two decades ago, the Artificial Retina Project
brought together a number of research institutions to develop a device
for those suffering retina-destroying diseases. The work resulted in the
Argus systems, which, like Fernandez’s system, use a camera mounted on
glasses, a computer to translate sensory data, and an implant with an
array of electrodes embedded in the retina (instead of the brain).
Over the course of about a decade, researchers developed the Argus I and Argus II systems, ran them through human trials, and gained approval in Europe (2011) and the US (2013) to sell their bionic eyes to eligible individuals.
According to MIT Technology Review, around 350 people use
Argus II today, but the company marketing the devices, Second Sight, has
pivoted from artificial retinas to the brain itself because far more
people, like Gómez, suffer from damage to the neural pathways between
eyes and brain.
Just last year, Second Sight was involved in research, along with UCLA and Baylor, testing a system that also skips the retina and sends visual information straight to the brain.
The system, called Orion, is similar to Argus II. A feed from a video
camera mounted on dark glasses is converted to electric pulses sent to
an implant that stimulates the brain. The device is wireless and
includes a belt with a button to amplify dark objects in the sun or
light objects in the dark. Like Fernandez’s system, the user sees a
low-resolution pattern of phosphenes they interpret as objects.
“I’ll see little white dots on a black background, like looking up at
the stars at night,” said Jason Esterhuizen, who was the second
research subject to receive the device. “As a person walks toward me, I
might see three little dots. As they move closer to me, more and more
dots light up.”
Though the research is promising—it’s designated an FDA Breakthrough
Device and is being trialed with six patients—Dr. Daniel Yoshor, study
leader and neurosurgeon, cautioned the Guardian last year that it’s “still a long way from what we hope to achieve.”
The Road Ahead
Brain implants are far riskier than eye implants, and if the original
Argus system is any indication, it may be years before these new
devices are used widely beyond research.
Still, brain-machine interfaces (BMIs) are quickly advancing on a number of fronts.
The implant used in Fernandez’s research is a fairly common device
called a Utah array. The square array is a few millimeters wide and
contains 100 electrode spikes which are inserted into the brain. Each
spike stimulates a few neurons. Similar implants have helped paralyzed folks control robotic arms and type messages with just their thoughts.
Though they’ve been the source of several BMI breakthroughs, the arrays aren’t perfect.
The electrodes damage surrounding brain tissue, scarring renders them
useless all too quickly, and they only interact with a handful of
neurons. The ideal device would be wireless, last decades in the
brain—limiting the number of surgeries needed—and offer greater
precision and resolution.
Ferndandez believes his implant can be modified to last
decades, and while the current maximum resolution is 10 by 10 pixels, he
envisions one day implanting as many as 6 on each side of the brain to
deliver a resolution of at least 60 by 60 pixels
In addition, new technologies are in the works.
Famously, Elon Musk’s company Neuralink is developing soft, thread-like
electrodes that are deftly laced into brain tissue by a robot.
Neuralink is aiming to include 3,000 electrodes on their device to chat
up far more neurons than is currently possible (though it’s not clear
whether there’s a limit to how many more neurons actually add value).
Still other approaches, that are likely further out, do away with
electrodes altogether, using light or chemicals to control gene-edited
neurons.
Fernandez’s process also relies on more than just the hardware. The
team used machine learning, for example, to write the software that
translates visual information into neural code. This can be further
refined, and in the coming years, as they work on the system as a whole,
the components will no doubt improve in parallel.
But how quickly it all comes together in a product for wider use isn’t clear.
Fernandez is quick to dial back expectations—pointing out that these
are still early experiments, and he doesn’t want to get anyone’s hopes
up. Still, given the choice, Gómez said she’d have elected to keep the
implant and wouldn’t think twice about installing version two.
“This is an exciting time in neuroscience and neurotechnology, and I
feel that within my lifetime we can restore functional sight to the
blind,” Yoshor said last year.
-
Image Credit: Harry Quan / Unsplash
https://singularityhub.com/2020/02/09/blind-woman-sees-with-new-implant-plays-video-game-sent-straight-to-her-brain/
Una mujer ciega ve con un nuevo implante, juega un videojuego enviado directamente a su cerebro
Ha pasado más de una década desde que las retinas artificiales comenzaron a ayudar a los ciegos a ver. Pero para muchas personas, cuya ceguera se origina más allá de la retina, la tecnología se queda corta. Por lo que las nuevas investigaciones fuera de España omiten el ojo por completo, en su lugar envían señales directamente a la corteza visual del cerebro.
Sorprendentemente, 15 años después de perder la vista, Bernardeta Gómez, que sufre de neuropatía óptica tóxica, utilizó la tecnología experimental para reconocer luces, letras, formas, personas e incluso para jugar a un videojuego básico enviado directamente a su cerebro a través de un implante.
Según la Revisión de Tecnología del MIT, Gómez comenzó a trabajar con los investigadores a finales de 2018. Durante los siguientes seis meses, pasó cuatro días a la semana marcando los ajustes de la tecnología y probando sus límites.
El sistema, desarrollado por Eduardo Fernández, director de neuroingeniería de la Universidad Miguel Hernández, funciona así.
Una cámara incrustada en un par de gafas gruesas de montura negra graba el campo de visión de Gómez y lo envía a un ordenador. La computadora traduce los datos en impulsos eléctricos que el cerebro puede leer y los envía a un implante cerebral por medio de un cable conectado a un puerto en el cráneo. El implante estimula las neuronas de la corteza visual de Gómez, que su cerebro interpreta como información sensorial entrante. Gómez percibe una representación de baja resolución de su entorno en forma de puntos amarillos y formas llamadas fosfenos que ha aprendido a interpretar como objetos en el mundo que le rodea.
La tecnología en sí misma está todavía en sus primeras etapas -Gómez es el primero en probarla- pero el equipo tiene como objetivo trabajar con cinco pacientes más en los próximos años. Eventualmente, Fernández espera que sus esfuerzos puedan ayudar a devolver la vista a muchos más ciegos del mundo.
Una breve historia de los ojos artificiales
No es la primera vez que los investigadores utilizan la tecnología para ayudar a los ciegos a ver de nuevo.
Hace aproximadamente dos décadas, el Proyecto de Retina Artificial reunió a varias instituciones de investigación para desarrollar un dispositivo para aquellos que sufren enfermedades que destruyen la retina. El trabajo dio como resultado los sistemas Argus, que, al igual que el sistema de Fernández, utilizan una cámara montada sobre gafas, un ordenador para traducir datos sensoriales y un implante con una serie de electrodos incrustados en la retina (en lugar del cerebro).
En el transcurso de aproximadamente una década, los investigadores desarrollaron los sistemas Argus I y Argus II, los sometieron a pruebas con humanos y obtuvieron la aprobación en Europa (2011) y los Estados Unidos (2013) para vender sus ojos biónicos a las personas elegibles.
Según la MIT Technology Review, alrededor de 350 personas utilizan hoy Argus II, pero la empresa que comercializa los dispositivos, Second Sight, ha pasado de las retinas artificiales al propio cerebro porque muchas más personas, como Gómez, sufren daños en las vías neuronales entre los ojos y el cerebro.
Justo el año pasado, Second Sight participó en la investigación, junto con UCLA y Baylor, probando un sistema que también se salta la retina y envía información visual directamente al cerebro.
El sistema, llamado Orión, es similar al Argus II. La alimentación de una cámara de vídeo montada sobre gafas oscuras se convierte en pulsos eléctricos enviados a un implante que estimula el cerebro. El dispositivo es inalámbrico e incluye un cinturón con un botón para amplificar los objetos oscuros en el sol o los objetos claros en la oscuridad. Al igual que el sistema de Fernández, el usuario ve un patrón de baja resolución de fosfenos que interpreta como objetos.
"Veré pequeños puntos blancos sobre un fondo negro, como cuando se miran las estrellas por la noche", dijo Jason Esterhuizen, que fue el segundo sujeto de investigación en recibir el dispositivo. "A medida que una persona camina hacia mí, podría ver tres pequeños puntos. A medida que se acercan a mí, más y más puntos se iluminan".
Aunque la investigación es prometedora, ha sido designada como un Dispositivo de Avance de la FDA y está siendo probada con seis pacientes. El Dr. Daniel Yoshor, líder del estudio y neurocirujano, advirtió al Guardian el año pasado que "todavía está muy lejos de lo que esperamos lograr".
Sorprendentemente, 15 años después de perder la vista, Bernardeta Gómez, que sufre de neuropatía óptica tóxica, utilizó la tecnología experimental para reconocer luces, letras, formas, personas e incluso para jugar a un videojuego básico enviado directamente a su cerebro a través de un implante.
Según la Revisión de Tecnología del MIT, Gómez comenzó a trabajar con los investigadores a finales de 2018. Durante los siguientes seis meses, pasó cuatro días a la semana marcando los ajustes de la tecnología y probando sus límites.
El sistema, desarrollado por Eduardo Fernández, director de neuroingeniería de la Universidad Miguel Hernández, funciona así.
Una cámara incrustada en un par de gafas gruesas de montura negra graba el campo de visión de Gómez y lo envía a un ordenador. La computadora traduce los datos en impulsos eléctricos que el cerebro puede leer y los envía a un implante cerebral por medio de un cable conectado a un puerto en el cráneo. El implante estimula las neuronas de la corteza visual de Gómez, que su cerebro interpreta como información sensorial entrante. Gómez percibe una representación de baja resolución de su entorno en forma de puntos amarillos y formas llamadas fosfenos que ha aprendido a interpretar como objetos en el mundo que le rodea.
La tecnología en sí misma está todavía en sus primeras etapas -Gómez es el primero en probarla- pero el equipo tiene como objetivo trabajar con cinco pacientes más en los próximos años. Eventualmente, Fernández espera que sus esfuerzos puedan ayudar a devolver la vista a muchos más ciegos del mundo.
Una breve historia de los ojos artificiales
No es la primera vez que los investigadores utilizan la tecnología para ayudar a los ciegos a ver de nuevo.
Hace aproximadamente dos décadas, el Proyecto de Retina Artificial reunió a varias instituciones de investigación para desarrollar un dispositivo para aquellos que sufren enfermedades que destruyen la retina. El trabajo dio como resultado los sistemas Argus, que, al igual que el sistema de Fernández, utilizan una cámara montada sobre gafas, un ordenador para traducir datos sensoriales y un implante con una serie de electrodos incrustados en la retina (en lugar del cerebro).
En el transcurso de aproximadamente una década, los investigadores desarrollaron los sistemas Argus I y Argus II, los sometieron a pruebas con humanos y obtuvieron la aprobación en Europa (2011) y los Estados Unidos (2013) para vender sus ojos biónicos a las personas elegibles.
Según la MIT Technology Review, alrededor de 350 personas utilizan hoy Argus II, pero la empresa que comercializa los dispositivos, Second Sight, ha pasado de las retinas artificiales al propio cerebro porque muchas más personas, como Gómez, sufren daños en las vías neuronales entre los ojos y el cerebro.
Justo el año pasado, Second Sight participó en la investigación, junto con UCLA y Baylor, probando un sistema que también se salta la retina y envía información visual directamente al cerebro.
El sistema, llamado Orión, es similar al Argus II. La alimentación de una cámara de vídeo montada sobre gafas oscuras se convierte en pulsos eléctricos enviados a un implante que estimula el cerebro. El dispositivo es inalámbrico e incluye un cinturón con un botón para amplificar los objetos oscuros en el sol o los objetos claros en la oscuridad. Al igual que el sistema de Fernández, el usuario ve un patrón de baja resolución de fosfenos que interpreta como objetos.
"Veré pequeños puntos blancos sobre un fondo negro, como cuando se miran las estrellas por la noche", dijo Jason Esterhuizen, que fue el segundo sujeto de investigación en recibir el dispositivo. "A medida que una persona camina hacia mí, podría ver tres pequeños puntos. A medida que se acercan a mí, más y más puntos se iluminan".
Aunque la investigación es prometedora, ha sido designada como un Dispositivo de Avance de la FDA y está siendo probada con seis pacientes. El Dr. Daniel Yoshor, líder del estudio y neurocirujano, advirtió al Guardian el año pasado que "todavía está muy lejos de lo que esperamos lograr".
El camino por delante
Los implantes cerebrales son mucho más arriesgados que los implantes oculares, y si el sistema Argus original es una indicación, pueden pasar años antes de que estos nuevos dispositivos se utilicen ampliamente más allá de la investigación.
Aún así, las interfaces cerebro-máquina (IMC) están avanzando rápidamente en varios frentes.
El implante utilizado en la investigación de Fernández es un dispositivo bastante común llamado matriz de Utah. La matriz cuadrada tiene unos pocos milímetros de ancho y contiene 100 puntas de electrodos que se insertan en el cerebro. Cada punta estimula unas pocas neuronas. Implantes similares han ayudado a personas paralizadas a controlar los brazos robóticos y a escribir mensajes sólo con sus pensamientos.
Aunque han sido la fuente de varios avances en el IMC, las matrices no son perfectas.
Los electrodos dañan el tejido cerebral circundante, las cicatrices los inutilizan demasiado rápido, y sólo interactúan con un puñado de neuronas. El dispositivo ideal sería inalámbrico, las últimas décadas en el cerebro -limitando el número de cirugías necesarias- y ofrecer una mayor precisión y resolución.
Ferndandez cree que su implante puede ser modificado para durar décadas, y mientras que la resolución máxima actual es de 10 por 10 píxeles, él prevé que un día se implanten hasta 6 en cada lado del cerebro para ofrecer una resolución de al menos 60 por 60 píxeles
Además, se están trabajando en nuevas tecnologías. La compañía de Elon Musk, Neuralink, está desarrollando electrodos suaves, como hilos, que son hábilmente unidos al tejido cerebral por un robot. El objetivo de Neuralink es incluir 3.000 electrodos en su dispositivo para charlar con muchas más neuronas de las que es posible en la actualidad (aunque no está claro si hay un límite a la cantidad de neuronas que realmente añaden valor). Otros enfoques, que probablemente estén más alejados, eliminan los electrodos por completo, utilizando luz o productos químicos para controlar las neuronas editadas por los genes.
El proceso de Fernández también se basa en algo más que el hardware. El equipo utilizó el aprendizaje automático, por ejemplo, para escribir el software que traduce la información visual en código neural. Esto puede ser refinado aún más, y en los próximos años, a medida que trabajen en el sistema en su conjunto, los componentes sin duda mejorarán en paralelo.
Pero no está claro con qué rapidez todo esto se reúne en un producto para un uso más amplio.
Fernández se apresura a rebajar las expectativas, señalando que estos son todavía los primeros experimentos, y no quiere dar esperanzas a nadie. Aún así, dada la elección, Gómez dijo que ella habría elegido mantener el implante y no lo pensaría dos veces antes de instalar la versión dos.
"Este es un momento emocionante en la neurociencia y la neurotecnología, y siento que dentro de mi vida podemos devolver la visión funcional a los ciegos", dijo Yoshor el año pasado.
Crédito de la imagen: Harry Quan / Unsplash
Aún así, las interfaces cerebro-máquina (IMC) están avanzando rápidamente en varios frentes.
El implante utilizado en la investigación de Fernández es un dispositivo bastante común llamado matriz de Utah. La matriz cuadrada tiene unos pocos milímetros de ancho y contiene 100 puntas de electrodos que se insertan en el cerebro. Cada punta estimula unas pocas neuronas. Implantes similares han ayudado a personas paralizadas a controlar los brazos robóticos y a escribir mensajes sólo con sus pensamientos.
Aunque han sido la fuente de varios avances en el IMC, las matrices no son perfectas.
Los electrodos dañan el tejido cerebral circundante, las cicatrices los inutilizan demasiado rápido, y sólo interactúan con un puñado de neuronas. El dispositivo ideal sería inalámbrico, las últimas décadas en el cerebro -limitando el número de cirugías necesarias- y ofrecer una mayor precisión y resolución.
Ferndandez cree que su implante puede ser modificado para durar décadas, y mientras que la resolución máxima actual es de 10 por 10 píxeles, él prevé que un día se implanten hasta 6 en cada lado del cerebro para ofrecer una resolución de al menos 60 por 60 píxeles
Además, se están trabajando en nuevas tecnologías. La compañía de Elon Musk, Neuralink, está desarrollando electrodos suaves, como hilos, que son hábilmente unidos al tejido cerebral por un robot. El objetivo de Neuralink es incluir 3.000 electrodos en su dispositivo para charlar con muchas más neuronas de las que es posible en la actualidad (aunque no está claro si hay un límite a la cantidad de neuronas que realmente añaden valor). Otros enfoques, que probablemente estén más alejados, eliminan los electrodos por completo, utilizando luz o productos químicos para controlar las neuronas editadas por los genes.
El proceso de Fernández también se basa en algo más que el hardware. El equipo utilizó el aprendizaje automático, por ejemplo, para escribir el software que traduce la información visual en código neural. Esto puede ser refinado aún más, y en los próximos años, a medida que trabajen en el sistema en su conjunto, los componentes sin duda mejorarán en paralelo.
Pero no está claro con qué rapidez todo esto se reúne en un producto para un uso más amplio.
Fernández se apresura a rebajar las expectativas, señalando que estos son todavía los primeros experimentos, y no quiere dar esperanzas a nadie. Aún así, dada la elección, Gómez dijo que ella habría elegido mantener el implante y no lo pensaría dos veces antes de instalar la versión dos.
"Este es un momento emocionante en la neurociencia y la neurotecnología, y siento que dentro de mi vida podemos devolver la visión funcional a los ciegos", dijo Yoshor el año pasado.
Crédito de la imagen: Harry Quan / Unsplash
No hay comentarios:
Publicar un comentario