traductor

jueves, 28 de junio de 2018

Descubren por qué la marihuana puede producir esquizofrenia Roberto Mendez

Descubren por qué la marihuana puede producir esquizofrenia

Roberto Mendez 

Últimamente parece que estamos de enhorabuena respecto a los estudios procedentes de España, que es el país desde donde os escribimos. Y, curiosamente, el último estudio que os comentamos también hablaba sobre el cannabis o marihuana, pero aquella vez se trataba del uso de aceite de cannabis para tratar la fibromialgia, eliminando su componente psicoactivo. Esta vez no hablaremos de sus beneficios, sino precisamente de los males que puede provocar este componente, el tetrahidrocannabinol, pues se sabía que podía llegar a provocar algunos trastornos mentales por su abuso. Ahora ya sabemos como lo hace.

El origen de la esquizofrenia a nivel cerebral

esquizofrenia1
El estudio, llevado a cabo por los investigadores del Consejo superior de Investigaciones Científicas (CSIC) de España, y dirigido por Javier Garzón Niño, del Instituto Cajal, ha descubierto como los cannabinoides controlan la activación de algunas áreas nerviosas del cerebro. De igual forma, el consumo desordenado de la sustancia desactiva un mecanismo con más intensidad de la necesaria, dando lugar a los temidos trastornos mentales como pueden ser la esquizofrenia o la psicosis.
Algunas alteraciones en los neurotransmisores como son el glutamato y la dopamina, cuando coinciden en unas áreas cerebrales específicas, se manifiestan en forma de diferentes conductas como podría ser la esquizofrenia. Existen factores genéticos que hacen a unos individuos más vulnerables que otros a la enfermedad, pero si nos fijamos en los factores ambientales o malos hábitos como es el consumo de cannabis u otras drogas, las cosas pueden acelerarse (e incluso aumentar su intensidad).
Según un estudio sistémico de las posibles alteraciones genéticas y epigenéticas, la alteración del sistema nervioso no sería la principal causa de la aparición de la esquizofrenia, sino que se debería fundamentalmente a una mala función de un receptor determinado del glutamato: El NMDAR. Por ello, al no haber suficiente glutamato para contrarrestar, la dopamina aumenta su efecto y acaba provocando la psicosis y la esquizofrenia.

El papel del cannabis en la esquizofrenia

esquizofrenia

Esencialmente, el sistema cannabinoide endógeno que poseemos desde el nacimiento es bueno, ya que controla la unión del glutamato a su receptor NMDAR y da lugar a procesos neurológicos como son la memoria o el aprendizaje. Los cannabinoides inhiben este receptor, y así se mantiene todo el sistema en un equilibrio fisiológico sin alteraciones.
-
Sin embargo, como todo equilibrio, el sistema es delicado y tiene sus puntos débiles. Aquí es donde entran en juego los cannabinoides exógenos o externos, es decir, el abuso de la marihuana. Su consumo aumenta de forma desproporcionada la inhibición del receptor NMDAR del neurotransmisor glutamato, dando lugar a un mayor efecto de la dopamina de forma intensa, y finalmente provocando la psicosis.
Para evitar que todo esto suceda, se ponen en marcha mecanismos de liberación del receptor NMDAR, pero todo esto puede desconectar el sistema, dando lugar a una vulnerabilidad que provocaría la esquizofrenia.
-
Así lo explica el investigador principal, Javier Garzón:
“El abuso del cannabis rompe el preciado equilibrio entre excitación (NMDAR) e inhibición (cannabinoides endógenos) y empuja el plato de la balanza hacia la inhibición, y por tanto permite una mayor actividad de aquellos otros sistemas controlados negativamente por el NMDAR, como el dopaminérgico”
Finalmente, según comentan los investigadores del CSIC, si se abusa del consumo inhalado de esta sustancia se pueden producir cuadros de psicosis reversibles. Pero si se sigue repitiendo la mala conducta, los daños del sistema nervioso pueden ser duraderos. Además, si a esto le sumamos una predisposición genética, la facilidad para llegar a la esquizofrenia es todavía mayor.
-
Vía | CSIC.
-
https://omicrono.elespanol.com/2014/05/descubren-por-que-la-marihuana-puede-producir-esquizofrenia/
http://www.csic.es/areas-cientificas
-
http://notistecnicas.blogspot.com/2018/06/el-mito-del-cannabis-medicinal-afecta.html

La inteligencia artificial hackea el cerebro humano

La inteligencia artificial hackea el cerebro humano

Mientras médicos y científicos avanzan en los estudios para entender los engranajes del cerebro humano, la inteligencia artificial (IA) ya es capaz de hackearlo. Ya existen sistemas de IA para tratar síntomas de la depresión, softwares de aprendizaje automático capaces de reconocer cambios cerebrales causados por el Alzhéimer años antes de las primeras señales o escaneos cerebrales que identifican tendencias suicidas.
En el caso del Alzheimer –la principal causa de la demencia en ancianos–, el mayor desafío es lograr un diagnóstico temprano y frenar su progresión. En ese sentido, un equipo liderado por Marianna La Rocca, física de la Universidad de Bari, en Italia, desarrolló un algoritmo de aprendizaje automático capaz de discernir cambios estructurales en el cerebro causados por el Alzheimer.
El algoritmo fue entrenado con 67 imágenes de resonancia magnética –38 de pacientes con Alzheimer y 29 de un grupo de control– para que aprendiera a discriminar correctamente entre cerebros enfermos y sanos. Los investigadores dividieron cada imagen cerebral en pequeñas regiones, analizaron la conectividad neuronal entre ellas y encontraron que el software había realizado la clasificación más precisa de la enfermedad al comparar regiones cerebrales de 2.250 a 3.200 milímetros cúbicos, tamaño similar al de las estructuras anatómicas relacionadas con el Alzheimer, como el hipocampo.
El algoritmo para detectar los cambios cerebrales que llevan al alzheimer fue entrenado con imágenes de resonancia magnética. Crédito: Mikkelwallentin
Al analizar un conjunto de 148 escaneos —52 sanos, 48 enfermos y 48 con deterioro cognitivo leve, de los que se sabía que desarrollarían la enfermedad de 2,5 a nueve años más tarde—, el sistema distinguió entre un cerebro sano y uno con Alzheimer con una precisión del 86%. Para La Rocca, esto muestra que el algoritmo podría identificar cambios en el cerebro que conducen al Alzheimer casi una década antes de los síntomas clínicos.
“Actualmente, los escaneos cerebrales con trazadores radioactivos son capaces de predecir con relativa precisión quién está en alto riesgo de desarrollar Alzheimer dentro de 10 años, pero ese es un método invasivo, caro y que solo está disponible en centros altamente especializados. La nueva técnica, sin embargo, es más simples, más barata y no invasiva“, afirma la científica, que pretende aplicar el método en el diagnóstico precoz de enfermedades como el Párkinson.

Un algoritmo que identifica potenciales suicidas

Un grupo de psicólogos y psiquiatras de diferentes universidades estadounidenses desarrollaron un algoritmo similar para identificar a suicidas en potencia. Sometieron a 34 adultos jóvenes —divididos entre suicidas y un grupo de control— a una resonancia magnética funcional (fMRI) y les presentaron tres listas de 10 palabras: una relacionada con el suicidio (“muerte”, “fatal” o “angustiado”), otra con cosas positivas (“bondad” o “inocencia”) y otra con la negatividad (“aburrimiento” o “maldad”).
Se utilizaron imágenes cerebrales previamente mapeadas que muestran patrones emocionales como el de la vergüenza o la ira. Los científicos identificaron cinco ubicaciones cerebrales, relacionadas con seis de las palabras, como los mejores marcadores para distinguir a los pacientes suicidas de los demás. Con eso, entrenaron un clasificador de aprendizaje automático que pudo identificar correctamente a 15 de los 17 pacientes suicidas y a 16 de 17 sujetos de control.
Tras esto, dividieron a los pacientes suicidas en dos grupos, los que habían intentado suicidarse (nueve) y los que no (ocho), y entrenaron a un nuevo clasificador que pudo identificar correctamente a 16 de los 17 pacientes.
Patrón de activación cerebral para “muerte” en participantes que habían hecho un intento de suicidio, izquierda, en comparación con los participantes control, derecha. Crédito: Credit: Carnegie Mellon University
Los resultados mostraron que los pacientes sanos y aquellos con pensamientos suicidas tenían reacciones marcadamente diferentes ante las palabras. Cuando aquellos con tendencias suicidas veían la palabra “muerte”, el área de vergüenza de su cerebro registraba un pico de actividad no observado en el grupo de control. Lo mismo ocurría en el área de tristeza con la palabra “problemas”. “Esto nos da una ventana al cerebro y la mente, nos permite decir si alguien está considerando suicidarse por la forma en que piensa en los temas relacionados con la muerte“, explica Marcel Just, catedrático de Psicología de la Universidad Carnegie Mellon.

IA para tratar la depresión

Además de ayudar a diagnosticar enfermedades y trastornos mentales, la IA puede ayudar a tratarlos. Es lo que creen los creadores de start-ups como Woebot, un chatbot que utiliza el aprendizaje automático y el procesamiento del lenguaje natural para ayudar a los usuarios a controlar su estado de ánimo y mitigar la depresión.
Thomas Insel utiliza IA para diagnosticar trastornos emocionales mediante la interpretación del uso de smartphones. Crédito: Hamza Butt
Con acceso a través de Facebook Messenger, el sistema hace preguntas a los usuarios para evaluar su estado de ánimo. Con el tiempo, el algoritmo, entrenado en métodos de terapia cognitivo-conductual, aprende el perfil emocional de cada uno y recomienda actividades para mantener su equilibrio. Un ensayo clínico realizado en colaboración con la Universidad de Stanford demostró que usuarios de entre 18 y 28 años experimentaron reducciones significativas en la ansiedad y la depresión en comparación con el grupo de control que utilizó un libro sobre cómo lidiar con la depresión.
Otra iniciativa es la de Thomas Insel, exdirector del Instituto Nacional de Salud Mental de Estados Unidos, fundador de Mindstrong, que utiliza IA para ayudar a diagnosticar y tratar trastornos de comportamiento y emocionales mediante la interpretación del uso de smartphones. Partiendo del presupuesto de que los usuarios utilizan sus móviles de maneras diferentes según su estado emocional, el algoritmo utiliza la “fenotipificación digital” —un método de cuantificación de características individuales mediante el análisis de datos generados por el uso individual de dispositivos digitales— para sugerir correlaciones entre actividades digitales específicas y la actividad cerebral. “Los trastornos psicológicos y emocionales son un problema de salud global. Los smartphones con IA pueden ser una solución global”, sostiene Insel.
Joana Oliveira

https://www.bbvaopenmind.com/tecnologia/inteligencia-artificial/la-inteligencia-artificial-hackea-el-cerebro-humano/

 

El próximo paso: la vida exponencial

El próximo paso: la vida exponencial 
-
El próximo paso: la vida exponencial presenta una visión, forzosamente parcial y esquemática, del potencial de las llamadas «tecnologías exponenciales» y sus implicaciones económicas, sociales, medioambientales, éticas e, incluso, ontológicas.
La idea fundamental que recorre el libro es que la humanidad se encuentra en los inicios de una revolución tecnológica de desarrollo acelerado, en comparación con otras anteriores, y de un alcance tal que va a generar transformaciones que solo comenzamos a imaginar.
Las tecnologías que están emergiendo van a cambiar, están cambiando ya, lo que parecían constantes fundamentales de la naturaleza humana: hoy parece posible mejorar drásticamente la memoria de las personas, sus procesos cognitivos, sus capacidades físicas e intelectuales, y aumentar la longitud de su vida hasta extremos que pueden cambiar nuestro concepto de mortalidad. Junto con las inmensas posibilidades que todo esto supone, plantea también incógnitas muy relevantes para la especie humana.

Inteligencia artificial de beneficios probados.Russell, S

Inteligencia artificial de beneficios probados

¿Deberían preocuparnos los riesgos a largo plazo de la inteligencia artificial superinteligente? En caso afirmativo, ¿qué podemos hacer al respecto? Aunque parte de la comunidad mayoritaria de la inteligencia artificial ignora estas preocupaciones, yo argumentaré que es necesaria una reorientación fundamental del campo. En lugar de construir sistemas que optimicen objetivos arbitrarios, necesitamos aprender a construir sistemas que nos resulten probadamente beneficiosos. Demostraré la utilidad de dotar a los sistemas de incertidumbre explícita referida respecto a los objetivos de los humanos a los que tienen que ayudar, pues para ello han sido diseñados.
El objetivo de la investigación en inteligencia artificial (IA) ha sido comprender los principios que subyacen en el comportamiento inteligente y aplicarlos a la construcción de máquinas capaces de presentar dicho comportamiento. En los 50 años de vida de la disciplina se han buscado distintas definiciones de «inteligente», incluida la emulación del comportamiento humano y la capacidad de razonamiento lógico. En décadas recientes, sin embargo, ha surgido un consenso en torno a la idea de un agente racional que percibe y actúa para alcanzar sus objetivos al máximo. Subcampos como la robótica y el procesamiento de lenguajes naturales pueden entenderse como casos especiales del paradigma general. La IA ha incorporado la teoría de la probabilidad a la gestión de la incertidumbre, la teoría de la utilidad para definir objetivos y el aprendizaje estadístico para ayudar a las máquinas a adaptarse a circunstancias nuevas. Estos progresos han creado fuertes vínculos con otras disciplinas que aplican conceptos similares, incluidas la teoría del control, la economía, la investigación de operaciones y la estadística.
BBVA, OpenMind. Inteligencia artificial de beneficios probados. RUSSELL. Vídeo de la banda pionera de música electrónica alemana Kraftwerk durante su actuación en la inauguración de su exposición retrospectiva Catalogue 12345678 en el Turbine Hall de la Tate Modern el 6 de febrero de 2013 en Londres, Reino Unido
Vídeo de la banda pionera de música electrónica alemana Kraftwerk durante su actuación en la inauguración de su exposición retrospectiva Catalogue 12345678 en el Turbine Hall de la Tate Modern el 6 de febrero de 2013 en Londres, Reino Unido
Los progresos en IA parecen acelerarse. En los últimos años, debido en parte a los avances en el aprendizaje de las máquinas, tareas como el reconocimiento de voz, la identificación de objetos, la locomoción bípeda y la conducción autónoma se han resuelto en gran medida. Cada nueva destreza alcanzada trae consigo nuevos mercados potenciales y nuevos incentivos para seguir invirtiendo en investigación, lo que conduce a un ciclo virtuoso que impulsa la IA. En la próxima década es probable que asistamos a progresos sustanciales en comprensión efectiva del lenguaje, lo que conducirá a sistemas capaces de ingerir, sintetizar y contestar preguntas sobre la suma total del conocimiento humano.
A pesar de todos estos avances, seguimos lejos de la IA a nivel humano. Por ejemplo, no disponemos de métodos prácticos para inventar conceptos útiles como «electrón» o nuevas acciones útiles de alto nivel como «preparar diapositivas para la clase de mañana». Esta última destreza es especialmente importante para sistemas que operan en el mundo real, donde los objetivos que importan pueden requerir miles de millones de acciones básicas de control motor. Sin la capacidad de concebir ni razonar sobre acciones nuevas de alto nivel, son imposibles la planificación y la actuación en las escalas temporales que se manejan. Sin duda son necesarios más avances que no sabremos describir hasta que nuestros esfuerzos por construir sistemas IA polivalentes fracasen de maneras interesantes. La dificultad de predecir estos avances implica que dar una estimación precisa de la fecha en la que la IA alcanzará el nivel humano es imprudente. Sin embargo, la mayoría de expertos cree que es probable que ocurra en el presente siglo (Müller y Bostrom 2016; Etzioni 2016).
Es difícil exagerar la importancia de un acontecimiento así. Todo lo que ofrece nuestra civilización es consecuencia de la inteligencia; por tanto, el acceso a una inteligencia sustancialmente mayor supondría una discontinuidad en la historia de la humanidad. Podría conducir a soluciones de problemas como la enfermedad, la guerra y la pobreza; al mismo tiempo, varios observadores han señalado que los sistemas de IA superinteligentes pueden, por su propia naturaleza, tener impactos a escala global que podrían ser negativos para la humanidad de no estar bien diseñados.(1) La clave está en definir el problema que nuestros sistemas de IA tienen que resolver, para que podamos garantizar nuestra satisfacción con los resultados. Y lo que nos jugamos es mucho.

Riesgos y refutaciones

Las preocupaciones que suscita la IA superinteligente no son algo nuevo. Turing mismo, en una comunicación por radio de 1951, sintió la necesidad de apuntar la siguiente posibilidad: «Si una máquina puede pensar, es posible que piense de manera más inteligente que nosotros, y entonces ¿dónde nos coloca eso? Incluso si pudiéramos relegar a las máquinas a una posición de servidumbre, por ejemplo desenchufándolas en momentos estratégicos, deberíamos, como especie, extraer una lección de humildad […] Este nuevo peligro […] es, sin duda, algo que puede causarnos preocupación». Irving. J. Good (1965), que había trabajado con Turing durante la Segunda Guerra Mundial, fue más allá y apuntó la posibilidad de sistemas de IA que se automejoran. «Habría entonces, indudablemente, una “explosión de inteligencia”, y la inteligencia del hombre quedaría muy atrás.» El problema del control de la IA, por tanto, es cómo asegurarse de que los sistemas con un grado arbitrariamente alto de inteligencia permanecen bajo estricto dominio humano.
Parece razonable ser cauteloso a la hora de crear algo mucho más inteligente que nosotros mismos; sin embargo, necesitamos algo más que una sensación de inquietud generalizada para reconducir de manera correcta la despiadada presión científica y económica a la hora de construir sistemas cada vez más capaces. Muchas novelas y películas han trasladado esta inquietud a escenarios de máquinas conscientes espontáneamente malvadas, algo que es muy improbable y, como fenómeno técnico a evitar, imposible de abordar. De hecho, en la medida en que comprendemos el problema, la fuente de dificultades más probable parece ser un fracaso en el alineamiento de valores; a saber, que es posible que, sin darnos cuenta, dotemos a las máquinas de objetivos que no se alinean correctamente con los nuestros. Norbert Wiener (1960) lo expresó así: «Si usamos para nuestros fines una agencia mecánica en cuyo funcionamiento no podemos interferir de manera efectiva […] debemos asegurarnos de que el propósito que damos a la máquina es el que de verdad deseamos».
Por desgracia, ni la IA ni otras disciplinas construidas alrededor de la optimización de objetivos (economía, estadística, teoría del control e investigación de operaciones) tienen gran cosa que decir sobre cómo identificar los propósitos que de verdad deseamos. En lugar de ello, asumen que los objetivos son simplemente implantados en la máquina. La IA estudia la capacidad de conseguir objetivos, no el diseño de estos. Y, como descubrió el rey Midas, conseguir lo que uno desea no siempre es bueno.
Nick Bostrom (2014) expone varios argumentos adicionales que sugieren que el problema no tiene soluciones fáciles. El más relevante para el análisis de este artículo lo debemos a Omohundro (2008), quien observó que entidades inteligentes tenderán a actuar de maneras que preserven su propia existencia. Esta tendencia no tiene nada que ver con el instinto de autoconservación ni otros conceptos biológicos; simplemente, una entidad no puede lograr sus objetivos si está muerta. Esto significa que la ya citada confianza de Turing en la posibilidad de apagar la máquina no procede. Según la argumentación de Omohundro, una máquina superinteligente se las arreglará para anular la opción de apagado. Así pues, tenemos un horizonte de máquinas superinteligentes cuyas acciones son (por definición) impredecibles por parte de meros humanos, cuyos objetivos especificados de forma imperfecta e incompleta pueden entrar en conflicto con los nuestros y cuya motivación para preservar su propia existencia como vía para cumplir esos objetivos puede resultar insuperable.
Estos argumentos han despertado una serie de objeciones, en especial por parte de investigadores de IA. Las objeciones son reflejo de una actitud defensiva natural, unida tal vez a una falta de imaginación sobre lo que podrían hacer las máquinas superinteligentes. Nadie parece dispuesto a estudiar esto con detenimiento (si a simple vista alguna de las objeciones se antoja absurda, puedo asegurar que las hay más absurdas aún y que las omito para no avergonzar a sus autores). Varias de estas objeciones figuran en el reciente Informe AI100 (Stone et al. 2016), mientras que otras las hacen individuos que participan en paneles de debate en congresos de IA:
«La inteligencia artificial a nivel humano, es decir, similar a la humana, es imposible», se trata de una afirmación chocante cuando la hacen investigadores de IA que, desde tiempos de Turing, han tenido que rebatir aseveraciones similares por parte de filósofos y matemáticos. La afirmación, que no está fundamentada en argumentos ni en pruebas, parece admitir que si la IA superinteligente fuera posible, supondría un riesgo significativo. Es como si un conductor de autobús, con la humanidad entera como pasajeros, dijera: «Sí, estoy conduciendo hacia un precipicio, pero confiad en mí, ¡nos quedaremos sin gasolina antes de llegar!». La afirmación también supone una apuesta temeraria en contra del ingenio humano. En el pasado, hemos hecho apuestas semejantes a estas y hemos perdido. El 11 de septiembre de 1933, el famoso físico Ernest Rutherford afirmó, con gran seguridad: «Quien espere obtener una fuente de energía de la transformación de estos átomos es que está en la luna». El 12 de septiembre de 1933, el físico Leó Szilárd inventó la reacción nuclear en cadena inducida por neutrones. Unos años después, tras haber demostrado esta reacción en su laboratorio, Szilárd escribió: «Desenchufamos todo y nos fuimos a casa. Aquella noche tuve pocas dudas de que el mundo se dirigía hacia el sufrimiento».
«Es demasiado pronto para preocuparse por ello.» El momento de preocuparse por un problema potencialmente serio para la humanidad no depende de cuándo se producirá dicho problema, sino de cuánto tiempo se necesita para idear e implementar una solución que lo evite. Por ejemplo, si tuviéramos que detectar un asteroide de gran tamaño que se predice que va a colisionar con la Tierra en 2066, ¿diríamos que es demasiado pronto para preocuparnos? Y si consideramos los peligros catastróficos globales del calentamiento humano que se cree que sobrevendrán a finales del presente siglo, ¿es prematuro emprender acciones para prevenirlos? Al contrario, puede ser demasiado tarde. La escala temporal pertinente para la IA a nivel humano es menos predecible, pero en absoluto eso quiere decir que, al igual que la fisión nuclear, pueda llegar bastante antes de lo esperado.
«Es como preocuparse por la superpoblación en Marte» es una variación interesante de la afirmación «Es demasiado pronto para preocuparse» y que trae a la cabeza una analogía especialmente pertinente: no solo se trata de un riesgo muy futuro y de fácil gestión, también es extremadamente improbable que intentemos trasladar a miles de millones de personas a Marte. Sin embargo, la analogía es falsa. Ya estamos dedicando recursos científicos y técnicos ingentes para crear sistemas de IA cada vez más capaces. Así que un plan para trasladar la raza humana a Marte sin pensar antes en lo que respiraríamos, beberíamos o comeríamos al llegar allí, sería una analogía más adecuada.
«La IA a nivel humano no es una realidad inminente, así que no debemos preocuparnos». Es otra variación de «demasiado pronto para preocuparnos», pero que atribuye las preocupaciones sobre el control de la IA a la falsa creencia de que la IA superinteligente es inminente. Esa objeción sencillamente confunde los motivos de preocupación, que no se basan en la inminencia. Por ejemplo, Bostrom (2014), escribe: «En este libro no argumentamos en ningún momento que estemos en el umbral de un importante avance en IA, o que podamos predecir con ningún grado de precisión cuándo se producirá dicho avance».
«Nosotros somos los expertos, los que construimos los sistemas de IA; confiad en nosotros.» Esta objeción suele ir acompañada de una crítica a quienes plantean preocupaciones, acusándolos de ignorar la realidad de la IA. Aunque es cierto que algunos de los personajes públicos que han expresado preocupaciones, como Elon Musk, Stephen Hawking y Bill Gates, no son expertos en IA, sí están familiarizados con el razonamiento científico y tecnológico. Y sería difícil argumentar que Turing (1951), Good (1965), Wiener (1960) y Minsky (1984) no están cualificados para hablar de IA.
«No sois más que luditas.» Musk, Gates, Hawking y otros (incluido, al parecer, quien esto firma) recibieron en 2015 el premio Ludita del año que concede la fundación para la Información sobre Innovación en las Tecnologías. Una definición de ludita que incluye a Turing, Wiener, Minsky, Musk y Gate, algunos de los principales contribuyentes al progreso tecnológico de los siglos xx y xxi resulta, cuando menos, peculiar. Además, el epíteto refleja una comprensión del todo errónea de la naturaleza de las preocupaciones planteadas y el propósito de hacerlas públicas. Es como si se acusara de luditas a los ingenieros nucleares si plantearan la necesidad de controlar la fisión. Algunos objetores también emplean el término «antiAI», que viene a ser como llamar «antifísicos» a los ingenieros nucleares. El propósito de comprender y prevenir los riesgos de la IA es asegurar que podemos hacer reales los beneficios. Bostrom (2014), por ejemplo, afirma que el éxito a la hora de controlar la IA dará lugar a una «trayectoria civilizadora que conduzca a un uso solidario y jubiloso de la parcela cósmica de la humanidad».
«Vuestras predicciones apocalípticas no tienen en cuenta los beneficios potenciales de la IA.» Si la IA no tuviera beneficios potenciales, no habría interés económico o social por impulsar su investigación, y por tanto no existiría el peligro de lograr una IA comparable a la humana. Esta objeción es como acusar a los ingenieros nucleares que trabajan en contención de no tener nunca en cuenta los beneficios potenciales de la electricidad barata. El triste hecho es que los beneficios potenciales de la energía nuclear no han conseguido materializarse, en gran medida, precisamente porque no se prestó la atención debida a los riesgos de contención en Three Mile Island y Chernóbil.
«No se puede controlar la investigación.» En la actualidad nadie sugiere que pueda limitarse la investigación sobre IA, solo que hay que prestar atención al problema de prevenir consecuencias negativas de sistemas mal diseñados. Pero, si es necesario, podemos controlar la investigación: no diseñamos genéticamente seres humanos porque los biólogos moleculares decidieron, en un taller celebrado en Asilomar en 1975, que sería una mala idea, aunque «mejorar las reservas de humanos» era, desde varias décadas antes, el objetivo de numerosos investigadores del campo de la biología.
«No conviene mencionar los riesgos, puede afectar la financiación.» Véanse energía nuclear, tabaco, calentamiento global.
Además de estas objeciones en el campo de las políticas a seguir, hay otras que proponen soluciones simples para evitar las consecuencias negativas de la IA superinteligente.
«En lugar de introducir objetivos en el sistema, dejar que elija los que quiera.» No está nada claro cómo solucionaría esto el problema. Los criterios de acuerdo a los cuales un sistema de IA elegiría sus propios objetivos pueden muy bien considerarse metaobjetivos, y de nuevo nos enfrentamos al problema de cómo asegurar que conducen a comportamientos consistentes con el bienestar humano. Tenemos que rectificar el timón, no tirarlo por la borda.
«Los humanos más inteligentes tienden a tener objetivos más loables y altruistas, lo mismo ocurrirá con las máquinas superinteligentes.» Más allá del hecho de que quienes defienden este argumento se consideran más listos que la mayoría, hay, de hecho, escasísimas pruebas de la validez de la premisa de este argumento, y la premisa no proporciona apoyo ninguno a la conclusión.
«No os preocupéis, tendremos equipos humanos-IA que trabajarán en colaboración.» Una mala alineación de los valores impide trabajar en equipo, así que esta solución pasa por contestar antes a la pregunta de cómo solucionar el problema central de alineamiento de valores.
«No hay que incluir en la ecuación objetivos humanos como la autoconservación.» Véase la reflexión sobre el argumento de Omohundro anterior. Para un robot que sirve cafés, la muerte no es algo malo en sí mismo. Pero sí algo a evitar, porque es complicado servir café si estás muerto.
«No pasa nada, se apaga y ya está.» Como si una entidad superinteligente no fuera a contar con esa posibilidad.

Soluciones

Bostrom (2014) considera un número de propuestas técnicas más serias para resolver el problema de control de la IA. Algunos, bajo el encabezamiento de «oráculo de IA», proponen encerrar las máquinas en una suerte de cortafuegos y extraer de ellas trabajo útil tipo pregunta-respuesta, pero sin permitirles jamás intervenir en el mundo real. (¡Por supuesto que, esto implica renunciar a los robots superinteligentes!) Por desgracia, es poco probable que algo así funcione, pues todavía no hemos inventado un cortafuegos que actúe de manera segura contra simples humanos, y mucho menos contra máquinas superinteligentes. Otros hablan de restricciones probadamente aplicables al comportamiento, pero diseñarlas es como intentar escribir una ley fiscal sin resquicios (¡con evasores fiscales superinteligentes además!),
¿Podríamos, en lugar de ello, abordar la advertencia de Wiener? ¿Podemos diseñar sistemas de IA cuyos propósitos no entren en conflicto con los nuestros, de manera que nuestra satisfacción con su manera de comportarse esté asegurada? No es algo nada sencillo, pero puede ser factible si seguimos tres principios centrales:
  1. El propósito de la máquina es maximizar la puesta en práctica de valores humanos. Más concretamente, no tiene un propósito propio ni un deseo innato de protegerse.
  2. La máquina tiene una incertidumbre inicial respecto a cuáles son esos valores humanos. Esto resulta más crucial y, en cierto modo, elude el problema de Wiener. La máquina puede aprender más sobre valores humanos sobre la marcha, claro, pero es posible que nunca alcance total certidumbre.
  3. Las máquinas pueden aprender sobre valores humanos observando las elecciones que hacemos los humanos.
Resulta que estos tres principios, una vez incardinados en un marco matemático formal que defina el problema que la IA está inherentemente obligada a resolver, parecen permitir ciertos progresos en el problema de control de la IA. En particular, al menos en casos simples, podemos definir una plantilla para diseños de agentes probadamente beneficiosos bajo determinados supuestos razonables (si no ciertos).

Aprendizaje de funciones de recompensa

Para explicar el marco matemático, ser algo más precisos con la terminología ayuda. Según Von Neumann y Morgenstern (1994), a cualquier agente racional puede atribuírsele una función de utilidad U(s) que asigna un número real que representa la deseabilidad de existir en un estado del mundo particular cualquiera s. De modo equivalente, esta es la deseabilidad esperada de las posibles secuencias de estado futuras que empiezan por s, asumiendo que el agente actúa de forma óptima. (En investigación de operaciones, esto a menudo se conoce por función de valor, un término que tiene un significado distinto en economía.) Hay otra suposición posible de preferencias estacionarias (Koopmans 1972), según la cual la deseabilidad de una secuencia de estado cualquiera puede expresarse como una suma (que probablemente decrece con el tiempo) de recompensas inmediatas asociadas a cada estado de la secuencia. Por razones de conveniencia, la función de recompensa R(s, a, s’) se define de manera que sea la recompensa inmediata asociada a la transición del estado s al estado s’ mediante la acción a. Por lo general, la función recompensa proporciona una manera concisa de definir una tarea; por ejemplo, la tarea de jugar al backgammon puede definirse especificando que la recompensa sea = para todos los estados no terminales s’ y un número entre -192 y +192 para transiciones a estados terminales (el valor preciso dependerá del estado del cubo de doblar y de si el juego termina de una manera normal, con gammon o con backgammon). La utilidad de un estado de backgammon s, por otra parte, será en la mayoría de los casos una función muy compleja de s, porque representa una expectativa de secuencias de recompensa futuras respecto a todas los resultados posibles de los dados que se produzcan durante lo que queda de partida. Para una persona que está pasando un rato de disfrute en su jardín, las recompensas de oler una rosa pueden ser positivas (siempre que no la huela cien veces seguidas) y las de pincharse el dedo con las espinas negativas, mientras que la utilidad de estar en el jardín en ese momento dependerá de todas las recompensas futuras, y estas pueden variar enormemente en función de si uno está a punto de casarse, de cumplir una larga condena en la cárcel, etcétera.
En la medida en que sea posible definir de manera concisa objetivos especificando funciones de recompensa, el comportamiento puede explicarse de forma también concisa infiriendo funciones de recompensa. Esta es la idea clave que subyace en el llamado aprendizaje por refuerzo inverso (IRL, por sus siglas en inglés; Russell 1998; Ng y Russell 2000). Un algoritmo IRL aprende una función nueva observando el comportamiento de otro agente, del que se asume que actúa en consonancia con dicha función. El IRL es la forma secuencial de obtención de preferencias y está relacionado con el cálculo estructural de PDM (procesos de decisión de Márkov, en economía). Viendo a su dueño preparar café por la mañana, el robot doméstico aprende algo sobre la deseabilidad de tomar café en determinadas circunstancias, mientras que un robot de dueño inglés aprenderá sobre la deseabilidad de tomar el té en cualquier ocasión.

Resolver problemas sencillos de control de IA

Cabría imaginar que el IRL proporciona una solución sencilla al problema de alineamiento de valores: el robot observa el comportamiento humano, aprende la función de recompensa y se comporta de acuerdo a dicha función. Esta sencilla idea presenta dos problemas. El primero es obvio: el comportamiento humano (en especial por la mañana) a menudo transmite un deseo de tomar café, y el robot puede aprender esto, pero ¡no queremos que el robot quiera tomar café! Este defecto es fácil de solucionar; necesitamos reformular el problema de alineamiento de valores de manera que el robot siempre tenga el mismo objetivo de optimizar la recompensa para el humano (el principio 1 expuesto anteriormente) y se vuelva más capaz de hacerlo a medida que aprenda cuál es la función de recompensa humana.
El segundo problema es menos obvio y menos fácil de solucionar. Al humano le interesa asegurar que el alineamiento de valores se produzca de la forma más rápida y precisa posible, de forma que el robot pueda ser útil al máximo y se eviten errores potencialmente desastrosos. Sin embargo, actuar de forma óptima en la adquisición de café limitando al robot a un papel pasivo puede no ser la manera idónea de conseguir el alineamiento de valores. En lugar de ello, el humano tal vez debería explicar los pasos necesarios para preparar café, así como enseñar al robot dónde se guarda el café y qué hacer si se deja demasiado tiempo la cafetera encendida, mientras que el robot puede preguntar para qué sirve el botón de hacer espuma y probar a preparar café bajo la supervisión de un humano, incluso si los primeros resultados son imbebibles. Ninguna de estas posibilidades encaja en el marco del IRL.
Si se extiende el aprendizaje inverso por refuerzo de manera que incorpore como agentes tanto al robot como al humano, entonces es posible formular y solucionar un problema de alineamiento de valores, convirtiéndolo en un proceso de maximización de recompensa cooperativo e interactivo (Hadfield-Menell et al. 2017a). Más concretamente, un problema de aprendizaje inverso cooperativo por refuerzo (CIRL, por sus siglas en inglés) es una partida para dos jugadores con información parcial en la que el humano conoce la función de recompensa(2) y el robot no, pero la recompensa del robot es idéntica a la del humano. Por tanto, el CIRL encarna los tres principios enunciados anteriormente. Las soluciones óptimas a este juego maximizan la recompensa humana y pueden generar de forma natural instrucción activa por parte del humano y aprendizaje activo por parte del robot.
En el marco del CIRL, se puede formular y resolver el problema de desenchufar, es decir, el problema de evitar que un robot inutilice su botón de apagado. (Así Turing puede estar tranquilo.) Es seguro que un robot diseñado para resolver el problema del CIRL quiere maximizar valores humanos, pero también es seguro que no sabe con exactitud cuáles son. Ahora bien, el robot se beneficia de hecho de que lo apaguen porque entiende que el humano pulsará el interruptor para evitar que el robot haga alguna cosa contraria a los valores humanos. Así, el robot tiene un incentivo positivo para respetar el interruptor de apagado y este incentivo deriva directamente de su incertidumbre respecto a los valores humanos. Además, es posible demostrar que en algunos casos el robot es probadamente beneficioso, a saber, la recompensa esperada por el humano es mayor cuando hay un robot capaz de resolver problemas de CIRL con independencia de cuál sea la función de recompensa real del humano (Hadfield-Menell et al. 2017b).
El ejemplo del interruptor de apagado sugiere algunas fórmulas para el diseño de agentes controlables y nos proporciona al menos un caso de sistema de beneficio probado. El enfoque general guarda cierta similitud con el diseño de mecanismos de resolución de problemas en matemáticas, donde uno trata de incentivar a otros agentes para que se comporten de maneras que sean probadamente beneficiosas para el diseñador del mecanismo. La diferencia fundamental es que aquí estamos construyendo a uno de los agentes para que beneficie al otro.
El ejemplo de apagado funciona debido al principio 2, es decir, que el robot debería tener incertidumbre respecto a la verdadera función de recompensa del humano. Por extraño que parezca, la incertidumbre respecto a la recompensa ha sido ignorada casi por completo en IA, a pesar de que la incertidumbre respecto al conocimiento del campo de acción y la interpretación de sensores ha sido una preocupación central durante veinte años. La razón puede ser que la incertidumbre respecto a la función de recompensa es irrelevante en problemas de decisiones secuenciales estándar (procesos de decisión de Márkov o MDP, MDP parcialmente observables o POMDP y problemas de control óptimo), porque la política óptima con una función de recompensa incierta es idéntica a la política óptima con una función de recompensa definida equivalente al valor esperado de la función de recompensa incierta. Sin embargo, esta equivalencia solo se mantiene cuando el entorno no proporciona ulterior información sobre la verdadera función de recompensa, que no es el caso de problemas de CIRL, donde las acciones humanas revelan información sobre preferencias humanas. Cuando el entorno sí puede proporcionar información adicional sobre la función de recompensa, los agentes con incertidumbre respecto a esta pueden presentar comportamientos que no podrían realizar sistemas de IA tradicionales con funciones de recompensa fijas.
BBVA, OpenMind, Inteligencia artificial de beneficios probados. RUSSELL.Un miembro de Team Valor prueba el robot THOR durante la preparación del Desafío Robótico (Robotics Challenge) de DARPA, la agencia de investigación de proyectos avanzados de defensa en el TREC (laboratorio de ingeniería y control de robótica terrestre) del Virginia Tech
Un miembro de Team Valor prueba el robot THOR durante la preparación del Desafío Robótico (Robotics Challenge) de DARPA, la agencia de investigación de proyectos avanzados de defensa en el TREC (laboratorio de ingeniería y control de robótica terrestre) del Virginia Tech
En este punto, el lector familiarizado con el concepto de aprendizaje por refuerzo (RL, por sus siglas en inglés) podría aducir que la «señal recompensa» que recibe el agente RL después de cada transición estado-acción-estado sí proporciona información sobre la verdadera función de recompensa, porque da el valor real de R(s, a, s’) para la transición producida. Así pues, ¿podría el aprendizaje por refuerzo ordinario constituir una base para el alineamiento de valores si el humano se limita a suministrar una señal de recompensa directamente al robot? ¡Por fortuna no! En primer lugar, el humano puede no ser capaz de cuantificar la recompensa de forma precisa, ni siquiera para transiciones específicas ya experimentadas. En segundo lugar, el modelo formal de RL asume que la señal de recompensa le llega al agente de fuera del entorno; pero el humano y el robot son parte del mismo entorno, y el robot puede maximizar su recompensa modificando al humano de manera que le proporcione en todo momento una señal de recompensa máxima. Lo indeseable de este resultado, conocido como wireheading o estimulación directa (Muehlhauser y Hibbard 2014), pone de manifiesto un error de base en la formulación estándar del RL. El error es que el entorno no puede proporcionar una recompensa real al agente; tan solo información sobre la recompensa. Así, un humano que emite una «señal de recompensa» al robot no le está dando una recompensa, sino proporcionándole pruebas (probablemente ruidosas) de sus preferencias en forma de una acción que selecciona un número. Esta nueva formulación evita claramente el problema de wireheading porque el robot solo saldrá perdiendo si modifica la fuente de información para enmascarar la señal subyacente. Y si la formulación estipula que el robot tiene que maximizar la función de recompensa original, entonces modificar al humano de manera que tenga una función de recompensa nueva más sencilla de maximizar no le hace ningún bien al robot.

Consideraciones prácticas

He argumentado que el marco para el aprendizaje inverso por refuerzo puede ser el primer paso para una resolución teórica del problema de control en IA. Hay también razones para creer que el enfoque puede funcionar en la práctica. En primer lugar, hay ingentes cantidades de información escrita y filmada sobre humanos haciendo cosas (y otros humanos reaccionando). La tecnología necesaria para construir modelos de valores humanos a partir de estos archivos estará disponible mucho antes de que se creen sistemas de IA superinteligentes. En segundo lugar, existen incentivos muy poderosos y a corto plazo para que los robots entiendan los valores humanos: si un robot doméstico mal diseñado cocina al gato para cenar porque no entiende que su valor sentimental excede con mucho su valor nutricional, el sector de los robots domésticos quebrará. En el campo de los asistentes personales digitales, que probablemente se convertirá en un mercado importante antes de que termine la década, un asistente que se adapta con rapidez a las preferencias complejas y llenas de matices de su dueño presenta beneficios obvios.
-
Un enfoque basado en el aprendizaje de valores a partir del comportamiento humano, no obstante, plantea problemas evidentes. Los humanos son irracionales, incoherentes, pusilánimes y computacionalmente limitados, de manera que sus acciones no siempre reflejan sus valores (pensemos, por ejemplo, en dos humanos que juegan al ajedrez; por lo general uno de ellos pierde, ¡pero no adrede!). Los humanos también son diversos en cuanto a valores y circunstancias, lo que quiere decir que los robots deben ser receptivos a las preferencias individuales y mediar en conflictos de preferencias, un problema tanto para científicos sociales como para ingenieros. Y algunos humanos son malvados, así que el robot debe poder ser capaz de filtrar valores de sistemas individuales que sean incompatibles con el bienestar general.
-
Parece probable que los robots puedan aprender de comportamientos humanos no racionales solo con la ayuda de modelos cognitivos de humanos muy mejorados. ¿Y qué pasa con el comportamiento indeseable? ¿Es posible evitar corromper a nuestros robots sin imponer limitaciones adquiridas (y que por tanto varían según las culturas) a los valores que estamos dispuestos a permitir? Tal vez se pueda usar una versión del imperativo categórico de Kant, según la cual una función de recompensa que asignara valor negligible o negativo al bienestar de los demás carecería de autoconsistencia, en el sentido de que si todos operaran con dicha función de recompensa, entonces ninguno la obtendría.

Síntesis

He argumentado, siguiendo a numerosos autores, que encontrar una solución al problema de control de la IA es una tarea importante. Más concretamente y en las sonoras palabras de Bostrom, «la tarea esencial de nuestra época». También he argumentado que, hasta el momento, la IA se ha centrado en sistemas capaces de tomar mejor decisiones, pero que esto no es lo mismo que tomar decisiones mejores. Por muy excelentemente que maximice un algoritmo, y por muy preciso que sea su modelo del mundo, las decisiones de una máquina pueden ser estúpidas a los ojos de un humano normal y corriente si su función de utilidad no está bien alineada con los valores humanos.
Este problema exige cambiar la definición misma de IA, que debe dejar de ser un campo que se ocupa de la inteligencia pura, con independencia del objetivo, y ser uno que se ocupe de sistemas probadamente beneficiosos para los humanos. (Supongo que también podríamos diseñar sistemas de IA para otras especies, pero no creo que sea una prioridad ahora mismo.) Tomarse en serio el problema ha dado lugar a nuevas maneras de enfocar la IA, sus propósitos y nuestra relación con ella
-.
Notas
1. Existen otros posibles riesgos del uso indebido de una IA cada vez más potente, incluidos la vigilancia automática y la persuasión, las armas autónomas y la disrupción económica; deben ser estudiadas en profundidad, pero no son el tema del presente artículo.
2. Cabría preguntarse: ¿por qué un humano que conoce la función de recompensa no se limita a programarla en el robot? Aquí usamos «saber» en el sentido restringido de como si uno conociera la función de recompensa, sin ser necesariamente capaz de hacerla explícita. Es como cuando un humano «conoce» la diferencia de pronunciación entre la letra g en gente y en guante sin ser capaz de poner por escrito la regla ortográfica.
-
Bibliografía
— Bostrom, N., Superintelligence, Oxford, Oxford University Press, 2014 [Ed. esp. Superinteligencia, Zaragoza, Teell, 2016].
— Etzioni, O., «Are the Experts Worried About the Existential Risk of Artificial Intelligence?», en MIT Technology Review, 2016.
— Good, I. J., «Speculations Concerning the First Ultraintelligent Machine», en Alt, F. L. y Rubinoff, M. (eds.), Advances in Computers 6, Nueva York, Academic Press, 1965.
— Hadfield-Menell, D., Dragan, A., Abbeel, P. y Russell, S., «Cooperative Inverse Reinforcement Learning», en Advances in Neural Information Processing Systems 25, Cambridge, Massachusetts, The MIT Press, 2017a.
— Hadfield-Menell, D., Dragan, A., Abbeel, P. y Russell, S., «The off-switch», en la 31ª Conferencia AAAI sobre Inteligencia Artificial (AAAI-17), 2017b.
— Koopmans, T. C., «Representation of Preference Orderings over Time», en McGuire, C. B. y Radner, R. (eds.), Decision and Organization, Ámsterdam, Elsevier/North-Holland, 1972.
— Minsky, M., «Afterword to Vernor Vinge’s novel, “True Names”», manuscrito inédito, 1984.
— Muehlhauser, L. y Hibbard, B., «Exploratory Engineering in Artificial Intelligence», en Communications of the ACM, vol. 57, n.º 9, 2014, pp. 32-34.
— Müller, V. C. y Bostrom, N., «Future Progress in Artificial Intelligence: A Survey of Expert Opinion», en Müller, V. C. (ed.), Fundamental Issues of Artificial Intelligence, Berlín, Springer, Synthèse Library, vol. 376, 2016.
— Ng., A. Y. y Russell, S., «Algorithms for Inverse Reinforcement Learning», Actas de la XVII Conferencia Internacional sobre Aprendizaje Automático, Stanford, California, Morgan Kaufmann, 2000.
— Omohundro, S. M., «The Basic AI Drives», en Proceedings of the First AGI Conference, IOS Press, 2008.
— Russell, S., «Learning Agents for Uncertain Environments (extended abstract)», en Proc. COLT-98, Madison, Wisconsin, ACM Press, 1998.
— Stone, P. et al., «Artificial Intelligence and Life in 2030», en One Hundred Year Study on Artificial Intelligence, informe del Panel de Estudio 2015, Universidad de Stanford, septiembre de 2016.
Turing, A. M., «Can digital Machines Think?», 1951. Conferencia retransmitida por la BBC, transcripción en inglés en turingarchive.org
Von Neumann, J. y Morgenstern, O., Theory of Games and Economic Behavior, 1ª ed., Princenton, Princeton University Press, 1944.
Wiener, N., «Some Moral and Technical Consequences of Automation», en Science, vol. 131, n.º 3.410, 1960, pp. 1.355-1.358.

Copia y pega la cita con un formato específico o utiliza uno de los enlaces para importar información a un gestor de bibliografía
Russell, S., "Inteligencia artificial de beneficios probados", en El próximo paso. La vida exponencial, Madrid, BBVA, 2016. 
https://www.bbvaopenmind.com/articulos/inteligencia-artificial-de-beneficios-probados/

 

“Amar educa”: El mensaje de Humberto Maturana a los educadores

“Amar educa”: El mensaje de Humberto Maturana a los educadores

En un discurso dirigido a educadores, el biólogo chileno y premio Nacional de Ciencias, Humberto Maturana, habló del verbo “amar” y el papel de éste en los procesos educativos.

Escrito por: Camila Londoño
 
Humberto Maturana, biólogo chileno, experto en epistemología y Premio Nacional de Ciencias es reconocido en distintas partes del mundo por sus investigaciones, las cuales han abierto nuevos paradigmas en la ciencias naturales y en el entendimiento del desarrollo humano. Pero además, por sus reflexiones sobre la educación, la infancia, el futuro de la humanidad y las emociones. Maturana habla de rescatar las emociones dentro de una “deriva cultural” donde éstas se han escondido y además hacer referencia al verbo “amar” como una emoción que sostiene y funda lo humano.
En un encuentro con educadores en la Región de BioBío en Chile, Maturana no sólo habló de la importancia de los contextos donde crecen los niños y del papel de los adultos como piezas claves en el proceso de crecimiento y transformación de los niños, también hizo énfasis en ese verbo “amar” desde un punto de vista educativo:
“Cuando decimos que amar educa, lo que decimos es que el amar como espacio que acogemos al otro, que lo dejamos aparecer, en el que escuchamos lo que dice sin negarlo desde un prejuicio, supuesto, o teoría, se va a transformar en la educación que nosotros queremos. Como una persona que reflexiona, pregunta, que es autónoma, que decide por sí misma.
Amar educa. Si creamos un espacio que acoge, que escucha, en el cual decimos la verdad y contestamos las preguntas y nos damos tiempo para estar allí con el niño o niña, ese niño se transformará en una persona reflexiva, seria, responsable que va a escoger desde sí. El poder escoger lo que se hace, el poder escoger si uno quiere lo que escogió o no, ¿quiero hacer lo que digo que quiero hacer?, ¿me gusta estar donde estoy?”, son algunas de las preguntas que aparecen.
Para que el amar eduque hay que amar y tener ternura. El amar es dejar aparecer. Darle espacio al otro para que tengan presencia nuestros niños, amigos y nuestros mayores”.
http://www.eligeeducar.cl/amar-educa-mensajes-humberto-maturana-los-educadores
 

La era de la perplejidad. Repensar el mundo que conocíamos

La era de la perplejidad. Repensar el mundo que conocíamos 
-
La revolución tecnológica que estamos viviendo —la más acelerada de la historia— está generando transformaciones que afectan al futuro de la humanidad. Las que parecían constantes fundamentales de la especie humana: sus capacidades físicas y mentales, su longevidad… etc., están ahora por definirse. Todo esto ha abierto lo que este libro denomina una «era de la perplejidad», ante cambios para los que no disponemos de guías ni menos aún de recetas para actuar.
El impacto de la globalización, del avance tecnológico y de la inseguridad que estos generan se refleja en las decisiones de las personas y en el rumbo que está tomando nuestra sociedad. Un rumbo que va a determinar nuestro futuro, en el sentido de hacernos más o menos capaces de afrontar los retos y aprovechar las oportunidades que nos ofrece el avance científico y tecnológico.
En este libro se desarrollan los grandes temas generales y se analizan los cambios que la computación y la mayor disponibilidad de información introducen en nuestras formas de percibir y entender las cosas y en los imaginarios sociales, que marcan nuestra actitud y nuestra reacción ante los acontecimientos a los que asistimos.
-
Todo esto subyace a los cambios que observamos en la política, con el surgimiento de movimientos populistas o, más en general, la falta de compromiso o la desafección para con las instituciones políticas y los valores que sustentan las democracias actuales. En estos fenómenos desempeñan un papel clave los nuevos medios de comunicación digitales, las nuevas formas de activismo político digital y el auge de movimientos que cuestionan de forma radical el paradigma económico y político dominante.
-
En el plano supranacional y geopolítico se abordan la importancia de incorporar un enfoque feminista a las relaciones internacionales (al igual, por supuesto, que a todas las esferas de la actividad humana), las nuevas formas de guerra, el reto geopolítico del complejo y diverso ámbito arabomusulmán, el fin de la breve época del mundo unipolar, con el surgimiento de poderes que cuestionan la hegemonía de Estados Unidos, entre los que destaca China, o el papel futuro de Latinoamérica en el ámbito global.
Las cuestiones económicas están en la base de la perplejidad, la inseguridad y el descontento actuales. Por lo que en este libro se discuten también el impacto de la globalización y del cambio tecnológico sobre el crecimiento, el Estado de bienestar y, sobre todo, el empleo.
A partir de este análisis pueden plantearse las políticas económicas y las formas de organización más adecuadas para aprovechar al máximo las potencialidades de la revolución digital y minimizar los riesgos de que se hagan realidad los temores de una sociedad cada vez más desigual, con multitud de empleos en los que las personas se han visto desplazadas por máquinas y en que incluso pierden el control de las decisiones, individuales o colectivas.
-
Seguramente, esta revolución tecnológica exigirá un proceso de transición complejo; pero también tenemos ante nosotros grandes oportunidades para atender mejor las necesidades y demandas de las personas: más crecimiento y empleo y más riqueza, mejor distribuida. Y, sobre esta base, una vida más rica y plena para el conjunto de la humanidad.
-
https://www.bbvaopenmind.com/es/libros/la-la-perplejidad-repensar-mundo-conociamos/ 

Descargar este libro
Kindle 26,0 MB
EPUB 11,4 MB
PDF 42,0 MB

La era de la perplejidad
Varios Autores

¿Qué le está pasando a nuestro mundo?
Veintitrés grandes expertos internacionales presentan sus visiones de los grandes desafíos del siglo XXI.
-
Contenido
La revolución tecnológica y la globalización han abierto lo que este libro denomina "la era de la
perplejidad". Perplejidad ante cambios muy profundos que afectan no sólo a nuestras vidas, sino también al futuro de la humanidad; cambian la economía, la política, la sociedad y la vida diaria; y cambian incluso las que parecían constantes fundamentales de la especie humana: sus capacidades físicas y mentales, su longevidad e incluso su posición como especie dominante, cuestionada por máquinas cada vez más inteligentes y ubicuas.
La era de la perplejidad. Repensar el mundo que conocíamos ofrece un análisis multidisciplinar de los efectos de estos cambios, a partir de las contribuciones de veintitrés autores de primer nivel mundial.
Este libro es, sin duda, el primero en emplear un enfoque tan complejo e internacional, enlazando
hábilmente las disciplinas más dispares para alimentar un debate imprescindible.
-
Datos del autor
NAYEF AL-RODHAN · JOHN ANDREWS · MIGUEL ÁNGEL CENTENO · ADRIANA CONCONI ·ANDREW GAMBLE · FRANCISCO GONZÁLEZ · HELEN HESTER · JANNIS KALLINIKOS · ANDRÉS LAJOUS · ROBIN ELIZABETH MANSELL · EVGENY MOROZOV · JAN-WERNER MÜLLER · DOUGLAS R. NELSON · DIANA OWEN · JOSÉ LUIS PARDO · ZIA QURESHI · ADAM SAUNDERS · SIMON SPRINGER · NICK SRNICEK · IAN STOREY · MARIANA VIOLLAZ · RICHARD J. WHITE · MARYSIA ZALEWSKI
-
La era de la perplejidad. Repensar el mundo que conocíamos es el décimo libro de la serie que BBVA
dedica a la difusión del conocimiento sobre cuestiones fundamentales de nuestro tiempo. 
En 2008, esta iniciativa editorial, que consiste en un lanzamiento al año, pasó a enmarcarse dentro del proyecto web
-
El titulo no es muy acertado, cada epoca tiene su revolucion industrial,o su  revolucion del conocimiento, que deja perplejos modelos que van quedando caducos, unas empresas, se adelantan a los cambios, con las semillas que ya plantaraon hace 15 años, viendose ahora sus frutos, otras empresas ahora se empiezan a enterar, otras van tarde y les toca adaptarse y las pioneras como siempre actualmente ya estan en otros proyectos, de los cuales veremos sus reslutados en los proximos 10 años.
-

Cómo imprimir un órgano desde cero

Cómo imprimir un órgano desde cero

Cuando los científicos descubrieron, a principios de los años 2000, que era posible rociar células vivas a través de las boquillas de impresoras de inyección de tinta sin dañarlas, se abrió todo un nuevo campo de desarrollo en la biotecnología: la bioimpresión. Gracias a ello, ingenieros, biólogos, médicos y, por supuesto, empresarios, han empezado una carrera para fabricar órganos en 3D, algo que tiene el potencial de atender mejor a la demanda de trasplantes —120.000 órganos, sobre todo riñones, son trasplantados cada año en el mundo, de acuerdo con los datos de la Organización Mundial de la Salud (OMS).
Oreja en 3D impresa por el equipo del Wake Forest Baptist Medical Center. Crédito: Wake Forest
Para imprimir un órgano desde cero hay que usar múltiples cabezales de impresión para lanzar diferentes tipos de células junto con polímeros que ayudan a mantener la estructura en forma. La impresora deposita, capa sobre capa, células que se unen y se convierten en tejido vivo y funcional. Es lo que hizo el equipo del Wake Forest Baptist Medical Centre, en Estados Unidos, al imprimir en 2016 partes del cuerpo humano como las orejas.
Esta tecnología todavía está en una fase demasiado experimental para lograr ese objetivo final, pero investigadores de varios lugares ya están manipulando tejidos de riñón e hígado, piel, huesos y cartílagos, así como los vasos sanguíneos necesarios para mantener vivas esas estructuras. Algunos de ellos han implantado orejas, huesos y músculos impresos en animales, y observaron cómo estos se integraron correctamente con cada organismo.

Ovarios protésicos que pueden concebir

El avance más prometedor en este sentido ocurrió el año pasado, cuando un grupo de científicos de la Universidad de Northwestern, en Chicago, logró imprimir ovarios protésicos para ratones, que pudieron concebir y dar a luz con la ayuda de estos órganos artificiales.
Un corazón de silicona impreso en 3D. Crédito: ETH Zurich
En Chengdu (China) la compañía de biotecnología Sichuan Revotek implantó con éxito una sección impresa de una arteria en un mono, un logro considerado como el primer paso en los ensayos de una técnica destinada al uso en humanos. Al otro lado del mundo, Organovo, una empresa de San Diego (EEUU), anunció el año pasado que había trasplantado tejido impreso de hígado humano a ratones y que dicho tejido había sobrevivido y funcionado “con normalidad”. “Esperamos que, dentro de cinco años, podamos desarrollar esta técnica para tratar problemas como insuficiencia hepática crónica, por ejemplo”, afirma Benjamin Shepherd, responsable de los ensayos preclínicos en la empresa. Organovo ya ofrece tejidos de riñón y de hígado bioimpresos a la industria farmacéutica para evaluar con más precisión la eficacia y seguridad de algunos medicamentos.
En Chengdu (China) se implantó con éxito una sección impresa de una arteria en un mono. Crédito: Sichuan Revotek
De acuerdo con Roots Analysis, una consultora de tecnología médica, los riñones en 3D podrían llegar a la industria de salud dentro de unos seis años. “Los hígados, que tienen una tendencia natural a regenerarse, también deberían llegar razonablemente pronto. Los corazones, con sus complejas geometrías internas, tardarán más tiempo”, añade Kavya Verma, investigadora experta en bioimpresión de la consultora.
Las compañías L’Oréal, Procter & Gamble y BASF se han unido para trabajar en la impresión de piel humana. Su objetivo es usarla para probar sus productos en busca de reacciones adversas. En el mismo sentido, Johnson & Johnson ha sumado fuerzas con Tissue Regeneration Systems, una firma en Michigan, para crear implantes en 3D con el fin de sanar defectos en huesos rotos. La compañía estadounidense también se ha aliado con Aspect, una empresa de biotecnología canadiense, para intentar imprimir meniscos de la rodilla humana (las almohadillas de cartílago en forma de media luna que separan el fémur de la tibia y actúan como amortiguadores entre estos dos huesos). El gran desgaste de esta estructura a veces requiere una intervención quirúrgica.

¿Jugando a ser Dios?

El potencial de la bioimpresión ya genera debates éticos sobre su aplicación, desde temores sobre la calidad y la eficacia de la piel artificial y los implantes hasta la acusación de que permitirá a los humanos “jugar a ser Dios”. Científicos del Departamento de Estudios de Ciencia, Tecnología e Innovación de la Universidad de Edimburgo (Reino Unido) realizaron una extensa investigación sobre el tema y consideran este argumento infundado. “Ya hay muchas tecnologías que permiten a los seres humanos jugar a ser Dios, como la genética. La bioimpresión permite a las personas fabricar pequeñas partes del cuerpo y se usa para aplicaciones médicas”, afirma Gill Haddow, uno de los investigadores del equipo.
Haddow considera que el principal obstáculo ético de la impresión de órganos en 3D es su coste. Los más entusiastas de la tecnología afirman que los tejidos impresos significarían que quienes esperan un trasplante dejarían de depender del altruismo del prójimo y de la muerte de un extraño para disponer de un órgano, pero Haddow considera este discurso bastante utópico. “Estamos hablando de una tecnología  extremadamente costosa que, de llegar efectivamente a la industria médica, solo unas pocas personas podrán permitirse pagar”.
Joana Oliveira
https://www.bbvaopenmind.com/ciencia/investigacion/imprimir-organo-desde-cero/

 

miércoles, 27 de junio de 2018

Vall d’Hebron descubre cómo atacar células tumorales durmientes que causan recaídas

Vall d’Hebron descubre cómo atacar células tumorales durmientes que causan recaídas

  • La proteína TET2 es la responsable de generar reservas escondidas de células que conservan todo su potencial maligno
Vall d’Hebron descubre cómo atacar células tumorales durmientes que causan recaídas
Recreación de una célula cancerígena en softward 3D (vitanovski / Getty)
El Instituto de Oncología de Vall d’Hebron (el VHIO) ha descubierto cómo acabar con las células tumorales durmientes que se esconden mientras la medicina intenta acabar con un cáncer con todo el arsenal terapéutico posible. Esas células preservadas a las que la quimio no hace mella se encargan con el tiempo de que el tumor reaparezca.
Una proteína llamada TET2 es una de las responsables de crear reservas por todo el cuerpo de células progenitoras de diferentes tejidos, como nuevas neuronas, nuevas células sanguíneas, la piel que crece para cerrar una herida. Y es a la vez la principal responsable de hacer lo mismo con las células tumorales en varios tipos de cáncer.
Coincidiendo a veces con el inicio de la quimioterapia, esta proteína pone en marcha el sistema de conservación de las células tumorales inmaduras, que permanecen dormidas y escondidas pero conservando toda su capacidad maligna y resistentes a cualquier fármaco, porque no se reproducen, que es el momento en el que los tratamientos actúan.
El talón de Aquiles de las durmientes Al inhibir este factor TET2 se consigue detener la reaparición de las células tumorales latentes
El grupo de Células Madre y Cáncer del Instituto de Oncología Vall d’Hebron ha logrado poner al descubierto al culpable. Y ha encadenado a esta investigación de diez años otros proyectos de nuevos fármacos que inhiben ese factor culpable de que un tumor aparentemente curado reaparezca.
“Hemos podido comprobar que realmente el TET2 es el talón de Aquiles de las células durmientes y que cuando ese factor se bloquea con fármacos, se eliminan esas células responsables de las recaídas y también de la resistencia a los tratamientos”, explica Héctor G. Palmer, investigador principal de este largo estudio desarrollado en el VHIO, cuyos resultados se publican en la revista The Journal of Clinical Investigation.
Paralelamente, su grupo ha puesto a punto una manera de identificar esta actividad del TET2, ha encontrado un biomarcador, la señal que deja su actividad y que es visible en biopsias normales, por lo que la prueba estaría al alcance de la mayoría de laboratorios oncológicos.
Héctor G. Palmer y el equipo del VHIO que ha descubierto cómo eliminar las células tumorales dormidas
Héctor G. Palmer y el equipo del VHIO que ha descubierto cómo eliminar las células tumorales dormidas (KATHERIN WERMKE / VHIO)
Para Palmer y su equipo era casi una obsesión entender cómo ocurría este fenómeno de células durmientes perfectamente preservadas. La investigación se ha concentrado durante década en cómo matar el tumor y ahora, muy recientemente, varios grupos empiezan a explicar sus resultados en la comprensión de este fenómeno.
“Eran inmunes a los tratamientos, porque todos están diseñados para frenar el crecimiento del tumor. Y ellas no crecen, se quedan escondidas en el mismo sitio o se dispersan por todo el cuerpo. Parece algo contradictorio en una célula tumoral, que se caracteriza precisamente por crecer sin control. Pero esta preservación está perfectamente ordenada, el factor TET2 actúa como un director de orquesta que impide que la célula se divida y en cambio permanezca oculta y conserve todo su potencial”.
MAGEN DE LAS CÉLULAS TUMORALES DURMIENTES Grupo de células tumorales en crecimiento entre las que se esconden las célululas latentes o durmientes que no se multiplican y que están señaladas con una flecha. Se pueden identificar gracias a que retienen en su núcleo una proteina artificial fluorescente que en la imagen se observa en verde. Estas células minoriatarias están muy activas para TET2 y son altamente resistentes a los tratamientos convencionales, convirtiendose en la semilla de futuras recaidas.
MAGEN DE LAS CÉLULAS TUMORALES DURMIENTES Grupo de células tumorales en crecimiento entre las que se esconden las célululas latentes o durmientes que no se multiplican y que están señaladas con una flecha. Se pueden identificar gracias a que retienen en su núcleo una proteina artificial fluorescente que en la imagen se observa en verde. Estas células minoriatarias están muy activas para TET2 y son altamente resistentes a los tratamientos convencionales, convirtiendose en la semilla de futuras recaidas. (VHIO)
El punto flaco identificado por el grupo del VHIO actúa como un supervisor del genoma del tumor, oxidando en puntos concretos del ADN. Esa actividad “genera un mapa de óxido que hace que se comporte de una forma u otra. El TET2 está más activo en unos tumores que otros y tenerlo más activado supone un mayor riesgo de recaídas. Ese óxido se puede cuantificar, de momento a través de la biopsia, pero en un futuro en un análisis del ADN circulante. Pero sí sabemos ya el poder de esas células dormidas. Podemos predecirlo”, explica el investigador principal.
Los fármacos que están ensayando en el VHIO para inhibir el TET2 dejan intactos otros TET, el 1 y el 3, que son factores con funciones parecidas a la hora de preservar células progenitoras (las que necesita el cuerpo para reponer neuronas o sangre) pero que no tienen ningún papel conocido en la protección de las tumorales dormidas, como el TET2. “Que sepamos. Seguramente hay otros compañeros del TET2 implicados”, apunta Palmer.
Cómo detectarla Cuanta mayor es la actividad de la TET2, mayor es el riesgo de reaparición del tumor
“Lo hemos encontrado en hasta 19 tipos diferentes cáncer y en un futuro habrá que iniciar el tratamiento para el cáncer combinándolo con la inhibición de TET2. Necesitamos 5 años más”, dice Palmer.
La latencia, explican los investigadores. es una respuesta natural a una situación adversa, como quizá el inicio del tratamiento contra el tumor, “pero nos hemos dado cuenta de que al margen del tratamiento, los tumores tienen tendencia a generar esas células latentes. Sucede por defecto. Es un fenómeno más ancestral. Los tumores tiran de un mecanismo similar al resto del organismo para tener sus reservas”.
La financiación El papel clave de la asociación contra el cáncer
Las investigaciones que se llevan a cabo en el VHIO se financian de muchas maneras. En este largo estudio sobre las células tumorales durmientes y cómo acabar con ellas han participado en distintos momentos desde la Fundación Fero al Instituto Carlos III, el Ciberonc y Cellex. Pero la aportación más difícil la ha realizado la Asociación Española contra el Cáncer. “Ellos se han atrevido a apostar por pagar el contrato de una investigadora senior experta como Isabel Puig, primera autora del estudio, durante diez años”, explica el coordinador del estudio Héctor G. Palmer. Ese trabajo de alto nivel investigador mantenido durante tantos años ha sido clave en la consecución de los resultados “en la peor época para sostener una investigación a largo plazo”.
El equipo de las células dormidas lo componen 10 personas dentro del grupo de Células Madre y Cáncer del VHIO. La identificación de la pieza clave en la generación de células tumorales durmientes ha incluido el desarrollo de la tecnología necesaria para aislar los elementos e identificarlos, que no existía, y ha generado datos fundamentales para el conocimiento del gran reto de las recaídas.


http://www.lavanguardia.com/ciencia/cuerpo-humano/20180626/45417559347/celulas-tumorales-durmientes-cancer-vall-hebron.html

viernes, 22 de junio de 2018

El mito del cannabis medicinal ? ¿Afecta a la memoria ? Ultimas accionnes de Canada para su legalización,pros/contras

Canada y varios estados de EEUU; legalizan la marihuana.ES DEBATIBLE, consumir como ocio con mesura,no nos debería preocupar mucho, aunque hay estudios que dicen que afecta a la memoria. Si puede preocupar si es la puerta de acceso a otras drogas, al empezar a considerar el binomio Ocio=Drogas, como principal disfrute....TAMBIEN sabemos que en España, es el lugar del mundo donde hay muchas personas entre 30 y 40 años pillados por la cocaína.En fin como en todo,los excesos seguro que pasan factura

--

 

*En este caso SNB, hace unos 8 años acerto " elEconomista.es
26/10/2010 - 

"Puede que mañana sea legalizada en California, pero lo será pasado en todas partes. Para recaudar, claro, pero no sólo. En 1933 se levantó la Ley Seca para que se pudieran ahogar las penas en alcohol, y se recaudó. Ahora se legalizará la marihuana para recaudar y para calmar a quienes la crisis pueda hacer sentir nerviosos" Santigo Niño Becerra IQS

 http://www.eleconomista.es/economia/noticias/2553632/10/10/Las-consecuencias-de-la-crisis-Nino-Becerra-y-la-legalizacion-de-la-marihuana.html

 

El mito del cannabis medicinal

Publicado por






Fotografía: Rafael Castillo (CC).

Cannabis es un género de plantas dioicas que incluye tres especies: sativa, indica y ruderalis. El cáñamo se ha cultivado desde hace milenios con el fin de aprovechar sus fibras para hacer tejidos y cuerdas, para alimentar aves y otros animales con sus frutos, los cañamones, y como droga, médica o recreativa. Cada año, ciento ochenta millones de personas consumen algún derivado del cannabis por sus poderes psicoactivos y, a nivel mundial, es la principal droga ilegal, tras el alcohol, el tabaco y el café, legales en la mayor parte del mundo. No obstante, el estatus jurídico va cambiando con rapidez y el Tribunal Supremo de México, el principal productor mundial de cannabis, dictaminó en 2015 por cuatro votos a uno que prohibir el consumo y cultivo de cannabis para uso personal violaba el derecho humano al libre desarrollo de la propia personalidad. Esta consideración como un derecho humano ha sido una sorpresa, puesto que otros movimientos legalizadores, como en Irlanda, donde han aprobado el uso supervisado de heroína, citan razones de salud pública, de uso compasivo o económicas, pero no lo consideran un derecho del ciudadano.
-
El principal compuesto psicoactivo del cannabis es el tetrahidrocannabinol (THC), aunque la planta contiene más de cien cannabinoides cuyas propiedades distan de ser conocidas. Es importante porque, por ejemplo, otro de ellos, el cannabidiol (CBD), parece ser útil para reducir el dolor y la inflamación, controlar los ataques epilépticos, tratar alguna enfermedad mental e incluso para ayudar a dejar la adicción al cannabis, y hay de hecho un ensayo clínico en marcha para su posible utilización. El THC incrementa el apetito y reduce las náuseas y se han aprobado medicamentos con THC o CBD con estos objetivos. Hay algunas pruebas de que el  THC también puede ayudar a disminuir el dolor, la inflamación y a aliviar algunos problemas musculares.
Las sustancias psicoactivas del cannabis se acumulan en unos tricomas o pelos glandulares, que son especialmente abundantes en los cálices florales y en las brácteas de las plantas femeninas. El producto a la venta suelen ser los capullos de las flores (marihuana), la resina (hachís) o varios extractos grasos conocidos generalmente como aceite de hachís. El uso de los derivados del cannabis es un tema importante para la salud pública pues se trata de un consumo al alza. Además, los modelos de uso de cannabis están cambiando debido a distintos factores: la legalización en distintos países o estados, la disponibilidad de análogos sintéticos —uno de los más difundidos se conoce como «spice»—, la selección de nuevas variedades como el «skunk», más potentes y peligrosas, y el uso de nuevas herramientas para su consumo como vaporizadores y diversos productos comestibles. El resultado es que a día de hoy la adicción al cannabis ha superado a la de la heroína entre los europeos que buscan ayuda en los servicios especializados de atención a drogodependientes, pero se encuentran con un problema serio: no disponemos de ningún fármaco que ayude en este proceso, al contrario de lo que sucede con otras drogas.
No sabemos cuántos usuarios habituales de la marihuana quedan enganchados a este consumo. Una cifra citada a menudo habla de un 9 %, una referencia derivada de un estudio realizado en los Estados Unidos en la década de los noventa, lo que la haría menos peligrosa que otras drogas ya que las cifras correspondientes para la heroína son 23 % y 15 % para el alcohol. Sin embargo, han pasado muchas cosas en esos veinte años y los nuevos compuestos tienen niveles muy superiores de THC, lo que aumenta el riesgo. Por ejemplo, los consumidores de skunk triplican el riesgo de psicosis frente a los no consumidores y lo quintuplican si lo usan diariamente. Los principales síntomas de la dependencia al cannabis son ansiedad, irritabilidad, aburrimiento e insomnio al intentar dejar el consumo. Un problema es que mucha gente considera que no es adictivo, por lo que es posible que estemos subestimando este riesgo.
-
Puesto que el consumo intenso de cannabis se ha asociado a un mayor riesgo de trastornos mentales —incluido psicosis, adicción, depresión, tendencias suicidas, daño cognitivo y falta de motivación— es fundamental que tengamos una imagen clara de los efectos del consumo de esta planta, que no son los mismos que tomar una píldora con una concentración exacta de THC o CBD. Usando tomografía de emisión de positrones se ha visto que los usuarios de cannabis producen menos dopamina, algo que es más notable en pacientes que cumplen los criterios clínicos para abuso o dependencia y que encaja con lo que habíamos aprendido en los laboratorios de investigación en roedores. Los usuarios de cannabis también muestran una menor liberación de dopamina en respuesta a un reto estimulante y déficits cognitivos que incluyen una peor memoria de trabajo, como cuando se nos olvida algo que estamos haciendo en ese momento. Hay muchas otras pruebas que permiten concluir que la liberación de dopamina está alterada en los consumidores de cannabis y que incluso está alterada la morfología de las neuronas dopaminérgicas; por un lado, es un ejemplo llamativo de la plasticidad neuronal y, por otro, un detalle preocupante.
Un factor importante es la fecha de inicio del consumo y los datos que tenemos sugieren que debemos esforzarnos por evitar el consumo durante el embarazo y durante la adolescencia. Son dos épocas de la vida cruciales en el desarrollo cerebral, y la exposición al cannabis en el feto o en los jóvenes parece que tiene consecuencias en la vida adulta. Una de esas diferencias es que la exposición al THC durante la adolescencia aumenta el efecto de los cannabinoides posteriormente, sugiriendo que el inicio del consumo durante la adolescencia incrementa el riesgo de una adicción posterior. También se ha visto que los consumidores habituales de cannabis presentan problemas cognitivos, en particular aquellos que se iniciaron en el consumo durante la adolescencia. 
-
Finalmente, otro estudio indicaba que los adolescentes que consumían cannabis tenían un riesgo mayor de fracaso escolar, adicción y suicidio. Este artículo indicaba que el riesgo de suicidio era siete veces superior frente a los no consumidores, aunque estos estudios longitudinales muestran una correlación pero no demuestran una relación causa-efecto. Es evidente que la gente toma drogas por una razón y esa razón puede ser la que esté generando el efecto y no el propio cannabis, sin embargo parece evidente que es un mensaje preocupante. En el estudio se excluyeron cincuenta y tres posibles causas, cincuenta y tres variables, desde trastornos de conducta, hasta depresión o divorcio de los padres, pero no se pueden excluir todas las posibles variables y parece lógico que algunos adolescentes tienen problemas cuando se inician en el consumo y usan el cannabis como una forma de escapar de ellos. En Canadá, uno de los países con mayor consumo de los países desarrollados y donde el Gobierno ha indicado que procederá a la legalización del cannabis la próxima primavera, la Asociación Canadiense de Pediatría ha avisado sobre las serias consecuencias a largo plazo sobre los cerebros en desarrollo y ha pedido «salvaguardas» para proteger a los niños y adolescentes de esos daños, lo que se traduce en intentar que la fecha de inicio del consumo sea lo más tarde posible.






Fotografía: Thomas Hawk (CC).

Los defensores del consumo de cannabis utilizan frecuentemente el argumento de sus virtudes medicinales. Aunque el consumo con fines terapéuticos es legal en diferentes países incluyendo Alemania, Austria, Canadá, Finlandia, Holanda, Israel, República Checa y España, parece una excusa. Una revisión de setenta y nueve ensayos clínicos realizados entre 1975 y 2015 ha analizado los efectos médicos del cannabis con fines médicos y para distintos problemas incluyendo el dolor crónico, el dolor asociado al cáncer, los problemas de insomnio, la pérdida de apetito en las personas con sida, y los trastornos musculares asociados a la parálisis cerebral. La mayoría de los estudios mostraron leves mejorías en las síntomas, pero el análisis de los datos encontró que no alcanzaban el nivel de significación estadística; es decir, la diferencia era nula, mínima o no relevante. Otros estudios analizaron los datos sobre el uso de marihuana en personas con fibromialgia, depresión, trastornos de ansiedad, neuropatías asociadas a la artritis reumatoide y esclerosis múltiple y de nuevo no encontraron ninguna evidencia de que funcionara, de que mejorasen de sus síntomas. 
-
La revisión de estas investigaciones no es fácil, pues muchos estudios sobre el empleo del cannabis con fines terapéuticos presentan problemas metodológicos tales como poblaciones de estudio demasiado pequeñas, datos incompletos, pérdidas sustanciales de voluntarios durante el ensayo y otros. Para otros temas para los que también se han sugerido beneficios como la depresión, el trastorno de ansiedad, la psicosis, la esquizofrenia, las náuseas durante la quimioterapia, o el glaucoma, los datos a favor son prácticamente inexistentes; es decir, no hay evidencias científicas sólidas que demuestren que el consumo de cannabis beneficie realmente en estos trastornos y enfermedades. También se recomiendan los cannabinoides cuando los tratamientos habituales para trastornos como la anorexia, la artritis o las migrañas han sido ineficaces. De nuevo, hay serias dudas de que tenga efectividad en estos casos. En realidad, las evidencias son pobres, están limitados al uso de un cannabinoide concreto y no de la planta.
El Instituto Nacional sobre Abuso de Drogas (NIDA), el centro de investigación más potente del mundo en este tema, ha declarado que «hasta el momento, los investigadores no han llevado a cabo suficientes ensayos clínicos a gran escala que muestren que los beneficios de la planta de marihuana superan los riesgos para los pacientes que supuestamente va a tratar». El resumen puede ser una desilusión para algunos, pero parece contundente: no hay evidencias científicas sólidas de que la marihuana u otros derivados del cannabis tengan virtudes medicinales. Más aún, otro aspecto que los estudios sobre el uso médico del cannabis han mostrado es que los pacientes que lo consumen tiene un riesgo mucho mayor de efectos secundarios, incluyendo problemas serios como trastornos renales, hepáticos y psiquiátricos. No obstante, los más comunes son más leves: mareos, confusión y desorientación.
En realidad la impresión es que en distintos países se está aprobando su uso médico sin exigir las mismas evidencias de seguridad y eficacia que requerimos a cualquier medicamento. Si el objeto es usar la cortina de humo del uso terapéutico para encubrir una legalización subrepticia del consumo recreativo, entonces la comunidad científica debe quedarse al margen. Las pruebas sobre fármacos son uno de los pilares de la medicina basada en la evidencia y no podemos consentir que se manipulen a favor de unos intereses determinados, sean los que sean, que aquí se usen y allí no, en función de intereses del tipo que sean.
Un ejemplo de la poca claridad de ideas es que a fecha de agosto de 2016, veintitrés estados norteamericanos permitían el uso de cannabis como medicina y cuatro para uso recreativo mientras que estaba prohibido en todos los demás. Doce estados prohíben conducir si se ha tomado cualquier cantidad de cannabis mientras que otros tienen niveles umbral de 5, 2 o 1 nanogramo por mililitro. El problema aquí es que mientras que en el caso del alcohol los niveles en sangre son una buena referencia del grado de afectación de la conducción, en el caso del cannabis los efectos varían enormemente de persona a persona. La marihuana es la droga ilegal más comúnmente implicada en los accidentes de tráfico.
La DEA mantiene la clasificación del cannabis como droga de tipo 1, una categoría reservada para las sustancias que no tienen beneficios médicos. A fecha de agosto 2016, hay trescientos cincuenta investigadores registrados para poder investigar con marihuana en los Estados Unidos y solo un proveedor autorizado para proporcionales la planta: la Universidad de Mississippi, algo que no deja de ser curioso. Se va a producir a una ampliación de los proveedores de cannabis para su uso en investigación.
-
Dicho todo esto, es necesario replantear la política mundial sobre las drogas. Hay algunos investigadores que piensan que la legalización bajaría los precios, incrementaría el consumo y multiplicaría los riesgos detectados entre los adolescentes. Otros investigadores, en cambio, dicen que en la mayoría de los países occidentales más del 90 % de las personas afirman que es fácil comprar cannabis, por lo que preguntan sobre qué cambio puede hacer que sea aún de más fácil disponibilidad. David Nutt, catedrático de Farmacología en el Reino Unido ha declarado: «Para los usuarios de drogas recreativas, la criminalización genera más daño que las drogas que usan, y los adictos necesitan ser tratados de la enfermedad que sufren, no perseguidos». Usemos los datos que nos proporciona la ciencia para tomar decisiones racionales.






https://www.jotdown.es/2016/12/mito-del-cannabis-medicinal/

Para leer más:
  • Borgelt LM, Franson KL, Nussbaum AM, Wang GS (2013) «The pharmacologic and clinical effects of medical cannabis». Pharmacotherapy 33 (2): 195–209.
  • Weeks C (2016) «Doctors urge federal ‘safeguards’ to protect kids, youth from harms of pot». The Globe and Mail. Enlace.
  • Whiting PF, Wolff RF, Deshpande S, Di Nisio M, Duffy S, Hernandez AV, Keurentjes JC, Lang S, Misso K, Ryder S, Schmidlkofer S, Westwood M, Kleijnen J (2015). «Cannabinoids for Medical Use: A Systematic Review and Meta-analysis». JAMA 313 (24): 2456–2473.
  • «Drug Facts—Is Marijuana Medicine?». National Institute on Drug Abuse. Enlace.
  •  


    Cannabis: El mayor estudio científico de la historia llega a algunas conclusiones definitivas

    January 29, 2017
    -
    El uso de la marihuana (Cannabis sativa) es uno de los más controvertidos del planeta. La marihuana es defendida a capa y espada por unos sectores de la población por sus propiedades medicinales, y atacada por otros sectores por su carácter de droga adictiva. De hecho, cada vez hay más países que lo están legalizando, ya sea para su uso medicinal o incluso recreativo. 

    Una encuesta realizada en Estados Unidos ha mostrado que 22,5 millones de estadounidenses mayores de 12 años han consumido cannabis el último mes (tendencia en aumento desde el año 2002 hasta el 2015). El 90 % de los usuarios lo hacían por uso recreativo, con menos del 10% para uso medicinal.
    Pero lo que está claro es que es necesario realizar estudios a gran escala para aclarar los efectos sobre la salud de la marihuana.

    Un estudio del “US National Academies of Sciences, Engineering, and Medicine” ha recopilado más de 10.000 investigaciones realizadas desde 1999 sobre el cannabis y productos derivados de éste, para aportar luz al tema. Aunque seguro no convencerá a todos, sí que aclara muchos de los efectos de esta planta de una forma científica y rigurosa. En este riguroso estudio han llegado a casi 100 conclusiones. A modo de resumen paso a describir a continuación las más importantes por la cantidad de evidencias encontradas:
    Efectos positivos

    Se han encontrado evidencias suficientes sobre el efecto positivo en:
    -La reducción del dolor crónico
    -Reducción de las náuseas producidas en la quimioterapia (especialmente en derivados del cannabis tomados oralmente)
    -Espasmos musculares relacionados con la esclerosis múltiple (también en tratamientos orales)

    -Efectos negativos

    Aunque se ha comprobado estos efectos positivos, se han evidenciado otros muchos efectos negativos:

    -Daños y muertes accidentales
    En los países que se ha legalizado su uso hay un incremento de los accidentes de coche debido al cannabis, así como las intoxicaciones de niños por dicha sustancia (2.82 veces superior que en los países que no es legal).

    -Cáncer
    No se han encontrado evidencias de que aumente el riesgo de cáncer que ya causa el tabaco, ni que el uso en madres durante el embarazo incremente el riesgo de cáncer en los hijos.

    -Ataques al corazón, infarto o diabetes
    No hay una conclusión clara sobre el tema, aunque parece que algunas evidencias sugieren que el fumar cannabis puede aumentar el riesgo de ataques al corazón.

    -Enfermedades respiratorias
    El comité de salud que ha hecho el informe ha encontrado evidencias de que el fumar marihuana está asociado con una mayor frecuencia de bronquitis y de empeorar los síntomas como tos crónica o producción de flema. Por otra parte, no está claro que afecte a otras enfermedades como asma o funciones de los pulmones.

    -Sistema inmune
    A pesar de que no hay evidencias suficientes para llegar a una conclusión clara, “evidencias limitadas” sugieren que puede tener actividad “anti-inflamatoria”.

    -Enfermedad mental
    Los estudios sugieren que hay grandes probabilidades que el uso del cannabis incremente el riesgo de sufrir enfermedades mentales como esquizofrenia, otras psicosis, desórdenes sociales de ansiedad y depresión. En los usuarios con un uso importante de cannabis parecen más probables las tendencias suicidas que en los no consumidores. Además en las personas con trastorno bipolar que consumen diariamente cannabis parece que se incrementan los síntomas.

    -Tendencia a consumir otras drogas
    El comité encontró “limitadas evidencias” de que sea una droga que inicie a otras drogas, especialmente el tabaco. Lo que si encontraron fueron moderadas evidencias que sugieren que hay un nexo de unión con el abuso de otras sustancias como alcohol, tabaco y otras drogas ilegales.

    -Psicosocial
    Se ha encontrado que el aprendizaje, memoria o atención se degradan inmediatamente después del consumo del cannabis. Sin embargo, se han encontrado “evidencias limitadas” de que esta degradación permanece si se detiene su consumo, así como de que afecte a la educación, y relaciones sociales. También encontraron "evidencias limitadas" de una relación de uso del cannabis con las tasas de desempleo y bajos ingresos económicos.

    Conclusiones

    Este estudio llega a la conclusión de que es necesario estudiar con más profundidad los puntos que no han sido aclarados totalmente. Además incide en la necesidad de facilitar por parte de las autoridades la investigación en este ámbito ya que se ponen muchas trabas burocráticas que impiden a los científicos profundizar en los efectos positivos y negativos del consumo del cannabis, así como en la investigación de medicamentos derivados de esta planta.
    -
    Algunos links interessantes:


    https://www.nap.edu/catalog/24625/the-health-effects-of-cannabis-and-cannabinoids-the-current-state
    https://www.youtube.com/watch?v=z_w6s2kJ8Q4

    Un estudio demuestra que el cannabis no ofrece beneficios para el dolor crónico

    Yahoo Noticias
    El cannabis terapéutico no demuestra ser más beneficioso para el dolor crónico que otros tratamientos | imagen Pixabay
    El cannabis terapéutico no demuestra ser más beneficioso para el dolor crónico que otros tratamientos | imagen Pixabay
    El ser humano lleva miles de años utilizando las propiedades curativas de incontables plantas. Existen documentos que nos ofrecen pruebas del uso terapéutico del Cannabis sativa en el Antiguo Egipto y durante siglos su consumo no solo ha tenido fines “recreativos” sino que se ha extendido a una gran variedad de dolencias.
    Sin embargo, a pesar de esa especie de unanimidad que ha existido desde hace décadas en que el cannabis es efectivo frente a dolores crónicos, lo cierto es que las investigaciones que se han realizado son escasas y relativamente recientes. Debemos reconocer que sabemos muy poco sobre cómo funcionan los aproximadamente quinientos elementos que componen el Cannabis (de los cuales más de un centenar poseen efectos psicoactivos), y sobre todo debemos empezar a reconsiderar, o al menos matizar, algunas afirmaciones sobre sus beneficios que creíamos asentadas.
    Se trata del mayor estudio realizado hasta la fecha con más de 1500 pacientes de dolor crónico no relacionado con el cáncer | imagen Pixabay
    Se trata del mayor estudio realizado hasta la fecha con más de 1500 pacientes de dolor crónico no relacionado con el cáncer | imagen Pixabay
    Esta semana el Centro Nacional de Investigación sobre Drogas y Alcohol, en colaboración con el Consejo Nacional de Salud de Australia, ha publicado el mayor estudio realizado hasta la fecha sobre los beneficios del cannabis en pacientes con dolores crónicos no relacionados con el cáncer y los resultados han sido bastante decepcionantes respecto a las ideas preconcebidas que todos teníamos sobre la eficacia de esta sustancia.
    En concreto han participado más de 1500 pacientes con dolores crónicos en un estudio de cohorte que ha durado más de cuatro años y que ha finalizado con unos resultados muy pobres a favor del uso del cannabis. Según los autores, no existen evidencias claras de que el cannabis reduzca la intensidad del dolor en comparación con otros tratamientos analgésicos más efectivos.
    Estos bajos resultados contrastan con el hecho de que en Estados Unidos, Canadá o Países Bajos el dolor crónico es la razón más citada para el uso del cannabis medicinal, y con la tendencia generalizada en cada vez más países que se están planteando su legalización y utilización terapéutica.
    Las conclusiones no dejan en buen lugar el uso de cannabis medicinal que actualmente se están recetando para el tratamiento del dolor crónico no relacionado con el cáncer y califica esta práctica como “controvertida” debido a la insuficiencia de pruebas de su eficacia a largo plazo y también por el aumento de los daños a medida que aumenta la prescripción de opioides.
    La sociedad demanda cada vez más legislaciones y regulaciones más abiertas en este campos, lo que significa que podría haber un aumento en el uso de productos cannabinoides para el dolor crónico y sin embargo, seguimos sin tener pruebas sólidas que muestren sus beneficios. Quizás sería conveniente esperar a más investigaciones y evidencias científicas, reconociendo que aún queda mucho por estudiar en un campo tan amplio como los psicoactivos para el tratamiento del dolor.
    Referencias científicas y más información:
    Gabrielle Campbell, Wayne D Hall, Michael Farrell, Louisa Degenhardt, et al. “Effect of cannabis use in people with chronic non-cancer pain prescribed opioids: findings from a 4-year prospective cohort study” The Lancet Volume 3, No. 7, e341–e350, July 2018 DOI: https://doi.org/10.1016/S2468-2667(18)30110-5
    Liam Mannix “In major study, cannabis shows no benefit for chronic pain” Sydney Morning Herald

  • htps://www.bicsociety.org/single-post/2017/01/29/Cannabis-El-mayor-estudio-cient%C3%ADfico-de-la-historia-llega-a-algunas-conclusiones-definitivas