traductor

miércoles, 28 de agosto de 2024

Leonardo da Vinci: pensador sistémico

 

Leonardo da Vinci: pensador sistémico

Falla Na Jordana 2012“Antes de dar un paso más, realizaré experimentos, porque mi propósito es exponer primero la experiencia y luego, mediante el razonamiento, mostrar por qué esa experiencia está destinada a operar precisamente de esa manera. Es ésta la verdadera regla que deben seguir quienes reflexionan sobre los fenómenos de la naturaleza”. Leonardo da Vinci, c. 1513

Leonardo da Vinci fue lo que hoy en día, en nuestra jerga científica, denominaríamos un pensador sistémico. Para él, comprender un fenómeno significaba ponerlo en conexión con otros fenómenos mediante una semejanza de modelos. Cuando estudió las proporciones del cuerpo humano, las comparó con las proporciones de los edificios de arquitectura renacentista. Sus investigaciones sobre músculos y huesos lo condujeron a estudiar y dibujar engranajes y palancas, interrelacionando así fisiología animal e ingeniería. Los modelos de turbulencia en el agua lo llevaron a observar modelos similares en la corriente de aire; y de allí pasó a explorar la naturaleza del sonido, la teoría de la música y el diseño de instrumentos musicales.

Esta habilidad excepcional para interconectar observaciones e ideas procedentes de distintas disciplinas anida en el corazón mismo del enfoque que Leonardo tenía del conocimiento y la investigación. Al mismo tiempo, ésa fue también la razón por la que tantas veces se vio arrastrado tan lejos y extendió sus investigaciones mucho más allá de la función originaria implícita en la formulación de una “ciencia de la pintura”, para explorar el espectro casi completo de fenómenos naturales conocidos en su época, así como muchos otros no reconocidos hasta entonces.

La obra científica de Leonardo era prácticamente desconocida en vida de su autor y permaneció oculta durante más de doscientos años tras su muerte, acaecida en 1519. Sus pioneros descubrimientos e ideas no ejercieron influencia directa en los científicos que lo sucedieron, aunque durante los cuatrocientos cincuenta años siguientes su concepción de una ciencia de las formas vivas volvería a aparecer en diversas épocas. En esos períodos, los problemas con los que Leonardo había luchado volvían a abordarse con niveles crecientes de complejidad a medida que los científicos progresaban en su comprensión de la estructura de la materia, las leyes de la química y el electromagnetismo, la biología celular y molecular, la genética y el papel decisivo de la evolución en la plasmación de formas del mundo vivo.

Hoy en día, dada nuestra ventaja de contar con la ciencia del siglo XXI, podemos reconocer en Leonardo da Vinci un temprano precursor de todo un linaje de científicos y filósofos cuyo centro de interés fue la naturaleza de la forma orgánica. Entre ellos figuran Immanuel Kant, Alexander von Humboldt y Johann Wolfgang von Goethe en el siglo XVIII; Georges Cuvier, Charles Darwin y D’Arcy Thompson en el XIX; Alexander Bogdanov, Ludwig von Bertalanffy y Vladimir Vernadsky a comienzos del XX; y Gregory Bateson, Ilya Prigogine y Humberto Maturana a finales del siglo XX; lo mismo que morfologistas y teóricos de la complejidad contemporáneos, como Brian Goodwin, Ian Stewart y Ricard Solé.

La concepción orgánica de la vida, propia de Leonardo, siguió durante siglos su curso como una corriente subterránea de la biología, con breves períodos en los que emergía y dominaba el pensamiento científico. No obstante, ninguno de los científicos de este linaje reparó en que el gran genio del Renacimiento ya había anticipado muchas de las ideas que ellos exploraban. Mientras los manuscritos de Leonardo acumulaban polvo en antiguas bibliotecas europeas, Galileo Galilei era celebrado como el “padre de la ciencia moderna”. No puedo sino sostener que el verdadero fundador de la ciencia moderna fue Leonardo da Vinci, y me pregunto cuál habría sido el desarrollo del pensamiento científico en caso de que los cuadernos de notas se hubiesen conocido y estudiado poco después de su muerte.

“La ciencia de Leonardo. La naturaleza profunda de la mente del gran genio del Renacimiento”. Fritjof Capra. Editorial Anagrama


Todos conocemos al Leonardo Da Vinci pintor, pero tú le has investigado como científico ¿Cuáles fueron sus aportaciones a la ciencia?.

Muy poca gente conoce a Leonardo como científico comparado con su fama de pintor e ingeniero. Me di cuenta que la ciencia de Leonardo es muy distinta de la ciencia, por ejemplo, de Galileo o Newton. Galileo es con frecuencia considerado el padre de la ciencia moderna porque usó una aproximación empírica para realizar experimentos y sacar conclusiones y también usó las matemáticas para describir estos experimentos. Leonardo también hizo todo eso 100 años antes. Entonces, Leonardo inventó lo que ahora llamamos el Método Científico.

Galileo observó el mundo como una máquina y restringió su ciencia a cantidades que podían medirse y describirse matemáticamente. Galileo decía que se debía excluir cualquier cualidad de la ciencia tales como color, gusto, belleza, elegancia. Según él, debía limitarse la ciencia a la materia y sus propiedades. Sin embargo, Leonardo era lo opuesto. La ciencia de Leonardo empezaba con la vida, para él el Mundo estaba vivo. La aproximación de Leonardo a la Naturaleza fue como un artista. Su ciencia fue siempre una síntesis entre arte y ciencia y pensó que para pintar las formas de la naturaleza, las tenía que estudiar. Tenía que entender realmente su manera intrínseca de funcionar y para estudiar esto y registrar los resultados de sus descubrimientos, los necesitaba pintar. Las formas de la naturaleza son muy complejas y describirlas en palabras es difícil porque nuestro lenguaje es lineal. Las formas de la naturaleza que ves aquí a nuestro alrededor no son lineales y son complejas, así que Leonardo desde el inicio usó palabras, pero sobre todo usó su enorme talento de pintor para pintar lo que observaba. Para pintar la Naturaleza, sintió que la tenía que estudiar y para estudiarla la tenía que pintar de ahí esa síntesis tan estrecha entre arte y ciencia. Lo que emergió de esa síntesis fue una ciencia brillante, una ciencia de las cualidades, una ciencia de patrones, una ciencia de las formas y transformaciones y lo aplicó a los flujos del agua y se convirtió en el fundador de lo que hoy se conoce como dinámica de fluidos.

¿Qué elementos pueden ser útiles de Da Vinci para el siglo XXI?.

Yo diría que Leonardo fue un pensador sistémico. Para él, resolver un problema o entender un fenómeno pasaba por conectarlo con otros fenómenos y estudiando sus patrones similares, se pueden entender las cosas. Por ejemplo, uno de los patrones que estudió específicamente y por el que estaba fascinado era la espiral. Dibujaba vórtices de agua que forman espirales y dibujaba el crecimiento de ciertas plantas que forman espirales y también dibujaba las espirales del cabello humano. Leonardo las dibujaba en sus retratos. Así que la espiral era un patrón común de la vida, para él y esto se confirma actualmente en la ciencia moderna. Generalmente muchos de sus descubrimientos han tenido que esperar cientos de años hasta que emergieran científicos post newtonianos, post cartesianos que una vez más estudiamos patrones y procesos metabólicos. Eso es lo que él estudió para entender la vida.

¿Qué fue lo que más le impresionó de Leonardo?.

Primero me impresionó el conocimiento detallado que tenía en tantos campos. Cuando estudié su ciencia había algunos campos que podía entender desde mi propio aprendizaje de científico. Me formé como físico pero también estudié mucha Biología, Ecología y Ciencia Cognitiva, así que podía entender estas partes. Pero no podía comprender su detallada Geología, su detallada Hidrodinámica y su detallada Anatomía y tuve que pedir ayuda a mis colegas para entender los dibujos y escritos de Leonardo desde el punto de vista de la ciencia moderna. Me impresinó la amplitud y profundidad de su conocimiento. La otra cosa que me impresionó fue que no tenía absolutamente ningún miedo intelectual a la hora de investigar cualquier fenómeno que se le cruzaba. Y te daré un ejemplo: Como pintor estaba muy interesado en la apariencia de los objetos para nosotros, así que estudiaba perspectiva, que fue un gran descubrimiento del Renacimiento, y desde la perspectiva estudiaba el efecto de la luz y la sombra en los objetos, cosa que usó de una manera magistral en sus pinturas. Desde ahí estudiaba la naturaleza de la luz y tuvo la hipótesis de que se desplazaba en ondas, otra de las cosas en las que se avanzó doscientos o trescientos años a su tiempo. De ahí siguió el haz de luz desde el objeto hasta su ojo, y estudió la anatomía del ojo, estudió la anatomía del nervio óptico y siguió al nervio óptico hasta dentro del cerebro y estudió estructuras cerebrales y buscó la semilla del alma y la manera en la que entendemos las cosas y el fenómeno básico de la cognición. Desde la perspectiva y la naturaleza de la luz recorrió todo el camino hasta el centro del cerebro.

Hoy alguien que estudia la perspectiva diría: “La naturaleza de la luz, esto es del dominio de los físicos y yo no me metería en esto”. Y los físicos dirían que estudiar el ojo es cosa de la Anatomía. Y el anatomista diría que estudiar el cerebro es cosa de la Neurociencia, y el neurocientífico diría que estudiar la cognición, es cosa de la Filosofía. Son cinco ciencias las que tratan de estos campos y Leonardo no tuvo límites ni barreras. Por supuesto que estos campos no existían en su tiempo pero él no tenía miedo en estudiar cualquier cosa que se le presentaba.

Entrevista a Fritjof Capra, Físico y pensador sistémico, por Alberto D. Fraile Oliver

http://jmonzo.blogspot.com/2012/03/leonardo-da-vinci-pensador-sistemico.html

Del Rollback a Prigogine, pasando por la marmota Phil y Einstein -pensamiento sistemico-J.Monzo

 

Del Rollback a Prigogine, pasando por la marmota Phil y Einstein: De lo reversible a lo irreversible 

http://jmonzo.blogspot.com/2020/12/del-rollback-prigogine-pasando-por-la.html

“La vida sólo puede ser entendida mirando hacia atrás, pero tiene que ser vivida hacia delante”. El filósofo danés Søren Kierkegaard ya intuía el concepto de “flecha del tiempo” del astrofísico británico Arthur Eddington y de las “estructuras disipativas” del físico ruso-belga Ilya Prigogine, premio Nobel de Química en 1977. Pero, antes, vayamos hacia atrás en este viaje alegórico sobre las implicaciones del concepto del tiempo, que no sobre viajes en el tiempo, que es algo muy distinto.

En las modernas bases de datos, existe una tecnología muy interesante que nos sirve de metáfora sobre el tiempo, el determinismo y la reversibilidad de las acciones. Esta tecnología se conoce como rollback, reversión o flagare es una operación que devuelve a la base de datos a algún estado previo. Las reversiones son importantes para la integridad de la base de datos, a causa de que significan que la base de datos puede ser restaurada a una copia limpia incluso después de que se han realizado operaciones erróneas. Son cruciales para la recuperación ante errores de un servidor de base de datos, como por ejemplo un cuelgue del equipo. Al realizar una reversión cualquier transacción que estuviera activa en el tiempo del cuelgue es revertida y la base de datos se ve restaurada a un estado consistente (Wikipedia).

Un ejemplo trivial de esta tecnología consistiría en realizar el cálculo de varias facturas y al finalizar la última existiera un error grave, pongamos una división por cero. El sistema, automáticamente, provocaría una reversión de todo lo realizado desde el inicio de la transacción (o desde la última operación COMMIT o de actualización) hasta la aparicion del error, devolviendo al sistema al estado previo al inicio de la transacción, a la espera de que el usuario resuelva el error. Estrictamente hablando no es un “viaje en el tiempo”, sino un deshacer lo hecho, como cuando escribimos una carta manuscrita y al darnos cuenta de un error importante en el sentido del texto, en vez de realizar una tachadura, reiniciamos la carta desde el principio.

El mecanismo del rollback es tal que de hacer caso omiso, no resolverlo y volverse a ejecutar la transacción, el sistema volverá ha repetir la secuencia anterior, tantas veces como el obcecado usuario ejecute la transacción sin resolver el error, hasta que el usuario o el administrador de la base de datos resuelva el problema que provoca la reversión. Es decir, mientras no se resuelva el problema, el sistema “entrará en bucle” en tanto que sistema determinista que es: el rollback funcionará a la perfeccción, pero no saldrá de ese bucle y, probablemente (Nota para algoritmos de Machine Learning) el sistema tampoco podrá resolver el problema por sí mismo, máxime si el origen no es de datos sino de la propia secuencia de programación. Este rollback o reversión también lo tenemos, a pequeña escala, disponible en las aplicaciones más populares de tratamiento de textos o de hojas de cálculo, haciendo más fácil el uso de las mismas.

Esta tecnología del Rollback me hizo recordar la conocida comedia romántica Groundhog Day (Harold Ramis, 1993) protagonizada por un Bill Murray en estado de gracia y estrenada en España con el título de Atrapado en el tiempo que nos cuenta la historia de Phil, el hombre del tiempo de una cadena de televisión, que va un año más a la localidad de Punxstawnwey (Pennsylvania), a cubrir la información del festival del Día de la Marmota. En el viaje de regreso, Phil y su equipo se ven sorprendidos por una tormenta que los obliga a regresar a la pequeña ciudad. A la mañana siguiente, al despertarse, comprueba atónito que comienza otra vez el Día de la Marmota (Filmaffinity).

En realidad, “El día de la marmota” no es un Rollback ni un sistema determinista estricto, pues Phil, el protagonista, no vuelve exactamente a un “estado previo” sin más y es el único que al parecer escapa al determinismo. Regresa al pasado, como todos los demás, marmota incluida, pero conservando la memoria de lo sucedido, no así para todas las demás personas ni para la naturaleza, marmota incluida, que siguen ancladas en su determinismo. Esto le otorga una ventaja asimétrica respecto a las demás personas y respecto a la naturaleza: conociendo lo que va a suceder en cada situación, tiene una oportunidad (en cada bucle temporal) de depurar y refinar sus respuestas y afinarlas para conseguir algún objetivo, en este caso conquistar a la chica de la película, interpretada por la actriz Andie MacDowell. Es decir, “El día de la marmota” es un Rollback para todos, incluida la naturaleza, pero no para el protagonista, que tiene tantas “oportunidades de mejora” o de “ensayo y error” como bucles temporales de retorno al estado inicial tiene.

En esta línea, Einstein sostenía que el tiempo era una ilusión, una persistente ilusión. En una carta a la viuda de su amigo ingeniero Michele Besso, Einstein sostiene lo siguiente: «Michele (Besso) se me ha adelantado en dejar este extraño mundo. Es algo sin importancia. Para nosotros, físicos convencidos, la distinción entre pasado, presente y futuro es sólo una ilusión, por persistente que ésta sea». Decía Einstein y así lo demuestra su teoría de la relatividad especial, que para un fotón el tiempo no existe: un viaje a través del universo se realiza en un sólo instante, porque el tiempo depende de la velocidad a la que se viaje, y como no hay nada más rápido que la velocidad de la luz (su sistema de referencia es él mismo), el tiempo, para un fotón se detiene, no existe, aunque para un observador externo como nosotros podamos medir y cuantificar en una relación de Km/seg.

El prototipo de la física clásica es la mecánica clásica, el estudio del movimiento, la descripción de trayectorias que trasladan un punto de la posición A a la posición B. Una de las propiedades básicas de la descriptiva dinámica es su carácter reversible y determinista. Dadas unas condiciones iniciales apropiadas, podemos predecir con exactitud la trayectoria. Además, la dirección del tiempo no desempeña papel alguno. Predicción y retropredicción son idénticas. Hasta cierto punto, la situación es la misma en física cuántica. En ella ya no se habla de trayectorias, sino de funciones de onda. También aquí la función de onda evoluciona con arreglo a leyes reversibles deterministas. Como consecuencia, el universo aparece como un vasto autómata. Como nos recuerda Prigogine, para Einstein, el tiempo, en el sentido de tiempo direccional, de irreversibilidad, era una ilusión.

A partir del surgimiento de la mecánica cuántica, se cree que los procesos físicos a nivel microscópico son en su mayor parte temporalmente simétricos, lo que sugiere que las afirmaciones teóricas que los describen serán verdaderas si la dirección del tiempo es reversible. En el plano macroscópico sucede todo lo contrario, ya que existe una dirección clara en la “flecha del tiempo”, del pasado al futuro (el vaso de cristal que cae de la mesa se rompe contra el suelo, sin volver a recomponerse nunca sobre la mesa). Nota: El ejemplo del vaso que se rompe encontramos, además, otra asimetría interesante: necesitamos muchísima información para recomponer el vaso roto (volver a pegar sus partes) que para fabricar un nuevo vaso. La “flecha del tiempo”, pues, estaría representada por cualquier cosa que exhibiese dicha asimetría temporal. O, en otras palabras, en el plano macroscópico, o visible, el tiempo marcha siempre hacia delante, mientras que en el microscópico, o de las partículas elementales, puede hacerlo igualmente hacia atrás.

Así las cosas, parece que tanto el Rollback de las bases de datos como “El día de la marmota” dan la razón a esta concepción reversible del tiempo de Einstein y de las leyes de la física... pero, ¿en realidad esto es así en la vida cotidiana? ¿las acciones y decisiones son reversibles? ¿podemos darle al botón de deshacer para revertir nuestras acciones y decisiones del pasado? El sentido común y el consenso cotidiano dan a entender que la irreversibilidad es la principal característica de la vida, que las cosas que nos suceden las percibimos de acuerdo a un reloj interno, la “flecha del tiempo”.

En efecto, Eddington decía: Dibujemos una flecha del tiempo arbitrariamente. Si al seguir su curso encontramos más y más elementos aleatorios en el estado del universo, en tal caso la flecha está apuntando al futuro; si, por el contrario, el elemento aleatorio disminuye, la flecha apuntará al pasado. He aquí la única distinción admitida por la física. Esto se sigue necesariamente de nuestra argumentación principal: la introducción de aleatoriedad es la única cosa que no puede ser deshecha. Emplearé la expresión “flecha del tiempo” para describir esta propiedad unidireccional del tiempo que no tiene su par en el espacio. Podemos sustituir aleatorio por entrópico, es decir, por un aumento del desorden.

Hasta la llegada de la segunda ley de la termodinámica (La entropía siempre aumenta), todas las ecuaciones mecánicas (por ejemplo, las leyes de Newton o las de la mecánica cuántica) funcionan tanto si el tiempo va hacia delante como hacia atrás. Es decir, para la mayor parte de las ecuaciones en física, no hay diferencia entre ir hacia adelante o hacia atrás en el tiempo.

Y, en efecto, la segunda ley de la termodinámica es la única evidencia que tenemos sobre qué es el tiempo desde el punto de vista de la física en el plano macroscópico. Con un ejemplo práctico se entenderá: si tengo sendas fotos del universo o de cualquier sistema macroscópico en dos instantes de tiempo distintos, y mido su entropía, el más antiguo tiene la entropía más baja. Lo mismo ocurre en el ciclo de la vida de los sistemas biológicos, algo que no hace falta describir por otra parte. Por tanto, la segunda ley de la termodinámica formula la distinción entre procesos reversibles e irreversibles. Con esta distinción, se introduce una dirección privilegiada en el tiempo. Para expresar cualitativamente esta distinción, se introduce una nueva función: la «entropía» (entropía, en griego, significa evolución, nos recuerda Prigogine). La entropía, a diferencia de la energía, no se conserva. La característica fundamental de la producción de entropía es su identificación con los procesos irreversibles. La segunda ley de la termodinámica asume que la producción de entropía es positiva y consecuencia directa de la irreversibilidad de los procesos. La entropía es una magnitud muy especial. Por la primera ley sabemos que la energía se conserva. Por el contrario, la producción de entropía sólo puede ser positiva, o cero. Por lo tanto, el segundo principio encarna una ley universal de la evolución macroscópica, ya que la cantidad de entropía perteneciente al sistema y a su entorno sólo puede aumentar con el tiempo.

Así, afirmará Prigogine: “Lo artificial es determinista y reversible. Lo natural contiene elementos esenciales de azar e irreversibilidad. La irreversibilidad, tal como está implícita en la teoría de Darwin, es una propiedad aún mayor del azar. Yo lo encuentro natural, porque ¿qué puede significar irreversibilidad dentro de un concepto determinista del universo en el que el mañana ya está potencialmente en el hoy? La irreversibilidad presupone un universo en el que hay limitaciones para la predicción del futuro. Quiero insistir de nuevo, en concordancia con el espíritu de esta explicación, en que la irreversibilidad no es una propiedad universal . Sin embargo, el mundo en conjunto parece pertenecer a esos complejos sistemas de azar intrínseco para los que la irreversibilidad es significativa, y es a esta categoría de sistemas con ruptura de simetrías temporales a la que pertenecen todos los fenómenos vitales y, por consiguiente, la existencia humana. Suele decirse que la vida produce vida, pero nosotros vemos la vida como transmisora de irreversibilidad; la duración originando duración.”

Tradicionalmente la termodinámica se centraba en el estudio de procesos en equilibrio en los cuales el determinismo funciona correctamente. La reversibilidad y el orden definen dichos procesos. Sin embargo, Prigogine observa que lejos de la situación de equilibrio aparecen espontáneamente nuevos tipos de estructuras. Del caos surgen estructuras ordenadas que exigen un aporte de energía para mantenerse, que no mantienen relaciones lineales y que no son posibles de predecir con exactitud. Cercano al punto en el que se organizan “estructuras disipativas” se observan grandes fluctuaciones que en lugar de amortiguarse pueden llegar a expandirse por todo el sistema llevándole a nuevas situaciones que son cualitativamente muy diferentes de las que se encuentran cerca del equilibrio. La termodinámica muestra cómo los sistemas capaces de escaparse del determinismo tienen que situarse lejos del equilibrio. Hay que distinguir, por ello, condiciones del equilibrio, condiciones del no-equilibrio, proceso que conduce de uno a otro y umbral que separa a ambos.

Puede verse en la figura que en un principio se tienen unas condiciones de equilibrio (sean cuales sean éstas) en el que se producen unas fluctuaciones de dichas condiciones que con el paso del tiempo se amortiguan. Si se va aportando energía las fluctuaciones van siendo más grandes pero el sistema aún consigue amortiguarlas. Hasta que llega un momento en el que un umbral se sobrepasa. La fluctuación ya no se amortigua sino que se estabiliza en un estado alejado del primitivo equilibrio pero igualmente estable mientras continúe el aporte de energía: se ha formado una “estructura disipativa”.

A lo largo de su evolución el sistema puede colocarse en regiones estable o inestables. En las estables dominarán las leyes deterministas. En las inestables, cerca de los puntos de bifurcación, el sistema elige entre diversos futuros posibles. Las fluctuaciones que son variaciones al azar jugarán un papel importante. Los puntos de bifurcación que las matemáticas describen son asimilables a los niveles de umbral a partir de los cuales se generan “estructuras disipativas”.

Un interesante ejemplo de formaciónde bifurcaciones nos lo da la actividad de las hormigas. Prigogine ha utilizado con frecuencia a las hormigas para ilustrar sus ideas acerca de las “estructuras disipativas” y el azar. El inmenso número de unidades que componen el hormiguero le hacen asimilable al número de moléculas que componen una reacción. Hay un sencillo experimento que muestra la formación de una estructura disipativa. En un recipiente se colocan unas pocas hormigas y en otro una fuente de alimento. El hormiguero y la fuente de alimento están conectados por dos agujeros iguales dispuestos simétricamente respecto al hormiguero. Con ello se posibilita la formación de dos rutas alternativas iguales. Cuando se utiliza un número pequeño de hormigas la probabilidad de que utilicen una u otra vía es del 50%.

Pero si se aumenta el número de hormigas llega un momento en el que la probabilidad de que utilicen una sola ruta en detrimento de la otra es muy grande. Cerca del punto de bifurcación se producen fluctuaciones muy grandes de la población de hormigas que utiliza preferentemente una ruta. Más allá del punto de bifurcación más del 90% de las hormigas utiliza sólo una de las rutas (A o B).

En los estados estables y en los inestables se dan fluctuaciones que alejan al sistema del equilibrio. En realidad Prigogine considera las “estructuras disipativas” como fluctuaciones gigantes mantenidas por flujos de materia y energía. Ocurre que una vez que se forman estas fluctuaciones más allá del punto de bifurcación son estables frente a otras perturbaciones. Cerca de los puntos de bifurcación las fluctuaciones son grandes, anormalmente grandes. Una de las características de las situaciones de cambio es la presencia de estas grandes fluctuaciones. Al principio una fluctuación no domina todo el sistema. Se establece primero en una región limitada. Una vez que se alcanza un valor crítico se puede expandir a todo el sistema. Es un fenómeno conocido como mediación.

Lejos del equilibrio la fluctuación está determinada por la dimensión de la zona fluctuante. Esta zona tiende a expandirse con el aporte de energía que recibe el sistema, pero su contexto tiende a amortiguarla. Si sobrepasa el punto de bifurcación se extenderá a todo el sistema, de lo contrario desaparecerá. Las fluctuaciones se dan constantemente en torno a los valores de equilibrio. En las fases deterministas, esto es cerca del equilibrio, las fluctuaciones siguen la ley del aumento de la entropía y por ello están condenadas a desaparecer. Lo contrario ocurre lejos del equilibrio. Se genera lo que Prigogine llama “orden por fluctuaciones”. Más allá del umbral el sistema experimenta una transformación profunda, un modo de funcionamiento completamente distinto. Surge una autoorganización que Prigigone denomina “estructura disipativa”.

Las “estructuras disipativas” son estables y reproducibles y en ese sentido son predecibles pero no lo son en lo que se refiere a conocer exactamente cómo son los detalles de la organización de una estructura determinada. Los distintos estados posibles son limitados, pero es preciso esperar y ver la evolución del sistema para saber qué fluctuación se amplificará y estabilizará de las varias posibles. De hecho, estas ideas de Prigogine enlazan con los trabajos de Darwin en biología, donde Darwin combina dos elementos: por un lado, la asunción espontánea de fluctuaciones (el azar) en las especies biológicas, las que posteriormente, merced a la selección del medio, conducen a la evolución biológica irreversible (la irreversibilidad). Por lo tanto, las “estructuras disipativas” contienen la idea de fluctuaciones o azar, de procesos estocásticos y la idea de evolución, de irreversibilidad, donde Prigogine pone de relieve que, a nivel biológico, de esta asociación resulta una evolución que corresponde a una complejidad creciente y a la autoorganización.

En el mundo químico las formas de organización disipativa son diversas. Algunos sistemas se hacen inhomogéneos en el espacio como el fenómeno de las células de Bénard o inestabilidad de Bénard. En otros casos se organizan relojes químicos como en el caso de la reacción de Belusov-Zhabotinski.

La inestabilidad de Bénard es un fenómeno llamativo, billones de moléculas se mueven coherentemente formando células hexagonales. Estamos ante “estructuras disipativas”. Por debajo del umbral pequeñas fluctuaciones consistentes en corrientes de convección se organizan y desaparecen. A partir de cierto punto crítico dan origen a un nuevo orden que se estabiliza gracias al aporte de energía. Es el orden a partir del caos.

Un ejemplo similar es el reloj químico que se organiza en la reacción de Belusov-Zhabotinski. En síntesis puede decirse que intervienen en ella unas moléculas de tipo A (color rojo) y unas de tipo B (color azul). Lo lógico es esperar que de la reacción surga un color intermedio entre ambos con ligeras oscilaciones hacia el ojo y el azul. Sin embargo, lejos del equilibrio llega un momento, en el que todo el sistema se vuelve rojo, luego azul, de nuevo rojo y as~sucesiva y periódicamente. La materia se comporta de un modo muy distinto a como ocurre en el equilibrio. Las “estructuras disipativas” tienen dos características muy significativas: comunicación y adaptación. En el reloj químico que describe la reacción de Belusov-Zhabotinski el color oscila periódicamente de una forma sincronizada. Si las moléculas son rojas y azules veremos una alternancia de esos colores. La concepción clásica de las reacciones químicas se asocia a movimientos caóticos. Sin embargo, las moléculas de los relojes químicos reaccionan simultáneamente produciendo estructuras coherentes. Las moléculas se «comunican». Puede considerarse este proceso un precursor de la comunicación en los sistemas biológicos.

Por otro lado, entre las diversas estructuras disipativas posibles ocurre que una ligera modificación del medio puede hacer que se seleccione una estructura en lugar de otra. Estaríamos ante los rudimentos de un sistema de adaptación al medio semejante al que se observa en sistemas biológicos. En todos los casos las estructuras disipativas se caracterizan por responder como un todo. Su comportamiento no es la suma del comportamiento de sus componentes. No se explica en función de las unidades. Lejos del equilibrio la evolución de los estructuras disipativas ha sido esquematisistemas a través de la organización de zado por Prigogine como sigue: El cambio de perspectiva que acabo de exponer nos obliga a utilizar una serie de nuevos conceptos: bifurcaciones, no linealidad, fluctuaciones. Muchos de ellos se conocían hace tiempo, pero su importancia y significación se revaloriza como consecuencia de los recientes descubrimientos:

Prigogine asimila la función a la microestructura de las relaciones de los elementos del sistema y llama estructura a la macroestructura del sistema, a su organización como un todo. Dentro del orden determinista las alteraciones de la función pueden originar, si no son controladas, una modificación de la estructura global del sistema. Estas modificaciones determinan el espectro de fiuctuaciones que son posibles. En condiciones adecuadas una de esas fluctuaciones puede estabilizarse y modificar la microestructura (función del sistema). Este esquema muestra la dinámica necesidad-azar no como dos pares opuestos sino como momentos diferentes de la evolución de los sistemas. Para Prigogine las condiciones para que se puedan desarrollar estructuras disipativas son las siguientes: (1) Un sistema que sea abierto al exterior (2) Situado en condiciones lejanas al equilibrio y (3) Existencia de relaciones no lineales entre sus elementos. El trinomio flujo/función/estructura implica una retroalimentación (feed-back) evolutiva: pueden surgir nuevas estructuras que, a su vez, modifiquen el flujo, lo que, a su vez, posibilitaría la emergencia de nuevas estructuras.

Un ser vivo, una empresa, una ciudad, pueden ejemplos cotidianos de “estructuras disipativas”, estructuras que Prigogine nos anima a evitar su estereotipado: diseñar una ciudad o una empresa como algo vivo, evitando su inmovilismo (=muerte térmica) y el desprecio de la creatividad (=impedir las relaciones no lineales entre sus individuos) de las generaciones futuras, comprobando constantemente la estabilidad de su propio estado organizativo para, así, captar los cambios estructurales que surgen con nuevos tipos de comportamiento: El equilibrio termodinámico, el expresado por el máximo de la función entrópica, es caótico. Un ejemplo muy sencillo es el de un gas formado por moléculas. En estado de equilibrio, las moléculas son independientes y no se observa correlación alguna entre sus movimientos. El no equilibrio es fuente de orden, de coherencia; entre las unidades surgen correlaciones. El no equilibrio como origen de orden se presenta ya como uno de los principios más generales que podemos formular actualmente. Es el no equilibrio el origen de toda coherencia, y esto parece ser cierto a todos los niveles actuales de descripción accesibles.

Y para terminar, unas últimas palabras de Prigogine: La vida no es meramente el resultado pasivo de la evolución cosmológica, ya que introduce un proceso de retroalimentación (feed-back) suplementario. En otras palabras, la vida es el resultado de procesos irreversibles, pero a su vez puede inducir nuevos procesos irreversibles. Cierto que el viejo axioma predica: la vida sólo se origina en la vida. Pero, en términos más generales, podemos decir que la irreversibilidad genera irreversibilidad.

De mis estudios sobre sistemas complejos a una escala mucho más modesta, he sacado la impresión firme de que es difícil siquiera llegar a imaginar o enumerar todas las posibilidades que presentan los sistemas no lineales alejados del equilibrio. Y esto me resulta aún más evidente si consideramos el universo como un todo con las sorprendentes no linealidades descritas por la ecuación de Einstein y con las enormes desviaciones del equilibrio que debieron predominar en su fase pretérita de formación. Por consiguiente, finalizaré con una apostilla optimista: la historia no tiene final.

“Quizá necesitemos hoy una nueva noción del tiempo capaz de transcender las categorías del devenir y de la eternidad”. Ilya Prigogine

Para saber más: ¿Tan sólo una ilusión? Ilya Prigogine. Colección Metatemas. Tusquets Editores

Time, Structure and Fluctuations. Nobel Lecture, 8 December, 1977 by Ilya Prigogine

viernes, 23 de agosto de 2024

FOTCIENCIA presenta las mejores fotografías científicas de 2023

 

FOTCIENCIA presenta las mejores fotografías científicas de 2023

El corte transversal de una cáscara de huevo, la eclosión de un gecko terrestre malgache o un ovillo de gusanos parásitos anisakis son algunas de las imágenes destacadas del año. Esta iniciativa del CSIC y la Fundación Española para la Ciencia y la Tecnología (FECYT) cumple 20 ediciones acercando el conocimiento a la sociedad a través de la participación ciudadana.

FOTCiencia20
El corte transversal de una cáscara de huevo, el pelo del estambre de una flor, la eclosión de un gecko, captada con un smartphone, o la simetría del brócoli son algunas de las fotos premiadas en FOTCIENCIA20. / CSIC

FOTCIENCIA cumple 20 ediciones con el cometido de acercar la ciencia a la sociedad a través de la imagen, con la ayuda de la participación ciudadana. Esta iniciativa del CSIC y la Fundación Española para la Ciencia y la Tecnología (FECYT) ha dado a conocer las mejores fotografías del año 2023. Y esta vez cuenta con la colaboración de Fundación Jesús Serra, de GCO (Grupo Catalana Occidente) y de la compañía Leica.

El corte transversal de una cáscara de huevo, el pelo del estambre de una flor (Erodium moschatum), la eclosión de un gecko terrestre malgache (Paroedura picta) fotografiada con un smartphone, la simetría del brócoli, un ovillo de gusanos parásitos anisakis o tres muestras de epidermis de flor de caléndula, captadas por estudiantes de secundaria, son algunas de las imágenes seleccionadas por un comité multidisciplinar formado por 13 profesionales de la ciencia, la microscopía, las artes visuales o la divulgación científica, entre otras especialidades.

Una madre geóloga y su hijo estudiante de bellas artes muestran la conexión ciencia-arte con una fotografía que resulta de un proceso de investigación donde ambos comparten microscopio en busca de imágenes inspiradoras

En esta vigésima edición, a las modalidades de participación habituales —Micro, General, Alimentación y nutrición, Agricultura sostenible y La ciencia en el aula— se han sumado las modalidades especiales Año Cajal, Física de partículas y Sinergias (Arte, Ciencia, Tecnología y Sociedad, ACTS). La difícil captura nanométrica de un radical libre lograda con el microscopio de efecto túnel y la observación microscópica de una roca ígnea plutónica de La Cabrera (Madrid) han sido las fotografías galardonadas por primera vez en estas dos últimas modalidades, respectivamente.

La modalidad Sinergias (Arte, Ciencia, Tecnología y Sociedad, ACTS) pretende mostrar trabajos conjuntos del ámbito científico y artístico con el objetivo de ampliar nuevos horizontes inter y transdisciplinarios y generar instantáneas genuinas que reflejen la relación entre las ACTS.

Este año, una madre geóloga y su hijo estudiante de bellas artes han mostrado en una fotografía la conexión ciencia-arte con una imagen que resulta de un proceso de investigación donde ambos comparten microscopio en busca de colores e imágenes inspiradoras para futuros bocetos en otros soportes. La científica acercó la metodología utilizada en su trabajo diario, el microscopio petrográfico, para buscar geometrías y tonalidades. Tras diversas sesiones observando láminas de rocas, el artista lo ha llevado a su terreno y, tras aprender a manejar el microscopio, ha realizado sus propios experimentos.

Como en la anterior edición, FOTCIENCIA contempla la modalidad especial Año Cajal para recoger imágenes que tengan que ver con las neurociencias, sumándose así al Acontecimiento de Excepcional Interés Público Año de Investigación Santiago Ramón y Cajal 2022 (Año Cajal), impulsado a nivel nacional. La inmunofluorescencia de una sección de cerebelo con dos células de Purkinje, que recuerda a los dibujos de Ramón y Cajal, quien ya describió su estructura, ha sido la imagen seleccionada en esta modalidad.

Los autores y las autoras de las dos imágenes seleccionadas en cada una de las modalidades General y Micro, así como de la seleccionada en la modalidad Sinergias ACTS, reciben 1.500 euros. El resto de las categorías se retribuyen con 600 euros cada una. La excepción será la modalidad Año Cajal, en cuyo caso se hará entrega de una cámara fotográfica Leica D-Lux 7 valorada en más de 1.300 euros.

Como en las últimas ediciones, cada participante ha adscrito su instantánea a uno de los 17 Objetivos de Desarrollo Sostenible (ODS) declarados por Naciones Unidas.

Las imágenes, seleccionadas de entre más de 475 fotografías, han sido galardonadas por su belleza, impacto y capacidad para reflejar y describir hechos científicos.

El comité evaluador de la 20ª edición de FOTCIENCIA ha estado formado por: Juan de Dios Alché Ramírez, presidente de la Sociedad de Microscopía de España e investigador de la EEZ-CSIC; María Jesús Bartolomé García, responsable Laboratorio Metalografía Óptica del CENIM-CSIC; Mónica Bello, directora del Programa Arts at CERN; Rosa Capeáns, directora de Cultura Científica y de la Innovación de FECYT; Susana Codina, subdirectora Fundación Jesús Serra, GCO (Grupo Catalana Occidente); Matías Costa, fotógrafo y responsable de Leica Akademie y Gallery (España); Sonia Frías, coordinadora del área de Innovación, Ciencia y Formación. Círculo de Bellas Artes; Leire Molinero, directora del Instituto de Agricultura Sostenible, IAS-CSIC; Jaime Pérez del Val, jefe de área de la Vicepresidencia adjunta de Cultura Científica y Ciencia Ciudadana (VACC-CSIC); Belén Poole, coordinadora en el Centro de Arte de Alcobendas; José Luis Trejo, investigador del Instituto Cajal, IC-CSIC; Eric Úbeda Mompó, responsable de comunicación del IATA-CSIC; y Thais Varela, artista visual.

El resultado de FOTCIENCIA20 será un catálogo y una exposición de fotografía científica que recorrerá museos, centros de investigación, universidades y espacios culturales de todo el país. Además, todas las imágenes serán publicadas en la página web de FOTCIENCIA.

La inmunofluorescencia de una sección de cerebelo con dos células de Purkinje fusionadas muestra trazos y colores que recuerdan a los dibujos de Ramón y Cajal

FOTCIENCIA trata de acercar la ciencia a la sociedad a través de la imagen y la participación ciudadana. Para ello invita a que cualquier persona, se dedique o no a la investigación, plasme su visión de la ciencia y la tecnología en fotografías.

Polinización y agricultura

Polinización, de Eduardo Cires Rodríguez

El autor es Eduardo Cires Rodríguez, quien explica su trabajo diciendo que "la agricultura, piedra angular de la civilización humana, debe su existencia a una asociación natural notable y a menudo pasada por alto, como es la polinización". En sus palabras, "esta obra maestra de la biología sustenta el sistema alimentario global". En el centro de esta narrativa, continúa, "están los polinizadores, criaturas que cierran la brecha entre las flores y los alimentos".

Eclosión en laboratorio

El autor es Fernando García Moreno, quien sostiene que "la biología básica actual adolece de una visión centrada en modelos de roedores, versátiles y económicos" y que, "sin embargo, este monopolio del ratón de laboratorio está negando el mayor valor de la naturaleza biológica: su inacabable diversidad". Por ello, García Moreno aboga por "abrir nuestros ojos a otras especies animales para la investigación, a otras soluciones biológicas a los problemas ambientales". En la imagen que consiguió captar, se muestran las primeras fases de la disección de un embrión de gecko terrestre malgache, una especie recién incorporada a las neurociencias.

Biosensores

La utilización de plantas como biosensores tiene un enorme potencial en aplicaciones relacionadas con la vigilancia temprana del medio ambiente, según sus autoras.

La fotografía que muestra el detalle microscópico de un pelo, uno entre los numerosos que componen la pequeña corona que rodea los estambres de la flor de Tradescantia (una planta común en nuestros jardines), pertenece a Concepción Hernández Castillo, en coautoría con Lola Molina Fernández e Isabel María Sánchez Almazo. Hernández Castillo sostiene que "lo que resulta especialmente interesante es que esta planta ha sido objeto de extensos estudios debido a su sensibilidad a ciertos agentes tóxicos" y a las respuestas fisiológicas que proporciona, incluyendo "cambios en la morfología, coloración y tasa de crecimiento" Estas se deben a la activación de genes específicos relacionados con el estrés y la respuesta a las toxinas, por lo que queda claro que "la utilización de plantas como biosensores tiene un enorme potencial en aplicaciones relacionadas con la vigilancia temprana del medio ambiente".

Biomineralización

María Jesús Redrejo Rodríguez en coautoría con Eberhardt Josué Friedrich Kernahan han conseguido esta micrografía electrónica, gracias a la que se puede observar "el corte transversal de una cáscara de huevo de gallina; en la parte superior, vemos dos membranas, una interior y otra exterior, hechas de proteínas como colágeno y glicoproteínas", en sus palabras. Mediante la biomineralización, explican los autores, "las aves y algunos reptiles forman una cáscara mineral que protege los huevos".

Homenaje a Ramón y Cajal 

Pablo González Téllez de Meneses ha conseguido una imagen que, según lo expone, "muestra una inmunofluorescencia de una sección de cerebelo con dos células de Purkinje fusionadas", con trazos y colores que "nos recuerdan a los dibujos de Ramón y Cajal, que describió su estructura".

Asimismo, un ovillo de gusanos parásitos Anisakis extraídos de pescado fresco, cuyo autor es José Ramos Vivas nos recuerda que "estos parásitos comunes de pescados como el bacalao, el salmón, la merluza, la pescadilla, y las sardinas pueden provocar anafilaxis, una reacción inmunitaria severa, y anisakiasis, una enfermedad con síntomas como dolor abdominal, náuseas y vómitos". Por esta razón, la mejor manera de prevenir esta infección, es "cocinar el pescado de manera adecuada o congelarlo a temperaturas muy bajas durante un tiempo suficiente para eliminar los parásitos".

Revelación simétrica del brócoli, por Samuel Valdebenito Pérez, con María Villarroel y Patricia Peñaloza.

En cuanto a la Modalidad Agricultura sostenible, la fotografía escogida fue Revelación simétrica del brócoli, de Samuel Valdebenito Pérez, en coautoría con María Villarroel y Patricia Peñaloza. En tanto, en La ciencia en el aula, se eligió La sal de la muerte (celular), de Hala Lach Hab El Keneksi, Rebeca Jiménez Uvidia y Chaimae El Idrissi Loukili. 

En Física de partículas, Alejandro Berdonces Layunta, en coautoría con Dimas García de Oteyza, han retratado Un triángulo imposible. En sus palabras, se trata de "una imagen real de 21 átomos de carbono, con un nitrógeno central que aporta un electrón extra".

Por último, en la modalidad Sinergias (ACTS), se ha premiado la imagen que lleva por título Cubismo plutónico, de Bruno Fernández Delvene, con Graciela Delvene Ibarrola. Así la describen sus autores: "Las figuras geométricas que estamos viendo corresponden a cristales de minerales de una roca ígnea plutónica de La Cabrera (Madrid) observados en lámina delgada bajo un microscopio". El estudio se ha realizado con un microscopio petrográfico de transmisión.

Las mejores fotografías científicas de 2023

 

https://www.youtube.com/watch?v=Kz-ZwRn_fN8

“La ciencia puede ayudar a mejorar la educación, esto es algo más que una moda”

 

“La ciencia puede ayudar a mejorar la educación, esto es algo más que una moda”

A pesar de las evidencias sobre cómo aprendemos, la docencia se ha visto tradicionalmente como un arte. Ahora puede ser el momento de que esto cambie. En ¿Cómo aprendemos? se recogen principios fundamentales para las escuelas, algunos de ellos sorprendentes. Además, durante la pandemia, su autor ha presentado un segundo libro, Conoce tu cerebro para aprender a aprender.

Héctor Martín Ruiz. Imagen cortesía del autor.

“Es increíble todo lo que no sabes sobre el juego al que has estado jugando toda la vida”

Mickey Mantle, jugador de béisbol

Justo unos días antes de que se decretara el estado de alarma nos recibía en su despacho como director de la Fundación Internacional para la Enseñanza de la Ciencia (ISTF), en la parte alta de Barcelona. Héctor Ruiz Martín es biólogo y máster en genética evolutiva, pero lleva ya muchos años dedicado a la docencia y a la investigación sobre ella.

Ha publicado en la editorial Graó el libro ¿Cómo aprendemos? Una aproximación científica al aprendizaje y la enseñanza, el primero de una colección que él mismo coordinará y que han llamado “Educación basada en evidencias”. Es una suerte de manual con los ingredientes principales que, según los estudios, deberían encontrarse en las escuelas.

Algunos de ellos pueden parecer sorprendentes, casi tanto como el hecho de que apenas haya lugares donde acudir para conocerlos. Su tono es tranquilo, pero apasionado. Se percibe la emoción por los temas que trata y por el momento que advierte respecto a ellos.

En la presentación del libro en Barcelona dijo que estamos viviendo un momento muy emocionante en la educación, una especie de boom con el interés por las evidencias científicas sobre la docencia. Sin embargo, muchos de los estudios a los que se acuden son de los años 70, o incluso anteriores. ¿Por qué esta paradoja?

Es curioso, pero es un hecho. La ciencia ha ido avanzando por un lado y la educación por otro, y no ha habido apenas comunicación entre ellas. De hecho, cuando ha habido transferencia de una a otra ha sido generalmente desde la pseudociencia, hay muchísima pseudociencia en las escuelas. Seguramente porque es muy fácil de comprar, porque tiende a aportar soluciones fáciles, sin matices y con mucha seguridad. No sé por qué ahora hay más interés por la ciencia, porque realmente hay algunos principios bastante sólidos sobre cómo aprendemos que tenemos incluso desde los años 50.

“En las escuelas hay mucha pseudociencia porque es muy fácil de comprar, aporta soluciones fáciles, sin matices y con mucha seguridad”

Y, curiosamente, los profesores que más compran esa pseudociencia o neuromitos son los que están más interesados por la ciencia para ayudarles en su labor.

Sí, eso está estudiado. Y es así porque tienen ese interés, pero no disponen del tiempo ni de los recursos para informarse adecuadamente.

Eso sorprende, que no haya ningún lugar oficial al que puedan acudir y obtener esa información.

No, no lo hay. Es que está todo por construir. Donde hay más movimiento es en Estados Unidos e Inglaterra, aunque es algo de hace una década, no más. Y creo que esto es algo más que una moda. Creo que en esta ocasión podemos estar presenciando el momento en que la profesión docente va a empezar a incorporar la evidencia científica sobre cómo aprendemos como una herramienta para respaldar su labor. Porque la ciencia puede contribuir a mejorar la educación.

Salvando las enormes distancias, creo que puede ser como cuando la medicina empezó a incorporar también el conocimiento científico. Y eso no hace que de repente la docencia vaya a basarse solo en la evidencia, siempre va a tener su parte de arte. La cuestión es que hasta ahora prácticamente solo había tenido arte.

Dice que el libro no es un libro de recetas, sino de principios generales. ¿Por qué esa decisión?

Sí, serían algo así como los ingredientes. Una receta en educación se entiende como un método, y el problema es que hay demasiadas variables en juego. Cuando aplicas un método en contextos diferentes ofrece resultados muy distintos, ya sea por las características de los que aprenden, de los recursos disponibles o incluso por las preferencias de los propios docentes, y no hay que olvidar la parte de arte de la que hablábamos. Lo importante es que los ingredientes generales formen parte de la receta.

“No significa que de repente la docencia vaya a basarse solo en la evidencia, siempre va a tener su parte de arte. La cuestión es que hasta ahora prácticamente solo había tenido arte”

Uno de esos ingredientes principales de los que habla es la memoria, no entendida como la tradicional memorización sin comprensión, sino como la habilidad que nos permite aprender cualquier cosa. Pero es algo que no se puede mejorar en abstracto.

Exacto. Es que una cosa es el concepto popular de la memoria y otro el concepto científico. El aprendizaje ocurre gracias a esa capacidad que tiene el cerebro a la que llamamos memoria, pero esta no es un músculo que se pueda ejercitar como tal, eso es un mito. Por eso no tiene sentido obligar a aprender poemas o cosas del estilo con ese fin.

De lo que depende que la memoria funcione mejor es de los conocimientos previos que se tengan sobre un tema o área en particular. Más que un músculo en concreto, la imagen correcta sería la de millones de músculos: cuando ejercitas un tema en concreto estás ejercitando uno de ellos, pero no los demás.

De ahí que, como se dice en el libro, una herramienta eficaz en clase sea la de activar esos conocimientos previos antes de explicar otros nuevos. ¿Cómo puede hacerse?

De muchas formas. Simplemente comentando al principio de la clase una noticia, una anécdota, una situación o experiencia… Algo relacionado con el tema que haga que los alumnos expliquen o piensen qué saben sobre ello. Hacerles conscientes y dejar sensibilizados esos conocimientos. Porque la única manera de aprender es conectarlo con algo que sepas. Si yo ahora te hablo en un idioma que no conoces, no recordarás nada de lo que te diga.

En el libro se dice que una de las mejores maneras de estudiar es la práctica de la evocación, es decir, repasar mentalmente qué se sabe sobre un tema que se ha leído o estudiado previamente. Se citan muchos estudios que lo demuestran, pero la mayoría de los alumnos ni lo saben ni lo practican. ¿Cómo puede ser?

“La única manera de aprender es conectarlo con algo que sepas. Si yo ahora te hablo en un idioma que no conoces, no recordarás nada de lo que te diga”

Porque nadie les ha enseñado, y es algo que los alumnos aprenden por azar, de forma espontánea, sin que esté relacionado con la inteligencia. No tenemos ninguna intuición sobre cómo funciona nuestro cerebro que nos lleve a hacerlo de la forma más eficaz. Hoy sabemos que la mayoría de ellos estudian leyendo y releyendo, lo cual es más cómodo pero mucho menos útil. De hecho, aunque puede dar resultados a corto plazo, estos son menos duraderos. Y cuando aumenta la exigencia, deja de funcionar.

Una oportunidad que se menciona para promover la evocación —además de enseñarla y fomentarla como tal— es la evaluación continua. Se dice que las pruebas o exámenes no deberían ser el final del proceso, sino parte de él. Y que no deberían usarse notas.

Sin evaluación no puede haber feedback. Y el feedback es clave para el aprendizaje, pero ha de hacerse bien. Esto no sucede si solo te dice estás aquí, te tiene que decir qué es lo que tienes que hacer para llegar a donde queremos llegar.

Las notas solo te dicen: estás aquí. Y además se interpretan como un etiquetaje, algo que hay que evitar a toda costa porque genera muchos problemas. A los que han sacado una mala nota porque les deja en un estado de indefensión aprendida, la sensación de que “no valgo para esto” —cuando en realidad, si no hay ningún problema grave, todos pueden llegar a alcanzar el nivel que se pide en la escuela—. A los que sacan buenas notas, porque les fuerza a conservar ese estatus, muchas veces a través de memorizaciones superficiales. Y porque no les prepara bien para posibles fracasos, que en algún momento acabarán sucediendo.

Deberíamos sustituir las notas por estados. Por ejemplo: necesitas trabajar más esto, estás cerca o lo has conseguido, incidiendo en el esfuerzo invertido y en las estrategias que han usado en el proceso. Eso promueve la autoeficacia, que es clave para la motivación. Y sí, las evaluaciones deberían ser repetidas y periódicas: con ello promovemos la evocación y rebajamos la tensión, porque diluimos el riesgo, con lo que ayudamos además a los alumnos con problemas emocionales. Y das también oportunidades de éxito a corto plazo, que son motivadoras.

“Deberíamos sustituir las notas por estados. Por ejemplo: necesitas trabajar más esto, estás cerca o lo has conseguido, incidiendo en el esfuerzo invertido y en las estrategias que han usado en el proceso”

Una de las grandes tendencias en la educación es la enseñanza por proyectos. ¿Qué tiene que tener este método para funcionar bien? ¿Sirve para todo y para todos?

Los proyectos tienen una gran ventaja, que es el aspecto de la motivación, pero deben estar bien diseñados para que los alumnos piensen el máximo tiempo posible sobre lo que quieres que aprendan, y no sobre cosas superfluas. A veces se trabaja una presentación sobre un tema y lo que terminan aprendiendo es Power Point. En general funcionan mejor a nivel académico cuanto más mayores son.

Además, hay que enseñarles a colaborar (una forma sería a través de evaluaciones conjuntas de todo el grupo). Y hay que evitar la sobrecontextualización: a veces no son capaces de abstraer lo aprendido y aplicarlo a otros contextos diferentes.

Por ejemplo, pueden aprender sobre la relación distancia-tiempo trabajando en un proyecto sobre viajes en barco, pero luego tener dificultades para apreciar que los mismos principios se aplican en un contexto como el atletismo. En general, no creo que todo deba hacerse por proyectos, debería combinarse con la instrucción directa, la cual incluye cualquier actividad fuertemente guiada por el profesor. De hecho, los proyectos son mejores cuando ya has aprendido, porque permiten aplicarlo y transferirlo. Bastantes escuelas lo están haciendo así.

Sin embargo, otra de las tendencias actuales es la del aprendizaje por descubrimiento, donde la función del docente es principalmente la de acompañar al alumno. ¿Hasta qué punto han demostrado su validez?

El principal problema aparece cuando las prácticas se llevan a los extremos, especialmente para los niños que ya vienen con menos oportunidades desde casa. Lo que sabemos es que la manera más efectiva para aprender algo nuevo es que alguien que lo domina te lo enseñe o te guíe en su aprendizaje, lo que llamamos instrucción directa. Y eso no significa pegar un rollo.

“Yo no creo que todo deba hacerse por proyectos, deberían combinarse con la instrucción directa guiada por el profesor”

Una clase por instrucción directa puede ser interesante y motivadora e incluir múltiples actividades en que los alumnos piensen sobre lo que están aprendiendo. A medida que el alumno va ganando dominio ya sí es positivo irse apartando paulatinamente.

¿Qué mitos o falsas creencias están más presentes ahora en las escuelas?

Hay varios, como el de los estilos de aprendizaje, que afirma que cada niño tiene una forma de aprender distinta. Pero no hay ninguna prueba de ello: lo que queremos que aprendan en la escuela se basa en su significado, no en el canal sensorial por el que se lo presentemos.

En general estos neuromitos suponen una pérdida de tiempo, recursos y oportunidades. Pero hay un caso especialmente grave en mi opinión, que puede causar daño y que tiene que ver con una malinterpretación del aprendizaje por descubrimiento: me refiero a algunos métodos bastante extendidos que se proponen para aprender a leer —como el método global— y que se basan en la creencia de que la lectura es algo natural.

“Los neuromitos, como el de los estilos de aprendizaje y el de la lectura por método global, suponen una pérdida de tiempo, recursos y oportunidades”

Estos métodos prescinden o minimizan la enseñanza explícita de la relación entre fonemas y grafemas —las letras y sonidos— y consideran que los niños aprenden a leer por mera exposición a las palabras y los textos. Hay muchas pruebas de que estos métodos son menos eficaces y que más niños se quedan atrás por ellos.

El primer capítulo del libro se abre con una frase de un jugador de béisbol: “Es increíble todo lo que no sabes sobre el juego al que has estado jugando toda la vida”. ¿Por qué esta cita?

Porque es muy significativa. Es de Mickey Mantle, una estrella del béisbol. La vi en la película Moneyball, que cuenta la historia real del director de un equipo que decidió empezar a usar la ciencia y la estadística para mejorar el rendimiento de sus jugadores. Cuando vi la frase pensé que era lo mismo que yo había vivido con la educación. Es increíble lo que puedes dar por sabido sobre cómo funciona el aprendizaje y luego entrar en la ciencia y darte cuenta de cuánto era lo que no sabías.

[Unos meses después de esta charla presencial, Héctor Ruiz ha publicado un nuevo libro. Se titula Conoce tu cerebro para aprender a aprender, donde recoge muchas de estas claves pero dirigidas de forma directa a los estudiantes. Aprovechamos para hacerle más preguntas, esta vez, a distancia].

¿De qué depende la habilidad de aprender?

No solo depende de las cualidades innatas, es cuestión de técnica y estrategia. Sin embargo, normalmente no enseñamos a los estudiantes a aprender. Cada uno desarrolla sus métodos y no suelen ser muy efectivos.

¿Cómo está repercutiendo la ausencia de escuela debido al nuevo coronavirus en los estudiantes? La afectación puede variar mucho según las condiciones de cada familia, pero ¿qué debería ser lo primordial para que la repercusión fuera lo más leve posible?

“La pérdida en el ámbito de la lectura es la que afecta de manera más desigual a los alumnos en función de su nivel socioeconómico. Los que pertenecen a familias con menos recursos son los más perjudicados”

Para responder a esta pregunta podemos fijarnos en el fenómeno de pérdida estival: los periodos largos sin escuela hacen que los alumnos experimenten cierta regresión respecto a lo aprendido. Esta pérdida afecta a todos los alumnos y, según los estudios disponibles, lo hace especialmente en tres aspectos: en cuestiones de cultura general y, sobre todo, en matemáticas y en competencia lectora.

Ahora bien, lo más preocupante es que diversos estudios reflejan que la pérdida en el ámbito de la lectura es la que afecta de manera más desigual a los alumnos, en función de su nivel socioeconómico. Los que pertenecen a familias con menos recursos son los más perjudicados. Volver nuestra atención hacia aspectos tan esenciales como la lectura, incluyendo la motivación para leer, el disfrute de la lectura y, cómo no, la mejora de la comprensión lectora, podría ser una de las claves a tener en cuenta.

Derechos: Creative Commons
https://www.agenciasinc.es/Entrevistas/La-ciencia-puede-ayudar-a-mejorar-la-educacion-esto-es-algo-mas-que-una-moda

Educación basada en la evidencia: ¿qué pedagogías han probado que funcionan?

 

Educación basada en la evidencia: ¿qué pedagogías han probado que funcionan?

Si esperamos que los tratamientos médicos sean eficaces, ¿por qué no exigir lo mismo de los métodos educativos? Inteligencias múltiples, neuroeducación, proyectos, colegios sin deberes… Cada día se aplican en las aulas sistemas bien evaluados que aportan resultados positivos para los alumnos, y otros que han demostrado ser inútiles o que ni siquiera se han investigado.

En enseñanza, no todas las metodologías son aplicables a todos los alumnos y centros. / AdobeStock

La mayoría de padres y madres jamás daría a su hijo un fármaco que no hubiera pasado antes todos los controles, una sabia precaución que debería mantenerse al hablar de pedagogía. A la investigadora de la Universidad de Deusto Marta Ferrero le gusta hacer esta analogía con la medicina. Es una firme defensora de la educación basada en la evidencia: “Las modas educativas son un fenómeno creciente, pero a menudo no van acompañadas de pruebas que justifiquen su uso”, explica a Sinc.

Como sucede con las pseudomedicinas, las consecuencias de un mal método van desde la pérdida de tiempo y dinero hasta el daño directo. “Algunas metodologías pueden ser perjudiciales al retrasar el aprendizaje o incluso causar problemas físicos. No podemos jugar a ensayo y error en los colegios”, dice Ferrero. La evaluación rigurosa de las nuevas propuestas es necesaria, pero nada sencilla.

“Hoy en día es muy difícil llevar a cabo una educación basada en la evidencia científica porque para eso hace falta un enorme trabajo previo”, lamenta Juan Cruz, maestro y orientador en el Colegio Santa María la Real de Sarriguren (Navarra). Encontrar datos –si existen siquiera– e interpretarlos es una tarea que, en su opinión, no corresponde a los maestros: “Ellos deberían tomar una decisión con la información existente, pero no disponen de formación ni de las herramientas necesarias”.

“Las modas educativas a menudo no van acompañadas de pruebas que justifiquen su uso”, explica Marta Ferrero

La psicopedagoga Marta Ferrero ha analizado los planes de educación de las escuelas de magisterio, con la conclusión de que la formación en investigación y estadística que se da a los futuros maestros “es muy deficiente”. Un primer paso, en su opinión, sería enseñarles a diferenciar un estudio riguroso de otro malo, a buscar fuentes fiables y a leer datos como “método de prevención” que ayude a “no creerse cualquier cosa que les vendan”.

Es difícil distinguir los métodos alternativos de los tradicionales. “No hay un organismo que los catalogue, así que cada uno pone la etiqueta que le parece”, comenta Cruz. “Me sorprende que se definan como alternativos métodos como el Montessori, creado hace más de un siglo”. Por ello, prefiere diferenciar entre metodologías que se han investigado con resultados positivos, otras sin resultados y aquellas que no han sido estudiadas.

Tampoco está claro que “las metodologías sean las mismas en unos centros y otros aunque se llamen igual”, en palabras del investigador de la Universidad Autónoma de Madrid Jesús Rogero. “La educación por proyectos, por ejemplo, es una etiqueta que se pone a muchas prácticas”.

Más formación para los maestros

En este sentido, Ferrero apuesta por la creación de una institución que vele por el rigor de las metodologías que llegan a las clases. En España ya existe el INTEF (antes CNICE), pero la investigadora critica que en ocasiones divulguen métodos sin evidencia.

“No es un problema solo de España, pero en otros sitios ya han tomado medidas”. Pone como ejemplos la EEF de Reino Unido, que ofrece formación sobre este tema a los maestros y permite consultar en su web la evidencia disponible sobre estos métodos.

Algo similar lleva a cabo What Works Clearinghouse en EE UU. “Se podrían traducir las revisiones que hacen otros países sobre lo que funciona, en un lenguaje ameno. Los profesores no tienen tiempo de más y así podrían ver, por ejemplo, qué funciona mejor para aprender a sumar”.

No todas las propuestas nuevas son ineficaces, el problema surge cuando no se evalúa su eficacia

Por supuesto, no todas las propuestas nuevas en materia de educación son perjudiciales o ineficaces. El problema, según Ferrero, es que “no se piden pruebas de su eficacia antes ni se evalúa después si está funcionando”.

También hay que tener en cuenta que no siempre existe evidencia suficiente “y eso no puede frenar la labor de un docente, que no puede estar esperando hasta que la haya”. La solución, en opinión de la investigadora, reside en unos maestros “escépticos y reflexivos” que aprendan incluso a analizar su sistema, aunque sea de forma sencilla mediante la comparación de notas.

Un método global puesto en duda

El método global para enseñar a leer vivió un enorme auge y sigue de moda en País Vasco y Cataluña. En lugar de enseñar las letras y su correspondencia con los sonidos –el clásico ‘ma, me, mi, mo, mu’–, parte de textos y palabras bajo la premisa de que el niño aprenderá por sí mismo el alfabeto. Según sus defensores, es una forma más natural e interesante para el alumno. Ferrero lamenta que, en el peor de los casos, puede retrasar un aprendizaje tan esencial como la lectura.

La investigación ha demostrado que el método más eficaz para enseñar a leer a todos los niños, incluso a los que aprenderían solos y les sirve cualquier método, es el alfabético”, comenta Ferrero. Cuando se aplica el sistema global, “muchos aprenden a leer igual, pero una parte no. Llegan a 3º y 4º de Primaria y siguen sin decodificar bien, se les pide que empiecen a comprender lo que leen y se crea un cuello de botella que se arrastra a lo largo de toda la escolaridad con consecuencias catastróficas”.

En el aprendizaje por proyectos se sustituyen las clases magistrales por la resolución de problemas de manera activa. / AdobeStock

Proyectos: sí, pero no siempre

En ocasiones el problema no reside en la ineficacia del método sino en su mala aplicación. Ferrero pone como ejemplo el sistema de proyectos, utilizado en colegios como el ya famoso centro de Galapagar cercano a la nueva residencia de Pablo Iglesias, en el que los libros y exámenes son sustituidos por “un aprendizaje basado en la resolución de problemas”.

El aprendizaje por proyectos da buenos resultados con alumnos de edades más altas

“[El método de proyectos] surgió en EE UU en el ámbito universitario de la carrera de Medicina y poco a poco se ha ido extendiendo a secundaria, luego primaria y ahora incluso infantil”, explica Ferrero. La investigadora dice que el sistema funciona y “ha dado buenos resultados” en aprendices de edades más altas, que ya tienen cierto conocimiento sobre la materia, pero que no está recomendado a la hora de enseñar conocimientos básicos o para alumnos con dificultades.

“El problema es que hay métodos que sirven para unas edades o aprendizajes y no para otros. Se coge una metodología, se olvidan o no se enseñan esos matices y, de repente, se generaliza un sistema a todo alumnado y etapa educativa”, añade Ferrero. “Es peligroso porque no todo funciona en cualquier circunstancia”.

Perdiendo el tiempo con neuromitos

También existen métodos que, a pesar de haber demostrado su ineficacia en las aulas, han adquirido tal aceptación entre parte de la comunidad educativa que hoy resulta difícil desmontarlos. Es lo que sucede con de la teoría de las inteligencias múltiples, una hipótesis muy criticada que asegura que existen varios tipos de inteligencia.

“Su aplicación en las aulas se ha evaluado de manera reiterada y no mejora el aprendizaje de los alumnos”, comenta Ferrero. Añade que es una de las modas más extendidas ahora mismo: “Se está invirtiendo un tiempo en adaptar los planes y un dinero en formar maestros que se deja de emplear en otras metodologías que se sabe que son eficaces”.

Ferrero culpa de la prevalencia de tantos neuromitos como los que existen entre los docentes españoles a los másteres de educación secundaria y neuroeducación. Estos están “copados” por “universidades a distancia y fundaciones educativas privadas”, que incluyen contenidos en metodologías educativas “no respaldadas por pruebas”.

La teoría de las inteligencias múltiples está de moda a pesar de haber demostrado que no funciona en las aulas

“La neuroeducación es a menudo difundida por personas no expertas en la materia. Todos esperaríamos que fueran neurocientíficos los que informaran a los maestros sobre cómo contribuye su campo a la educación, pero las personas que hacen formación suelen ser filósofos, psicólogos y filólogos”, añade.

La investigadora pide prudencia incluso a la hora de aplicar la neurociencia ‘buena’ a la educación hoy en día. “Los educadores han apostado fuerte por ella porque resulta muy atractiva, y esto puede ser peligroso. Puede malinterpretarse y, además, hay mucho charlatán”. No obstante, es optimista sobre su utilidad en un futuro.

Magia y charlatanes

Las metodologías que Ferrero llama “mágicas” venden mucho en edades precoces. El método Doman de estimulación temprana es un ejemplo habitual desde hace tiempo en Educación Infantil.

Este sistema se apoya en unas láminas de papel donde se plasma aquello que se quiere enseñar al bebé, desde palabras a sumas. “Doman sostenía que todos los niños son genios en potencia y que si no lo llegan a ser es por falta de estimulación, por lo que cuanto antes se empiece, mejor. Es una locura pero se usa muchísimo”, explica Ferrero.

Este método suele ir acompañado de programas perceptivo-motrices, que también carecen de fundamento científico. En ellos se practican movimientos de reptación, gateo o coordinación. “Llegan como brain gym, patterning, neuroestimulación… pero se remontan hasta los años 40 del siglo pasado. No han dado muestra de ser eficaces para la mejora del aprendizaje y han sido desaconsejados por varias sociedades científicas”, comenta Cruz. “Ni siquiera se ajustan al sentido común: ¿qué relación hay entre gatear y leer?”.

Programas de ‘brain gym’ para bebés han sido desaconsejados por sociedades científicas

La palma se la llevan los niños y jóvenes con dificultades más específicas como TDAH, autismo, problemas de conducta o de atención, dislexia… “Son metodologías que no se suelen ofrecer en los colegios sino en gabinetes privados”, dice Ferrero.

Uno de ellos es el método Berard. Sus promotores defienden que muchos niños tienen problemas a la hora de procesar ciertas frecuencias de sonido: la solución consiste en hacerles escuchar con auriculares música clásica modificada. “Así los niños disléxicos leen mejor, los que tienen autismo mejoran su conducta… Esto no se sostiene y en algunos países está prohibido”, asegura Ferrero. De hecho, advierte de que la terapia puede ser peligrosa: “En función del volumen y la edad hay ocasiones en los que ha provocado daños auditivos”.

No todas las metodologías son aplicables a todos los alumnos y centros. Se critica la implantación de los programas bilingües en centros con altas tasas de población inmigrante que aún tiene dificultades con el castellano. / AdobeStock

Un problema de clases (sociales)

¿Qué centros se suben antes al carro de los métodos alternativos? Cuando un sistema nuevo funciona, ¿lo hace por mérito propio o fruto del contexto del centro? “Hay un sesgo de clase importante a la hora de valorar estas prácticas”, asegura el sociólogo de la UAM Jesús Rogero, pues suelen empezar en colegios privados que tienen la necesidad de diferenciarse de la competencia. “Lo hacen con metodologías innovadoras que venden como eficaces a los padres cuando lo que hay detrás es una selección socioeconómica”.

Rogero denuncia que España tenga un nivel de segregación escolar “muy elevado”, que hace que se formen centros ‘gueto’ donde se acumulan las necesidades educativas especiales. Según un reciente informe de Save the children, la Comunidad de Madrid está a la cabeza de Europa en este problema.

El investigador señala al bilingüismo como una de las causas de la segregación del alumnado en Madrid. “La gran mayoría de los niños por las tardes van a clases de refuerzo; esto es grave porque significa que el sistema público no garantiza los mínimos y que las familias se tienen que buscar las castañas”. Como solo algunas pueden hacerlo, “las escuelas recomiendan que los alumnos que no pueden seguir el ritmo se vayan a otro sitio”.

Algunas metodologías se venden como eficaces cuando lo que hay detrás es una selección socioeconómica del alumnado

“¿Se está analizando si los niños aprenden mejor el idioma y si el programa bilingüe afecta a los contenidos de las asignaturas? Si hiciéramos un estudio riguroso de su impacto, igual nos llevaríamos alguna sorpresa”, comenta Ferrero, que critica cómo se ha instaurado en España.

La psicopedagoga explica que las reglas de oro para que el método funcione son que el profesorado tenga un nivel nativo y que los estudiantes posean cierto nivel en esa lengua. Además, cree que “pedir a un profesor con un nivel de inglés C1 obtenido expresamente que enseñe en una segunda lengua es un poco arriesgado”.

Los guetos necesitan innovación

Al final, los métodos alternativos también llegan a los centros públicos. Rogero insiste en que no todas las metodologías son aplicables a todos los alumnos y centros. “Imagínate un programa bilingüe en un centro con un 90% de población inmigrante que tiene dificultades con el castellano. Un desastre absoluto, condenas a los pocos que se hubieran salvado”.

Algo similar sucede con las clases sin deberes. “¿Qué alumno se puede permitir no hacerlos?”, pregunta Rogero. “El que tiene en casa un ambiente enriquecido culturalmente con una familia que lo equilibra. Imagina en contextos sociales con horarios y situaciones complicadas”.

Rogero termina señalando que los centros con una mayor necesidad de innovación e imaginación pedagógica son esos colegios gueto. “Como no sigas metodologías diferentes y te salgas del currículo oficial no vas a ningún lado, porque estos chavales rechazan la escuela y no puedes contar con sus familias”. Por eso aboga por la aplicación de políticas que creen centros más heterogéneos.

Fuente: SINC
Derechos: Creative Commons
 
https://www.agenciasinc.es/Reportajes/Educacion-basada-en-la-evidencia-que-pedagogias-han-probado-que-funcionan
 
https://www.agenciasinc.es/Reportajes/Equivocarse-es-de-sabios