traductor

lunes, 31 de mayo de 2021

Hacia una teoría matemática de la comunicación

 

Hacia una teoría matemática de la comunicación

Un punto de encuentro imprescindible entre la teoría de la información y las leyes del lenguaje.

INFORMATION THEORY MEETS POWER LAWS
STOCHASTIC PROCESSES AND LANGUAGE MODELS
Łukasz Dębowski
Wiley, 2020
384 págs.


Vaya por delante que este no es un libro de divulgación científica; al menos, no en el sentido habitual del término. La razón es que a veces no hay manera «amable» de abordar ciertos problemas matemáticos: no se puede renunciar a la definición, la ecuación, el teorema y el corolario. Sin embargo, lo que Łukasz Dębowski, matemático de la Academia Polaca de Ciencias, ha hecho en Information theory meets power laws merece ser reseñado tanto por su intrínseca interdisciplinariedad como por las consecuencias que puede tener esta obra para quien, a partir de ahora, pretenda introducirse en la modelización del lenguaje y los sistemas de comunicación.

Suele decirse que Claude Shannon fundó la teoría de la información en 1948 con su artículo «A mathematical theory of communication». Un año después, Warren Weaver contextualizó hábilmente el trabajo de Shannon cuando publicaron de manera conjunta The mathematical theory of communication, un libro de lectura obligada con dos contribuciones separadas. En su introducción, Weaver sugirió que la teoría matemática de Shannon era extensible a la comunicación biológica, más allá de las máquinas y las telecomunicaciones. Shannon enraizaba con varios precedentes técnicos, pero Weaver vislumbró que el alcance de la teoría de Shannon era mucho mayor, y sus aclaraciones terminológicas serían fundamentales a posteriori [véase «Hacia una teoría universal», por Jérôme Segal; Investigación y Ciencia, junio de 2013].


Weaver definió los sistemas que producen una secuencia de símbolos con una cierta probabilidad (como, por ejemplo, las letras de un texto o las notas musicales de una partitura) como procesos estocásticos. De forma que, cuando esa probabilidad depende de los sucesos previos, se tiene un caso especial: la cadena de Markov. Weaver apuntó que, para toda teoría de la comunicación que se precie, de entre las cadenas de Markov resultaba esencial entender un tipo concreto: los procesos ergódicos, aquellos que permiten inferir las propiedades de los símbolos de todo el conjunto analizando únicamente una muestra, siempre que esta sea lo suficientemente grande. Dicho de otra manera: tales procesos nos permiten establecer leyes de base estadística. Weaver entroncó así con la física estadística y explicó la relevancia de los conceptos de información y entropía aplicados a los sistemas de comunicación.

No es de extrañar que James Gleick escogiese relatar la aventura de Shannon en el prólogo de La información (Crítica, 2012). Gleick sí trazó un recorrido divulgativo fulgurante en el que revisar la comunicación humana y la emergencia de la teoría de la información, desde la ancestral comunicación acústica de los tambores hasta los enfoques teóricos de las redes complejas de Duncan Watts y Steven Strogatz. El conocido esquema de Shannon de la comunicación dio el salto a la lingüística de la mano de Roman Jakobson, de forma que términos como emisor, receptor, canal, decodificar o ruido impregnaron su ya clásico Fundamentals of language (1956), escrito junto con Morris Halle. Sin embargo, en la lingüística del siglo XX, y quizá como periodo inevitable de toda ciencia en construcción, fueron más quienes usaron de forma metafórica o meramente esquemática la teoría de la información que quienes indagaron en los problemas planteados por Weaver para convertirla en la base matemática del estudio científico de la comunicación.

Mientras tanto, durante el siglo XX se desarrollaba la lingüística cuantitativa, aunque de forma marginal con respecto a las corrientes teóricas dominantes. Fonetistas como Paul Menzerath y lingüistas como George Kingsley Zipf, Gustav Herdan o Gabriel Altmann, entre otros, ahondaron en el análisis y la formalización de las regularidades estadísticas del lenguaje, las llamadas leyes lingüísticas, que también fueron abordadas por matemáticos de la talla de Benoît Mandelbrot o por informáticos como Harold Stanley Heaps. La ley de Zipf es quizá la más conocida: una ley de potencias que relaciona la frecuencia de las palabras con su rango (donde a la palabra más usada de un idioma se le asigna rango 1, a la segunda más usada rango 2, etcétera) [véase «Las leyes matemáticas emergentes en el uso del lenguaje», por Álvaro Corral, Isabel Moreno Sánchez y Francesc Font Clos; Investigación y Ciencia, julio de 2016].

Curiosamente, desde otros enfoques al estudio del lenguaje, como el estructuralismo, el generativismo de Chomsky o el conductismo de Skinner, hubo enconados debates teóricos que obviaron e incluso menospreciaron los numerosos datos que analizaba la lingüística cuantitativa. El resurgir de esta disciplina solo ha llegado en pleno siglo XXI, cuando los investigadores se han encontrado con ingentes cantidades de datos lingüísticos que analizar, por un lado, y por otro con máquinas en las que programar interfaces de comunicación.

Dębowski posee un amplio recorrido investigador en la fundamentación de las principales regularidades estadísticas que encontramos en las lenguas humanas. Además de publicaciones especializadas, en su bagaje destaca la reciente edición, junto con Christian Bentz, de Information theory and language (MDPI, 2020), un compendio de artículos que da cuenta de lo abigarrada que puede ser la aproximación formal al estudio del lenguaje. No obstante, le faltaba esta obra en la que, capítulo a capítulo, se ha adentrado con orden en la formalización de los patrones que inexorablemente emergen en el lenguaje.

El esfuerzo de Dębowski se centra en establecer los fundamentos matemáticos de la modelización estadística de las lenguas humanas. El primer capítulo es un puente necesario con respecto a la corriente dominante en la academia, a la vez que un guiño humanista a los matemáticos que la lingüística necesita reclutar. Su propuesta no puede dejar indiferente, pues sus matemáticas colisionarán con algunas ideas preconcebidas que tendrá todo lector avezado. En mi caso, me sigue intrigando cómo Dębowski da preponderancia al internalismo de corte chomskyano, en lugar de inferir las propiedades del lenguaje siguiendo las distribuciones observables y marcando distancias con enfoques que, en algunos casos, se han mostrado inabordables experimentalmente y, por ende, pseudocientíficos en un sentido bungeano. En todo caso, Dębowski nos obliga a revisar nuestros sesgos probabilísticos y cognitivos, algo imprescindible para establecer una auténtica ciencia lingüística libre de ideologías.

En este sentido, esperamos que los temas tratados en Information theory meets power laws vayan permeando en los planes de estudio académicos: las leyes lingüísticas y otras propiedades estadísticas de los sistemas de comunicación, las propiedades ergódicas del lenguaje, la entropía y las distribuciones universales, los enfoques algorítmicos de Kolmogórov y Chaitin y sus aplicaciones a la codificación y el aprendizaje automático, así como las propiedades de las leyes de potencias, referidas tanto a la transmisión de la información como a la estructura de los sistemas lingüísticos.

El autor cierra su obra con dos atrevidas propuestas: ataca primero de forma original el problema de la doble articulación del lenguaje, y plantea algunos «modelos de juguete» con los que reencontrar, desde procesos estocásticos, las leyes lingüísticas. El decálogo final de cuestiones abiertas aporta una conclusión estimulante para la imaginación, el divertimento y la investigación futura.

La optimización de las nuevas tecnologías lingüísticas nos ha obligado a mirar atrás, a la teoría de la información y a la lingüística cuantitativa. Y, como la mujer de Lot, nos petrificaremos como estatuas de sal si no somos capaces de desarrollar una teoría integrada del lenguaje, de base matemática, como la que Dębowski brillantemente ha iniciado. Por eso la obra busca desde el título ese imprescindible punto de encuentro entre la teoría de la información y las leyes del lenguaje. Esperemos vivirlo.

https://www.investigacionyciencia.es/revistas/investigacion-y-ciencia/desconcierto-csmico-831/hacia-una-teora-matemtica-de-la-comunicacin-19708?utm_source=boletin&utm_medium=email&utm_campaign=Matem%C3%A1ticas+-+Mayo+%28I%29&utm_source=ActiveCampaign&utm_medium=email&utm_content=Matem%C3%A1ticas+contra+el+coronavirus&utm_campaign=Bolet%C3%ADn+Matem%C3%A1ticas+-+Mayo+%28I%29 

No hay comentarios: