El MIT afirma haber encontrado un "lenguaje universal" que une todos los idiomas

El MIT afirma haber encontrado un «lenguaje universal» que une todos los idiomas

El MIT afirma haber encontrado un

El lenguaje adopta una asombrosa variedad de formas en todo el mundo, tanto que se debate desde hace mucho tiempo si todos los idiomas tienen al menos una propiedad en común. Bueno, hay un nuevo contendiente para el escurridizo título de «lenguaje universal» según un artículo en la edición de esta semana de PNAS. Todos los idiomas, dicen los autores, se autoorganizan para que los conceptos relacionados permanezcan lo más juntos posible en una oración, lo que facilita el ensamblaje del significado general.

Los universales del lenguaje son muy importantes porque arrojan luz sobre preguntas importantes sobre la cognición humana. El defensor más famoso de la idea de los lenguajes universales es Noam Chomsky, quien sugirió una «gramática universal» que subyace en todos los idiomas. Encontrar una propiedad que ocurre en todos los idiomas sugeriría que un elemento del lenguaje está predeterminado genéticamente y tal vez haya una arquitectura cerebral específica dedicada al lenguaje.

Sin embargo, otros investigadores argumentan que hay muy pocos candidatos para un lenguaje verdaderamente universal. Dicen que hay una enorme diversidad en todos los niveles posibles de la estructura lingüística, desde la oración hasta los sonidos individuales que hacemos con la boca (eso sin contar las lenguas de señas).

Hay patrones generalizados en todos los idiomas, admiten, pero argumentan que estos patrones son solo una señal de que los idiomas están encontrando soluciones comunes a problemas comunes. Sin encontrar un verdadero universal, es difícil afirmar que el lenguaje es un conjunto cognitivo específico en lugar de un resultado más general de las notables capacidades del cerebro humano.

Sistemas autoorganizados

Mucho se ha escrito sobre la tendencia de las lenguas a colocar palabras con una estrecha relación sintáctica lo más cerca posible. Richard Futrell, Kyle Mahowald y Edward Gibson del MIT querían saber si todos los idiomas podrían usar esto como una técnica para hacer que las oraciones sean más fáciles de entender.

Publicidad

La idea es que cuando las oraciones agrupan conceptos relacionados en estrecha proximidad, hay menos tensión en la memoria de trabajo. Por ejemplo, los adjetivos (como «anciana») pertenecen a los sustantivos que modifican (como «dama»), por lo que es más fácil entender todo el concepto de «anciana» si las palabras aparecen juntas en una oración.

Puede ver este efecto decidiendo cuál de estas dos oraciones es más fácil de entender: «John perseguido el viejo bote de basura tirado en la cocina” o “John lanzar el viejo bote de basura sentado en la cocina fuera de.” Para muchos angloparlantes, la segunda oración sonará extraña: tendemos a mantener las palabras ‘threw’ y ‘out’ lo más juntas posible. Este proceso de limitar la distancia entre palabras relacionadas se denomina minimización de longitud de dependencia o DLM.

¿Los idiomas desarrollan gramáticas que obligan a los hablantes a agrupar cuidadosamente los conceptos, haciendo que las oraciones sean más fáciles de seguir? O, cuando observamos una variedad de idiomas, ¿encontramos que no todos siguen el mismo patrón?

Los investigadores querían examinar el lenguaje tal como se usa en realidad en lugar de componer oraciones ellos mismos. Así que armaron bases de datos de idiomas de muestra en 37 idiomas diferentes. Cada oración en la base de datos recibió una puntuación basada en el grado de DLM que mostró: las oraciones en las que las palabras conceptualmente relacionadas estaban muy separadas en la oración tenían puntuaciones altas, y aquellas en las que las palabras afines estaban estrechamente relacionadas tenían puntuaciones bajas.

Luego, los investigadores compararon estas puntuaciones con una línea de base. Tomaron las palabras de cada oración y las mezclaron para que las palabras relacionadas tuvieran distancias aleatorias entre ellas. Si DLM no jugó un papel en el desarrollo de las gramáticas, argumentaron, deberíamos ver patrones aleatorios como estos en el lenguaje: los cognados deberían poder tener cualquier distancia entre ellos. Si el DLM es grande, las puntuaciones de las oraciones reales deberían ser significativamente más bajas que las de las oraciones aleatorias.

Encontraron lo que esperaban: «Todos los idiomas tienen longitudes de dependencia promedio que son más cortas que la línea de base aleatoria», escriben. Esto fue especialmente cierto para oraciones más largas, lo cual tiene sentido: no hay tanta diferencia entre «John perseguido la papelera” y “John lanzar la basura fuera de” como hay entre los ejemplos más largos dados anteriormente.

Publicidad

También encontraron que algunos idiomas muestran más DLM que otros. Los idiomas que no se basan únicamente en el orden de las palabras para comunicar las relaciones entre palabras tienden a tener puntajes más altos. Los idiomas como el alemán y el japonés tienen marcas de sustantivos que transmiten el papel que desempeña cada sustantivo en la oración, lo que les permite tener un orden de palabras más libre que el inglés. Los investigadores sugieren que las marcas en estos idiomas ayudan a la memoria y la comprensión, lo que hace que DLM sea un poco menos importante. Sin embargo, incluso estos idiomas tenían puntajes por debajo de la línea de base aleatoria.

Árbol genealógico

Esta investigación agrega una pieza importante del rompecabezas al panorama general, dice Jennifer Culbertson, quien estudia lingüística evolutiva en la Universidad de Edimburgo. Es «una importante fuente de evidencia para una hipótesis de larga data sobre cómo se determina el orden de las palabras en los idiomas del mundo», dijo a Ars Technica.

Aunque el artículo solo analizó 37 idiomas, en realidad es increíblemente difícil crear estas bases de datos de los idiomas en uso, por lo que es una muestra bastante impresionante, dijo. Sin embargo, aquí hay un problema: muchos de los idiomas estudiados están relacionados entre sí y representan solo una fracción de la gran cantidad de familias de idiomas, por lo que esperamos que se comporten de manera similar. Se necesitarán más investigaciones para controlar el parentesco lingüístico.

Este documento se suma a muchos trabajos previos sobre el tema, por lo que no es la única evidencia de DLM, sino que corrobora y complementa gran parte de la investigación anterior. Es «mucha buena evidencia convergente», dijo.

“Hay muchas propuestas sobre las propiedades universales del lenguaje, pero fundamentalmente todas son controvertidas”, explicó. Pero es plausible, agregó, que DLM, o algo parecido, podría ser un candidato prometedor para un mecanismo cognitivo universal que afecta la forma en que se estructuran los idiomas.

Para un debate tan delicado como el de los universales del lenguaje, podría haber varias formas de interpretar esta evidencia. Les partisans de l’école de Chomsky pourraient soutenir qu’il s’agit d’une preuve d’un module de langage dédié, mais ceux qui favorisent une interprétation différente pourraient suggérer que la mémoire de travail affecte toutes les fonctions cérébrales, pas seulement el lenguaje.

¿Sabías que Ars Technica ahora tiene un boletín semanal? Contiene todas las historias principales de la semana, así como información sobre los próximos encuentros y otros eventos. Regístrate ahora.

PNAS2015. DOI: 10.1073/pnas.1502134112 (Acerca de los DOI).

Imagen del anuncio por usuario de flickr: Fernando Marcelo Cañuelo

Deja un comentario

Tu dirección de correo electrónico no será publicada.