La biolingüística se puede definir como el estudio de la biología y la evolución del lenguaje. Es altamente interdisciplinario ya que se relaciona con diversos campos como la biología , la lingüística , la psicología , la antropología , las matemáticas y la neurolingüística para explicar la formación del lenguaje. Busca generar un marco mediante el cual podamos comprender los fundamentos de la facultad del lenguaje. Este campo fue introducido por primera vez por Massimo Piattelli-Palmarini , profesor de Lingüística y Ciencias Cognitivas de la Universidad de Arizona . Se presentó por primera vez en 1971, en una reunión internacional en el Instituto Tecnológico de Massachusetts (MIT).
Se cree que la biolingüística, también llamada empresa biolingüística o enfoque biolingüístico, tiene sus orígenes en el trabajo de Noam Chomsky y Eric Lenneberg sobre la adquisición del lenguaje que comenzó en la década de 1950 como una reacción al paradigma conductista entonces dominante. Fundamentalmente, la biolingüística desafía la visión de la adquisición del lenguaje humano como un comportamiento basado en interacciones y asociaciones estímulo-respuesta. [1] Chomsky y Lenneberg militaron en contra de ello argumentando a favor del conocimiento innato del lenguaje. Chomsky en la década de 1960 propuso el Dispositivo de Adquisición del Lenguaje (LAD) como una herramienta hipotética para la adquisición del lenguaje con la que sólo nacen los humanos. De manera similar, Lenneberg (1967) [2] formuló la hipótesis del período crítico , cuya idea principal es que la adquisición del lenguaje está biológicamente limitada. Estos trabajos fueron considerados pioneros en la configuración del pensamiento biolingüístico, en lo que supuso el inicio de un cambio de paradigma en el estudio del lenguaje. [3]
La investigación de los fundamentos biológicos del lenguaje está asociada con dos períodos históricos, a saber, el del siglo XIX (principalmente a través de la teoría evolutiva darwiniana) y el siglo XX (principalmente a través de la integración de la lingüística matemática (en forma de la gramática generativa chomskyana). con la neurociencia.
El darwinismo inspiró a muchos investigadores a estudiar el lenguaje, en particular la evolución del lenguaje, a través de la lente de la biología. La teoría de Darwin sobre el origen del lenguaje intenta responder a tres preguntas importantes: [4]
El lingüista alemán August Scheilurer, que se remonta a 1821, fue el pionero representativo de la biolingüística y analizó la evolución del lenguaje basándose en la teoría de la evolución de Darwin. Dado que se creía que la lingüística era una forma de ciencia histórica bajo la influencia de la Société de Linguistique de Paris , no se permitían especulaciones sobre el origen del lenguaje. [5] Como resultado, casi ningún lingüista destacado escribió sobre el origen de la lengua, aparte del lingüista alemán Hugo Schuchardt . El darwinismo abordó los argumentos de otros investigadores y académicos de manera muy similar a la de Max Müller al argumentar que el uso del lenguaje, si bien requiere una cierta capacidad mental, también estimula el desarrollo del cerebro, permitiendo largas cadenas de pensamiento y fortaleciendo el poder. Darwin trazó una amplia analogía entre la evolución de las lenguas y las especies, observando en cada dominio la presencia de rudimentos, de cruces y mezclas, y de variaciones, y destacando cómo cada desarrollo se desarrolla gradualmente a través de un proceso de lucha. [6]
La primera fase en el desarrollo de la biolingüística se extiende hasta finales de la década de 1960 con la publicación de Biological Foundation of Language (1967) de Lennberg. Durante la primera fase el trabajo se centró en:
Durante este período, se lograron mayores avances en la comprensión de las propiedades definitorias del lenguaje humano como sistema de cognición. Tres acontecimientos históricos dieron forma al campo moderno de la biolingüística: se convocaron dos conferencias importantes en la década de 1970 y Lyle Jenkins publicó un artículo retrospectivo en 1997.
La segunda fase comenzó a finales de los años 1970. En 1976, Chomsky formuló las cuestiones fundamentales de la biolingüística de la siguiente manera: i) función, ii) estructura, iii) base física, iv) desarrollo del individuo, v) desarrollo evolutivo. A finales de la década de 1980 se lograron grandes avances en la respuesta a preguntas sobre el desarrollo del lenguaje. Esto luego generó más preguntas sobre el diseño del lenguaje,
función y evolución del lenguaje. Al año siguiente, Juan Uriagereka, un estudiante de posgrado de Howard Lasnik, escribió el texto introductorio a Sintaxis, rima y razón minimalistas. Su trabajo renovó el interés por la biolingüística, lo que impulsó a muchos lingüistas a investigar la biolingüística con sus colegas de disciplinas científicas adyacentes. [10] Tanto Jenkins como Uriagereka enfatizaron la importancia de abordar el surgimiento de la facultad del lenguaje en los humanos. Aproximadamente al mismo tiempo, los genetistas descubrieron un vínculo entre el déficit del lenguaje manifestado por los miembros de la familia KE y el gen FOXP2 . Aunque FOXP2 no es el gen responsable del lenguaje, [11] este descubrimiento reunió a muchos lingüistas y científicos para interpretar estos datos, renovando el interés de la biolingüística.
Aunque muchos lingüistas tienen opiniones diferentes en lo que respecta a la historia de la biolingüística, Chomsky cree que su historia fue simplemente la de la gramática transformacional . Mientras que la profesora Anna Maria Di Sciullo afirma que la investigación interdisciplinaria de la biología y la lingüística en las décadas de 1950 y 1960 condujo al surgimiento de la biolingüística. Además, Jenkins cree que la biolingüística fue el resultado de gramáticos transformacionales que estudiaron los mecanismos biológicos y lingüísticos humanos. Por otro lado, los lingüistas Martin Nowak y Charles Yang sostienen que la biolingüística, que se originó en la década de 1970, es una gramática transformacional distinta; más bien, una nueva rama del paradigma de investigación en lingüística y biología iniciado por la gramática transformacional. [12]
[13] En Aspectos de la teoría de la sintaxis , Chomsky propuso que las lenguas son producto de una capacidad biológicamente determinada, presente en todos los humanos, ubicada en el cerebro. Aborda tres cuestiones centrales de la biolingüística: ¿qué constituye el conocimiento del lenguaje, cómo se adquiere el conocimiento y cómo se utiliza el conocimiento? Gran parte de la nuestra debe ser innata, lo que respalda su afirmación con el hecho de que los hablantes son capaces de producir y comprender oraciones nuevas sin instrucciones explícitas. Chomsky propuso que la forma de la gramática puede surgir de la estructura mental proporcionada por el cerebro humano y argumentó que las categorías gramaticales formales como sustantivos, verbos y adjetivos no existen. La teoría lingüística de la gramática generativa propone que las oraciones se generan mediante un conjunto subconsciente de procedimientos que forman parte de la capacidad cognitiva de un individuo. Estos procedimientos se modelan a través de un conjunto de reglas gramaticales formales que se cree que generan oraciones en un idioma. [14]
Chomsky se centra en la mente del estudiante o usuario de una lengua y propuso que las propiedades internas de la facultad del lenguaje están estrechamente relacionadas con la biología física de los humanos. Además, introdujo la idea de una Gramática Universal (UG), teorizada como inherente a todos los seres humanos. Desde el punto de vista del enfoque biolingüístico, el proceso de adquisición del lenguaje sería rápido y fluido porque los humanos obtienen de forma natural las percepciones fundamentales de la Gramática Universal, lo cual es opuesto al enfoque basado en el uso. [15] UG se refiere al estado inicial de la facultad del lenguaje; un órgano biológicamente innato que ayuda al alumno a dar sentido a los datos y a construir una gramática interna. [16] La teoría sugiere que todos los lenguajes humanos están sujetos a principios o parámetros universales que permiten diferentes elecciones (valores). También sostiene que los humanos poseen gramática generativa, que de alguna manera está integrada en el cerebro humano y hace posible que los niños pequeños adquieran el habla de manera rápida y universal . [17] Los elementos de la variación lingüística determinan entonces el crecimiento del lenguaje en el individuo, y la variación es el resultado de la experiencia, dada la dotación genética y los principios independientes que reducen la complejidad. El trabajo de Chomsky es a menudo reconocido como la perspectiva débil de la biolingüística, ya que no se basa en otros campos de estudio fuera de la lingüística. [18]
Según Chomsky, el cerebro humano se compone de varias secciones que poseen sus funciones individuales, como la facultad del lenguaje y el reconocimiento visual. [15]
La adquisición del lenguaje es una hazaña universal y se cree que todos nacemos con una estructura innata propuesta inicialmente por Chomsky en los años 1960. El Dispositivo de Adquisición del Lenguaje (LAD) se presentó como una estructura innata en los humanos que permitía el aprendizaje de idiomas. Se cree que los individuos están "conectados" con reglas gramaticales universales que les permiten comprender y evaluar estructuras sintácticas complejas. Los defensores del LAD a menudo citan el argumento de la pobreza de los estímulos negativos, sugiriendo que los niños dependen del LAD para desarrollar su conocimiento de una lengua a pesar de no estar expuestos a un entorno lingüístico rico. Más tarde, Chomsky cambió esta noción por la de Gramática Universal, proporcionando evidencia de una base biológica del lenguaje.
El Programa Minimalista (MP) fue introducido por Chomsky en 1993 y se centra en el paralelo entre el lenguaje y el diseño de conceptos naturales. Quienes invierten en el Programa Minimalista están interesados en la física y las matemáticas del lenguaje y sus paralelos con nuestro mundo natural. Por ejemplo, Piatelli-Palmarini [19] estudió la relación isomórfica entre el Programa Minimalista y la Teoría Cuántica de Campos . El Programa Minimalista tiene como objetivo determinar qué parte del modelo de Principios y Parámetros se puede tomar como resultado del diseño hipotético óptimo y computacionalmente eficiente de la facultad del lenguaje humano y versiones más desarrolladas del enfoque de Principios y Parámetros a su vez proporcionan principios técnicos de que se puede ver que sigue el programa minimalista. [20] El programa apunta además a desarrollar ideas que involucran la economía de la derivación y la economía de la representación, que habían comenzado a convertirse en una teoría independiente a principios de la década de 1990, pero que entonces todavía se consideraban periféricas de la gramática transformacional . [21]
Chomsky utiliza la operación Merge para explicar la estructura de los árboles de sintaxis dentro del programa Minimalista. La fusión en sí es un proceso que proporciona la base de la formación de frases como resultado de tomar dos elementos dentro de una frase y combinarlos [22] En The Asymmetry of Merge (2008) de AM Di Sciullo y D. Isac, destacan las dos bases clave de Merge, de Chomsky;
Para entender esto, tomemos la siguiente oración: A Emma no le gusta el pastel.
Esta frase se puede dividir en sus elementos léxicos:
[VP [DP Emma] [V' [V no le gusta] [DP [D el] [NP pastel]]]]
La representación fraseal anterior permite comprender cada elemento léxico. Para construir un árbol usando Merge, usando la formación de abajo hacia arriba, se seleccionan los dos elementos finales de la frase y luego se combinan para formar un nuevo elemento en el árbol. En la imagen a) puede ver que el determinante the y la frase nominal pie están seleccionados. A través del proceso de fusión, el nuevo elemento formado en el árbol es la frase determinante (DP) que contiene, el pastel, que es visible en b).
En un enfoque minimalista, se proponen tres componentes centrales de la facultad del lenguaje: sistema sensorio-motor (SM), sistema conceptual-intencional (CI) y sintaxis estrecha (NS). [23] SM incluye requisitos biológicos para la producción y percepción del lenguaje, como los órganos articulatorios, y el CI cumple con los requisitos biológicos relacionados con la inferencia, la interpretación y el razonamiento, aquellos involucrados en otras funciones cognitivas. Como SM y CI son finitos, la función principal de NS es permitir producir un número infinito de pares sonido-significado.
Es posible que los principios básicos de la Facultad de Idiomas estén correlacionados con leyes naturales (como, por ejemplo, la secuencia de Fibonacci , una serie de números donde cada número consecutivo es la suma de los dos que lo preceden; consulte, por ejemplo, la discusión Uriagereka 1997 y Carnie y Medeiros 2005). [24] Según la hipótesis que se está desarrollando, las propiedades esenciales del lenguaje surgen de la naturaleza misma: el requisito de crecimiento eficiente aparece en todas partes, desde el patrón de los pétalos de las flores, la disposición de las hojas de los árboles y las espirales de una concha marina hasta la estructura del ADN. y proporciones de la cabeza y el cuerpo humanos. Natural Law en este caso proporcionaría información sobre conceptos como la ramificación binaria en árboles sintácticos y la operación de fusión. Esto se traduciría en pensarlo en términos de tomar dos elementos en un árbol de sintaxis y tal que su suma produzca otro elemento que se encuentre debajo en el árbol de sintaxis dado (consulte los árboles arriba en el Programa minimalista ). Al adherirse a esta suma de dos elementos que la preceden, proporciona soporte a las estructuras binarias. Además, la posibilidad de una ramificación ternaria se desviaría de la secuencia de Fibonacci y, en consecuencia, no respaldaría tan firmemente la relevancia de la Ley Natural en la sintaxis. [25]
Como se mencionó anteriormente, la biolingüística cuestiona la idea de que la adquisición del lenguaje es el resultado del aprendizaje basado en el comportamiento. Este enfoque alternativo a los desafíos de la biolingüística se conoce como enfoque basado en el uso (UB). La UB apoya la idea de que el conocimiento del lenguaje humano se adquiere mediante la exposición y el uso. [26] Una de las principales cuestiones que se destaca cuando se argumenta en contra del enfoque basado en el uso es que la UB no aborda la cuestión de la pobreza de estímulos, [27] mientras que la biolingüística aborda esto a través del dispositivo de adquisición del lenguaje. [28]
Otro contribuyente importante en este campo es Eric Lenneberg . En su libro Biological Foundation of Languages , [2] Lenneberg (1967) sugiere que hay diferentes aspectos de la biología humana que supuestamente contribuyen al lenguaje más que los genes en juego. Esta integración de otros campos para explicar el lenguaje se reconoce como la visión fuerte en biolingüística [29] . Si bien son obviamente esenciales, y si bien los genomas están asociados con organismos específicos, los genes no almacenan rasgos (o "facultades") en la forma en que lo hacen los lingüistas. —incluidos los chomskyanos—a veces parecen dar a entender.
Contrariamente al concepto de existencia de una facultad del lenguaje sugerido por Chomsky, Lenneberg sostiene que si bien hay regiones y redes específicas involucradas de manera crucial en la producción del lenguaje, no existe una región única a la que se limite la capacidad del lenguaje y que el habla, como así como el lenguaje, no se limita a la corteza cerebral . Lenneberg consideraba el lenguaje como un órgano mental específico de una especie con importantes propiedades biológicas. Sugirió que este órgano crece en la mente/cerebro de un niño de la misma manera que crecen otros órganos biológicos, lo que demuestra que el camino del niño hacia el lenguaje muestra el sello distintivo del crecimiento biológico. Según Lenneberg, los mecanismos genéticos juegan un papel importante en el desarrollo del comportamiento de un individuo y se caracteriza por dos aspectos:
Con base en esto, Lenneberg continúa afirmando que ningún tipo de principio funcional podría almacenarse en los genes de un individuo, rechazando la idea de que existan genes para rasgos específicos, incluido el lenguaje. En otras palabras, que los genes pueden contener rasgos. Luego propuso que la forma en que los genes influyen en los patrones generales de estructura y función es mediante su acción sobre la ontogénesis de los genes como agente causal que es individualmente el responsable directo y único de un fenotipo específico, criticando hipótesis previas de Charles Goodwin . . [30]
En biolingüística, se reconoce que el lenguaje se basa en un procedimiento generativo recursivo que recupera palabras del léxico y las aplica repetidamente para generar frases. [31] [32] Se planteó la hipótesis de que este procedimiento generativo era el resultado de una mutación cerebral menor debido a la evidencia de que el orden de las palabras se limita a la externalización y no desempeña ningún papel en la sintaxis o la semántica central. Así, se exploraron diferentes líneas de investigación para explicar esto.
La línea de investigación más comúnmente aceptada para explicar esto es el enfoque minimalista de Noam Chomsky hacia las representaciones sintácticas. En 2016, Chomsky y Berwick definieron el programa minimalista bajo la tesis minimalista fuerte en su libro Why Only Us diciendo que el lenguaje está ordenado por cálculos eficientes y, por lo tanto, se ciñe a las operaciones recursivas más simples. [11] La operación básica principal en el programa minimalista es fusionar . En combinación hay dos formas en las que se pueden construir expresiones más grandes: externa e internamente. Los elementos léxicos que se fusionan externamente construyen representaciones argumentales con constituyentes disjuntos. La fusión interna crea estructuras constituyentes donde uno es parte del otro. Esto induce al desplazamiento , la capacidad de pronunciar frases en una posición, pero interpretarlas en otra parte.
Investigaciones recientes sobre el desplazamiento coinciden en un ligero recableado en las regiones corticales del cerebro que podría haber ocurrido históricamente y perpetuado la gramática generativa. Manteniendo esta línea de pensamiento, en 2009, Ramus y Fishers especularon que un solo gen podría crear una molécula de señalización para facilitar nuevas conexiones cerebrales o una nueva área del cerebro a través de regiones cerebrales definidas prenatalmente. Esto daría como resultado un procesamiento de información de gran importancia para el lenguaje, tal como lo conocemos. La difusión de este rasgo de ventaja podría ser responsable de la externalización secundaria y de la interacción que realizamos. [11] Si esto es así, entonces el objetivo de la biolingüística es descubrir todo lo que podamos sobre los principios que subyacen a la recursividad mental .
En comparación con otros temas de lingüística donde los datos se pueden mostrar con evidencia de forma translingüística, debido a la naturaleza de la biolingüística, y que se aplica a la totalidad de la lingüística en lugar de solo a una subsección específica, examinar otras especies puede ayudar a proporcionar datos. Aunque los animales no tienen las mismas competencias lingüísticas que los humanos, se supone que pueden proporcionar evidencia de cierta competencia lingüística.
La ciencia relativamente nueva de evo-devo , que sugiere que todos somos descendientes comunes de un solo árbol, ha abierto caminos hacia el estudio genético y bioquímico. Una forma en que esto se manifiesta dentro de la biolingüística es a través de la sugerencia de un gen del lenguaje común, a saber, FOXP2 . Aunque este gen está sujeto a debate, recientemente se han realizado interesantes descubrimientos sobre él y el papel que desempeña en el proceso de externalización secundaria. Estudios recientes de aves y ratones dieron como resultado un consenso emergente de que FOXP2 no es un modelo para la sintaxis interna ni la estrecha facultad del lenguaje, sino que constituye la maquinaria reguladora relacionada con el proceso de externalización. Se ha descubierto que ayuda a secuenciar sonidos o gestos uno tras otro, lo que implica que FOXP2 ayuda a transferir conocimiento de la memoria declarativa a la procedimental . Por lo tanto, se ha descubierto que FOXP2 es una ayuda para formular un sistema lingüístico de entrada y salida que funcione sin problemas. [11]
Según la Hipótesis de Integración, el lenguaje humano es la combinación del componente Expresivo (E) y el componente Léxico (L). A nivel de palabras, el componente L contiene el concepto y significado que queremos transmitir. El componente E contiene información gramatical e inflexión. En el caso de las frases, a menudo vemos una alternancia entre los dos componentes. En las oraciones, el componente E es responsable de proporcionar la forma y estructura a las palabras léxicas de nivel básico, mientras que estos elementos léxicos y sus correspondientes significados que se encuentran en el léxico conforman el componente L. [33] Esto tiene consecuencias para nuestra comprensión de: (i) los orígenes de los componentes E y L que se encuentran en los sistemas de comunicación de aves y monos; (ii) el rápido surgimiento del lenguaje humano en relación con las palabras; (iii) evidencia de estructura jerárquica dentro de palabras compuestas ; (iv) el papel de las frases en la detección de la operación de construcción de estructuras Merge ; y (v) la aplicación de los componentes E y L a oraciones. De esta manera, vemos que la Hipótesis de Integración se puede aplicar a todos los niveles del lenguaje: nivel de palabra, frase y oración.
Mediante la aplicación de la Hipótesis de Integración, se puede ver que la interacción entre los componentes E y L permite que la estructura del lenguaje (componente E) y los elementos léxicos (componente L) operen simultáneamente dentro de una forma de comunicación compleja: el lenguaje humano. Sin embargo, se cree que estos dos componentes surgieron de dos sistemas de comunicación separados y preexistentes en el mundo animal. [33] Se ha descubierto que los sistemas de comunicación de las aves [34] y los monos [35] son antecedentes del lenguaje humano. El sistema de comunicación del canto de los pájaros se compone íntegramente del componente E, mientras que el sistema de llamada de alarma utilizado por los monos se compone del componente L. Se cree que el lenguaje humano es un subproducto de estos dos sistemas separados que se encuentran en las aves y los monos, debido a los paralelos entre la comunicación humana y estos dos sistemas de comunicación animal.
Los sistemas de comunicación de los pájaros cantores se describen comúnmente como un sistema que se basa en operaciones sintácticas. Específicamente, el canto de los pájaros permite la combinación sistemática de elementos sonoros para encadenar una canción. Asimismo, los lenguajes humanos también operan sintácticamente mediante la combinación de palabras, las cuales se calculan sistemáticamente. Si bien la mecánica del canto de los pájaros se basa en la sintaxis, parece que las notas, sílabas y motivos que se combinan para provocar las diferentes canciones no necesariamente contienen ningún significado. [36] El sistema de comunicación de los pájaros cantores también carece de un léxico [37] que contenga un conjunto de cualquier tipo de pares de significado-referente. Básicamente, esto significa que un sonido individual producido por un pájaro cantor no tiene un significado asociado, como lo tiene una palabra en el lenguaje humano. El canto de los pájaros puede estructurarse, pero no puede tener significado. De esta manera, la prominencia de la sintaxis y la ausencia de significado léxico presenta el canto de los pájaros como un fuerte candidato a ser un antecedente simplificado del componente E que se encuentra en el lenguaje humano, ya que este componente también carece de información léxica. Si bien los pájaros que usan el canto de los pájaros pueden confiar solo en este componente E para comunicarse, las expresiones humanas requieren un significado léxico además de las operaciones estructurales que forman parte del componente E, ya que el lenguaje humano no puede operar solo con una estructura sintáctica o palabras de función estructural. Esto es evidente ya que la comunicación humana de hecho consiste en un léxico, y los humanos producen secuencias combinadas de palabras que son significativas, mejor conocidas como oraciones. Esto sugiere que parte del lenguaje humano debe haber sido adaptado del sistema de comunicación de otro animal para que surja el componente L.
Un conocido estudio de Seyfarth et al. [35] investigaron la naturaleza referencial de las llamadas de alarma de los monos verdes. Estos monos tienen tres llamadas de alarma configuradas, y cada llamada se asigna directamente a uno de los siguientes referentes: un leopardo, un águila o una serpiente. Cada llamada se utiliza para advertir a otros monos sobre la presencia de uno de estos tres depredadores en su entorno ambiental inmediato. La idea principal es que la llamada de alarma contenga información léxica que pueda usarse para representar el referente al que se hace referencia. Esencialmente, todo el sistema de comunicación utilizado por los monos se compone del sistema L, de modo que sólo estas llamadas basadas en léxicos son necesarias para comunicarse de manera efectiva. Esto es similar al componente L que se encuentra en el lenguaje humano en el que las palabras de contenido se utilizan para referirse a un referente en el mundo real, que contiene la información léxica relevante. Sin embargo, el componente L en el lenguaje humano es una variante mucho más compleja del componente L que se encuentra en los sistemas de comunicación de los monos verdes: los humanos usan muchas más formas de palabras para comunicarse. Mientras que los monos verdes son capaces de comunicarse únicamente con el componente L, los humanos no, ya que la comunicación sólo con palabras de contenido no genera oraciones gramaticales bien formadas. Es por esta razón que el componente L se combina con el componente E responsable de la estructura sintáctica para generar lenguaje humano.
Como se han encontrado rastros de los componentes E y L en la naturaleza, la hipótesis de la integración afirma que estos dos sistemas existieron antes del lenguaje humano, y que fue la combinación de estos dos sistemas preexistentes lo que rápidamente condujo al surgimiento del lenguaje humano. [38] La hipótesis de integración postula que fue el operador gramatical, Merge, el que desencadenó la combinación de los sistemas E y L para crear el lenguaje humano. [39] Desde este punto de vista, el lenguaje surgió rápidamente y completamente formado, y ya contenía una estructura sintáctica. Esto contrasta con el enfoque gradualista, donde se pensaba que las primeras formas de lenguaje no tenían sintaxis. En cambio, los partidarios del enfoque gradualista creen que el lenguaje progresó lentamente a través de una serie de etapas como resultado de un operador combinatorio simple que generó estructuras planas. Comenzando con una etapa de una palabra, luego una etapa de dos palabras, luego una etapa de tres palabras, etc., se cree que el lenguaje ha desarrollado una jerarquía en etapas posteriores. [39]
En el artículo, La precedencia de la sintaxis en el rápido surgimiento del lenguaje humano en la evolución según lo definido por la hipótesis de la integración , [39] Nóbrega y Miyagawa describen la Hipótesis de la Integración tal como se aplica a las palabras. Para explicar la Hipótesis de Integración en lo que se refiere a las palabras, primero todos deben ponerse de acuerdo sobre la definición de "palabra". Si bien esto parece bastante sencillo en inglés, no lo es en otros idiomas. Para permitir la discusión entre idiomas, se utiliza la idea de "raíz", donde una "raíz" encapsula un concepto en el nivel más básico. Para diferenciar entre "raíces" y "palabras", hay que señalar que las "raíces" carecen por completo de cualquier información relativa a la categoría gramatical o la inflexión. Por lo tanto, las "raíces" forman el componente léxico de la Hipótesis de Integración, mientras que la categoría gramatical (sustantivo, verbo, adjetivo) y las propiedades flexivas (por ejemplo, caso, número, tiempo, etc.) forman el componente expresivo.
Así, en el nivel más básico para la formación de una "palabra" en el lenguaje humano, debe haber una combinación del componente L con el componente E. Cuando conocemos una "palabra" en un idioma, debemos conocer ambos componentes: el concepto al que se refiere así como su categoría gramatical y su inflexión. El primero es el componente L; este último es el componente E. La hipótesis de integración sugiere que fue el operador gramatical Merge el que desencadenó esta combinación, que ocurre cuando un objeto lingüístico (capa L) satisface la característica gramatical de otro objeto lingüístico (capa E). Esto significa que no se espera que los componentes L se combinen directamente entre sí.
Con base en este análisis, se cree que el lenguaje humano surgió en un solo paso. Antes de esta rápida aparición, el componente L, las "raíces", existía individualmente, carecía de características gramaticales y no se combinaban entre sí. Sin embargo, una vez que esto se combinó con el componente E, dio lugar al surgimiento del lenguaje humano, con todas las características necesarias. Las estructuras jerárquicas de sintaxis ya están presentes dentro de las palabras debido a la integración de estas dos capas. Este patrón continúa cuando las palabras se combinan entre sí para formar frases, así como cuando las frases se combinan en oraciones. Por lo tanto, la Hipótesis de la Integración postula que una vez que estos dos sistemas se integraron, el lenguaje humano apareció completamente formado y no requirió etapas adicionales.
Las palabras compuestas son un punto de especial interés en la Hipótesis de Integración, ya que son una prueba más de que las palabras contienen una estructura interna. La Hipótesis de Integración analiza las palabras compuestas de manera diferente en comparación con las teorías gradualistas anteriores del desarrollo del lenguaje. Como se mencionó anteriormente, en el enfoque gradualista, las palabras compuestas se consideran parte de una etapa de protosintaxis del lenguaje humano. En esta propuesta de protolenguaje léxico , los compuestos se desarrollan en la segunda etapa a través de una combinación de palabras únicas mediante una operación rudimentaria recursiva n -aria que genera estructuras planas. [40] Sin embargo, la Hipótesis de la Integración desafía esta creencia, afirmando que hay evidencia que sugiere que las palabras son internamente complejas. En inglés, por ejemplo, la palabra "unlockable" es ambigua debido a dos posibles estructuras que contiene. Puede significar algo que se puede desbloquear (desbloqueable) o puede significar algo que no se puede bloquear (desbloqueable). Esta ambigüedad apunta a dos posibles estructuras jerárquicas dentro de la palabra: no puede tener la estructura plana propuesta por el Enfoque Gradualista. Con esta evidencia, los partidarios de la Hipótesis de Integración argumentan que estas estructuras jerárquicas en palabras se forman mediante Merge, donde se combinan el componente L y el componente E. Por tanto, Merge es responsable de la formación de palabras y frases compuestas. Este descubrimiento lleva a la hipótesis de que las palabras, los compuestos y todos los objetos lingüísticos del lenguaje humano se derivan de este sistema de integración y proporciona evidencia contradictoria a la teoría de la existencia de una protolengua. [39]
Al considerar los compuestos como "fósiles vivientes", Jackendoff [41] alega que la estructura básica de los compuestos no proporciona suficiente información para ofrecer una interpretación semántica. Por tanto, la interpretación semántica debe provenir de la pragmática. Sin embargo, Nórega y Miyagawa [39] notaron que esta afirmación de dependencia de la pragmática no es una propiedad de las palabras compuestas que se demuestra en todos los idiomas. El ejemplo proporcionado por Nórega y Miyagawa es la comparación entre el inglés (lengua germánica) y el portugués brasileño (lengua romance). Los sustantivos compuestos en inglés pueden ofrecer una variedad de interpretaciones semánticas. Por ejemplo, el sustantivo compuesto "hombre carro" puede tener varias interpretaciones posibles como: un hombre que vende autos, un hombre apasionado por los autos, un hombre que repara autos, un hombre que conduce autos, etc. En comparación, el sustantivo brasileño El sustantivo compuesto portugués "peixe-espada", traducido como "pez espada", sólo tiene una comprensión de un pez que se parece a una espada. [39] En consecuencia, al observar las interpretaciones semánticas disponibles de palabras compuestas entre lenguas germánicas y lenguas romances, las lenguas romances tienen significados altamente restrictivos. Este hallazgo presenta evidencia de que, de hecho, los compuestos contienen estructuras internas más sofisticadas de lo que se pensaba anteriormente. Además, Nórega y Miyagawa proporcionan más evidencia para contrarrestar la afirmación de un protolenguaje mediante el examen de compuestos VN exocéntricos. Como se define, uno de los componentes clave de Merge es la propiedad de ser recursivo. Por lo tanto, al observar la recursión dentro de compuestos VN exocéntricos de lenguas romances, se demuestra que debe existir una estructura jerárquica interna que Merge es responsable de combinar. En los datos recopilados por Nórega y Miyagawa, [39] observan que la recursividad ocurre en varias ocasiones dentro de diferentes idiomas. Esto sucede en catalán, italiano y portugués brasileño, donde se crea un nuevo compuesto VN cuando un compuesto VN exocéntrico nominal es el complemento de un verbo. Por ejemplo, refiriéndose a la traducción catalana de "limpiaparabrisas", neteja[para-brises]] lit. clean-stop-breeze, podemos identificar la recursividad porque [para-brises] es el complemento de [neteja] . Además, también podemos observar la aparición de recursividad cuando el sustantivo de un compuesto VN contiene una lista de complementos. Por ejemplo, refiriéndose a la traducción italiana de "anillos, pendientes o porta joyas pequeñas", [porta[anelli, orecchini o piccoli monili]] lit. llevar-anillos-pendientes-o-pequeñas-joyas, hay recursividad debido a la cadena de complementos [anelli, orecchini o piccoli monili] que contiene el sustantivo al verbo [porta] .
La afirmación común de que los compuestos son fósiles del lenguaje a menudo complementa el argumento de que contienen una estructura plana y lineal. [42] Sin embargo, Di Sciullo proporcionó evidencia experimental para disputar esto. [42] Con el conocimiento de que existe asimetría en la estructura interna de los compuestos exocéntricos, utiliza los resultados experimentales para mostrar que se observan efectos de complejidad jerárquica en el procesamiento de compuestos NV en inglés. En su experimento, se presentaron a angloparlantes oraciones que contenían compuestos de objeto-verbo y oraciones que contenían compuestos de verbo-adjunto, quienes luego evaluaron la aceptabilidad de estas oraciones. Di Sciullo ha señalado que trabajos anteriores han determinado que los compuestos de verbo adjunto tienen una estructura más compleja que los compuestos de verbo objeto porque los compuestos de verbo adjunto requieren que se fusionen varias veces. [42] En su experimento, hubo 10 participantes de habla inglesa que evaluaron 60 oraciones en inglés. Los resultados revelaron que los compuestos de verbo adjunto tenían una tasa de aceptabilidad más baja y los compuestos de verbo objeto tenían una tasa de aceptabilidad más alta. En otras palabras, las oraciones que contenían compuestos de verbo adjunto se consideraban más "mal formadas" que las oraciones que contenían compuestos de verbo objeto. Los hallazgos demostraron que el cerebro humano es sensible a las estructuras internas que contienen estos compuestos. Dado que los compuestos de verbo adjunto contienen estructuras jerárquicas complejas debido a la aplicación recursiva de Merge, estas palabras son más difíciles de descifrar y analizar que los compuestos de verbo objeto que abarcan estructuras jerárquicas más simples. Esto es evidencia de que los compuestos no podrían haber sido fósiles de una protolengua sin sintaxis debido a sus complejas estructuras jerárquicas internas.
Como se mencionó anteriormente, el lenguaje humano es interesante porque necesariamente requiere elementos de los sistemas E y L; ninguno de los dos puede ser independiente. Los elementos léxicos, o lo que la Hipótesis de la Integración llama "raíces", son necesarios ya que se refieren a cosas del mundo que nos rodea. También se requieren elementos de expresión que transmiten información sobre categoría o inflexión (número, tiempo, caso, etc.) para dar forma a los significados de las raíces.
Queda más claro que ninguno de estos dos sistemas puede existir por sí solo con respecto al lenguaje humano cuando analizamos el fenómeno del "etiquetado". Este fenómeno se refiere a cómo clasificamos la categoría gramatical de las frases, donde la categoría gramatical de la frase depende de la categoría gramatical de una de las palabras dentro de la frase, llamada cabeza. Por ejemplo, en la frase "comprar los libros", el verbo "comprar" es el principio, y llamamos a la frase completa frase verbal. También hay una frase más pequeña dentro de esta frase verbal, una frase determinante, "los libros", debido al determinante "el". Lo que hace que este fenómeno sea interesante es que permite una estructura jerárquica dentro de las frases. Esto tiene implicaciones sobre cómo combinamos palabras para formar frases y eventualmente oraciones. [43]
Sin embargo, este fenómeno de etiquetado tiene limitaciones. Algunas etiquetas pueden combinarse y otras no. Por ejemplo, dos etiquetas de estructura léxica no se pueden combinar directamente. Los dos sustantivos, "Lucy" y "vestido", no se pueden combinar directamente. Asimismo, tampoco se puede fusionar el sustantivo “lápiz” con el adjetivo “corto”, ni los verbos “querer” y “beber” no se pueden fusionar sin nada intermedio. Como lo representa el siguiente esquema, todos estos ejemplos son estructuras léxicas imposibles. Esto muestra que existe una limitación cuando las categorías léxicas solo pueden tener una capa de profundidad. Sin embargo, estas limitaciones se pueden superar con la inserción de una capa de expresión en el medio. Por ejemplo, para combinar "John" y "book", agregar un determinante como "-'s" hace que esta sea una combinación posible. [43]
Otra limitación se refiere a la naturaleza recursiva de la capa expresiva. Si bien es cierto que CP y TP pueden unirse para formar una estructura jerárquica, esta estructura CP TP no puede repetirse sobre sí misma: tiene solo una capa de profundidad. Esta restricción es común tanto al nivel expresivo de los humanos como al canto de los pájaros. Esta similitud fortalece el vínculo entre el sistema E preexistente que se supone se originó en el canto de los pájaros y las capas E que se encuentran en el lenguaje humano. [43]
Debido a estas limitaciones en cada sistema, donde tanto las categorías léxicas como las expresivas sólo pueden tener una capa de profundidad, la estructura jerárquica recursiva e ilimitada del lenguaje humano es sorprendente. La hipótesis de la integración postula que es la combinación de estos dos tipos de capas lo que da como resultado una estructura jerárquica tan rica. La alternancia entre capas L y capas E es lo que permite que el lenguaje humano alcance una profundidad arbitraria de capas. Por ejemplo, en la frase "Come el pastel que María horneó", la estructura del árbol muestra una alternancia entre las capas L y E. Esto se puede describir fácilmente mediante dos reglas de frase: (i) LP → L EP y (ii) EP → E LP. La recursividad que es posible se ve claramente transformando estas reglas de frases en notación entre corchetes. El LP en (i) se puede escribir como [L EP]. Luego, agregar una capa E a este LP para crear un EP daría como resultado [E [L EP]]. Después, se podría obtener un LP más complejo agregando una capa L al EP, dando como resultado [L [E [L EP]]]. Esto puede continuar para siempre y daría como resultado las estructuras profundas reconocibles que se encuentran en el lenguaje humano. [43]
Los componentes E y L se pueden utilizar para explicar las estructuras sintácticas que forman oraciones en los lenguajes humanos. El primer componente, el componente L, contiene palabras de contenido . [44] Este componente es responsable de transportar la información léxica que transmite el significado subyacente detrás de una oración. Sin embargo, las combinaciones que consisten únicamente en palabras de contenido del componente L no dan como resultado oraciones gramaticales. Este problema se resuelve mediante la interacción del componente L con el componente E. El componente E está formado por palabras funcionales : palabras que se encargan de insertar información sintáctica sobre las categorías sintácticas de las palabras del componente L, así como información morfosintáctica sobre tipificación de cláusulas, pregunta, número, caso y enfoque. [39] Dado que estos elementos agregados complementan las palabras de contenido en el componente L, se puede considerar que el componente E se aplica al componente L. Teniendo en cuenta que el componente L se compone únicamente de información léxica y el componente E se compone únicamente de información sintáctica, existen como dos sistemas independientes. Sin embargo, para el surgimiento de un sistema tan complejo como el lenguaje humano, los dos sistemas dependen necesariamente el uno del otro. Esto se alinea con la propuesta de Chomsky de dualidad semántica, que sugiere que el lenguaje humano se compone de estos dos componentes distintos. [45] De esta manera, es lógico por qué la convergencia de estos dos componentes era necesaria para permitir la funcionalidad del lenguaje humano tal como lo conocemos hoy.
Observando el siguiente ejemplo tomado del artículo La hipótesis de integración de la evolución del lenguaje humano y la naturaleza de las lenguas contemporáneas de Miyagawa et al., [33] cada palabra puede identificarse como un componente L o un componente E en la oración. : ¿ John comió pizza?
Las palabras del componente L de esta oración son las palabras de contenido John, eat y pizza . Cada palabra sólo contiene información léxica que contribuye directamente al significado de la oración. El componente L a menudo se denomina componente base o interno, debido al posicionamiento interno de este constituyente en un árbol de estructura de frase. Es evidente que la cadena de palabras 'John come pizza' no forma una oración gramaticalmente bien formada en inglés, lo que sugiere que las palabras del componente E son necesarias para dar forma y estructurar sintácticamente esta cadena de palabras. El componente E suele denominarse el componente externo que da forma al componente L interno, ya que estos elementos se originan en una posición que orbita alrededor del componente L en un árbol de estructura de frase. En este ejemplo, la palabra de función del componente E implementada es did . Al insertar esta palabra, se agregan dos tipos de estructuras a la expresión: tiempo y tipificación de cláusula. La palabra did es una palabra que se usa para indagar sobre algo que sucedió en el pasado, es decir que agrega la estructura del tiempo pasado a esta expresión. En este ejemplo, esto no cambia explícitamente la forma del verbo, ya que el verbo comer en tiempo pasado todavía aparece como comer sin ningún marcador de tiempo adicional en este entorno particular. En cambio, se puede considerar que el espacio del tiempo pasado está lleno de un símbolo nulo (∅), ya que esta forma del tiempo pasado no tiene ningún contenido fonológico. Aunque encubierto, este marcador de tiempo nulo es una contribución importante de la palabra del componente E did . Dejando a un lado el tiempo, la escritura de cláusulas también se transmite a través del componente E. Es interesante que esta palabra funcional apareció en la posición inicial de la oración porque en inglés, esto indica que la cadena de palabras se manifestará como una pregunta. La palabra hizo determina que la estructura del tipo de cláusula para esta oración tendrá la forma de una pregunta interrogativa, específicamente una pregunta de sí o no . En general, la integración del componente E con el componente L forma la oración bien formada, ¿ John comió pizza? , y explica todas las demás expresiones que se encuentran en los lenguajes humanos.
Enfoques teóricos alternativos
A partir del enfoque basado en el uso, el modelo de competencia , desarrollado por Elizabeth Bates y Brian MacWhinney , considera que la adquisición del lenguaje consiste en una serie de procesos cognitivos competitivos que actúan sobre una señal lingüística. Esto sugiere que el desarrollo del lenguaje depende del aprendizaje y la detección de señales lingüísticas mediante el uso de mecanismos cognitivos generales en competencia en lugar de mecanismos innatos específicos del lenguaje.
Desde el punto de vista de la biosemiótica , recientemente se ha afirmado que la creación de significado comienza mucho antes de la aparición del lenguaje humano. Esta creación de significado consta de procesos cognitivos internos y externos. Por lo tanto, sostiene que tal organización del proceso no podría haber dado origen únicamente al lenguaje. Según esta perspectiva, todos los seres vivos poseen estos procesos, independientemente de cuán amplia sea la variación, según se plantea para cada especie. [46]
Enfoque de corriente débil demasiado enfatizado
Cuando se habla de biolingüística hay dos sentidos que se adoptan al término: biolingüística fuerte y biolingüística débil. Lo débil se fundamenta en una lingüística teórica de persuasión generativista. Por otro lado, la fuerte corriente va más allá de la lingüística teórica comúnmente explorada, orientada hacia la biología, así como hacia otros campos de estudio relevantes. Desde el surgimiento temprano de la biolingüística hasta la actualidad, se ha centrado principalmente en la corriente débil, viendo poca diferencia entre la investigación de la lingüística generativa y la naturaleza biológica del lenguaje, además de confiar en gran medida en el origen chomskyano del término. [47]
Como lo expresó el profesor investigador y lingüista Cedric Boeckx, es una opinión predominante que la biolingüística debe centrarse en la biología para dar sustancia a la teorización lingüística en la que se ha involucrado este campo. Las críticas particulares mencionadas incluyen la falta de distinción entre lingüística generativa y biolingüística, falta de descubrimientos relacionados con las propiedades de la gramática en el contexto de la biología y falta de reconocimiento de la importancia de mecanismos más amplios, como las propiedades biológicas no lingüísticas. Después de todo, etiquetar la propensión al lenguaje como biológica sólo es una ventaja si esa percepción se utiliza en una investigación. [47]
David Poeppel, neurocientífico y lingüista, ha señalado además que si la neurociencia y la lingüística se hacen mal, existe el riesgo de una "esterilización cruzada interdisciplinaria", argumentando que existe un problema de falta de coincidencia de granularidad. Debido a esto, los diferentes niveles de representaciones utilizados en la lingüística y las ciencias neuronales conducen a vagas metáforas que vinculan las estructuras cerebrales con los componentes lingüísticos. Poeppel y Embick también introducen el problema de la inconmensurabilidad ontológica , donde los procesos computacionales descritos en la teoría lingüística no pueden restaurarse a procesos computacionales neuronales. [48]
Prakash Mondal ha desarrollado una crítica reciente de la biolingüística y el "biologismo" en las ciencias del lenguaje en general, quien muestra que existen inconsistencias y desajustes categóricos en cualquier supuesta restricción puente que pretenda relacionar estructuras y procesos neurobiológicos con las estructuras lógicas del lenguaje que tienen un carácter cognitivo-representacional. [49] [50]
[56] [57] [58] [44] [59] [33] [45] [60]
{{cite book}}
: |journal=
ignorado ( ayuda ){{cite book}}
: |website=
ignorado ( ayuda )