La lingüística de corpus es un método empírico para el estudio del lenguaje a través de un corpus de texto (plural corpus ). [1] Los corpus son colecciones equilibradas, a menudo estratificadas, de textos auténticos, del "mundo real", de habla o escritura que tienen como objetivo representar una variedad lingüística dada . [1] Hoy en día, los corpus son generalmente colecciones de datos legibles por máquina.
La lingüística de corpus propone que un análisis fiable de una lengua es más factible con corpus recopilados en el campo (el contexto natural ("realia") de esa lengua) con una interferencia experimental mínima. Las grandes colecciones de texto, aunque los corpus también pueden ser pequeños en términos de palabras repetidas, permiten a los lingüistas realizar análisis cuantitativos sobre conceptos lingüísticos que pueden ser difíciles de probar de manera cualitativa. [2]
El método de corpus textuales utiliza el conjunto de textos en cualquier lengua natural para derivar el conjunto de reglas abstractas que gobiernan esa lengua. Esos resultados se pueden utilizar para explorar las relaciones entre esa lengua objeto de estudio y otras lenguas que han sido sometidas a un análisis similar. Los primeros corpus de este tipo se derivaban manualmente de los textos fuente, pero ahora ese trabajo está automatizado.
Los corpus no sólo se han utilizado para la investigación lingüística, sino que desde 1969 se han utilizado cada vez más para compilar diccionarios (empezando con The American Heritage Dictionary of the English Language en 1969) y gramáticas de referencia, siendo A Comprehensive Grammar of the English Language , publicado en 1985, el primero.
Los expertos en la materia tienen opiniones diferentes sobre la anotación de un corpus. Estas opiniones van desde John McHardy Sinclair , que aboga por una anotación mínima para que los textos hablen por sí mismos, [3] hasta el equipo de Survey of English Usage ( University College , Londres), que defiende la anotación como una forma de permitir una mayor comprensión lingüística a través de un registro riguroso. [4]
Algunos de los primeros intentos de descripción gramatical se basaron, al menos en parte, en corpus de particular importancia religiosa o cultural. Por ejemplo, la literatura prātiśākhya describió los patrones de sonido del sánscrito tal como se encuentran en los Vedas , y la gramática del sánscrito clásico de Pāṇini se basó, al menos en parte, en el análisis de ese mismo corpus. De manera similar, los primeros gramáticos árabes prestaron especial atención al lenguaje del Corán . En la tradición de Europa occidental, los eruditos prepararon concordancias para permitir el estudio detallado del lenguaje de la Biblia y otros textos canónicos.
Un hito en la lingüística de corpus moderna fue la publicación de Computational Analysis of Present-Day American English en 1967. Escrito por Henry Kučera y W. Nelson Francis , el trabajo se basó en un análisis del Brown Corpus , que es un corpus estructurado y equilibrado de un millón de palabras de inglés estadounidense del año 1961. El corpus comprende 2000 muestras de texto, de una variedad de géneros. [5] El Brown Corpus fue el primer corpus computarizado diseñado para la investigación lingüística. [6] Kučera y Francis sometieron el Brown Corpus a una variedad de análisis computacionales y luego combinaron elementos de lingüística, enseñanza de idiomas, psicología , estadística y sociología para crear una obra rica y variada. Otra publicación clave fue "Towards a description of English Usage" de Randolph Quirk en 1960 [7] en la que presentó la Survey of English Usage . El corpus de Quirk fue el primer corpus moderno que se construyó con el propósito de representar todo el lenguaje. [8]
Poco después, la editorial de Boston Houghton-Mifflin se puso en contacto con Kučera para que le proporcionara una base de citas de tres líneas y un millón de palabras para su nuevo American Heritage Dictionary , el primer diccionario compilado mediante lingüística de corpus. El AHD dio el paso innovador de combinar elementos prescriptivos (cómo se debe utilizar el lenguaje) con información descriptiva (cómo se utiliza realmente ) .
Otros editores siguieron el ejemplo. El diccionario monolingüe COBUILD de la editorial británica Collins , diseñado para usuarios que aprenden inglés como lengua extranjera , se compiló utilizando el Banco de Inglés . El Survey of English Usage Corpus se utilizó en el desarrollo de una de las gramáticas basadas en corpus más importantes, que fue escrita por Quirk et al. y publicada en 1985 como A Comprehensive Grammar of the English Language . [9]
El Brown Corpus también ha generado una serie de corpus de estructura similar: el LOB Corpus ( inglés británico de la década de 1960 ), Kolhapur ( inglés indio ), Wellington ( inglés neozelandés ), Australian Corpus of English ( inglés australiano ), el Frown Corpus ( inglés americano de principios de la década de 1990 ) y el FLOB Corpus (inglés británico de la década de 1990). Otros corpus representan muchos idiomas, variedades y modos, e incluyen el International Corpus of English y el British National Corpus , una colección de 100 millones de palabras de una variedad de textos hablados y escritos, creada en la década de 1990 por un consorcio de editores, universidades ( Oxford y Lancaster ) y la Biblioteca Británica . Para el inglés americano contemporáneo, el trabajo se ha estancado en el American National Corpus , pero el Corpus of Contemporary American English (1990-presente) de más de 400 millones de palabras ahora está disponible a través de una interfaz web.
El primer corpus informatizado de lengua hablada transcrita fue construido en 1971 por el Proyecto Francés de Montreal, [10] conteniendo un millón de palabras, que inspiró el corpus mucho más grande de francés hablado de Shana Poplack en el área de Ottawa-Hull. [11]
En la década de 1990, muchos de los primeros éxitos notables de los métodos estadísticos en la programación en lenguaje natural (PLN) se produjeron en el campo de la traducción automática , debido especialmente al trabajo en IBM Research. Estos sistemas pudieron aprovechar los corpus textuales multilingües existentes que habían sido producidos por el Parlamento de Canadá y la Unión Europea como resultado de leyes que exigían la traducción de todos los procedimientos gubernamentales a todos los idiomas oficiales de los sistemas de gobierno correspondientes.
También existen corpus en lenguas no europeas. Por ejemplo, el Instituto Nacional de Lengua y Lingüística Japonesa de Japón ha creado varios corpus de japonés hablado y escrito. También se han creado corpus de lengua de signos utilizando datos de vídeo. [12]
Además de estos corpus de lenguas vivas, también se han creado corpus informatizados de colecciones de textos en lenguas antiguas. Un ejemplo es la base de datos Andersen -Forbes de la Biblia hebrea, desarrollada desde la década de 1970, en la que cada cláusula se analiza utilizando gráficos que representan hasta siete niveles de sintaxis, y cada segmento se etiqueta con siete campos de información. [13] [14] El Corpus árabe coránico es un corpus anotado para la lengua árabe clásica del Corán . Se trata de un proyecto reciente con múltiples capas de anotación que incluyen segmentación morfológica, etiquetado de partes del discurso y análisis sintáctico utilizando gramática de dependencia. [15] El Corpus digital de sánscrito (DCS) es un "corpus dividido en sandhi de textos sánscritos con análisis morfológico y léxico completo... diseñado para la investigación histórico-textual en lingüística y filología sánscritas". [16]
Además de la investigación lingüística pura, los investigadores habían comenzado a aplicar la lingüística de corpus a otros campos académicos y profesionales, como la subdisciplina emergente de Derecho y Lingüística de Corpus , que busca comprender textos legales utilizando datos y herramientas de corpus. El DBLP Discovery Dataset se concentra en la informática y contiene publicaciones informáticas relevantes con metadatos sensibles como afiliaciones de autores, citas o campos de estudio. [17] NLP Scholar introdujo un conjunto de datos más centrado, una combinación de artículos de la Antología ACL y metadatos de Google Scholar . [18] Los corpus también pueden ayudar en los esfuerzos de traducción [19] o en la enseñanza de idiomas extranjeros. [20]
La lingüística de corpus ha generado una serie de métodos de investigación que intentan trazar un camino desde los datos hasta la teoría. Wallis y Nelson (2001) [21] fueron los primeros en introducir lo que denominaron la perspectiva 3A: anotación, abstracción y análisis.
La mayoría de los corpus léxicos actuales están etiquetados con categorías gramaticales (POS). Sin embargo, incluso los lingüistas de corpus que trabajan con "texto simple sin anotaciones" inevitablemente aplican algún método para aislar los términos más destacados. En tales situaciones, la anotación y la abstracción se combinan en una búsqueda léxica.
La ventaja de publicar un corpus anotado es que otros usuarios pueden realizar experimentos en el corpus (a través de los administradores de corpus ). Los lingüistas con otros intereses y perspectivas diferentes a las de los autores pueden aprovechar este trabajo. Al compartir datos, los lingüistas de corpus pueden tratar el corpus como un lugar de debate lingüístico y de estudio posterior. [22]
Las series de libros en este campo incluyen:
Existen varias revistas internacionales revisadas por pares dedicadas a la lingüística de corpus, por ejemplo: