stringtranslate.com

Procesamiento del lenguaje natural

El procesamiento del lenguaje natural ( PLN ) es un subcampo interdisciplinario de la informática y la inteligencia artificial . Se ocupa principalmente de proporcionar a las computadoras la capacidad de procesar datos codificados en lenguaje natural y, por lo tanto, está estrechamente relacionado con la recuperación de información , la representación del conocimiento y la lingüística computacional , un subcampo de la lingüística . Por lo general, los datos se recopilan en corpus de texto , utilizando enfoques basados ​​en reglas, estadísticos o neuronales en el aprendizaje automático y el aprendizaje profundo .

Las principales tareas en el procesamiento del lenguaje natural son el reconocimiento de voz , la clasificación de texto , la comprensión del lenguaje natural y la generación del lenguaje natural .

Historia

El procesamiento del lenguaje natural tiene sus raíces en la década de 1950. [1] Ya en 1950, Alan Turing publicó un artículo titulado " Computing Machinery and Intelligence " en el que proponía lo que hoy se denomina el test de Turing como criterio de inteligencia, aunque en aquel momento no se lo articulaba como un problema separado de la inteligencia artificial. El test propuesto incluye una tarea que implica la interpretación y generación automatizadas del lenguaje natural.

PNL simbólica (década de 1950 – principios de 1990)

La premisa de la PNL simbólica está bien resumida en el experimento de la habitación china de John Searle : dada una colección de reglas (por ejemplo, un libro de frases chino, con preguntas y respuestas correspondientes), la computadora emula la comprensión del lenguaje natural (u otras tareas de PNL) aplicando esas reglas a los datos que enfrenta.

PNL estadístico (década de 1990-década de 2010)

Hasta la década de 1980, la mayoría de los sistemas de procesamiento del lenguaje natural se basaban en conjuntos complejos de reglas escritas a mano. Sin embargo, a finales de esa década se produjo una revolución en el procesamiento del lenguaje natural con la introducción de algoritmos de aprendizaje automático para el procesamiento del lenguaje. Esto se debió tanto al aumento constante de la potencia computacional (véase la ley de Moore ) como a la disminución gradual del predominio de las teorías lingüísticas chomskianas (por ejemplo, la gramática transformacional ), cuyos fundamentos teóricos desalentaban el tipo de lingüística de corpus que subyace al enfoque de aprendizaje automático para el procesamiento del lenguaje. [8]

PNL neuronal (actualidad)

En 2003, el modelo de n-gramas de palabras , en ese momento el mejor algoritmo estadístico, fue superado por un perceptrón multicapa (con una sola capa oculta y una longitud de contexto de varias palabras entrenado en hasta 14 millones de palabras con un clúster de CPU en modelado de lenguaje ) por Yoshua Bengio con coautores. [9]

En 2010, Tomáš Mikolov (entonces estudiante de doctorado en la Universidad Tecnológica de Brno ) con coautores aplicó una red neuronal recurrente simple con una sola capa oculta al modelado del lenguaje, [10] y en los años siguientes continuó desarrollando Word2vec . En la década de 2010, el aprendizaje de representación y los métodos de aprendizaje automático de estilo de red neuronal profunda (con muchas capas ocultas) se generalizaron en el procesamiento del lenguaje natural. Esa popularidad se debió en parte a una oleada de resultados que mostraban que dichas técnicas [11] [12] pueden lograr resultados de vanguardia en muchas tareas de lenguaje natural, por ejemplo, en el modelado del lenguaje [13] y el análisis sintáctico. [14] [15] Esto es cada vez más importante en medicina y atención médica , donde el PNL ayuda a analizar notas y texto en registros médicos electrónicos que de otro modo serían inaccesibles para su estudio cuando se busca mejorar la atención [16] o proteger la privacidad del paciente. [17]

Enfoques: simbólicos, estadísticos, redes neuronales

El enfoque simbólico, es decir, la codificación manual de un conjunto de reglas para manipular símbolos, junto con una búsqueda en el diccionario, fue históricamente el primer enfoque utilizado tanto por la IA en general como por la PNL en particular: [18] [19] como por ejemplo escribiendo gramáticas o ideando reglas heurísticas para la derivación .

Por otro lado, los enfoques de aprendizaje automático , que incluyen redes estadísticas y neuronales, tienen muchas ventajas sobre el enfoque simbólico:

Aunque en 2020 todavía se utilizaban sistemas basados ​​en reglas para manipular símbolos, con el avance de los LLM en 2023 se han vuelto prácticamente obsoletos.

Antes de eso se utilizaban comúnmente:

Enfoque estadístico

A finales de los años 1980 y mediados de los años 1990, el enfoque estadístico puso fin a un período de invierno de la IA , que fue causado por las ineficiencias de los enfoques basados ​​en reglas. [20] [21]

Los primeros árboles de decisión , que producían sistemas de reglas estrictas de tipo if-then , eran muy similares a los antiguos enfoques basados ​​en reglas. Solo la introducción de los modelos ocultos de Markov , aplicados al etiquetado de categorías gramaticales, anunció el fin del antiguo enfoque basado en reglas.

Redes neuronales

Una desventaja importante de los métodos estadísticos es que requieren una ingeniería de características elaborada . Desde 2015, [22] el enfoque estadístico ha sido reemplazado por el enfoque de redes neuronales , utilizando redes semánticas [23] e incrustaciones de palabras para capturar las propiedades semánticas de las palabras.

Las tareas intermedias (por ejemplo, etiquetado de partes del discurso y análisis de dependencias) ya no son necesarias.

La traducción automática neuronal , basada en transformaciones de secuencia a secuencia recién inventadas en ese entonces , hizo obsoletos los pasos intermedios, como la alineación de palabras, que antes eran necesarios para la traducción automática estadística .

Tareas comunes de PNL

A continuación se incluye una lista de algunas de las tareas más investigadas en el procesamiento del lenguaje natural. Algunas de estas tareas tienen aplicaciones directas en el mundo real, mientras que otras suelen servir como subtareas que se utilizan para ayudar a resolver tareas más grandes.

Aunque las tareas de procesamiento del lenguaje natural están estrechamente relacionadas, se pueden subdividir en categorías para mayor comodidad. A continuación se ofrece una división general.

Procesamiento de texto y voz

Reconocimiento óptico de caracteres (OCR)
Dada una imagen que representa un texto impreso, determine el texto correspondiente.
Reconocimiento de voz
Dado un fragmento de sonido de una o más personas hablando, determine la representación textual del discurso. Esto es lo opuesto a la conversión de texto a voz y es uno de los problemas extremadamente difíciles denominados coloquialmente " AI-complete " (ver arriba). En el habla natural casi no hay pausas entre palabras sucesivas y, por lo tanto, la segmentación del habla es una subtarea necesaria del reconocimiento de voz (ver abajo). En la mayoría de los idiomas hablados, los sonidos que representan letras sucesivas se mezclan entre sí en un proceso denominado coarticulación , por lo que la conversión de la señal analógica en caracteres discretos puede ser un proceso muy difícil. Además, dado que las palabras en el mismo idioma son pronunciadas por personas con diferentes acentos, el software de reconocimiento de voz debe ser capaz de reconocer la amplia variedad de entradas como idénticas entre sí en términos de su equivalente textual.
Segmentación del habla
Dado un fragmento de sonido de una o más personas hablando, sepárelo en palabras. Es una subtarea del reconocimiento de voz y, por lo general, se agrupa con ella.
Texto a voz
Dado un texto, transforme esas unidades y produzca una representación hablada. La conversión de texto a voz se puede utilizar para ayudar a las personas con discapacidad visual. [24]
Segmentación de palabras ( Tokenización )
La tokenización es un proceso utilizado en el análisis de texto que divide el texto en palabras individuales o fragmentos de palabras. Esta técnica da como resultado dos componentes clave: un índice de palabras y un texto tokenizado. El índice de palabras es una lista que asigna palabras únicas a identificadores numéricos específicos, y el texto tokenizado reemplaza cada palabra con su token numérico correspondiente. Estos tokens numéricos se utilizan luego en varios métodos de aprendizaje profundo. [25]
Para un idioma como el inglés , esto es bastante trivial, ya que las palabras suelen estar separadas por espacios. Sin embargo, algunos idiomas escritos como el chino , el japonés y el tailandés no marcan los límites de las palabras de esa manera, y en esos idiomas la segmentación de texto es una tarea importante que requiere conocimiento del vocabulario y la morfología de las palabras del idioma. A veces, este proceso también se utiliza en casos como la creación de bolsas de palabras (BOW) en la minería de datos. [ cita requerida ]

Análisis morfológico

Lematización
La tarea de eliminar únicamente las terminaciones flexivas y devolver la forma base del diccionario de una palabra, también conocida como lema. La lematización es otra técnica para reducir las palabras a su forma normalizada. Pero en este caso, la transformación en realidad utiliza un diccionario para asignar las palabras a su forma real. [26]
Segmentación morfológica
Separar las palabras en morfemas individuales e identificar la clase de los morfemas. La dificultad de esta tarea depende en gran medida de la complejidad de la morfología ( es decir , la estructura de las palabras) del idioma en cuestión. El inglés tiene una morfología bastante simple, especialmente la morfología flexiva , y por lo tanto a menudo es posible ignorar esta tarea por completo y simplemente modelar todas las formas posibles de una palabra (por ejemplo, "abrir, abre, abierto, apertura") como palabras separadas. Sin embargo, en idiomas como el turco o el meitei , un idioma indio altamente aglutinado , tal enfoque no es posible, ya que cada entrada del diccionario tiene miles de formas posibles de palabras. [27]
Etiquetado de partes del discurso
Dada una oración, determina la parte gramatical (POS) para cada palabra. Muchas palabras, especialmente las más comunes, pueden servir como múltiples partes gramaticales. Por ejemplo, "book" puede ser un sustantivo ("the book on the table") o un verbo ("to book a flight"); "set" puede ser un sustantivo, verbo o adjetivo ; y "out" puede ser cualquiera de al menos cinco partes gramaticales diferentes.
Derivación del tallo
El proceso de reducir palabras flexivas (o a veces derivadas) a una forma base (por ejemplo, "close" será la raíz de "closed", "closing", "closer", "closer", etc.). La lematización produce resultados similares a la lematización, pero lo hace en base a reglas, no a un diccionario.

Análisis sintáctico

Inducción gramatical [28]
Generar una gramática formal que describa la sintaxis de un lenguaje.
Desambiguación de los límites de las oraciones (también conocida como " desambiguación de los límites de las oraciones ")
Dado un fragmento de texto, encuentre los límites de las oraciones. Los límites de las oraciones suelen estar marcados por puntos u otros signos de puntuación , pero estos mismos caracteres pueden tener otros propósitos (por ejemplo, marcar abreviaturas ).
Analizando
Determinar el árbol de análisis sintáctico (análisis gramatical) de una oración dada. La gramática de los lenguajes naturales es ambigua y las oraciones típicas tienen múltiples análisis posibles: quizás sorprendentemente, para una oración típica puede haber miles de análisis sintácticos potenciales (la mayoría de los cuales parecerán completamente absurdos para un humano). Hay dos tipos principales de análisis sintáctico: análisis sintáctico de dependencia y análisis sintáctico de circunscripción . El análisis sintáctico de dependencia se centra en las relaciones entre las palabras de una oración (marcando cosas como objetos primarios y predicados), mientras que el análisis sintáctico de circunscripción se centra en construir el árbol de análisis sintáctico utilizando una gramática probabilística libre de contexto (PCFG) (ver también gramática estocástica ).

Semántica léxica (de palabras individuales en contexto)

Semántica léxica
¿Cuál es el significado computacional de palabras individuales en contexto?
Semántica distributiva
¿Cómo podemos aprender representaciones semánticas a partir de datos?
Reconocimiento de entidad nombrada (NER)
Dado un flujo de texto, determine qué elementos del texto corresponden a nombres propios, como personas o lugares, y cuál es el tipo de cada uno de esos nombres (por ejemplo, persona, ubicación, organización). Aunque la capitalización puede ayudar a reconocer entidades con nombre en idiomas como el inglés, esta información no puede ayudar a determinar el tipo de entidad con nombre y, en cualquier caso, a menudo es inexacta o insuficiente. Por ejemplo, la primera letra de una oración también se escribe con mayúscula y las entidades con nombre a menudo abarcan varias palabras, de las cuales solo algunas se escriben con mayúscula. Además, muchos otros idiomas en escrituras no occidentales (por ejemplo, chino o árabe ) no tienen ninguna mayúscula, e incluso los idiomas con mayúscula pueden no usarla de manera consistente para distinguir nombres. Por ejemplo, el alemán escribe con mayúscula todos los sustantivos , independientemente de si son nombres, y el francés y el español no escriben con mayúscula los nombres que sirven como adjetivos . Otro nombre para esta tarea es clasificación de tokens. [29]
Análisis de sentimientos (ver también Análisis de sentimientos multimodal )
El análisis de sentimientos es un método computacional utilizado para identificar y clasificar la intención emocional detrás del texto. Esta técnica implica analizar el texto para determinar si el sentimiento expresado es positivo, negativo o neutral. Los modelos para la clasificación de sentimientos generalmente utilizan entradas como n-gramas de palabras , características de frecuencia de término-frecuencia de documento inversa (TF-IDF), características generadas manualmente o emplean modelos de aprendizaje profundo diseñados para reconocer dependencias a corto y largo plazo en secuencias de texto. Las aplicaciones del análisis de sentimientos son diversas y se extienden a tareas como la categorización de reseñas de clientes en varias plataformas en línea. [25]
Extracción de terminología
El objetivo de la extracción de terminología es extraer automáticamente términos relevantes de un corpus determinado.
Desambiguación del sentido de las palabras (WSD)
Muchas palabras tienen más de un significado ; debemos seleccionar el significado que tenga más sentido en el contexto. Para este problema, normalmente se nos proporciona una lista de palabras y significados asociados, por ejemplo, de un diccionario o de un recurso en línea como WordNet .
Vinculación de entidades
Muchas palabras (normalmente nombres propios) hacen referencia a entidades nombradas ; aquí tenemos que seleccionar la entidad (un individuo famoso, un lugar, una empresa, etc.) a la que se hace referencia en el contexto.

Semántica relacional (semántica de oraciones individuales)

Extracción de relaciones
Dado un fragmento de texto, identifique las relaciones entre entidades nombradas (por ejemplo, quién está casado con quién).
Análisis semántico
Dado un fragmento de texto (normalmente una oración), se produce una representación formal de su semántica, ya sea como un gráfico (por ejemplo, en el análisis AMR ) o de acuerdo con un formalismo lógico (por ejemplo, en el análisis DRT ). Este desafío normalmente incluye aspectos de varias tareas de PNL más elementales de la semántica (por ejemplo, etiquetado de roles semánticos, desambiguación del sentido de las palabras) y se puede ampliar para incluir un análisis del discurso completo (por ejemplo, análisis del discurso, correferencia; consulte Comprensión del lenguaje natural a continuación).
Etiquetado de roles semánticos (ver también etiquetado de roles semánticos implícitos a continuación)
Dada una sola oración, identificar y desambiguar predicados semánticos (por ejemplo, marcos verbales ), luego identificar y clasificar los elementos del marco ( roles semánticos ).

Discurso (semántica más allá de las oraciones individuales)

Resolución de correferencia
Dada una oración o un fragmento de texto más grande, determine qué palabras ("menciones") se refieren a los mismos objetos ("entidades"). La resolución de anáforas es un ejemplo específico de esta tarea, y se ocupa específicamente de hacer coincidir los pronombres con los sustantivos o nombres a los que se refieren. La tarea más general de resolución de correferencia también incluye la identificación de las llamadas "relaciones puente" que involucran expresiones referenciales . Por ejemplo, en una oración como "Entró a la casa de John por la puerta principal", "la puerta principal" es una expresión referencial y la relación puente que se debe identificar es el hecho de que la puerta a la que se hace referencia es la puerta principal de la casa de John (en lugar de alguna otra estructura a la que también se podría hacer referencia).
Análisis del discurso
Esta rúbrica incluye varias tareas relacionadas. Una de ellas es el análisis del discurso, es decir, la identificación de la estructura del discurso de un texto conectado, es decir, la naturaleza de las relaciones discursivas entre oraciones (por ejemplo, elaboración, explicación, contraste). Otra posible tarea es reconocer y clasificar los actos de habla en un fragmento de texto (por ejemplo, pregunta de sí o no, pregunta de contenido, enunciado, aserción, etc.).
Etiquetado de roles semánticos implícitos
Dada una sola oración, identificar y desambiguar predicados semánticos (por ejemplo, marcos verbales ) y sus roles semánticos explícitos en la oración actual (ver Etiquetado de roles semánticos arriba). Luego, identificar los roles semánticos que no se realizan explícitamente en la oración actual, clasificarlos en argumentos que se realizan explícitamente en otra parte del texto y aquellos que no están especificados, y resolver los primeros contra el texto local. Una tarea estrechamente relacionada es la resolución de anáfora cero, es decir, la extensión de la resolución de correferencia a los idiomas pro-drop .
Reconociendo la implicación textual
Dados dos fragmentos de texto, determinar si la verdad de uno implica la del otro, implica la negación del otro o permite que el otro sea verdadero o falso. [30]
Segmentación y reconocimiento de temas
Dado un fragmento de texto, sepárelo en segmentos, cada uno de los cuales esté dedicado a un tema, e identifique el tema del segmento.
Minería de argumentos
El objetivo de la minería de argumentos es la extracción e identificación automática de estructuras argumentativas de textos en lenguaje natural con la ayuda de programas informáticos. [31] Dichas estructuras argumentativas incluyen la premisa, las conclusiones, el esquema argumental y la relación entre el argumento principal y el secundario, o el argumento principal y el contraargumento dentro del discurso. [32] [33]

Aplicaciones de PNL de alto nivel

Resumen automático (resumen de texto)
Producir un resumen legible de un fragmento de texto. Se suele utilizar para proporcionar resúmenes de textos de un tipo conocido, como trabajos de investigación o artículos de la sección financiera de un periódico.
Corrección de errores gramaticales
La detección y corrección de errores gramaticales implica una gran variedad de problemas en todos los niveles del análisis lingüístico (fonología/ortografía, morfología, sintaxis, semántica, pragmática). La corrección de errores gramaticales tiene un gran impacto ya que afecta a cientos de millones de personas que usan o adquieren el inglés como segunda lengua. Por lo tanto, ha sido objeto de varias tareas compartidas desde 2011. [34] [35] [36] En lo que respecta a la ortografía, la morfología, la sintaxis y ciertos aspectos de la semántica, y debido al desarrollo de potentes modelos neuronales del lenguaje como GPT-2 , ahora (2019) se puede considerar un problema en gran medida resuelto y se está comercializando en varias aplicaciones comerciales.
Traducción lógica
Traducir un texto de un lenguaje natural a la lógica formal.
Traducción automática (TM)
Traducir automáticamente texto de un idioma humano a otro. Este es uno de los problemas más difíciles y pertenece a una clase de problemas denominados coloquialmente " completos con IA ", es decir, que requieren todos los diferentes tipos de conocimiento que poseen los humanos (gramática, semántica, hechos sobre el mundo real, etc.) para resolverlos correctamente.
Comprensión del lenguaje natural (NLU)
Convertir fragmentos de texto en representaciones más formales, como estructuras lógicas de primer orden , que son más fáciles de manipular para los programas informáticos . La comprensión del lenguaje natural implica la identificación de la semántica deseada a partir de las múltiples semánticas posibles que se pueden derivar de una expresión de lenguaje natural que generalmente toma la forma de notaciones organizadas de conceptos de lenguaje natural. La introducción y creación de metamodelos y ontologías del lenguaje son soluciones empíricas eficientes. Se espera una formalización explícita de la semántica del lenguaje natural sin confusiones con suposiciones implícitas como la suposición de mundo cerrado (CWA) frente a la suposición de mundo abierto , o Sí/No subjetivo frente a Verdadero/Falso objetivo para la construcción de una base de formalización semántica. [37]
Generación de lenguaje natural (NLG):
Convertir información de bases de datos informáticas o intenciones semánticas en lenguaje humano legible.
Generación de libros
La creación de libros completos no es una tarea de PNL propiamente dicha, sino una extensión de la generación de lenguaje natural y otras tareas de PNL. El primer libro generado por máquina fue creado por un sistema basado en reglas en 1984 (Racter, The policeman's beard is half-constructed ). [38] El primer trabajo publicado por una red neuronal se publicó en 2018, 1 the Road , comercializado como novela, contiene sesenta millones de palabras. Ambos sistemas son básicamente modelos de lenguaje elaborados pero sin sentido (libres de semántica) . El primer libro de ciencia generado por máquina se publicó en 2019 (Beta Writer, Lithium-Ion Batteries , Springer, Cham). [39] A diferencia de Racter y 1 the Road , este se basa en el conocimiento fáctico y en el resumen del texto.
Documento AI
Una plataforma de inteligencia artificial para documentos se basa en la tecnología de procesamiento del lenguaje natural (PLN) y permite a los usuarios sin experiencia previa en inteligencia artificial, aprendizaje automático o PNL entrenar rápidamente una computadora para extraer los datos específicos que necesitan de diferentes tipos de documentos. La inteligencia artificial para documentos impulsada por PNL permite a los equipos no técnicos acceder rápidamente a la información oculta en los documentos, por ejemplo, abogados, analistas de negocios y contadores. [40]
Gestión del diálogo
Sistemas informáticos diseñados para conversar con un humano.
Respuesta a preguntas
Dada una pregunta en lenguaje humano, determine su respuesta. Las preguntas típicas tienen una respuesta correcta específica (como "¿Cuál es la capital de Canadá?"), pero a veces también se consideran preguntas abiertas (como "¿Cuál es el significado de la vida?").
Generación de texto a imagen
Dada una descripción de una imagen, generar una imagen que coincida con la descripción. [41]
Generación de texto a escena
Dada una descripción de una escena, generar un modelo 3D de la escena. [42] [43]
Texto a vídeo
Dada una descripción de un vídeo, generar un vídeo que coincida con la descripción. [44] [45]

Tendencias generales y (posibles) direcciones futuras

Basándonos en las tendencias de larga data en el campo, es posible extrapolar las direcciones futuras de la PNL. A partir de 2020, se pueden observar tres tendencias entre los temas de la serie de tareas compartidas de CoNLL de larga data: [46]

Cognición

La mayoría de las aplicaciones de PNL de nivel superior implican aspectos que emulan el comportamiento inteligente y la comprensión aparente del lenguaje natural. En términos más generales, la operacionalización técnica de aspectos cada vez más avanzados del comportamiento cognitivo representa una de las trayectorias de desarrollo del PNL (ver las tendencias entre las tareas compartidas de CoNLL más arriba).

La cognición se refiere a "la acción mental o proceso de adquisición de conocimiento y comprensión a través del pensamiento, la experiencia y los sentidos". [47] La ​​ciencia cognitiva es el estudio científico interdisciplinario de la mente y sus procesos. [48] La lingüística cognitiva es una rama interdisciplinaria de la lingüística, que combina el conocimiento y la investigación tanto de la psicología como de la lingüística. [49] Especialmente durante la era de la PNL simbólica, el área de la lingüística computacional mantuvo fuertes vínculos con los estudios cognitivos.

A modo de ejemplo, George Lakoff ofrece una metodología para construir algoritmos de procesamiento del lenguaje natural (PLN) a través de la perspectiva de la ciencia cognitiva, junto con los hallazgos de la lingüística cognitiva, [50] con dos aspectos definitorios:

  1. Aplique la teoría de la metáfora conceptual , explicada por Lakoff como "la comprensión de una idea, en términos de otra" que proporciona una idea de la intención del autor. [51] Por ejemplo, considere la palabra inglesa grande . Cuando se usa en una comparación ("Ese es un árbol grande"), la intención del autor es dar a entender que el árbol es físicamente grande en relación con otros árboles o la experiencia del autor. Cuando se usa metafóricamente ("Mañana es un gran día"), la intención del autor es dar a entender importancia . La intención detrás de otros usos, como en "Ella es una persona grande", seguirá siendo algo ambigua para una persona y un algoritmo cognitivo de PNL por igual sin información adicional.
  2. Asignar medidas relativas de significado a una palabra, frase, oración o fragmento de texto basándose en la información presentada antes y después del fragmento de texto que se está analizando, por ejemplo, mediante una gramática probabilística libre de contexto (PCFG). La ecuación matemática para dichos algoritmos se presenta en la patente estadounidense 9269353: [52]
Dónde
RMM es la medida relativa del significado
Un token es cualquier bloque de texto, oración, frase o palabra.
N es el número de tokens que se están analizando
PMM es la medida probable de significado basada en un corpus
d es la ubicación distinta de cero del token a lo largo de la secuencia de N tokens
PF es la función de probabilidad específica de un idioma.

Los vínculos con la lingüística cognitiva son parte de la herencia histórica del PNL, pero se han abordado con menos frecuencia desde el giro estadístico durante la década de 1990. Sin embargo, se han perseguido enfoques para desarrollar modelos cognitivos hacia marcos técnicamente operacionalizables en el contexto de varios marcos, por ejemplo, de gramática cognitiva, [53] gramática funcional, [54] gramática de construcción, [55] psicolingüística computacional y neurociencia cognitiva (por ejemplo, ACT-R ), sin embargo, con una aceptación limitada en la PNL convencional (medida por la presencia en las principales conferencias [56] de la ACL ). Más recientemente, las ideas del PNL cognitivo han revivido como un enfoque para lograr la explicabilidad , por ejemplo, bajo la noción de "IA cognitiva". [57] De la misma manera, las ideas de PNL cognitivo son inherentes a los modelos neuronales de PNL multimodal (aunque rara vez se hacen explícitos) [58] y a los desarrollos en inteligencia artificial , específicamente herramientas y tecnologías que utilizan enfoques de modelos de lenguaje grandes [59] y nuevas direcciones en inteligencia artificial general basadas en el principio de energía libre [60] por el neurocientífico y teórico británico del University College de Londres Karl J. Friston .

Véase también

Referencias

  1. ^ "PNL".
  2. ^ Hutchins, J. (2005). "La historia de la traducción automática en pocas palabras" (PDF) .[ fuente autopublicada ]
  3. ^ "ALPAC: el (in)famoso informe", John Hutchins, MT News International, núm. 14, junio de 1996, págs. 9-12.
  4. ^ Crevier 1993, pp. 146–148 , véase también Buchanan 2005, p. 56 : "Los primeros programas estaban necesariamente limitados en su alcance por el tamaño y la velocidad de la memoria".
  5. ^ Koskenniemi, Kimmo (1983), Morfología de dos niveles: un modelo computacional general de reconocimiento y producción de formas de palabras (PDF) , Departamento de Lingüística General, Universidad de Helsinki
  6. ^ Joshi, AK y Weinstein, S. (agosto de 1981). Control de la inferencia: papel de algunos aspectos de la estructuración del discurso. En IJCAI (pp. 385-387).
  7. ^ Guida, G.; Mauri, G. (julio de 1986). "Evaluación de sistemas de procesamiento del lenguaje natural: cuestiones y enfoques". Actas del IEEE . 74 (7): 1026–1035. doi :10.1109/PROC.1986.13580. ISSN  1558-2256. S2CID  30688575.
  8. ^ La lingüística chomskiana fomenta la investigación de " casos extremos " que subrayan los límites de sus modelos teóricos (comparables a los fenómenos patológicos en matemáticas), típicamente creados usando experimentos mentales , en lugar de la investigación sistemática de fenómenos típicos que ocurren en datos del mundo real, como es el caso de la lingüística de corpus . La creación y uso de tales corpus de datos del mundo real es una parte fundamental de los algoritmos de aprendizaje automático para el procesamiento del lenguaje natural. Además, los fundamentos teóricos de la lingüística chomskiana, como el llamado argumento de la " pobreza del estímulo ", implican que los algoritmos de aprendizaje generales, como se usan típicamente en el aprendizaje automático, no pueden tener éxito en el procesamiento del lenguaje. Como resultado, el paradigma chomskiano desalentó la aplicación de tales modelos al procesamiento del lenguaje.
  9. ^ Bengio, Yoshua; Ducharme, Réjean; Vincent, Pascal; Janvin, Christian (1 de marzo de 2003). "Un modelo de lenguaje probabilístico neuronal". The Journal of Machine Learning Research . 3 : 1137–1155 – vía ACM Digital Library.
  10. ^ Mikolov, Tomáš; Karafiát, Martín; Burget, Lukáš; Černocký, Jan; Khudanpur, Sanjeev (26 de septiembre de 2010). "Modelo de lenguaje basado en redes neuronales recurrentes" (PDF) . Entre discursos 2010 . págs. 1045-1048. doi : 10.21437/Interspeech.2010-343. S2CID  17048224. {{cite book}}: |journal=ignorado ( ayuda )
  11. ^ Goldberg, Yoav (2016). "Una introducción a los modelos de redes neuronales para el procesamiento del lenguaje natural". Revista de investigación en inteligencia artificial . 57 : 345–420. arXiv : 1807.10854 . doi :10.1613/jair.4992. S2CID  8273530.
  12. ^ Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016). Aprendizaje profundo. MIT Press.
  13. ^ Jozefowicz, Rafal; Vinyals, Oriol; Schuster, Mike; Shazeer, Noam; Wu, Yonghui (2016). Explorando los límites del modelado del lenguaje . arXiv : 1602.02410 . Código Bibliográfico :2016arXiv160202410J.
  14. ^ Choe, Do Kook; Charniak, Eugene. "El análisis sintáctico como modelado del lenguaje". Emnlp 2016. Archivado desde el original el 23 de octubre de 2018. Consultado el 22 de octubre de 2018 .
  15. ^ Vinyals, Oriol; et al. (2014). "Gramática como lengua extranjera" (PDF) . Nips2015 . arXiv : 1412.7449 . Código Bibliográfico :2014arXiv1412.7449V.
  16. ^ Turchin, Alexander; Florez Builes, Luisa F. (19 de marzo de 2021). "Uso del procesamiento del lenguaje natural para medir y mejorar la calidad de la atención de la diabetes: una revisión sistemática". Revista de ciencia y tecnología de la diabetes . 15 (3): 553–560. doi :10.1177/19322968211000831. ISSN  1932-2968. PMC 8120048 . PMID  33736486. 
  17. ^ Lee, Jennifer; Yang, Samuel; Holland-Hall, Cynthia; Sezgin, Emre; Gill, Manjot; Linwood, Simon; Huang, Yungui; Hoffman, Jeffrey (10 de junio de 2022). "Prevalencia de términos sensibles en notas clínicas utilizando técnicas de procesamiento del lenguaje natural: estudio observacional". JMIR Medical Informatics . 10 (6): e38482. doi : 10.2196/38482 . ISSN  2291-9694. PMC 9233261 . PMID  35687381. 
  18. ^ Winograd, Terry (1971). Procedimientos como representación de datos en un programa informático para la comprensión del lenguaje natural (Tesis).
  19. ^ Schank, Roger C.; Abelson, Robert P. (1977). Guiones, planes, objetivos y comprensión: una investigación sobre las estructuras del conocimiento humano . Hillsdale: Erlbaum. ISBN 0-470-99033-3.
  20. ^ Mark Johnson. Cómo la revolución estadística cambia la lingüística (computacional). Actas del taller de 2009 de la EACL sobre la interacción entre la lingüística y la lingüística computacional.
  21. ^ Philip Resnik. Cuatro revoluciones. Language Log, 5 de febrero de 2011.
  22. ^ Socher, Richard. "Tutorial de aprendizaje profundo para NLP-ACL 2012". www.socher.org . Consultado el 17 de agosto de 2020 .Este fue uno de los primeros tutoriales sobre aprendizaje profundo que se presentó en la ACL 2012 y despertó interés y (en ese momento) escepticismo por parte de la mayoría de los participantes. Hasta entonces, el aprendizaje neuronal era básicamente rechazado debido a su falta de interpretabilidad estadística. Hasta 2015, el aprendizaje profundo se había convertido en el marco principal del procesamiento del lenguaje natural. [El enlace no funciona, prueba con http://web.stanford.edu/class/cs224n/]
  23. ^ Segev, Elad (2022). Análisis de redes semánticas en las ciencias sociales. Londres: Routledge. ISBN 9780367636524Archivado del original el 5 de diciembre de 2021 . Consultado el 5 de diciembre de 2021 .
  24. ^ Yi, Chucai; Tian, ​​Yingli (2012), "Lectura asistida de textos en entornos complejos para personas ciegas", Análisis y reconocimiento de documentos basados ​​en cámaras , Lecture Notes in Computer Science, vol. 7139, Springer Berlin Heidelberg, págs. 15–28, CiteSeerX 10.1.1.668.869 , doi :10.1007/978-3-642-29364-1_2, ISBN  9783642293634
  25. ^ ab "Procesamiento del lenguaje natural (PLN): una guía completa". www.deeplearning.ai . 2023-01-11 . Consultado el 2024-05-05 .
  26. ^ "¿Qué es el procesamiento del lenguaje natural? Introducción al procesamiento del lenguaje natural en el aprendizaje automático". GyanSetu! . 2020-12-06 . Consultado el 2021-01-09 .
  27. ^ Kishorjit, N.; Vidya, Raj RK.; Nirmal, Y.; Sivaji, B. (2012). "Identificación de morfemas de Manipuri" (PDF) . Actas del 3.er taller sobre procesamiento del lenguaje natural en el sur y sudeste asiático (SANLP) . COLING 2012, Mumbai, diciembre de 2012: 95–108.{{cite journal}}: Mantenimiento de CS1: ubicación ( enlace )
  28. ^ Klein, Dan; Manning, Christopher D. (2002). "Inducción gramatical del lenguaje natural utilizando un modelo de contexto constituyente" (PDF) . Avances en sistemas de procesamiento de información neuronal .
  29. ^ Kariampuzha, William; Alyea, Gioconda; Qu, Sue; Sanjak, Jaleal; Mathé, Ewy; Sid, Eric; Chatelaine, Haley; Yadaw, Arjun; Xu, Yanji; Zhu, Qian (2023). "Extracción de información de precisión para la epidemiología de enfermedades raras a escala". Revista de Medicina Traslacional . 21 (1): 157. doi : 10.1186/s12967-023-04011-y . PMC 9972634 . PMID  36855134. 
  30. ^ PASCAL Reconocimiento del desafío de implicación textual (RTE-7) https://tac.nist.gov//2011/RTE/
  31. ^ Lippi, Marco; Torroni, Paolo (20 de abril de 2016). "Minería de argumentos: estado del arte y tendencias emergentes". ACM Transactions on Internet Technology . 16 (2): 1–25. doi :10.1145/2850417. hdl : 11585/523460 . ISSN  1533-5399. S2CID  9561587.
  32. ^ "Minería de argumentos: tutorial de IJCAI2016" www.i3s.unice.fr . Consultado el 9 de marzo de 2021 .
  33. ^ "Enfoques de PNL para la argumentación computacional – ACL 2016, Berlín" . Consultado el 9 de marzo de 2021 .
  34. ^ Administración. «Centro de Tecnología del Lenguaje (CLT)». Universidad Macquarie . Consultado el 11 de enero de 2021 .
  35. ^ "Tarea compartida: corrección de errores gramaticales". www.comp.nus.edu.sg . Consultado el 11 de enero de 2021 .
  36. ^ "Tarea compartida: corrección de errores gramaticales". www.comp.nus.edu.sg . Consultado el 11 de enero de 2021 .
  37. ^ Duan, Yucong; Cruz, Christophe (2011). "Formalización de la semántica del lenguaje natural a través de la conceptualización a partir de la existencia". Revista Internacional de Innovación, Gestión y Tecnología . 2 (1): 37–42. Archivado desde el original el 9 de octubre de 2011.
  38. ^ "UBUWEB:: Racter". www.ubu.com . Consultado el 17 de agosto de 2020 .
  39. ^ Autor, Beta (2019). Baterías de iones de litio . doi :10.1007/978-3-030-16800-1. ISBN 978-3-030-16799-8.ID S2C  155818532.
  40. ^ "Documento Understanding AI on Google Cloud (Cloud Next '19) – YouTube". www.youtube.com . 11 de abril de 2019. Archivado desde el original el 2021-10-30 . Consultado el 2021-01-11 .
  41. ^ Robertson, Adi (6 de abril de 2022). "El generador de imágenes DALL-E AI de OpenAI ahora también puede editar imágenes". The Verge . Consultado el 7 de junio de 2022 .
  42. ^ "El grupo de procesamiento del lenguaje natural de Stanford". nlp.stanford.edu . Consultado el 7 de junio de 2022 .
  43. ^ Coyne, Bob; Sproat, Richard (1 de agosto de 2001). "WordsEye". Actas de la 28.ª conferencia anual sobre gráficos por ordenador y técnicas interactivas . SIGGRAPH '01. Nueva York, NY, EE. UU.: Association for Computing Machinery. págs. 487–496. doi :10.1145/383259.383316. ISBN 978-1-58113-374-5. Número de identificación del sujeto  3842372.
  44. ^ "Google anuncia avances de inteligencia artificial en conversión de texto a video, traducción de idiomas y más". VentureBeat . 2022-11-02 . Consultado el 2022-11-09 .
  45. ^ Vincent, James (29 de septiembre de 2022). "El nuevo generador de IA de texto a video de Meta es como DALL-E para video". The Verge . Consultado el 9 de noviembre de 2022 .
  46. ^ "Tareas compartidas anteriores | CoNLL" www.conll.org . Consultado el 11 de enero de 2021 .
  47. ^ "Cognición". Lexico . Oxford University Press y Dictionary.com . Archivado desde el original el 15 de julio de 2020 . Consultado el 6 de mayo de 2020 .
  48. ^ "Pregúntele al científico cognitivo". Federación Estadounidense de Maestros . 8 de agosto de 2014. La ciencia cognitiva es un campo interdisciplinario de investigadores de la lingüística, la psicología, la neurociencia, la filosofía, la informática y la antropología que buscan comprender la mente.
  49. ^ Robinson, Peter (2008). Manual de lingüística cognitiva y adquisición de segundas lenguas . Routledge. pp. 3–8. ISBN. 978-0-805-85352-0.
  50. ^ Lakoff, George (1999). La filosofía en la carne: la mente encarnada y su desafío a la filosofía occidental; Apéndice: El paradigma de la teoría neuronal del lenguaje . Nueva York Basic Books. págs. 569–583. ISBN 978-0-465-05674-3.
  51. ^ Strauss, Claudia (1999). Una teoría cognitiva del significado cultural . Cambridge University Press. pp. 156–164. ISBN 978-0-521-59541-4.
  52. ^ Patente estadounidense 9269353 
  53. ^ "Anotación cognitiva conceptual universal (UCCA)". Anotación cognitiva conceptual universal (UCCA) . Consultado el 11 de enero de 2021 .
  54. ^ Rodríguez, FC y Mairal-Usón, R. (2016). Construyendo una gramática computacional RRG. Onomazeína , (34), 86-117.
  55. ^ "Gramática de construcción fluida: un sistema de procesamiento totalmente operativo para gramáticas de construcción" . Consultado el 11 de enero de 2021 .
  56. ^ "Portal de miembros de la ACL | Portal de miembros de la Asociación de Lingüística Computacional" www.aclweb.org . Consultado el 11 de enero de 2021 .
  57. ^ "Trozos y reglas". W3C . Consultado el 11 de enero de 2021 .
  58. ^ Socher, Richard; Karpathy, Andrej; Le, Quoc V.; Manning, Christopher D.; Ng, Andrew Y. (2014). "Semántica compositiva fundamentada para encontrar y describir imágenes con oraciones". Transacciones de la Asociación de Lingüística Computacional . 2 : 207–218. doi : 10.1162/tacl_a_00177 . S2CID  2317858.
  59. ^ Dasgupta, Ishita; Lampinen, Andrew K.; Chan, Stephanie CY; Creswell, Antonia; Kumaran, Dharshan; McClelland, James L.; Hill, Felix (2022). "Los modelos de lenguaje muestran efectos de contenido similares a los humanos en el razonamiento, Dasgupta, Lampinen et al". arXiv : 2207.07051 [cs.CL].
  60. ^ Friston, Karl J. (2022). Inferencia activa: el principio de energía libre en la mente, el cerebro y el comportamiento; Capítulo 4 Los modelos generativos de inferencia activa . The MIT Press. ISBN 978-0-262-36997-8.

Lectura adicional

Enlaces externos