Secuencia de modelos en la traducción automática estadística
Los modelos de alineación de IBM son una secuencia de modelos cada vez más complejos que se utilizan en la traducción automática estadística para entrenar un modelo de traducción y un modelo de alineación, comenzando con las probabilidades de traducción léxica y avanzando hacia la reordenación y la duplicación de palabras. [1] Estos modelos sustentaron la mayoría de los sistemas de traducción automática estadística durante casi veinte años a partir de principios de la década de 1990, hasta que la traducción automática neuronal comenzó a dominar. Estos modelos ofrecen una formulación probabilística basada en principios y una inferencia (en su mayoría) manejable. [2]
El trabajo original sobre traducción automática estadística en IBM propuso cinco modelos, y más tarde se propuso un modelo 6. La secuencia de los seis modelos se puede resumir de la siguiente manera:
Modelo 1: traducción léxica
Modelo 2: modelo de alineación absoluta adicional
Modelo 3: modelo de fertilidad extra
Modelo 4: se agregó un modelo de alineación relativa
Modelo 5: Problema de deficiencia corregido.
Modelo 6: Modelo 4 combinado con un modelo de alineación HMM de forma logarítmica lineal
Configuración matemática
Los modelos de alineación de IBM traducen como un modelo de probabilidad condicional. Para cada oración en el idioma de origen ("extranjero") , generamos una oración en el idioma de destino ("inglés") y una alineación . El problema es entonces encontrar un buen modelo estadístico para , la probabilidad de que generemos una oración en inglés y una alineación dada una oración extranjera .
El significado de una alineación se vuelve cada vez más complicado a medida que aumenta el número de versión del modelo. Consulte el Modelo 1 para obtener la versión más simple y comprensible.
Modelo 1
Alineación de palabras
Dado cualquier par de oraciones en inglés y en otro idioma , la alineación del par de oraciones es una función del tipo . Es decir, asumimos que la palabra en inglés en la ubicación se "explica" mediante la palabra en otro idioma en la ubicación . Por ejemplo, considere el siguiente par de oraciones
Seguramente lloverá mañana --明日 は きっと 雨 だ
Podemos alinear algunas palabras en inglés con sus palabras japonesas correspondientes, pero no todas:
es -> ?
voluntad -> ?
Seguramente -> きっと
lluvia -> 雨
mañana -> 明日
Esto ocurre en general debido a las diferentes gramáticas y convenciones del habla en diferentes idiomas. Las oraciones en inglés requieren un sujeto y, cuando no hay sujeto disponible, se utiliza un pronombre ficticio it . Los verbos japoneses no tienen formas diferentes para el tiempo futuro y el presente, y el tiempo futuro está implícito en el sustantivo 明日 (mañana). Por el contrario, el marcador de temaは y la palabra gramatical だ (aproximadamente "ser") no corresponden a ninguna palabra en la oración en inglés. Por lo tanto, podemos escribir la alineación como
1->0; 2 -> 0; 3 -> 3; 4 -> 4; 5 -> 1
donde 0 significa que no hay alineación correspondiente.
Así, vemos que la función de alineación es en general una función de tipo .
Los modelos futuros permitirán alinear una palabra inglesa con múltiples palabras extranjeras.
Modelo estadístico
Dada la definición de alineación anterior, podemos definir el modelo estadístico utilizado por el Modelo 1:
Comience con un "diccionario". Sus entradas tienen el formato , lo que puede interpretarse como "la palabra extranjera se traduce a la palabra inglesa con probabilidad ".
Después de recibir una oración extranjera con una longitud de , primero generamos una oración en inglés con una longitud uniforme en un rango de . En particular, no depende de o .
Luego, generamos una alineación uniformemente en el conjunto de todas las funciones de alineación posibles .
Por último, para cada palabra en inglés , genere cada una de ellas independientemente de las demás palabras en inglés. Para la palabra , generela de acuerdo con .
En conjunto, tenemos la probabilidad de que el Modelo 1 de IBM utilice supuestos muy simplistas en el modelo estadístico, para permitir que el siguiente algoritmo tenga una solución de forma cerrada.
Aprendiendo de un corpus
Si no se proporciona un diccionario al inicio, pero tenemos un corpus de pares de inglés y lenguas extranjeras (sin información de alineación), entonces el modelo se puede convertir en la siguiente forma:
parámetros fijos: las oraciones extranjeras .
parámetros aprendibles: las entradas del diccionario .
variables observables: las oraciones en inglés .
variables latentes: las alineaciones
En esta forma, este es exactamente el tipo de problema que se resuelve con el algoritmo de expectativa-maximización . Debido a las suposiciones simplistas, el algoritmo tiene una solución cerrada, computable de manera eficiente, que es la solución de las siguientes ecuaciones: Esto se puede resolver con multiplicadores lagrangianos y luego simplificados. Para una derivación detallada del algoritmo, consulte [3] capítulo 4 y. [4]
En resumen, el algoritmo EM funciona de la siguiente manera:
ENTRADA. un corpus de pares de oraciones en inglés y en lenguas extranjeras
INICIALIZAR. matriz de probabilidades de traslaciones .
Esto podría ser uniforme o aleatorio. Solo se requiere que cada entrada sea positiva y, para cada , la probabilidad sume uno: .
LOOP. hasta que converja:
donde cada uno es una constante de normalización que asegura que cada .
DEVOLVER. .
En la fórmula anterior, es la función delta de Dirac : es igual a 1 si las dos entradas son iguales y a 0 en caso contrario. La notación del índice es la siguiente:
abarca pares de oraciones en inglés y en idiomas extranjeros en el corpus;
abarca más palabras en oraciones en inglés;
abarca más palabras en oraciones en idioma extranjero;
abarca todo el vocabulario de palabras inglesas del corpus;
abarca todo el vocabulario de palabras extranjeras del corpus.
Limitaciones
El modelo IBM 1 tiene varias limitaciones . [3]
Sin fluidez: dado cualquier par de oraciones , cualquier permutación de la oración en inglés es igualmente probable: para cualquier permutación de la oración en inglés en .
Sin preferencia de longitud: la probabilidad de cada longitud de traducción es igual: para cualquier .
No modela explícitamente la fertilidad: algunas palabras extranjeras tienden a producir una cantidad fija de palabras en inglés. Por ejemplo, para la traducción del alemán al inglés, ja suele omitirse, y zum suele traducirse como al , para el, a un, para un .
Modelo 2
El modelo 2 permite que la alineación esté condicionada a la longitud de las oraciones. Es decir, tenemos una distribución de probabilidad , es decir, "la probabilidad de que una palabra en inglés esté alineada con una palabra extranjera , cuando la oración en inglés tiene una longitud de , y la oración extranjera tiene una longitud de ".
El resto del Modelo 1 no ha cambiado. Con esto, tenemos El algoritmo EM todavía se puede resolver en forma cerrada, dando el siguiente algoritmo: donde todavía hay factores de normalización. Consulte la sección 4.4.1 [3] para obtener una derivación y un algoritmo.
Modelo 3
El problema de la fertilidad se aborda en IBM Model 3. La fertilidad se modela utilizando una distribución de probabilidad definida como:
Para cada palabra extranjera , dicha distribución indica a cuántas palabras de salida se traduce habitualmente. Este modelo se ocupa de omitir palabras de entrada porque permite . Pero aún existe un problema al agregar palabras. Por ejemplo, la palabra inglesa do se inserta a menudo al negar. Este problema genera un token NULL especial cuya fertilidad también se puede modelar utilizando una distribución condicional definida como:
La cantidad de palabras insertadas depende de la longitud de la oración. Por eso, la inserción del token NULL se modela como un paso adicional: el paso de fertilidad. Aumenta el proceso de traducción de IBM Model 3 a cuatro pasos:
El último paso se denomina distorsión en lugar de alineación porque es posible producir la misma traducción con la misma alineación de diferentes maneras. Por ejemplo, en el ejemplo anterior, tenemos otra forma de obtener la misma alineación: [5]
ja NULL nie pôjde tak do do domu
Yo no voy a la casa
Yo no voy a la casa
El modelo 3 de IBM se puede expresar matemáticamente como:
donde representa la fertilidad de , a cada palabra fuente se le asigna una distribución de fertilidad , y y se refieren a las longitudes absolutas de las oraciones de origen y destino, respectivamente. [6]
Consulte la sección 4.4.2 [3] para obtener una derivación y un algoritmo.
Modelo 4
En IBM Model 4, cada palabra depende de la palabra alineada previamente y de las clases de palabras de las palabras circundantes. Algunas palabras tienden a reordenarse durante la traducción más que otras (por ejemplo, la inversión de adjetivo-sustantivo al traducir del polaco al inglés). Los adjetivos a menudo se colocan antes del sustantivo que los precede. Las clases de palabras introducidas en el Modelo 4 resuelven este problema al condicionar las distribuciones de probabilidad de estas clases. El resultado de dicha distribución es un modelo lexicalizado. Dicha distribución se puede definir de la siguiente manera:
Para la palabra inicial del concepto:
Para palabras adicionales:
donde las funciones y asignan palabras a sus clases de palabras, y y son distribuciones de probabilidad de distorsión de las palabras. El cept se forma alineando cada palabra de entrada con al menos una palabra de salida. [7]
Tanto el Modelo 3 como el Modelo 4 ignoran si se eligió una posición de entrada y si la masa de probabilidad se reservó para las posiciones de entrada fuera de los límites de la oración. Esta es la razón por la que las probabilidades de todas las alineaciones correctas no suman la unidad en estos dos modelos (modelos deficientes). [7]
Modelo 5
IBM Model 5 reformula IBM Model 4 mejorando el modelo de alineación con más parámetros de entrenamiento para superar la deficiencia del modelo. [8] Durante la traducción en el Modelo 3 y el Modelo 4 no hay heurísticas que prohíban la colocación de una palabra de salida en una posición ya ocupada. En el Modelo 5 es importante colocar palabras solo en posiciones libres. Esto se hace rastreando el número de posiciones libres y permitiendo la colocación solo en dichas posiciones. El modelo de distorsión es similar a IBM Model 4, pero se basa en posiciones libres. Si denota el número de posiciones libres en la salida, las probabilidades de distorsión de IBM Model 5 se definirían como: [9]
Para la palabra inicial del concepto:
Para palabras adicionales:
Los modelos de alineación que utilizan dependencias de primer orden, como el HMM o los modelos IBM 4 y 5, producen mejores resultados que los demás métodos de alineación. La idea principal del HMM es predecir la distancia entre las posiciones posteriores del idioma de origen. Por otro lado, el modelo IBM 4 intenta predecir la distancia entre las posiciones posteriores del idioma de destino. Como se esperaba lograr una mejor calidad de alineación al utilizar ambos tipos de dependencias, el HMM y el modelo 4 se combinaron de manera log-lineal en el modelo 6 de la siguiente manera: [10]
donde el parámetro de interpolación se utiliza para contar el peso del Modelo 4 en relación con el modelo oculto de Markov . Una combinación log-lineal de varios modelos se puede definir como :
Se utiliza la combinación log-lineal en lugar de la combinación lineal porque los valores suelen ser diferentes en términos de sus órdenes de magnitud para HMM e IBM Modelo 4. [11]
Referencias
^ "Modelos IBM". Wiki de encuestas de investigación de SMT. 11 de septiembre de 2015. Consultado el 26 de octubre de 2015 .
^ Yarin Gal; Phil Blunsom (12 de junio de 2013). "Un tratamiento bayesiano sistemático de los modelos de alineación de IBM" (PDF) . Universidad de Cambridge. Archivado desde el original (PDF) el 4 de marzo de 2016. Consultado el 26 de octubre de 2015 .
^ abcd Koehn, Philipp (2010). "4. Modelos basados en palabras". Traducción automática estadística. Cambridge University Press. ISBN978-0-521-87415-1.
^ "CS288, primavera de 2020, lección 05: Traducción automática estadística" (PDF) . Archivado (PDF) del original el 24 de octubre de 2020.
^ Wołk K., Marasek K. (2014). Sistemas de traducción automática estadística del habla polaco-inglés para el IWSLT 2014. Actas del 11.º Taller internacional sobre traducción del lenguaje hablado, Lake Tahoe, EE. UU. arXiv : 1509.08874 .
^ FERNÁNDEZ, Pablo Malvar. Mejorando la alineación palabra a palabra usando información morfológica. 2008. Tesis doctoral. San Diego State University.
^ ab Schoenemann, Thomas (2010). Cálculo de alineaciones óptimas para el modelo de traducción IBM-3 . Actas de la decimocuarta conferencia sobre aprendizaje computacional de lenguajes naturales. Asociación de Lingüística Computacional. págs. 98-106.
^ KNIGHT, Kevin. Manual de trabajo tutorial sobre traducción automática estadística. Manuscrito preparado para el taller de verano de la JHU de 1999.
^ Brown, Peter F. (1993). "Las matemáticas de la traducción automática estadística: estimación de parámetros". Computational Linguistics (19): 263–311.
^ Vulić I. (2010). "Alineación de términos. Descripción general del estado del arte" (PDF) . Universidad Católica de Lovaina . Consultado el 26 de octubre de 2015 .[ enlace muerto permanente ]
^ Wołk, K. (2015). "Metodología de filtrado de corpus ruidosos-paralelos y comparables para la extracción de datos equivalentes bilingües a nivel de oración". Ciencias de la Computación . 16 (2): 169–184. arXiv : 1510.04500 . Código Bibliográfico :2015arXiv151004500W. doi :10.7494/csci.2015.16.2.169. S2CID 12860633.