stringtranslate.com

Espacio semántico

Los espacios semánticos [nota 1] [1] en el ámbito del lenguaje natural tienen como objetivo crear representaciones del lenguaje natural que sean capaces de captar el significado. La motivación original de los espacios semánticos surge de dos desafíos centrales del lenguaje natural: la falta de correspondencia del vocabulario (el hecho de que el mismo significado se puede expresar de muchas maneras) y la ambigüedad del lenguaje natural (el hecho de que el mismo término puede tener varios significados).

La aplicación de espacios semánticos en el procesamiento del lenguaje natural (PLN) tiene como objetivo superar las limitaciones de los enfoques basados ​​en reglas o modelos que operan a nivel de palabras clave . El principal inconveniente de estos enfoques es su fragilidad y el gran esfuerzo manual requerido para crear sistemas de PLN basados ​​en reglas o corpus de entrenamiento para el aprendizaje de modelos. [2] [3] Los modelos basados ​​en reglas y aprendizaje automático se fijan en el nivel de palabras clave y fallan si el vocabulario difiere del definido en las reglas o del material de entrenamiento utilizado para los modelos estadísticos.

La investigación en espacios semánticos se remonta a más de 20 años. En 1996, se publicaron dos artículos que despertaron mucha atención en torno a la idea general de crear espacios semánticos: análisis semántico latente [4] e Hiperespacio análogo al lenguaje [5] . Sin embargo, su adopción estuvo limitada por el gran esfuerzo computacional requerido para construir y usar esos espacios semánticos. Un gran avance con respecto a la precisión del modelado de relaciones asociativas entre palabras (por ejemplo, "tela de araña", "encendedor-cigarrillo", en oposición a relaciones sinónimas como "ballena-delfín", "astronauta-conductor") se logró mediante el análisis semántico explícito (ESA) [6] en 2007. ESA fue un enfoque novedoso (no basado en aprendizaje automático) que representaba palabras en forma de vectores con 100.000 dimensiones (donde cada dimensión representa un artículo en Wikipedia ). Sin embargo, las aplicaciones prácticas del enfoque son limitadas debido a la gran cantidad de dimensiones requeridas en los vectores.

Más recientemente, los avances en técnicas de redes neuronales en combinación con otros enfoques nuevos ( tensores ) dieron lugar a una serie de nuevos desarrollos recientes: Word2vec [7] de Google , GloVe [8] de la Universidad de Stanford y fastText [9] de los laboratorios de investigación de inteligencia artificial de Facebook (FAIR).

Véase también

Referencias

  1. ^ también conocidos como espacios semánticos distribuidos o memoria semántica distribuida
  1. ^ Baroni, Marco; Lenci, Alessandro (2010). "Memoria distributiva: un marco general para la semántica basada en corpus". Computational Linguistics . 36 (4): 673–721. CiteSeerX  10.1.1.331.3769 . doi :10.1162/coli_a_00016. S2CID  5584134.
  2. ^ Scott C. Deerwester; Susan T. Dumais; Thomas K. Landauer; George W. Furnas; Richard A. Harshen (1990). "Indexación mediante análisis semántico latente" (PDF) . Revista de la Sociedad Estadounidense de Ciencias de la Información .
  3. ^ Xing Wei; W. Bruce Croft (2007). "Investigación del rendimiento de la recuperación con modelos de temas creados manualmente". Actas de RIAO '07 Acceso semántico a gran escala al contenido (texto, imagen, vídeo y sonido) . Riao '07: 333–349.
  4. ^ "LSA: Una solución al problema de Platón". lsa.colorado.edu . Consultado el 19 de abril de 2016 .
  5. ^ Lund, Kevin; Burgess, Curt (1 de junio de 1996). "Producción de espacios semánticos de alta dimensión a partir de la coocurrencia léxica". Métodos, instrumentos y computadoras de investigación del comportamiento . 28 (2): 203–208. doi : 10.3758/BF03204766 . ISSN  0743-3808.
  6. ^ Evgeniy Gabrilovich y Shaul Markovitch (2007). "Computing Semantic Relatedness using Wikipedia-based Explicit Semantic Analysis" (PDF) . Actas de la 20.ª Conferencia Internacional Conjunta sobre Inteligencia Artificial (IJCAI). Págs. 1606–1611 .
  7. ^ Tomas Mikolov; Ilya Sutskever; Kai Chen; Greg Corrado; Jeffrey Dean (2013). "Representaciones distribuidas de palabras y frases y su composicionalidad". arXiv : 1310.4546 [cs.CL].
  8. ^ Jeffrey Pennington; Richard Socher; Christopher D. Manning (2014). "GloVe: Vectores globales para la representación de palabras" (PDF) .
  9. ^ Mannes, John (2 de mayo de 2017). «La biblioteca fastText de Facebook ahora está optimizada para dispositivos móviles». TechCrunch . Consultado el 12 de enero de 2018 .