Los espacios semánticos [nota 1] [1] en el ámbito del lenguaje natural tienen como objetivo crear representaciones del lenguaje natural que sean capaces de captar el significado. La motivación original de los espacios semánticos surge de dos desafíos centrales del lenguaje natural: la falta de correspondencia del vocabulario (el hecho de que el mismo significado se puede expresar de muchas maneras) y la ambigüedad del lenguaje natural (el hecho de que el mismo término puede tener varios significados).
La aplicación de espacios semánticos en el procesamiento del lenguaje natural (PLN) tiene como objetivo superar las limitaciones de los enfoques basados en reglas o modelos que operan a nivel de palabras clave . El principal inconveniente de estos enfoques es su fragilidad y el gran esfuerzo manual requerido para crear sistemas de PLN basados en reglas o corpus de entrenamiento para el aprendizaje de modelos. [2] [3] Los modelos basados en reglas y aprendizaje automático se fijan en el nivel de palabras clave y fallan si el vocabulario difiere del definido en las reglas o del material de entrenamiento utilizado para los modelos estadísticos.
La investigación en espacios semánticos se remonta a más de 20 años. En 1996, se publicaron dos artículos que despertaron mucha atención en torno a la idea general de crear espacios semánticos: análisis semántico latente [4] e Hiperespacio análogo al lenguaje [5] . Sin embargo, su adopción estuvo limitada por el gran esfuerzo computacional requerido para construir y usar esos espacios semánticos. Un gran avance con respecto a la precisión del modelado de relaciones asociativas entre palabras (por ejemplo, "tela de araña", "encendedor-cigarrillo", en oposición a relaciones sinónimas como "ballena-delfín", "astronauta-conductor") se logró mediante el análisis semántico explícito (ESA) [6] en 2007. ESA fue un enfoque novedoso (no basado en aprendizaje automático) que representaba palabras en forma de vectores con 100.000 dimensiones (donde cada dimensión representa un artículo en Wikipedia ). Sin embargo, las aplicaciones prácticas del enfoque son limitadas debido a la gran cantidad de dimensiones requeridas en los vectores.
Más recientemente, los avances en técnicas de redes neuronales en combinación con otros enfoques nuevos ( tensores ) dieron lugar a una serie de nuevos desarrollos recientes: Word2vec [7] de Google , GloVe [8] de la Universidad de Stanford y fastText [9] de los laboratorios de investigación de inteligencia artificial de Facebook (FAIR).