stringtranslate.com

Teoría del aprendizaje computacional

En informática , la teoría del aprendizaje computacional (o simplemente teoría del aprendizaje ) es un subcampo de la inteligencia artificial dedicado a estudiar el diseño y análisis de algoritmos de aprendizaje automático . [1]

Descripción general

Los resultados teóricos en el aprendizaje automático tratan principalmente de un tipo de aprendizaje inductivo llamado aprendizaje supervisado . En el aprendizaje supervisado, se le dan a un algoritmo muestras que están etiquetadas de alguna manera útil. Por ejemplo, las muestras pueden ser descripciones de hongos y las etiquetas pueden indicar si los hongos son comestibles o no. El algoritmo toma estas muestras previamente etiquetadas y las usa para inducir un clasificador. Este clasificador es una función que asigna etiquetas a las muestras, incluidas las muestras que el algoritmo no ha visto previamente. El objetivo del algoritmo de aprendizaje supervisado es optimizar alguna medida de rendimiento, como minimizar la cantidad de errores cometidos en nuevas muestras.

Además de los límites de rendimiento, la teoría del aprendizaje computacional estudia la complejidad temporal y la viabilidad del aprendizaje. [ cita requerida ] En la teoría del aprendizaje computacional, un cálculo se considera factible si se puede realizar en tiempo polinomial . [ cita requerida ] Hay dos tipos de resultados de complejidad temporal:

Los resultados negativos a menudo se basan en suposiciones comúnmente aceptadas, pero aún no probadas, [ cita requerida ] como:

Existen varios enfoques diferentes para la teoría del aprendizaje computacional que se basan en la realización de diferentes suposiciones sobre los principios de inferencia utilizados para generalizar a partir de datos limitados. Esto incluye diferentes definiciones de probabilidad (ver probabilidad de frecuencia , probabilidad bayesiana ) y diferentes suposiciones sobre la generación de muestras. [ cita requerida ] Los diferentes enfoques incluyen:

Si bien su objetivo principal es comprender el aprendizaje de manera abstracta, la teoría del aprendizaje computacional ha llevado al desarrollo de algoritmos prácticos. Por ejemplo, la teoría PAC inspiró el boosting , la teoría VC condujo a las máquinas de vectores de soporte y la inferencia bayesiana condujo a las redes de creencias .

Véase también

Referencias

  1. ^ "ACL - Asociación para el Aprendizaje Computacional".
  2. ^ Valiant, Leslie (1984). "Una teoría de lo aprendible" (PDF) . Comunicaciones de la ACM . 27 (11): 1134–1142. doi :10.1145/1968.1972. S2CID  12837541. Archivado desde el original (PDF) el 2019-05-17 . Consultado el 2022-11-24 .
  3. ^ Vapnik, V.; Chervonenkis, A. (1971). "Sobre la convergencia uniforme de frecuencias relativas de eventos con sus probabilidades" (PDF) . Teoría de la probabilidad y sus aplicaciones . 16 (2): 264–280. doi :10.1137/1116025.
  4. ^ Solomonoff, Ray (marzo de 1964). "Una teoría formal de la inferencia inductiva, parte 1". Información y control . 7 (1): 1–22. doi : 10.1016/S0019-9958(64)90223-2 .
  5. ^ Solomonoff, Ray (1964). "Una teoría formal de la inferencia inductiva, parte 2". Información y control . 7 (2): 224–254. doi :10.1016/S0019-9958(64)90131-7.
  6. ^ Gold, E. Mark (1967). "Identificación del lenguaje en el límite" (PDF) . Información y Control . 10 (5): 447–474. doi : 10.1016/S0019-9958(67)91165-5 .

Lectura adicional

En publicaciones importantes sobre aprendizaje automático se ofrece una descripción de algunas de estas publicaciones.

Encuestas

Selección de funciones

Aprendizaje óptimo de la notación O

Resultados negativos

Tolerancia de error

Equivalencia

Enlaces externos