stringtranslate.com

Teoría de Vapnik-Chervonenkis

La teoría de Vapnik-Chervonenkis (también conocida como teoría VC ) fue desarrollada entre 1960 y 1990 por Vladimir Vapnik y Alexey Chervonenkis . La teoría es una forma de teoría del aprendizaje computacional que intenta explicar el proceso de aprendizaje desde un punto de vista estadístico.

Introducción

La teoría de VC cubre al menos cuatro partes (como se explica en La naturaleza de la teoría del aprendizaje estadístico [1] ):

La teoría VC es una rama importante de la teoría del aprendizaje estadístico . Una de sus principales aplicaciones en la teoría del aprendizaje estadístico es proporcionar condiciones de generalización para los algoritmos de aprendizaje. Desde este punto de vista, la teoría VC está relacionada con la estabilidad , que es un enfoque alternativo para caracterizar la generalización.

Además, la teoría VC y la dimensión VC son fundamentales en la teoría de procesos empíricos , en el caso de procesos indexados por clases VC. Podría decirse que estas son las aplicaciones más importantes de la teoría VC y se emplean para demostrar la generalización. Se presentarán varias técnicas que se utilizan ampliamente en el proceso empírico y la teoría VC. La discusión se basa principalmente en el libro Weak Convergence and Empirical Processes: With Applications to Statistics . [2]

Panorama de la teoría VC en procesos empíricos

Antecedentes sobre los procesos empíricos

Sea un espacio medible . Para cualquier medida en , y cualquier función medible , defina

Aquí se ignorarán los problemas de mensurabilidad; para obtener más detalles técnicos, consulte [1] Sea una clase de funciones mensurables y defina:

Sean elementos aleatorios independientes, distribuidos de forma idéntica de . Luego defina la medida empírica

donde δ representa aquí la medida de Dirac . La medida empírica induce una función dada por:

Supongamos ahora que P es la distribución verdadera subyacente de los datos, que es desconocida. La teoría de procesos empíricos apunta a identificar clases para las que se cumplen afirmaciones como la siguiente:

Es decir, como ,

uniformemente para todos .

En el primer caso se denomina clase Glivenko-Cantelli , y en el segundo caso (bajo el supuesto ) la clase se denomina Donsker o P -Donsker. Una clase Donsker es Glivenko-Cantelli en probabilidad mediante una aplicación del teorema de Slutsky .

Estas afirmaciones son verdaderas para un solo , según los argumentos LLN y CLT estándar en condiciones de regularidad, y la dificultad en los procesos empíricos surge porque se están haciendo afirmaciones conjuntas para todos los . Intuitivamente, entonces, el conjunto no puede ser demasiado grande y resulta que la geometría de juega un papel muy importante.

Una forma de medir el tamaño del conjunto de funciones es utilizar los llamados números de cobertura . El número de cobertura

es el número mínimo de bolas necesarias para cubrir el conjunto (aquí se supone obviamente que hay una norma subyacente en ). La entropía es el logaritmo del número de cobertura.

A continuación se proporcionan dos condiciones suficientes bajo las cuales se puede demostrar que el conjunto es Glivenko-Cantelli o Donsker.

Una clase es P -Glivenko–Cantelli si es P -medible con envolvente F tal que y satisface:

La siguiente condición es una versión del célebre teorema de Dudley . Si es una clase de funciones tales que

entonces es P -Donsker para cada medida de probabilidad P tal que . En la última integral, la notación significa

.

Simetrización

La mayoría de los argumentos sobre cómo limitar el proceso empírico se basan en la simetrización, las desigualdades máximas y de concentración y el encadenamiento. La simetrización suele ser el primer paso de las demostraciones y, dado que se utiliza en muchas demostraciones de aprendizaje automático sobre la limitación de funciones de pérdida empírica (incluida la demostración de la desigualdad VC que se analiza en la siguiente sección), se presenta aquí.

Consideremos el proceso empírico:

Resulta que existe una conexión entre el proceso empírico y el siguiente proceso simetrizado:

El proceso simetrizado es un proceso de Rademacher , condicionalmente a los datos . Por lo tanto, es un proceso subgaussiano por la desigualdad de Hoeffding .

Lema (Simetrización). Para cada Φ no decreciente, convexo : RR y clase de funciones mensurables ,

La prueba del lema de simetrización se basa en la introducción de copias independientes de las variables originales (a veces denominadas muestras fantasma ) y en la sustitución de la esperanza interna del LHS por estas copias. Después de una aplicación de la desigualdad de Jensen , se podrían introducir diferentes signos (de ahí el nombre de simetrización) sin cambiar la esperanza. La prueba se puede encontrar a continuación debido a su naturaleza instructiva. El mismo método de prueba se puede utilizar para demostrar el teorema de Glivenko-Cantelli . [3]

Prueba

Introducir la "muestra fantasma" para que sean copias independientes de . Para valores fijos de uno se tiene:

Por lo tanto, por la desigualdad de Jensen :

Tomando la expectativa con respecto a da:

Tenga en cuenta que agregar un signo menos delante de un término no cambia el lado derecho, porque es una función simétrica de y . Por lo tanto, el lado derecho permanece igual bajo "perturbación de signo":

Para cualquier . Por lo tanto:

Finalmente, utilizando primero la desigualdad triangular y luego la convexidad, obtenemos:

Donde las dos últimas expresiones del lado derecho son las mismas, lo que concluye la prueba.

Una forma típica de probar CLT empíricas, primero utiliza simetrización para pasar el proceso empírico a los datos y luego argumenta condicionalmente sobre ellos, utilizando el hecho de que los procesos de Rademacher son procesos simples con buenas propiedades.

Conexión VC

Resulta que existe una conexión fascinante entre ciertas propiedades combinatorias del conjunto y los números de entropía. Los números de recubrimiento uniforme pueden controlarse mediante el concepto de clases de conjuntos de Vapnik-Chervonenkis , o, para abreviar, conjuntos VC .

Consideremos una colección de subconjuntos del espacio muestral . se dice que selecciona un cierto subconjunto del conjunto finito si para algún . se dice que desintegra S si selecciona cada uno de sus 2 n subconjuntos. El índice VC (similar a la dimensión VC + 1 para un conjunto clasificador elegido apropiadamente) de es el n más pequeño para el cual ningún conjunto de tamaño n se desintegra por .

El lema de Sauer establece entonces que el número de subconjuntos seleccionados por una clase VC satisface:

Que es un número polinómico de subconjuntos en lugar de un número exponencial. Intuitivamente, esto significa que un índice VC finito implica que tiene una estructura aparentemente simplista.

Se puede mostrar un límite similar (con una constante diferente, misma tasa) para las llamadas clases de subgrafos VC . Para una función, el subgrafo es un subconjunto de tal que: . Una colección de se denomina clase de subgrafos VC si todos los subgrafos forman una clase VC.

Consideremos un conjunto de funciones indicadoras para un tipo empírico discreto de medida Q (o equivalentemente para cualquier medida de probabilidad Q ). Se puede demostrar entonces que, de manera bastante notable, para :

Consideremos además la envoltura convexa simétrica de un conjunto : siendo la colección de funciones de la forma con . Entonces si

Lo siguiente es válido para la envoltura convexa de :

La consecuencia importante de este hecho es que

lo cual es suficiente para que la integral de entropía converja, y por lo tanto la clase sea P -Donsker.

Finalmente, se considera un ejemplo de una clase de subgrafo VC. Cualquier espacio vectorial de dimensión finita de funciones mensurables es un subgrafo VC de índice menor o igual a .

Demostración: tomemos los puntos . Los vectores:

están en un subespacio n − 1 dimensional de R n . Tome a ≠ 0 , un vector que es ortogonal a este subespacio. Por lo tanto:

Consideremos el conjunto . Este conjunto no se puede seleccionar porque si existe alguno tal que eso implicaría que el lado izquierdo es estrictamente positivo pero el lado derecho no es positivo.

Existen generalizaciones del concepto de clase de subgrafo VC, por ejemplo, existe el concepto de pseudodimensión. [4]

Desigualdad de VC

Se considera una configuración similar, que es más común en el aprendizaje automático . Sea un espacio de características y . Una función se denomina clasificador. Sea un conjunto de clasificadores. De manera similar a la sección anterior, defina el coeficiente de fragmentación (también conocido como función de crecimiento):

Nótese aquí que hay una relación 1:1 entre cada una de las funciones en y el conjunto en el que la función es 1. Por lo tanto, podemos definir como la colección de subconjuntos obtenidos a partir de la aplicación anterior para cada . Por lo tanto, en términos de la sección anterior, el coeficiente de fragmentación es precisamente

.

Esta equivalencia junto con el Lema de Sauer implica que va a ser polinomial en n , para n suficientemente grande siempre que la colección tenga un índice VC finito.

Sea un conjunto de datos observados. Supongamos que los datos son generados por una distribución de probabilidad desconocida . Definamos como la pérdida esperada 0/1 . Por supuesto, dado que es desconocida en general, no se tiene acceso a . Sin embargo, el riesgo empírico , dado por:

Ciertamente se puede evaluar. Entonces se tiene el siguiente teorema:

Teorema (desigualdad VC)

Para la clasificación binaria y la función de pérdida 0/1 tenemos los siguientes límites de generalización:

En palabras, la desigualdad VC dice que a medida que aumenta la muestra, siempre que tenga una dimensión VC finita, el riesgo empírico 0/1 se convierte en un buen indicador del riesgo 0/1 esperado. Nótese que ambos lados derechos de las dos desigualdades convergerán a 0, siempre que crezca polinómicamente en n .

La conexión entre este marco y el marco del proceso empírico es evidente. Aquí se trata de un proceso empírico modificado.

Pero no es sorprendente que las ideas sean las mismas. La prueba de la (primera parte de) desigualdad VC se basa en la simetrización y luego se argumenta condicionalmente sobre los datos utilizando desigualdades de concentración (en particular la desigualdad de Hoeffding ). El lector interesado puede consultar el libro [5] Teoremas 12.4 y 12.5.

Referencias

  1. ^ ab Vapnik, Vladimir N (2000). La naturaleza de la teoría del aprendizaje estadístico . Ciencia de la información y estadística. Springer-Verlag . ISBN 978-0-387-98780-4.
  2. ^ van der Vaart, Aad W. ; Wellner, Jon A. (2000). Convergencia débil y procesos empíricos: con aplicaciones a la estadística (2.ª ed.). Springer. ISBN 978-0-387-94640-5.
  3. ^ Devroye, L., Gyorfi, L. y Lugosi, G. Una teoría probabilística del reconocimiento de patrones. Discrete Appl Math 73 , 192–194 (1997).
  4. ^ Pollard, David (1990).Procesos empíricos: teoría y aplicacionesSerie de conferencias regionales NSF-CBMS sobre probabilidad y estadística, volumen 2. ISBN 978-0-940600-16-4.
  5. ^ Gyorfi, L.; Devroye, L.; Lugosi, G. (1996). Una teoría probabilística del reconocimiento de patrones (1ª ed.). Saltador. ISBN 978-0387946184.