En la teoría del aprendizaje computacional , la dimensión de enseñanza de una clase de conceptos C se define como , donde es el tamaño mínimo de un conjunto de testigos para c en C . Intuitivamente, esto mide la cantidad de instancias que se necesitan para identificar un concepto en la clase, utilizando aprendizaje supervisado con ejemplos proporcionados por un profesor servicial que intenta transmitir el concepto de la manera más sucinta posible. Esta definición fue formulada en 1995 por Sally Goldman y Michael Kearns , [1] basándose en trabajos anteriores de Goldman, Ron Rivest y Robert Schapire . [2]
La dimensión de enseñanza de una clase de concepto finito se puede utilizar para dar un límite inferior y un límite superior al costo de consulta de membresía de la clase de concepto.
En el libro de Stasys Jukna "Combinatoria extrema" se da un límite inferior para la dimensión de enseñanza en general:
Sea C una clase de concepto sobre un dominio finito X. Si el tamaño de C es mayor que
entonces la dimensión de enseñanza de C es mayor que k .
Sin embargo, existen modelos de enseñanza más específicos que hacen suposiciones sobre el profesor o el alumno y pueden obtener valores más bajos para la dimensión de enseñanza. Por ejemplo, varios modelos son el modelo de enseñanza clásica (CT), [1] el modelo de profesor óptimo (OT), [3] la enseñanza recursiva (RT), [4] la enseñanza basada en preferencias (PBT), [5] y la enseñanza sin conflictos (NCT). [6]
{{cite journal}}
: CS1 maint: varios nombres: lista de autores ( enlace ){{cite journal}}
: CS1 maint: varios nombres: lista de autores ( enlace ){{cite journal}}
: CS1 maint: varios nombres: lista de autores ( enlace )