En las redes neuronales artificiales , una capa oculta es una capa de neuronas artificiales que no es ni una capa de entrada ni una capa de salida. Los ejemplos más simples aparecen en los perceptrones multicapa (MLP), como se ilustra en el diagrama. [1]
Un modelo MLP sin ninguna capa oculta es esencialmente un modelo lineal . Sin embargo, con capas ocultas y funciones de activación , se introduce la no linealidad en el modelo. [1]
En la práctica típica de aprendizaje automático , los pesos y los sesgos se inicializan y luego se actualizan iterativamente durante el entrenamiento a través de retropropagación . [1]