Objetivo: descubrir patrones o características significativas en los datos de entrada.
Estructura similar a perceptrón simple
Diferencias
Asumimos que, dada una muestra lo suficientemente representativa y uniforme de una distribución de probabilidades (que asumimos que existe) la red es capaz de abstraer propiedades estadísticas de dicha distribución.
Para lograr este objetivo la entrenamos “hebbianamente”: buscando que las sinápsis tiendan a reforzarse en proporción a la activación simultánea de la neurona pre-sináptica (entrada) y la post-sináptica (salida). (???)
Si el entrenamiento es exitoso el sistema será capaz de, dada una entrada que no haya sido vista anteriormente, indicar qué grado de correspondencia tiene con la distribución original, evaluando su ortogonalidad con los pesos aprendidos calculando el producto interno.
Acá nos encontramos con el primer problema: al entrenar de este modo (aprendizaje plano) la matriz de pesos $w$ crecerá de forma no acotada, resultando en un sistema inestable.
$$ \tag{1}\Delta w_i = \eta~y~x_i $$
$$ \tag{2} w_i(n+1) = w_i(n) + \eta ~y(n) ~\big(x_i(n) - y(n)~w_i(n)\big) $$