Perceptrón Multicapa

Comparación con Perceptrón Simple

Untitled

Perceptrón Simple ($M = 1$) Perceptrón Multicapa ($M \geq 2$)
Fácil de entrenar Más difícil de entrenar (durante mucho tiempo no se supo cómo)
Soluciona familia de problemas restringida (problemas linealmente separables ó linealmente independientes) Capacidad para representar funciones multidimensionales se expande cualitativamente. Puede representar cualquier función booleana y continua en general

Convergencia: Teorema de Funahashi

Enunciado:

Sean

Dado un $\epsilon \in \R$, $\epsilon > 0$ arbitrario, existen

tales que

$$ \tilde{f}(x_1, ..., x_n) = \sum_{i = 1}^N C_i\cdot \phi\Bigg(\sum_{j = 1}^n W_{ij} \cdot x_j - \theta_i\Bigg) $$

satisface

$$ \max_{x \in K} |f(x_1, ..., x_n) - \tilde{f}(x_1, ..., x_n)| < \epsilon $$

Interpretación:

Dado el problema de aproximar mediante un perceptrón multicapa una función de $\R^n \to \R$ definida sobre un dominio $K$ compacto, y contando con una función $\phi$ que cumplirá el rol de una función sigmoidea; no importa el nivel de precisión $\epsilon$ que elijamos, siempre existirán valores $W_{ij}$ (pesos), $\theta$ (umbrales) y $N \in \R$ que combinados en una función aproximante $\bar{f}$ garanticen que la diferencia entre el valor original y el de la aproximante en cualquier punto del dominio $K$ es menor a $\epsilon$.

Al mirar $\bar f$ con cuidado, podemos ver que no es otra cosa que un perceptrón multicapa con una capa intermedia con activación sigmoidea y activaciones lineales ($c_i$) en la capa de salida.

Observaciones: