Skip to the content.

1. Introducción a las Redes Neuronales y Conceptos Avanzados

Debemos pasar de modelos lineales a modelos no lineales altamente parametrizados, lo cual es posible con las redes neuronales. El uso de una mayor cantidad de parámetros—pasando de dos a millones o miles de millones—permite realizar muchas más tareas y obtener resultados mucho más complejos.

2. El Perceptrón y la Neurona Artificial

La unidad básica de la red neuronal es la neurona artificial o Perceptrón.

3. Funciones de Activación y Diferenciabilidad

Para poder optimizar las redes neuronales utilizando el Descenso de Gradiente, la función de activación debe ser diferenciable.

4. Perceptrones Multicapa (MLP) y Deep Learning

La combinación de múltiples perceptrones en capas distintas es la base del Deep Learning.

5. Teorema de Aproximación Universal

Un perceptrón multicapa que utiliza una función de activación no lineal tiene la capacidad, en principio, de aproximar funciones arbitrarias (Universal Approximation Theorem). Esta capacidad, que hace que las redes neuronales sean tan flexibles, se cumple teóricamente si se dispone de un número infinito de neuronas o capas.

6. Poder Computacional y Entrenamiento Paralelo

La velocidad del entrenamiento depende de la capacidad de calcular los pesos y gradientes de manera paralela en todas las capas.

7. Conceptos