Skip to the content.

Normalización vs estandarización

La normalización y la estandarización son procesos críticos de transformación de datos que aseguran que las diferentes características de un conjunto de datos sean comparables entre sí, evitando que atributos con escalas grandes dominen injustamente el modelo.

Normalización

La normalización se utiliza principalmente cuando las características tienen rangos de valores muy dispares.

Estandarización

La estandarización (también conocida como normalización Z-score) transforma los datos basándose en sus propiedades estadísticas.

Diferencias Clave

| Característica | Normalización | Estandarización | | :— | :— | :— | | Rango de salida | Generalmente fijo (0 a 1). | Sin rango fijo; centrado en media 0. | | Distribución | Mantiene la forma original pero cambia la escala. | Transforma los datos hacia una distribución normal. | | Uso principal | Cuando se requiere un rango acotado o para visualización. | Para algoritmos sensibles a la magnitud como el descenso de gradiente. |

Analogía: Imagina que quieres comparar el rendimiento de dos estudiantes: uno tomó un examen de 10 preguntas y otro uno de 100. La normalización sería como convertir ambas calificaciones a un porcentaje del 0 al 100%. La estandarización sería como analizar qué tan lejos está cada estudiante del promedio de su propio salón; así podrías saber quién es más “sobresaliente” independientemente de cuántas preguntas tenía su examen.


La elección entre normalización y estandarización depende del algoritmo utilizado y de la distribución de los datos, ya que no todos los modelos son igualmente sensibles a la escala.