La desviación estándar es un concepto que se lanza con frecuencia en las finanzas.
Entonces, ¿qué es?
Cuando trabajamos con un conjunto de datos cuantitativos, una de las primeras cosas que queremos saber es cómo es el elemento «típico» del conjunto, o dónde está el centro del conjunto.
Lo hacemos encontrando una media o una mediana, o alguna otra medida relacionada con la media.
Pero conocer el centro del conjunto no nos lo dice todo. También queremos saber más sobre la forma general de nuestros datos.
La desviación estándar es una medida de la dispersión de un conjunto de datos. Se utiliza en un gran número de aplicaciones. En las finanzas, las desviaciones estándar de los datos de precios se utilizan con frecuencia como una medida de la volatilidad. En las encuestas de opinión, las desviaciones estándar son una parte clave del cálculo de los márgenes de error.
Primero, veamos qué mide una desviación estándar.
Considere dos pequeñas empresas con cuatro empleados cada una. En una empresa, dos empleados ganan 19 dólares por hora y los otros dos ganan 21. En la segunda empresa, dos empleados ganan 15 dólares por hora, uno gana 24 dólares y el último gana 26 dólares:
En ambas empresas, el salario medio es de 20 dólares por hora, pero la distribución de los salarios por hora es claramente diferente. En la empresa A, los salarios de los cuatro empleados están muy concentrados en torno a esa media, mientras que en la empresa B hay una gran diferencia entre los dos empleados que ganan 15 dólares y los otros dos.
La desviación estándar es una medida de lo lejos que tienden a estar las medidas individuales del valor medio de un conjunto de datos. La desviación estándar de los empleados de la empresa A es 1, mientras que la desviación estándar de los salarios de la empresa B es aproximadamente 5. En general, cuanto mayor es la desviación estándar de un conjunto de datos, más separados están los puntos individuales en ese conjunto.
Técnicamente, es más complicado
La definición técnica de la desviación estándar es algo complicada. En primer lugar, para cada valor de los datos, averigua a qué distancia está el valor de la media tomando la diferencia del valor y la media. A continuación, eleva al cuadrado todas esas diferencias. A continuación, toma la media de esas diferencias elevadas al cuadrado. Por último, tome la raíz cuadrada de ese promedio.
La razón por la que pasamos por un proceso tan complicado para definir la desviación estándar es que esta medida aparece como un parámetro en una serie de fórmulas estadísticas y probabilísticas, sobre todo la distribución normal.
La distribución normal es una herramienta extremadamente importante en estadística. La forma de una distribución normal es una curva en forma de campana, como la de la imagen.
Esa curva muestra, a grandes rasgos, la probabilidad de que un proceso aleatorio que sigue una distribución normal tome un valor determinado en el eje horizontal. Los valores cercanos al pico, donde la curva es más alta, son más probables que los valores más alejados, donde la curva está más cerca del eje horizontal.
Las distribuciones normales aparecen en situaciones en las que se produce un gran número de eventos aleatorios independientes pero similares. Cosas como las alturas de las personas en una población particular tienden a seguir aproximadamente una distribución normal.
Las desviaciones estándar son importantes aquí porque la forma de una curva normal está determinada por su media y su desviación estándar. La media indica dónde debe ir la parte media y alta de la curva. La desviación estándar te indica lo delgada o ancha que será la curva. Si conoces estos dos números, sabes todo lo que necesitas saber sobre la forma de tu curva.
Dando la vuelta a esta idea, las distribuciones normales también nos dan una buena manera de interpretar las desviaciones estándar. En cualquier distribución normal, existen probabilidades fijas para los intervalos alrededor de la media, basadas en múltiplos de la desviación estándar de la distribución.
En particular, alrededor de dos tercios de las mediciones de una cantidad distribuida normalmente deben caer dentro de una desviación estándar de la media, el 95% de las mediciones dentro de dos desviaciones estándar de la media, y el 99.Esta ilustración de la curva normal enumera estos valores:
Supongamos que hay un examen estandarizado al que se presentan cientos de miles de estudiantes. Si las preguntas del examen están bien diseñadas, las puntuaciones de los estudiantes deberían tener una distribución aproximadamente normal. Digamos que la puntuación media del examen es 100, con una desviación estándar de 10 puntos. La regla mencionada anteriormente significa que aproximadamente dos tercios de los estudiantes deberían tener puntuaciones entre 90 y 110, el 95% de los estudiantes deberían estar entre 80 y 120, y casi todos los estudiantes -el 99,7%- deberían tener puntuaciones dentro de las tres desviaciones estándar de la media.
¿Alguna pregunta?