La varianza y la desviación típica son uno de los contenidos más frecuentes en una introducción en la estadística. Su uso es generalizado en toda área de la estadística, siendo además los dos estadísticos más utilizados como medidas de dispersión.
Como es de sobra conocido, la varianza es el cuadrado de la desviación típica (o las desviación típica la raiz positiva de la varianza), es decir tanto monta, monta tanto, ... Y entonces, ¿cómo es que se denominan con diferentes nombres a las dos? No sería más económico, dar un nombre a uno de ellas, y denominar a la otra a partir de la primera? ¿Para qué sirve tal galimatías (aunque no sea tanto, también es cierto), si al final de una se saca la otra? De hecho, una de las confusiones frecuentes en estadística se refiere a si al especificar una distribución normal, debemos tomar además de la media como parámetro de la distribución la varianza () o la desviación típica ()
La respuesta es clara: los dos estadísticos se utilizan profusamente, pero no da igual una que la otra, porque se utilizan en contextos diferentes y además tienen diferentes propiedades. Y por ello es lógico que cada una tenga su nombre, porque en cada situación nos convendrá utilizar más una que la otra.
Respecto a la varianza, lo más interesante son sus propiedades, especialmente la aditividad: la varianza de la suma de un conjunto de variables es la suma de las varianzas, siempre que dichas variables sean estadísticamente independientes entre si. De modo que a la hora de definir un modelo sea más habitual definirlo en términos de varianza para deducir de forma más cómoda las propiedades del modelo, a partir de dichas varianzas.
Sin embargo, la desviación típica no es aditiva en ese sentido. Nunca se deben sumar las desviaciones, que por otra parte es un error común entre los estudiantes a la hora de resolver problemas. Para calcular la desviación de una suma, hay que sumar las varianzas y luego calcular la raiz de dicha varianza ( por ejemplo, si las desviaciones de dos variables son 2 y 3 y sumamos las variables, la desviación de la suma de las dos variables no es sino ). Imaginemos que tenemos que explicar todo esto, utilizando las expresiones desviacion y desviación al cuadrado (o varianza y raíz de varianza). ¡Eso sí que sería un perfecto galimatías!
Pero por otra parte, la desviación si bien no cumple la propiedad reseñada, tiene una ventaja importante y es que su valor tiene un significado concreto: la desviación típica es la desviación media a la media aritmética o valor esperado. En cambio, el valor de la varianza no tiene un significado directo. Por ejemplo, si la desviación de las notas de un grupo de alumnos es 2 puntos, sabemos a que nos referimos. Pero el hecho de que la varianza sea no tiene significado propio. Por ello, cuando queremos otorgar un significado concreto a un resultado, es más conveniente referirse a la desviación típica, y por eso le damos un nombre propio.
Deja una respuesta