viernes, 15 de junio de 2012

ASOCIACION ENTRE VARIABLES NOMINALES DE CORRELACION PHI

Coeficiente de contingencia

     El coeficiente de contingencia C (de Karl Pearson) es una medida de relación estadística. El coeficiente de contingencia de Pearson expresa la intensidad de la relación entre dos (o más) variables nominales u ordinales. Se basa en la comparación de las frecuencias efectivamente calculadas de dos características con las frecuencias que se hubiesen esperado con independencia de estas características





El coeficiente de contingencia posee una serie de características:
* No existe relación entre las variables, por tanto diremos que estas tendrán una proporción similar.
*Se utiliza para evitar el efecto del tamaño de la muestra.
*En una tabla de dos filas por columna es recomendable realizar la corrección de Yates.
También este tipo de correlación posee una serie de propiedades que tenemos que tener en cuenta:

El coeficiente de contingencia C está comprendido entre 0 y 1.


El coeficiente C presenta el valor cero cuando la relación entre las variables es nula, pero nunca alcanza el valor 1.

El máximo dependerá del numero de filas y columnas.

El coeficiente C indica la intensidad de relación entre las variables que se estan midiendo.

El valor de C depende del número de filas y columnas de la tabla de contingencia construido para su calculo.

El coeficiente C no es comparable a otros coeficientes de correlación, valores similares indicaría diferentes grados de correlación.


El coeficiente \chi ^2 (coeficiente Chi-cuadrado)



El coeficiente \chi ^2 (también llamado contingencia cuadrática), sobre el que se basa el coeficiente de contingencia, es una medida de la "intensidad" de la relación entre las características observadas :


\chi^2=\sum_{i=1}^k  \sum_{j=1}^m   \frac{(h_{i,j} -\frac{h_i. h._j}{n})^2}{\frac{h_i. h._j}{n}}


El valor informativo del coeficiente \chi ^2 es reducido debido a que su límite superior, es decir, el valor que asume en el caso de la completa dependencia de las características observadas es dependiente de la magnitud (dimensión) de la tabla de contingencia (es decir de la cantidad de valores posibles de las variables) y del tamaño del universo estudiado n. No está dada entonces la factibilidad de la comparación de valores del coeficiente \chi^2 sobre diferentes tablas de contingencia y tamaños muestrales.

En el caso de la completa independencia de las características, \chi^2=0.
Rige que:

0 \leq \chi^2 \leq n \cdot \min\{k-1,m-1\}

siendo k\, el número de filas y m\, el número de columnas de la tabla de contingencia.

Usos

El valor de \chi^2 se necesita para determinar el coeficiente de contingencia C. En las pruebas de significación estadística también se utiliza el valor de \chi^2

 

Ejemplo

Sea la siguiente una tabla de contingencia proveniente de una encuesta:
automóvil tipo sedánautomóvil tipo familiar 
Totales
Obreros191837
Empleados432063
Totales6238100

Cálculo del coeficiente \chi^2:


\frac{(19 -\frac{37 * 62}{100})^2}{\frac{37 * 62}{100}}  +  \frac{(18 -\frac{37 * 38}{100})^2}{\frac{37 * 38}{100}}  +  \frac{(43 -\frac{63 * 62}{100})^2}{\frac{63 * 62}{100}}  +  \frac{(20 -\frac{63 * 38}{100})^2}{\frac{63 * 38}{100}}  = 2{,}83

 

 

Contingencia cuadrática media

Otra medida para especificar la intensidad de la dependencia de las características en una tabla de contingencia es la contingencia cuadrática media, que en lo esencial representa una ampliación del coeficiente \chi ^2:

\frac{\chi^2}{n}=\frac{1}{n} \sum_{i=1}^k  \sum_{j=1}^m   \frac{(h_{i,j} -\frac{h_i. h._j}{n})^2}{\frac{h_i. h._j}{n}}

Cuanto mayor es esta medida, tanto más intensa es la relación entre las dos características
analizadas. Si ambas características (variables) son independientes, entonces cada uno de los sumandos se hace 0, a consecuencia de que se hace 0 el numerador de la fracción y con ello la medida misma también. En el caso de una tabla de contingencia de 2x2 la medida está normada y asume valores en el intervalo [0,1].

 

Coeficiente de contingencia de Karl Pearson

\chi ^2 puede asumir valores en principio muy grandes y no está limitado al intervalo [0,1]. Para excluir la dependencia del coeficiente de contingencia del tamaño de la muestra, se calcula en base a \chi ^2 el coeficiente de contingencia C (también denominado CC o K) de Karl Pearson:

C=\sqrt{\frac{\chi ^2}{\chi^2 + n}}.
donde n es el tamaño de la muestra.

Este puede asumir valores en el intervalo [0,1). Resulta problemático que el límite superior del coeficiente de contingencia C sea dependiente del número de las dimensiones observadas:


Aquí rige C\in \left[0,\sqrt{\frac{k-1}{k}} \right], donde k=\min(|I|,|J|) el mínimo de entre la cantidad de formas posibles de la característica en las variables estudiadas.


 

Coeficiente de contingencia corregido

Para poder excluir, además de la influencia del tamaño de la muestra, también la influencia de de la dimensión de las tablas de contingencia consideradas (el número de formas de la característica) sobre el límite superior del coeficiente y asegurar así la comparabilidad de los resultados, se utiliza con frecuencia el coeficiente de contingencia corregido C_{korr} (también denominado K^*) para medir la relación:


C_{korr}=\sqrt{\frac{k}{k-1}} \cdot C = \sqrt{\frac{k}{k-1}} \cdot \sqrt{\frac{\chi ^2}{n+\chi ^2}},

donde k igual que más arriba.

Aquí rige: 0 \leq C_{korr} \leq 1: Un C_{korr}\, cercano a 0 indica características independientes. C_{korr}\, cerca de 1 señala una mayor medida de dependencia entre las características.
Para el ejemplo propuesto, resulta un coeficiente de contingencia corregido


 C_{korr}  =   \sqrt{\frac{2}{2-1}}*0{,}166    = 0{,}234 .

 

 Cramérs V

El Cramérs V (en inglés también: Cramér's V) es un coeficiente de contingencia, más precisamente, una medida de relación estadística basada en \chi^2. Se denomina así en honor del matemático y estadístico sueco Harald Cramér.

El Cramérs V es una valor de medida independiente del tamaño de la muestra. Cramérs V es una medida simétrica para la intensidad de la relación entre dos o más variables de la escala nominal, cuando (por lo menos) una de las dos variables tiene por lo menos dos formas (valores posibles). En una tabla de 2x2 el Cramérs V corresponde al Coeficiente phi.

Procedimiento

 

V = \sqrt{\frac{\chi^2}{n (\min[r, c]-1)}}.
n: Total de casos (volumen de la muestra)
min[r,c] es el menor entre ambos valores «número de filas» (rows)" y "número de columnas (columns)"

Interpretación

En cualquier tabla de contingencia – independientemente de la cantidad de filas y columnas – Cramérs V está entre 0 y 1. Puede usarse para tablas de contingencia de cualquier tamaño. Un Cramérs V que es mayor que 0,3 es considerado en ciencias sociales como una correlación significativa.

Rango de valores [0 hasta 1]
  • Cramérs V = 0: no hay relación entre X e Y
  • Cramérs V = 1: hay una relación perfecta entre X e Y
  • Cramérs V = 0,6: hay una correlación relativamente intensa entre X e Y
Dado que Cramérs V es un número siempre positivo, no se pueden hacer afirmaciones acerca de la dirección de la relación.


C

oeficiente Phi \boldsymbol{\phi} \;

El coeficiente Phi (también llamado coeficiente de correlación de cuatro campos) \phi \, (también  \widehat{r_\phi}) es una medida para la intensidad de la relación entre variables dicotómicas.

 Cálculo

para estimar la correlación de cuatro campos entre dos caraterísticas dicotómicas A y B, se construye primeramente una tabla de contingencia que contiene la distribución de frecuencia conjunta de las variables.

A=0A=1Total
B=0aba+b
B=1cdc+d
Totala+cb+da+b+c+d
Con los datos de la tabla se puede calcular \phi \; según la fórmula


\phi= \frac{a \cdot d- b \cdot c}{\sqrt{(a+b)\cdot(c+d)\cdot(a+c)\cdot(b+d)}} .

 

Ejemplos

Medida de la asociación entre
  • Aprobación o rechazo de una decisión política acerca del género,
  • Presentación o en su defecto, no presentación de un aviso publicitario y compra o no-compra de un producto.
  • Aplicación de \phi \, a una matriz de confusión con dos clases.

Nota

Entre \phi \, y \chi^2\, existe la relación \chi^2=n \cdot \phi^2 bzw. \phi^2=\frac{\chi^2}{n}, donde n\, designa al número de observaciones. Con ello \phi\, es la raíz cuadrada (sin que importe el signo) de la contingencia media cuadrática (ver más arriba).

Como prueba de significación estadística, bajo el supuesto de que \phi \, es igual a cero,  n \cdot \phi^2 tiene una distribución Chi Cuadrado con un grado de libertad


No hay comentarios:

Publicar un comentario