1. Contrastes de Hipótesis
Para
controlar los errores aleatorios, además del cálculo de intervalos de
confianza, contamos con una segunda herramienta en el proceso de inferencia
estadística: los test o contrastes de
hipótesis.
Con
los contrastes (test) de hipótesis la estrategia es la siguiente:
-
Establecemos a priori una hipótesis
cerca del valor del parámetro.
-
Realizamos la recogida de datos.
-
Analizamos la coherencia de entre la
hipótesis previa y los datos obtenidos.
Las que más se utilizan son Chi
cuadrado, T de Student, Test de ANOVA y Regresión Lineal.
2. Errores de Hipótesis
·
El test de hipótesis mide la probabilidad de
error que cometo si rechazo la hipótesis nula.
·
Con una misma muestra podemos aceptar o rechazar
la hipótesis nula. Todo depende de una error, al que llamamos α.
·
El error α es la probabilidad de equivocarnos al
rechazar la hipótesis nula.
·
El error α más pequeño al que podemos rechazar H0
es el error p.
·
Habitualmente rechazamos H0 para un
nivel α máximo del 5% (p< 0.05).
·
Es lo que llamamos “significación estadística”.
3. Tipos de Errores en el Test de Hipótesis
4. Test de Hipótesis: CHI- CUADRADO
·
Para comparar dos variables cualitativas
(dependiente e independiente).
·
Se lleva a cabo el planteamiento de una hipótesis
nula.
·
El tamaño de muestra tiene que ser mayor que 50.
·
Se calcula el grado de libertad.
·
Se aplica la siguiente fórmula:
Siendo 0 los valores observados y E los valores esperados. La hipótesis nula se rechaza si el valor p del resultado obtenido es igual o menor que 0,05.
Ahora os pondré un vídeo explicativo sobre este tipos de test para que os resulte más fácil y sepáis de dónde viene cada dato.
5. Test de Student
·
Se
utiliza cuando la variable independiente es cualitativa (dicotómica) y la
variable dependiente es cuantitativa continua.
·
Solo
sirve para comparar dos grupos y dos medias.
·
Se
plantea una hipótesis nula para saber si se rechaza o se aprueba
·
Se
calcula el grado de libertad.
·
A
partir de esta fórmula podemos calcular este test de hipótesis:
Siendo sp la desviación
estándar ponderada que se calcula de la siguiente manera:
Ejemplo:
H0= Los
apósitos de alginato tardan, por término medio, el mismo tiempo que los
apósitos hidrocoloides, en regenerar tejidos de las UPP de III y IV grado.
Variable Independiente:
Tipo de apósito empleado en las UPP de III y IV grado.
Variable Dependiente:
Tiempo transcurrido en días desde la instauración de los apósitos hasta la
regeneración de tejidos de las UPP.
ALGINATO n=10
|
HIDROCOLOIDES n=10
|
101
|
103
|
102
|
105
|
100
|
104
|
104
|
106
|
102
|
108
|
99
|
100
|
102
|
108
|
103
|
104
|
97
|
105
|
99
|
107
|
6. Test de ANOVA
Este test solamente se utiliza cuando se compara 3 o más grupos, además tiene que ser una variable cuantitativa y otra variable cualitativa para que se puede realizar este test.
7. Regresión Lineal Simple: Correlación y Determinación
·
Se
trata de estudiar la asociación lineal entre dos variables cuantitativas.
·
Regresión
lineal simple: una sola variable independiente.
·
Regresión
lineal múltiple: más de una variable independiente.
·
Ecuación
de la recta y=ax + b (ej: TAS= a. edad + b)
·
Pendiente
de la recta a=β1. El valor de a positivo la
correlación entre las dos variables es directa y si el valor de a es negativo
la correlación entre las dos variables es indirecta.
·
Punto
de inserción con el eje de coordenadas b=βo
·
Modelos lineales deterministas: la variable independiente determine el
valor de la variable dependiente.
·
Modelos lineales probabilísticos: para cada valor de la variable
independiente existe una distribución de probabilidad de valores de la
dependiente, con una probabilidad entre 0 y 1.
·
La recta a
determinar es aquella con la menor de cada punto a ella.
Y= ß1 X + ß0
Yi=
ß1 X + ß0 + ei
·
Para
construir un modelo de regresión lineal hace falta conocer: Punto de inserción
con el eje de coordenadas = ß0 y la pendiente de la recta a = ß1
(mayor valor de beta 1 la pendiente será muy pronunciada en sentido
directo o inverso).
·
No hay modelo determinista: hay una nube de puntos y
buscamos la recta que mejor explica el comportamiento de la variable dependiente en función de la variable independiente.
·
Coeficiente
de correlación (Pearson y Speerman) : Número adimensional (entre -1 y 1)
que mide la fuerza y el sentido de la relación lineal entre variables.
·
Coeficiente
de determinación: número adimensional (entre 0 y 1) que da idea de la
relación entre las variables relacionadas linealmente, es r2. Se calcula a partir del coeficiente de correlación.
No hay comentarios:
Publicar un comentario