1.1. Introducción
¿A que llamamos hipótesis?
Una hipótesis es una
declaración relativa a una población. A continuación, se utilizan los datos
para verificar lo razonable del enunciado. Para comenzar, es necesario definir
la palabra hipótesis.
En el sistema legal
estadounidense, una persona es inocente hasta que se prueba su culpabilidad. Un
jurado plantea como hipótesis que una persona a la que se le imputa un crimen
es inocente, y someten esta hipótesis a verificación, para lo cual revisan la
evidencia y escuchan el testimonio antes de llegar a un veredicto. De forma
similar, un paciente visita al médico y acusa varios síntomas. Con base en
ellos, el médico indicará ciertos exámenes de diagnóstico; en seguida, de
acuerdo con los síntomas y los resultados de los exámenes, determina el
tratamiento.
En el análisis estadístico
se establece una afirmación, una hipótesis, se recogen datos que posteriormente
se utilizan para probar la aserción. Entonces, una hipótesis estadística es en
la mayoría de los casos, la población es tan grande que no es viable estudiarla
por completo.
HIPÓTESIS: Afirmación relativa a
un parámetro de la población sujeta a verificación.
¿Qué es la prueba de hipótesis?
Los términos prueban de
hipótesis y probar una hipótesis se utilizan indistintamente. La prueba de
hipótesis comienza con una afirmación, o suposición, sobre un parámetro de la
población, como la media poblacional.
Existe un procedimiento
de cinco pasos que sistematiza la prueba de una hipótesis; al llegar al paso 5,
se está en posibilidades de rechazar o no la hipótesis. Sin embargo, la prueba
de hipótesis, como la emplean los especialistas en estadística, no prueba que
algo es verdadero de la forma en que un matemático demuestra un enunciado. Más
bien, proporciona un tipo de prueba más allá de toda duda razonable, como en el
sistema judicial. De ahí que existan reglas específicas de evidencia, o
procedimientos. En el siguiente diagrama aparecen los pasos. Analizaremos con
detalle cada uno de ellos.
Establecer
la hipótesis nula (H0)
El primer paso consiste
en establecer la hipótesis que se debe probar. Ésta recibe el nombre de
hipótesis nula, la cual se designa H0, y se lee “H subíndice cero”. La letra
mayúscula H representa la hipótesis, y el subíndice cero implica que “no hay
diferencia”. Por lo general se incluye un término no en la hipótesis nula, que
significa que “no hay cambio”.
En términos generales,
la hipótesis nula se formula para realizar una prueba. O se rechaza o no se
rechaza. Es una afirmación que no se rechaza a menos que la información de la
muestra ofrezca evidencia convincente de que es falsa.
Cabe hacer hincapié en
que, si la hipótesis nula no se rechaza con base en los datos de
la muestra, no es
posible decir que la hipótesis nula sea verdadera. En otras palabras, el hecho
de no rechazar una hipótesis no prueba que H0 sea verdadera, sino que no
rechazamos H0.
Para probar sin lugar a
dudas que la hipótesis nula es verdadera, sería necesario conocer el parámetro
poblacional. Para determinarlo, habría que probar, entrevistar o contar cada
elemento de la población. Esto no resulta factible. La alternativa consiste en
tomar una muestra de la población.
También debe destacarse
que con frecuencia la hipótesis nula inicia con las expresiones:
1.
“No
existe diferencia significativa entre…” o
2.
“La
resistencia media del vidrio a los impactos no es significativamente diferente
de…”
Al seleccionar una
muestra de una población, el estadístico de la muestra es numéricamente
distinto del parámetro poblacional hipotético.
La hipótesis
alternativa
describe lo que se concluirá si se rechaza la hipótesis nula. Se representa H1
y se lee “H subíndice uno”. También se le conoce como hipótesis de
investigación.
La hipótesis
alternativa se acepta si la información de la muestra ofrece suficiente
evidencia estadística para rechazar la hipótesis nula.
En conclusión:
HIPÓTESIS NULA.
Enunciado relativo al
valor de un parámetro poblacional que se formula con el fin de probar evidencia
numérica.
HIPÓTESIS ALTERNATIVA.
Enunciado que se acepta
si los datos de la muestra ofrecen suficiente evidencia para rechazar la
hipótesis nula.
Seleccionar
un nivel de significancia.
El nivel de
significancia se expresa con la letra griega alfa, . En ocasiones también se conoce como nivel de
riesgo. Éste quizá sea un término más adecuado porque se trata del riesgo que
se corre al rechazar la hipótesis nula cuando es verdadera.
No existe ningún nivel
de significancia que se aplique a todas las pruebas. Se toma la decisión de
utilizar el nivel de 0.05 (expresado con frecuencia como nivel de 5%), nivel de
0.01, nivel de 0.10 o cualquier otro nivel entre 0 y 1. Se acostumbra a elegir
el nivel de 0.05 en el caso de los proyectos de investigación relacionados con
los consumidores; el nivel de 0.01 en relación
con el del control de
calidad, y el de 0.10 en el de las encuestas políticas. Usted, como investigador,
debe elegir el nivel de significancia antes de formular una regla de decisión y
recopilar los datos de la muestra.
Seleccionar
el estadístico de prueba.
Hay muchos estadísticos
de prueba. En este capítulo se utilizan z y t como estadísticos de prueba,
determinado a partir de la información de la muestra, para determinar si se
rechaza la hipótesis nula.
Formular la
regla de decisión.
Una regla de decisión
es un enunciado sobre las condiciones específicas en que se rechaza la
hipótesis nula y aquellas en las que no se rechaza. La región o área de rechazo
define la ubicación de todos esos valores que son tan grandes o tan pequeños
que la probabilidad de que ocurran en una hipótesis nula verdadera es muy
remota.
Observe lo siguiente en la gráfica:
• El área en que se
acepta la hipótesis nula se localiza a la izquierda de 1.65. En breve se explicará
la forma de obtener el valor de 1.65.
• El área de rechazo se
encuentra a la derecha de 1.65.
• Se aplica una prueba
de una sola cola (este hecho también se explicará más adelante).
• Se eligió el nivel de
significancia de 0.05.
• La distribución
muestral del estadístico z tiene una distribución normal.
• El valor 1.65 separa
las regiones en que se rechaza la hipótesis nula y en la que se acepta.
• El valor de 1.65 es
el valor crítico.
VALOR CRÍTICO: Punto de división
entre la región en que se rechaza la hipótesis nula y aquella en la que se
acepta.
Tomar una
decisión.
El quinto y último paso
en la prueba de hipótesis consiste en calcular el estadístico de la prueba, comparándola
con el valor crítico, y tomar la decisión de rechazar o no la hipótesis nula.
1.2. Prueba “Z”
La distribución normal es una
distribución con forma de campana donde las desviaciones estándar sucesivas con
respecto a la media establecen valores de referencia para estimar el porcentaje
de observaciones de los datos. Estos valores de referencia son la base de
muchas pruebas de hipótesis, como las pruebas Z y t.
Puesto que la distribución de estos
datos es normal, usted puede determinar exactamente qué porcentaje de los
valores está dentro de cualquier rango específico. Por ejemplo:
Alrededor del 95% de las observaciones está dentro de 2 desviaciones
estándar de la media, indicado por el área sombreada en azul. El 95% de los
valores se ubicará dentro de 1.96 desviaciones estándar con respecto a la media
(entre −1.96 y +1.96). Por lo tanto, menos del 5% (0.05) de las observaciones
estará fuera de este rango. Este rango es la base del nivel de significancia de
0.05 que se utiliza para muchas pruebas de hipótesis.
Aproximadamente el 68% de las
observaciones está dentro de una 1 desviación estándar de la media (-1 a +1), y
alrededor del 99.7% de las observaciones estarían dentro de 3 desviaciones
estándar con respecto a la media (-3 a +3).
EJEMPLO: La temperatura durante setiembre está distribuida normalmente con media 18,7ºC
y desviación standard 5ºC. Calcule la probabilidad de que la temperatura durante setiembre esté
por debajo de 21ºC.
Ahora vamos a la tabla y para el valor de Z = 0,46 tenemos que la probabilidad es de 0,6772.
¿Pero que probabilidad es que hemos averiguado de la tabla?
Justamente esta tabla nos proporciona la probabilidad desde que ocurran sucesos menores que Z=0,46. Esto es, la probabilidad de que ocurran sucesos desde menos infinito hasta el valor de Z de 0,46 es 0,6772. Esto es, un 67,72 %.
Sucesos menores que Z = 0,46 es lo mismo que decir que la temperatura sea menor que 21ºC. Con la variable X hablamos de temperatura, con la variable estándar hablamos de Z.
1.3. Las distribuciones t de Student
Las distribuciones t de
Student fueron descubiertas por William S. Gosset (1876-1937) en 1908 cuando
trabajaba para la compañía de cervezas Guinness en Dublín (Irlanda). No pudo
publicar sus descubrimientos usando su propio nombre porque Guinness había
prohibido a sus empleados que publicaran información confidencial. Gosset firmó
sus publicaciones usando el nombre de "Student". Gosset tenía buena
relación con Karl Pearson que había sido su maestro. Necesitaba una
distribución que pudiera usar cuando el tamaño de la muestra fuera pequeño y la
varianza desconocida y tenía que ser estimada a partir de los datos. Las
distribuciones t se usan para tener en cuenta la incertidumbre añadida que
resulta por esta estimación. Fisher comprendió la importancia de los trabajos
de Gosset para muestras pequeñas.
Si el tamaño de la
muestra es n entonces decimos que la distribución t tiene n-1 grados de
libertad. Hay una distribución t diferente para cada tamaño de la muestra.
Estas distribuciones son una familia de distribuciones de probabilidad continuas.
Las curvas de densidad son simétricas y con forma de campana como la
distribución normal estándar. Sus medias son 0 y sus varianzas son mayores que
1 (tienen colas más pesadas). Las colas de las distribuciones t disminuyen más
lentamente que las colas de la distribución normal. Si los grados de libertad
son mayores más próxima a 1 es la varianza y la función de densidad es más
parecida a la densidad normal.
Cuando n es mayor que 30, la diferencia entre la normal y
la distribución t de Student no suele ser muy importante. En la imagen podemos
ver varios ejemplos de funciones de distribución acumulada.
En Probabilidades en Distribuciones t-Student puedes ver
una comparación más precisa entre las distribuciones t-Student y la normal
estándar.
EJEMPLO: Un ingeniero químico afirma que el rendimiento medio de la población de cierto proceso en lotes es 500 gramos por milímetro de materia prima. Para verificar esta afirmación toma una muestra de 25 lotes cada mes. Si el valor de t calculado cae entre –t0.05 y t0.05, queda satisfecho con su afirmación. ¿Qué conclusión extraería de una muestra que tiene una media de 518 gramos por milímetro y una desviación estándar de 40 gramos? Suponga que la distribución de rendimientos es aproximadamente normal.
De la tabla encontramos que t0.05 para 24 grados de libertad es de 1.711. Por tanto, el fabricante queda satisfecho con esta afirmación si una muestra de 25 lotes rinde un valor t entre –1.711 y 1.711.
Se procede a calcular el valor de t:
Este es un valor muy por arriba de 1.711. Si se desea obtener la probabilidad de obtener un valor de t con 24 grados de libertad igual o mayor a 2.25 se busca en la tabla y es aproximadamente de 0.02. De aquí que es probable que el fabricante concluya que el proceso produce un mejor producto del que piensa.
3. Distribuciones Discretas
3.1. Poison
La distribución de Poisson es una distribución de
probabilidad discreta que se aplica a las ocurrencias de algún suceso durante
un intervalo determinado. Nuestra variable aleatoria x representará el número
de ocurrencias de un suceso en un intervalo determinado, el cual podrá ser tiempo,
distancia, área, volumen o alguna otra unidad similar o derivada de éstas.
La probabilidad de nuestra variable aleatoria X viene dada
por la siguiente expresión:
Donde:
·
Nuestra variable aleatoria discreta puede tomar
los valores:
· donde es la media del número de sucesos en el
intervalo que estemos tomando, ya sea de tiempo, distancia, volumen, etc. Es
importante entender que este valor es una media en el sentido estrictamente
estadístico de la palabra y como tal se calculará mediante dicha expresión y no
debe calcularse nunca con una regla de proporcionalidad o regla de tres.
·
La desviación típica es
·
Cuando realizamos un experimento contando
sucesos y obtenemos un valor x, su error vendrá determinado por la raíz de x.
La distribución de Poisson
debe de cumplir los siguientes requisitos:
ü La
variable discreta x es el número de ocurrencias de un suceso durante un
intervalo.
ü Las
ocurrencias deben ser aleatorias y no contener ningún vicio que favorezca unas
ocurrencias en favor de otras.
ü Las
ocurrencias deben estar uniformemente distribuidas dentro del intervalo que se
emplee.
La distribución de Poisson es
particularmente importante ya que tiene muchos casos de uso. Podemos poner como
ejemplos de uso: la disminución de una muestra radioactiva, la llegada de
pasajeros de un aeropuerto o estación de trenes o autobuses.
EJERCICIO: Si un banco recibe en promedio 6 cheques sin fondo por día, ¿Cuáles son las probabilidades de que reciba, a) cuatro cheques sin fondo en un día dado, b) 10 cheques sin fondo en cualquiera de dos días consecutivos?
3.2. Binominal
Es una distribución de
probabilidad discreta que describe el número de éxitos al realizar n
experimentos independientes entre sí, acerca de una variable aleatoria.
Existen una gran diversidad de
experimentos o sucesos que pueden ser caracterizados bajo esta distribución de
probabilidad. Imaginemos el lanzamiento de una moneda en el que definimos el
suceso “sacar cara” como el éxito. Si lanzamos 5 veces la moneda y contamos los
éxitos (sacar cara) que obtenemos, nuestra distribución de probabilidades se
ajustaría a una distribución binomial.
Por lo tanto, la distribución
binomial se entiende como una serie de pruebas o ensayos en la que solo podemos
tener 2 resultados (éxito o fracaso), siendo el éxito nuestra variable
aleatoria.
La fórmula para calcular la
distribución normal es:
Donde:
n = número de ensayos/experimentos
x = número de éxitos
p = probabilidad de éxito
q = probabilidad de fracaso (1-p)
Es importante resaltar que la
expresión entre corchetes no es una expresión matricial, sino que es un
resultado de una combinatoria sin repetición. Este se obtiene con la siguiente
formula:
El signo de exclamación en la
expresión anterior, representa el símbolo de factorial.
EJERCICIO:
Una empresa dedicada a la venta de un determinado tipo de
artículo, que ofrece a sus habituales clientes dos formas de pago: “pago al
contado” o “pagado aplazado”, sabe queel 30% de las unidades adquiridas de
dicho artículo lo son bajo la forma de “pago al contado”. Si en un período de
tiempo determinado se adquirieron 6 unidades, determinar la probabilidad de
que: a) Dos unidades o más hayan sido “al contado”. b) Dos unidades o menos,
hayan sido con “pago aplazado”.
Solución:
X= "Nº de unidades pagadas al contado".
N= 6 unidades independientes. X∈B(6,0.3)
p=P(pago al contado)=0,3
q=P(pago aplazado)=0,7
b) Si dos unidades o menos son con pago aplazado, cuatro o
más son con pago al contado:
3.3. Chi-cuadrado
Chi- Cuadrado es el nombre de una prueba de hipótesis que
determina si dos variables están relacionadas o no.
Para calcular el valor de Chi-
Cuadrado:
Grado de Libertad (v)
V = (cant.de filas – 1) (cant.
de columnas - 1)
Nivel de Insignificancia.
Es el error que se puede
cometer al rechazar la hipótesis nula siendo verdadera. (Por lo general se
trabaja con un nivel de insignificancia de 0,05, que indica que hay una
probabilidad del 0,95 de que la hipótesis nula sea verdadera).
Método para calcular el valor
del parámetro p: P = 1 – nivel de insignificancia
Importancia.
La aplicación de Chi cuadrado
puede ser compleja en cuanto a la determinación de la hipótesis, peo son de
suma importancia para determinar la aceptación o rechazo de ellas.
Característica de la tabla Chi
cuadrado.
Tiene una distribución asimétrica positiva.
Para cada n de la muestra se tendrá un chi
cuadrado diferente.
Mientras n se vuelva más grande, las curvas
son menos asimétricas y tienden a una curva de distribución normal.
El parámetro que caracteriza a una
distribución chi cuadrado son sus grados de libertad (n –1).
No tiene valores negativos. El valor mínimo es
0.
Se utiliza para variables medidas en escala
nominal u ordinal.
EJERCICIO:
Se desea estudiar hasta qué punto existe relación entre el
tiempo de residencia de inmigrantes en nuestro país y su percepción de
integración. Se dispone de una muestra pequeña de 230 inmigrantes a los que se
les evaluó en ambas variables obteniéndose la siguiente tabla de frecuencias
observadas. ¿Confirman estos datos la hipótesis planteada con un nivel de
confianza del 95%?
1.
Hagamos otra tabla, donde restamos a las
frecuencias absolutas las frecuencias esperadas.
2.
Este valor elevado al cuadrado.
3.
Dividido por la frecuencia esperadas.
Ahora calculemos el valor de la tabla Chi-cuadrado.
1.
grados de libertad, son:
K = (número de fila-1)x(número de
columnas-1)
= (2-1)x(2-1) = 1
2.
El valor alfa 0,05.
3.
El valor que buscamos.
SIGNIFICADO: Las variables no son independientes,
Conclusión: El tiempo de residencia y el grado de
integración estás asociadas.
3.4. F de Fisher
Frecuentemente se desea
comparar la precisión de un instrumento de medición con la de otro, la
estabilidad de un proceso de manufactura con la de otro o hasta la forma en que
varía el procedimiento para
calificar de un
profesor universitario con
la de otro,
cuando en la
industria se dispone
de dos métodos
o máquinas para
hacer el mismo
producto, se utiliza
con frecuencia las
varianzas y se
las compara con
propósitos de control de calidad.
Por ello necesitamos estar
familiarizados con una distribución muestral nueva, la
distribución F de
Fisher que aparece
en los contrastes
asociados a comparaciones entre
las varianzas de
dos poblaciones normales
(o dos muestras
independientes).
Este método es importante
porque aparece en
pruebas en las
que queremos determinar
si dos muestras
provienen de poblaciones
que tienen variancias
iguales. Si esto ocurre, las dos
muestras tendrán, aproximadamente, la
misma varianza; esto
es, su razón
será, aproximadamente 1.
La diferencia con 1 puede
atribuirse al error
muestral. Mientras más lejos esté
el valor de F, menos
probable es que
pertenezca a una
distribución F particular. La distribución F es una distribución
de la razón
de dos variables
aleatorias independientes,
Donde:
Características de la
distribución F:
F tiene valores no negativos; es igual a cero o positiva.
F es asimétrica; está sesgada a la derecha.
Existen muchas distribuciones F, de manera semejante a las
distribuciones t.
Existe una distribución para cada par de grados de libertad
gl1 (grados de libertad del numerador) y
gl2. (grados de libertad del denominador).
EJERCICIO:


























No hay comentarios:
Publicar un comentario