カテゴリー 全て - estadísticas - azar - sesgos - inferencia

によって DULCE DANIELA TREJO JUÁREZ 1年前.

132

Seminario

El error aleatorio, aunque inevitable y en gran medida atribuible al azar, no compromete la validez interna de los resultados, pero puede reducir la probabilidad de identificar relaciones entre variables.

Seminario

El error aleatorio se debe en mayor parte al azar y no afecta a la validez interna del resultado, pero puede disminuir la probabilidad de encontrar relación entre las variables estudiadas. Aunque el error aleatorio no puede eliminarse a no ser que se estudie a toda la población; aumentando el tamaño de la muestra y la precisión de las mediciones puede disminuirse dicho error.

El tamaño muestral necesario para una inferencia depende de varios factores, como el nivel de confianza deseado, el margen de error permitido, la variabilidad de la población y el tamaño de la población.

Se pueden definir tres tipos según el origen:

Sesgos de confusión

Se presenta cuando el efecto de la intervención de estudio se confunde con el efecto de uno o más factores de confusión (edad, nivel de estudios, ...).

Sesgos de información

Aparecen cuando existen diferencias sistemáticas en la manera en que los datos sobre la exposición o el efecto son obtenidos en los diferentes grupos de estudio.

Sesgos de selección

Se refiere a la distorsión en la estimación del efecto derivada de la forma en que se han seleccionado los sujetos de la muestra. La muestra no refleja adecuadamente a la población, es decir, que la variable medida es diferente entre los pacientes participantes en el estudio y los no participantes (edad, sexo,...).

Estadística Inferencial.

Topic principal

Análisis paramétrico y no paramétrico

Un parámetro es aquel que proporciona información para analizar o valorar una situación, a partir de este se muestra una determinada circunstancia que puede entenderse o situarse en una perspectiva.
Análisis No Paramétrico

Base de prueba estadística: Arbitrario

Tipo y Tamaño de muestra :No aleatoria <30 sujetos

Generalidades; -Se desconoce cómo están distribuidos los datos. -Se puede utilizar, aunque se desconozca los parámetros de la población en estudio. -Es utilizada para contrastar con la hipótesis. -Las hipótesis se redactan sobre rangos, mediana o frecuencia d ellos datos.

Ventajas: -Empleada en diferentes situaciones porque no cumple con parámetros estrictos. -Sus métodos son más afables. -Se aplica en datos no numéricos. -Muestras pequeñas.

Desventajas: -No son sistemáticas. -Complica seleccionar la elección correcta. -Provoca confusión. -Requiere fuentes y respaldo. -Probabilidad de errores. -No hay exactitud.

Nivel de medicion: Datos ordinales o nominales.

Variables: Aplicable en variables categóricas.

Variables perdidos: Se consideran una fuente de información.

Consideraciones :Menor presunción y alcance más amplio.

Análisis Paramétrico

Base de prueba estadística: Distribución

Tipo y Tamaño de muestra: Aleatoria >30 sujetos

Generalidades: -Se conoce el modelo de distribución de la población. -Mientras más grande sea la muestra más exacta será la estimación, mientras más pequeña, más distorsionada será la media de las muestras. -Las hipótesis se basan en valores numéricos, especialmente en promedios.

Ventajas: -Más eficiencia. -Poca probabilidad de errores. -Sus estimaciones son exactas. -Presentan sensibilidad a los rasgos de los datos recogidos. -Muestras grandes.

Desventajas:-Complejos de calcular. -Presentan una limitación en los datos.

Nivel de medición: Datos en intervalo o razón.

Variables:Aplicable en variables nominales.

Valores perdidos: No se consideran una fuente de información.

Consideraciones: Debe contar con normalidad y homocedasticidad

Pruebas de contraste de hipotésis.

Pretende contraponer dos suposiciones contrarias (hipótesis) formuladas al principio de todo estudio: una a favor de la igualdad, bien sea de respuesta de tratamientos o hacia un valor conocido, y otra que establece la desigualdad entre la efectividad real de los tratamientos estudiados o entre el valor que le suponemos al inicio.
Estos errores (o probabilidades) reciben el nombre de alfa y beta

ERROR BETA

Se ha definido como la probabilidad de rechazar la hipótesis nula cuando ésta es falsa, es decir, la probabilidad de detectar diferencias entre tratamientos cuando realmente existen diferencias.

O tipo II, es el error que se comete al aceptar la hipótesis nula H0 siendo falsa. Es decir, existe una diferencia real entre tratamientos pero no se ha podido rechazar la hipótesis nula.

ERROR ALFA

Debe ser fijado a priori por los responsables del estudio, puesto que es el que marca el nivel de rechazo de la hipótesis nula.

O tipo I, es el que se comete al rechazar la hipótesis nula H0 siendo cierta. Es decir, aceptamos que existen diferencias entre tratamientos cuando en realidad no las hay

En los contrastes de hipótesis se pueden dar dos tipos de errores en función de lo que nos aporta nuestra muestra y lo que objetivamente está ocurriendo en la realidad.

Estadística Inferencial.

Tamaño muestral.
Fórmulas para el cálculo de muestreo

En el caso que la población que se desea estudiar sea finita y con un tamaño conocido (N) se utiliza la fórmula:

n = (N * Z² * p * q) / ((N - 1) * E² + Z² * p * q) Donde: n es el tamaño de muestra necesario N es el tamaño de la población Z es el valor de la distribución normal estándar correspondiente al nivel de confianza deseado p es la proporción estimada de la población que tiene la característica que se está midiendo q es la proporción estimada de la población que NO tiene la característica que se está midiendo (q = 1 - p) E es el margen de error deseado.

calcular el tamaño de muestra en una población desconocida

n = (Z² * p * q) / E² Donde: n es el tamaño de muestra necesario Z es el valor de la distribución normal estándar correspondiente al nivel de confianza deseado (por ejemplo, para un nivel de confianza del 95%, Z es 1,96) p es la proporción estimada de la población que tiene la característica que se está midiendo q es la proporción estimada de la población que NO tiene la característica que se está midiendo (q = 1 - p) E es el margen de error deseado.

El tamaño muestral se refiere al número de observaciones o individuos que se toman de una población para realizar una inferencia acerca de dicha población.
Errores y sesgos.
Al seleccionar una muestra pueden cometerse dos tipos de errores:

Errores sistemáticos o sesgos

son los errores que se cometen en el procedimiento del estudio. Los sesgos no se modifican al aumentar el tamaño muestral. La definición de los distintos tipos de sesgos se limita a los errores relacionados con la validez interna de los estudios.

Errores aleatorios

El error aleatorio corresponde a la diferencia entre el resultado obtenido a partir de la muestra y la realidad de la población.

Técnicas de muestreo.
Las técnicas de muestreo son un conjunto de técnicas estadísticas que estudian la forma de seleccionar una muestra representativa de la población.

muestreo no probabilístico

Este utiliza métodos en los que no interviene el azar y por lo tanto, se desconoce la probabilidad asociada a cada individuo para formar parte de la muestra.

Muestreo por cuotas.

Muestreo discrecional

Muestreo de conveniencia.

muestreo probabilístico

Es aquel en que todos los individuos de la población tienen una probabilidad de entrar a formar parte de la muestra (normalmente equiprobable, es decir, con la misma probabilidad).

Muestreo en etapas múltiples

Muestreo sistemático

Muestreo estratificado

Muestreo aleatorio simple

Referencias bibliográficas.

Conoce las principales distribuciones de probabilidad. (s/f). Edu.pe. Recuperado el 1 de mayo de 2023, de https://www.esan.edu.pe/conexion-esan/conoce-las-principales-distribuciones-de-probabilidad
George W. Barclay, "Rates and Ratios," Techniques of Population Analysis (New York: John Wiley & Sons, 1958) 16-55.
Quevedo, F. (2011). Distribución normal. Medwave. https://doi.org/10.5867/medwave.2011.05.5033
(S/f-b). Sergas.es. Recuperado el 1 de mayo de 2023, de https://www.sergas.es/Saude-publica/Documents/1899/Ayuda_Epidat_4_Distribuciones_de_probabilidad_Octubre2014.pdf
Berenson, Mark L.; Levine, David M. y Krehbiel, Timothy C. Estadística para administración. Pearson Educación, 2006, p.179
González, A. (2019). Contraste de hipotésis mediante técnicas de simulación. Revista de Educación Matemática, 34(1).
Carreño, Á. (s. f.). Pruebas de contraste de hipotésis. Estimación puntual por intervalos. revistasden. Recuperado 30 de abril de 2023, de https://www.revistaseden.org/files/10-CAP%2010.pdf

Pruebas de significación o de contraste de hipótesis.

Error Alfa y error Beta.
Error Beta.

es el error que se comete al aceptar la hipótesis nula H0 siendo falsa

La probabilidad de rechazar la hipótesis nula cuando ésta es falsa, es decir, la probabilidad de detectar diferencias entre tratamientos cuando realmente existen diferencias

Asociado al error beta se ha definido la potencia estadística de un test como 1-beta. Al igual que el nivel de significación, el error beta o poder estadístico debe definirse antes de iniciar el estudio para estimar el tamaño muestral necesario para poder evaluar el objetivo del estudio.

Error alfa.

Es el que se comete al rechazar la hipótesis nula H0 siendo cierta.

El error alfa debe ser fijado a prioridad por los responsables del estudio, puesto que es el que marca el nivel de rechazo de la hipótesis nula. Este valor se sitúa generalmente en 0,05 y es el valor con el que compararemos nuestra «p», obtenida mediante el estadístico de contraste adecuado a nuestros objetivos.

El nivel de significación α lo marcamos nosotros de manera que, cuanto mayor sea, más fácil será aceptar la hipótesis alternativa cuando en realidad es falsa.

Hipotésis nula o alternativa.
La hipótesis nula (H0) se refiere a la afirmación contraria a la que ha llegado el investigador. Es la hipótesis que el investigador pretender rechazar. Si tiene la evidencia suficiente para ello, podrá probar que lo contrario es cierto (usualmente el valor crítico es 0,05) .

Las pruebas de hipótesis son formulaciones de lo que queremos contrastar y, en base a resultados probabilísticos (asociados a la popularmente conocida «p» o «p-value»), aceptaremos la hipótesis nula o la rechazaremos.

Estimación puntual.
La estimación puntual hace referencia al cálculo de valores que apuntan hacia el verdadero valor poblacional, como por ejemplo: estimación de una media o de una prevalencia. De esta forma, un buen estimador debe ser:

Eficiente.

Que el estimador tenga menor variabilidad que otro posible.

Suficiente

Que el estimador use toda la información que la muestra contiene respecto al parámetro de interés.

Consistente.

Que el valor de la muestra se acerque al valor del parámetro al aumentar el tamaño de la muestra.

Insesgado.

Que el valor del parámetro coincida con el valor promedio del estimador. Esta propiedad la tienen la mayoría de los estimadores usados en la práctica.

Estimación de una población a partir de una muestra.

A partir de lo observado en una muestra (un resumen estadístico con las medidas que conocemos de Descriptiva) se extrapola o generaliza dicho resultado muestral a la población total, de modo que lo estimado es el valor generalizado a la población.
Tamaño de la muestra

Depende del nivel de confianza que se desee para los resultados y de la amplitud del intervalo de confianza, es decir del error máximo que se esté dispuesto a admitir

Estimación post censal

Usa información de la vivienda para estimar el tamaño total de la población para una localidad.

Estimación inter censal

Se utiliza para estimar la población total la mitad de periodo o un subconjunto de la población de una localidad dada

Muestra con reemplazo

se obtiene escogiendo sucesivamente un determinado número de elementos de la población sin quitarlos de la misma, de forma que pueden repetirse

El mejor estimador

Si quiero aproximar la media de la población pues cogeré la media de la muestra y si quiero estimar la varianza, pues se hallara la de la muestra

Distribuciones de probabilidad. La distribución normal.

Distribución de probabilidad normal
Es la distribución continua que se utiliza más comúnmente en estadística, es un modelo que aproxima el valor de una variable aleatoria a una situación ideal, dependiendo de la media y la desviación típica.

Propiedades

Su variable aleatoria asociada tiene un rango infinito (-∞ < X < ∞).

Su «50% central» es igual a 1,33 desviaciones estándar. Esto significa que el rango intercuartil está contenido dentro de un intervalo de dos tercios de una desviación estándar por debajo de la media y de dos tercios de una desviación estándar por encima de la media.

Sus medidas de tendencia central (media, mediana y moda) son todas idénticas.

Tiene una apariencia de forma de campana y, por ende, es simétrica.

Importancia

La distribución normal proporciona la base para la estadística inferencial clásica por su relación con el teorema de límite central.

La distribución normal sirve para acercarse a diversas distribuciones de probabilidad discreta, como la distribución binomial y la distribución de Poisson.

Muchas variables continuas comunes en el mundo de los negocios tienen distribuciones que se asemejan estrechamente a la distribución normal.

Distribución de probabilidad
La distribución de probabilidad es una herramienta fundamental para la prospectiva, puesto que con ella es posible diseñar un escenario de acontecimientos futuros considerando las tendencias actuales de diversos fenómenos.

Variable aleatoria continua

Esta puede tomar tanto valores expresados en números enteros como fraccionarios y un número infinito de ellos dentro de un mismo intervalo.

La esperanza matemática o valor esperado de una variable aleatoria se origina en los juegos de azar

El área definida bajo la función de densidad de probabilidad deberá ser de 1.

Las probabilidades vinculadas a cada uno de los valores que toma x deben ser mayores o iguales a cero. Dicho de otro modo: la función de densidad de probabilidad deberá tomar solo valores mayores o iguales a cero.

Variable aleatoria discreta

Solo puede tomar valores representados por números enteros y un número finito de ellos.

Propiedades

La sumatoria de las probabilidades asociadas a cada uno de los valores que toma x debe ser igual a 1.

Las probabilidades que se relacionan con cada uno de los valores que toma x deben ser mayores o iguales a cero y menores o iguales a 1

Es aquella que permite establecer toda la gama de resultados probables de ocurrir en un experimento determinado.

Características

La suma de las probabilidades de todos los resultados mutuamente excluyentes es 1.

La probabilidad de un resultado específico está entre cero y uno.