El curso de la Probabilidad y Estadísticas I contiene lo
siguiente:
- Lecciones en formato de videoconferencias con las que se explica el contenido teórico.
- Actividades complementarias que le harán investigar más acerca del tema, así como, poner en práctica lo estudiado en la lección. Estas actividades no forman parte de su evaluación final.
- Textos que respaldan lo explicado en la videoconferencia.
- Cuestionarios de evaluación, que tras ser contestados y aprobados puede acceder a la siguiente lección.
- Examen final para evaluación global del curso
Lección 1: Estadística Descriptiva y Fundamentos de Probabilidad
1.1. Notación De Sumatoria
1.2.
Datos No agrupados
1.2.1. Medidas de Tendencia Central y de
posición
1.2.2. Medidas de dispersión
1.3. Datos Agrupados
1.3.1. Tabla
de frecuencias
1.3.2. Medidas de tendencia Central
1.3.3. Medidas de
dispersión
1.4. Conjunto y técnicas de conteo. El desarrollo de la teoría de
la probabilidad ha aumentado el alcance de las aplicaciones de la estadística.
Muchos conjuntos de datos se pueden aproximar, con gran exactitud, utilizando
determinadas distribuciones probabilísticas; los resultados de éstas se pueden
utilizar para analizar datos estadísticos. La probabilidad es útil para
comprobar la fiabilidad de las inferencias estadísticas y para predecir el tipo
y la cantidad de datos necesarios en un determinado estudio estadístico.
1.5.
Espacio muestral y eventos
1.6. Axiomas y Teoremas
1.7. Espacio infinito
equiprobable
1.8. Probabilidad condicional e independencia
1.9. Teorema de
bayes
Video Conferencia: Estadística Descriptiva y Fundamentos de Probabilidad |
Materiales de Lectura y Estudio 1 |
Examen de la Lección |
Leccion 2: Modelos Analíticos de Fenómenos Aleatorios Discretos
2.1. Defició de Variable Aleatoria Discreta.
Muchas veces se desea resumir con un número el resultado de un experimento
aleatorio. En muchos de los ejemplos relativos a experimentos aleatorios que han
sido considerados hasta ahora, el espacio muestral es sólo una descripción de
los posibles resultados. En algunos casos tales descripciones son suficientes,
pero en otros se hace útil asociar un número con cada resultado del espacio
muestral. Es así como se llega a la definición de variable aleatoria.
Una
variable aleatoria X es una función que asigna un número real a cada resultado
en el espacio muestral de un experimento aleatorio. El conjunto de los
posibles valores de la variable aleatoria X se denomina rango. Diremos que la
variable aleatoria es discreta si su rango es finito (o infinito contable).
A menudo el interés recae en la probabilidad de que una variable aleatoria X
tome un valor particular x, esto se denota P(X=x). La distribución de
probabilidad de X será entonces la descripción del conjunto de valores posibles
de X (rango de X), junto con la probabilidad asociada con cada uno de estos
valores. La distribución de probabilidad de una variable aleatoria es a menudo
el resumen más útil de un experimento aleatorio.
2.2. Función de
probabilidad, y de distribución, valor esperado, varianza y desviación
estándar
Función de probabilidad
2.3. Distribución binomial
2.4.
Distribución hipergeométrica
2.4.1. Aproximación de la hipergeométrica por la
binomial
2.5. Distribución geométrica
2.6. Distribución
multinominal
2.7. Distribución de Poisson
2.7.1. Aproximación Poisson a la
distribución binomial
Video Conferencia: Modelos Analíticos de Fenómenos Aleatorios Discretos |
Materiales de Lectura y Estudio
1 Continue leyendo |
Leccion 3: Modelos Analíticos de Fenómenos Aleatorios
Continuos
3.1. Definición de variable aleatoria continúa. Una
variable aleatoria continua es una función X que asigna a cada resultado posible
de un experimento un número real. Si X puede asumir cualquier valor en algun
intervalo I (el intervalo puede ser acotado o desacotado), se llama una variable
aleatoria continua. Si puede asumir solo varios valores distintos, se llama una
variable aleatoria discreta.
Si X es una variable
aleatoria, estamos frecuentemente interesado en la probabilidad de que X asume
un valor en cualquier rango. Por ejemplo, si X el último precio cotizado del las
acciones de Conglomerado Colosal, y observamos que el precio está entre $10 y
$20 60% del tiempo, diríamos
3.2.funcion densidad y acumulativa
3.3. la
media , varianza y desviación standar
3.4 . Distribución uniforma y
exponencial
3.5. Distribución normal
3.6. teorema de
chebyshev
Video Conferencia: Modelos Analíticos de Fenómenos Aleatorios Continuos |
Materiales de Lectura y Estudio 1 |
Examen de la Lección |
Leccion 4: Regresión y Correlación Simple
4.1. Regresion de probabilidad simple y curvilínea
4.1.1.
Distinguir entre variable dependiente e independiente. Variable dependiente. Es
la variable central de la investigación; a través de ella se miden los cambios
ocasionados por la variable independiente en la población estudiada. Por
ejemplo, cáncer de pulmón, conocimiento, destreza, satisfacción y utilización de
un servicio.
Variable independiente. Determina a la variable dependiente. Es
la que va a ocasionar los cambios en la población estudiada. Por ejemplo, número
de cigarros fumados al día, intervención educativa, capacitación, calidad de
atención y percepción de necesidad de salud
4.1.2. Definir ecuación de
regresión y cual es su aplicación
4.1.3. Aplicar el método de mínimos
cuadrados para determinar la recta, parábola ó curva que ¿mejor se ajuste a un
conjunto de datos?
4.2 Correlación
Video Conferencia: Regresión y Correlación Simple |
Materiales de Lectura y Estudio 1 |
Leccion 5: Distribuciones de Probabilidad Continuas y Muestrales
5.1. Distribuciones de Probabilidad de una variable
aleatoria continua
5.2. Media Varianza de una Variable Aleatoria Continua
5.3. Distribución De Probabilidad T-Student. La ecuación para la función de
densidad t no se presentara aquí, pero se dan algunas indicaciones para su
obtención en los ejercicios del final del capitulo. Como la función de densidad
normal estándar, la función de densidad t es simétrica con respecto a cero,
además, para v > 1, E( T ) =0 y para v > 2, V ( T ) = v / ( v - 2 ). Así
vemos que una variable aleatoria con una distribución t tiene el mismo valor
esperado que una variable normal estándar. Sin embargo, una variable aleatoria
normal estándar siempre tiene una varianza de 1, mientras que la varianza de una
variable aleatoria con una distribución t siempre es mayor que 1.
En al
figura 7.2 se muestran las gráficas de una función de densidad normal estándar y
de una función de densidad t. Nótese que ambas funciones de densidad son
simétricas con respecto al origen, pero que la densidad t tiene mas masa
probabilística en las colas. Normal
5.4. Distribución De Probabilidad Tipo
Gamma
5.5. Distribución De Probabilidad Tipo Beta
5.6. Distribución De
Probabilidad C2 y F
5.7. Distribución De Probabilidad Wiebull
5.8. Teorema
de Combinación Lineal de Variables Aleatorias y Teorema del Limite Central.
5.9 Muestreo : Introducción al muestreo y tipos de
muestreo
5.10 Teorema de limite central
5.11. Distribución central de la
media
5.12. Distribución muestral de diferencia de medias
5.13.
Distribución muestral de la proporción
5.14. Distribución normal de la
diferencia de las proporciones
5.15. Distribución muestral de la
varianza
5.16. Distribución de la Muestral de la Relación de
Varianzas
|
Leccion 6: Estimación de Parámetros
6.1. Introducción. A la inferencia estadística le
interesa sacar conclusiones de un gran número de acontecimientos (población),
fundándose en las observaciones de una parte de los mismos (muestra).
La
estadística nos proporciona herramientas que formalizan y uniforman los
procedimientos para sacar conclusiones siempre que las muestras seleccionadas
sean representativas de la población que han sido extraídas. Esta
representatividad permite extender los valores que describen a las muestras
(estadísticos), tales como la media, la desviación típica, un coeficiente de
correlación, a la población correspondiente, es decir, la media o la desviación
típica (estadísticos) pueden tomarse como estimadores de los parámetros µ y s,
valores que caracterizan a la población.
Los estadísticos, valores obtenidos
en la muestra, son, pues, estimadores de los parámetros correspondientes
(valores de la población)
6.2. Caracteristicas de
un Buen Estimador
6.3. Estimación Puntual
6.3.1. Metodos
6.3.2. Maxima
Verisimilitud
6.3.1.2. Momentos
6.4. Intervalos de Confianza para la
Media
6.6. Intervalo de Confianza para la Proporción
6.7. Intervalo de Confianza para la Diferencia de
Proporciones.
|
Leccion 7: Prueba de Hipótesis
7.1 Introducción
7.2. Errores tipo
I y tipo II.
7.3. Potencia de la prueba
7.4. Formulación de la hipótesis
estadística. En la prueba de hipótesis se pone a prueba un reclamo hecho sobra
la naturaleza de una población a base de la información de una muestra. El
reclamo se llama hipótesis estadística. Hipótesis Estadística: Una hipótesis
estadística es un reclamo hecho sobre la naturaleza de una población.
Por
ejemplo, la premisa formulada por un productor de baterías para autos de que su
batería dura en promedio 48 meses, es una hipótesis estadística porque el
manufacturero no inspecciona la vida de cada batería que él produce. Si
surgieran quejas de parte de los clientes, entonces se pone a prueba el reclamo
del manufacturero. La hipótesis estadística sometida a prueba se llama la
hipótesis nula, y se denota como H0.
7.5. Prueba de hipótesis para la
media
7.6. Prueba de hipótesis para la diferencia de media
7.7. Prueba de
hipótesis para la proporción
7.8. Prueba de hipótesis para la diferencia de
proporciones
7.9. Prueba de hipótesis para la varianza
7.10. Prueba de
hipótesis para la relación de varianza
|
Leccion 8: Pruebas de Bondad y Ajuste
8.1. Prueba C2
8.2. Prueba kolmogorov – Somimov
8.3.
Prueba de Anderson – Darling. La mayoría de los métodos estadísticos asumen una
cierta distribución en la derivación de sus resultados. Sin embargo, cuando se
asume que nuestros datos siguen una distribución específica, tomamos un riesgo
serio. Si nuestra consideración es errónea, los resultados obtenidos pueden ser
no validos. Por ejemplo, los niveles de confidencia de los intervalos de
confianza (IC) o las pruebas de hipótesis implementados [2, 7] pueden estar
completamente equivocados. Las consecuencias de especificar mal una distribución
puede resultar ser muy costoso. Una forma de tratar con este problema es
verificar las consideraciones de la distribución cuidadosamente. Existen 2
enfoques principales para verificar la distribución a considerar [2, 3, y 6].
Uno implica procedimientos empíricos, los cuales son fáciles de entender e
implementar y son basados en intuición y en las propiedades gráficas de la
distribución que se desea probar. Los procedimientos empíricos pueden ser usados
para verificar y validar la distribución a considerar. Varias de ellas han sido
discutidas a profundidad en otros artículos [8,9, y 10].
|
No hay comentarios:
Publicar un comentario