jueves, 25 de septiembre de 2014

CURSO DE PROBABILIDAD Y ESTADÍSTICA





El curso de la Probabilidad y Estadísticas I contiene lo siguiente:
  • Lecciones en formato de videoconferencias con las que se explica el contenido teórico.
  • Actividades complementarias que le harán investigar más acerca del tema, así como, poner en práctica lo estudiado en la lección. Estas actividades no forman parte de su evaluación final.
  • Textos que respaldan lo explicado en la videoconferencia.
  • Cuestionarios de evaluación, que tras ser contestados y aprobados puede acceder a la siguiente lección.
  • Examen final para evaluación global del curso

Lección 1: Estadística Descriptiva y Fundamentos de Probabilidad

1.1. Notación De Sumatoria

1.2. Datos No agrupados

1.2.1. Medidas de Tendencia Central y de posición

1.2.2. Medidas de dispersión
1.3. Datos Agrupados
1.3.1. Tabla de frecuencias
1.3.2. Medidas de tendencia Central
1.3.3. Medidas de dispersión
1.4. Conjunto y técnicas de conteo. El desarrollo de la teoría de la probabilidad ha aumentado el alcance de las aplicaciones de la estadística. Muchos conjuntos de datos se pueden aproximar, con gran exactitud, utilizando determinadas distribuciones probabilísticas; los resultados de éstas se pueden utilizar para analizar datos estadísticos. La probabilidad es útil para comprobar la fiabilidad de las inferencias estadísticas y para predecir el tipo y la cantidad de datos necesarios en un determinado estudio estadístico.
1.5. Espacio muestral y eventos
1.6. Axiomas y Teoremas
1.7. Espacio infinito equiprobable
1.8. Probabilidad condicional e independencia
1.9. Teorema de bayes



Video Conferencia: Estadística Descriptiva y Fundamentos de Probabilidad
Materiales de Lectura y Estudio 1
Examen de la Lección

Leccion 2: Modelos Analíticos de Fenómenos Aleatorios Discretos

2.1. Defició de Variable Aleatoria Discreta. Muchas veces se desea resumir con un número el resultado de un experimento aleatorio. En muchos de los ejemplos relativos a experimentos aleatorios que han sido considerados hasta ahora, el espacio muestral es sólo una descripción de los posibles resultados. En algunos casos tales descripciones son suficientes, pero en otros se hace útil asociar un número con cada resultado del espacio muestral. Es así como se llega a la definición de variable aleatoria. 

Una variable aleatoria X es una función que asigna un número real a cada resultado en el espacio muestral de un experimento aleatorio. El conjunto de los posibles valores de la variable aleatoria X se denomina rango. Diremos que la variable aleatoria es discreta si su rango es finito (o infinito contable). 

A menudo el interés recae en la probabilidad de que una variable aleatoria X tome un valor particular x, esto se denota P(X=x). La distribución de probabilidad de X será entonces la descripción del conjunto de valores posibles de X (rango de X), junto con la probabilidad asociada con cada uno de estos valores. La distribución de probabilidad de una variable aleatoria es a menudo el resumen más útil de un experimento aleatorio.


2.2. Función de probabilidad, y de distribución, valor esperado, varianza y desviación estándar
Función de probabilidad
2.3. Distribución binomial
2.4. Distribución hipergeométrica
2.4.1. Aproximación de la hipergeométrica por la binomial
2.5. Distribución geométrica
2.6. Distribución multinominal
2.7. Distribución de Poisson
2.7.1. Aproximación Poisson a la distribución binomial


Video Conferencia: Modelos Analíticos de Fenómenos Aleatorios Discretos
Materiales de Lectura y Estudio 1

Continue leyendo


Leccion 3: Modelos Analíticos de Fenómenos Aleatorios Continuos


3.1. Definición de variable aleatoria continúa. Una variable aleatoria continua es una función X que asigna a cada resultado posible de un experimento un número real. Si X puede asumir cualquier valor en algun intervalo I (el intervalo puede ser acotado o desacotado), se llama una variable aleatoria continua. Si puede asumir solo varios valores distintos, se llama una variable aleatoria discreta.


Si X es una variable aleatoria, estamos frecuentemente interesado en la probabilidad de que X asume un valor en cualquier rango. Por ejemplo, si X el último precio cotizado del las acciones de Conglomerado Colosal, y observamos que el precio está entre $10 y $20 60% del tiempo, diríamos

3.2.funcion densidad y acumulativa

3.3. la media , varianza y desviación standar
3.4 . Distribución uniforma y exponencial
3.5. Distribución normal
3.6. teorema de chebyshev


Video Conferencia: Modelos Analíticos de Fenómenos Aleatorios Continuos
Materiales de Lectura y Estudio 1
Examen de la Lección

Leccion 4: Regresión y Correlación Simple

4.1. Regresion de probabilidad simple y curvilínea

4.1.1. Distinguir entre variable dependiente e independiente. Variable dependiente. Es la variable central de la investigación; a través de ella se miden los cambios ocasionados por la variable independiente en la población estudiada. Por ejemplo, cáncer de pulmón, conocimiento, destreza, satisfacción y utilización de un servicio. 

Variable independiente. Determina a la variable dependiente. Es la que va a ocasionar los cambios en la población estudiada. Por ejemplo, número de cigarros fumados al día, intervención educativa, capacitación, calidad de atención y percepción de necesidad de salud

4.1.2. Definir ecuación de regresión y cual es su aplicación
4.1.3. Aplicar el método de mínimos cuadrados para determinar la recta, parábola ó curva que ¿mejor se ajuste a un conjunto de datos?
4.2 Correlación


Video Conferencia: Regresión y Correlación Simple
Materiales de Lectura y Estudio 1

Leccion 5: Distribuciones de Probabilidad Continuas y Muestrales


5.1. Distribuciones de Probabilidad de una variable aleatoria continua

5.2. Media Varianza de una Variable Aleatoria  Continua 

5.3. Distribución De Probabilidad T-Student. La ecuación para la función de densidad t no se presentara aquí, pero se dan algunas indicaciones para su obtención en los ejercicios del final del capitulo. Como la función de densidad normal estándar, la función de densidad t es simétrica con respecto a cero, además, para v > 1, E( T ) =0 y para v > 2, V ( T ) = v / ( v - 2 ). Así vemos que una variable aleatoria con una distribución t tiene el mismo valor esperado que una variable normal estándar. Sin embargo, una variable aleatoria normal estándar siempre tiene una varianza de 1, mientras que la varianza de una variable aleatoria con una distribución t siempre es mayor que 1. 

En al figura 7.2 se muestran las gráficas de una función de densidad normal estándar y de una función de densidad t. Nótese que ambas funciones de densidad son simétricas con respecto al origen, pero que la densidad t tiene mas masa probabilística en las colas. Normal

5.4. Distribución De Probabilidad Tipo Gamma
5.5. Distribución De Probabilidad Tipo Beta
5.6. Distribución De Probabilidad C2 y F
5.7. Distribución De Probabilidad Wiebull
5.8. Teorema de Combinación Lineal de Variables Aleatorias y Teorema del Limite Central. 
5.9 Muestreo : Introducción al muestreo y tipos de muestreo
5.10 Teorema de limite central
5.11. Distribución central de la media
5.12. Distribución muestral de diferencia de medias
5.13. Distribución muestral de la proporción
5.14. Distribución normal de la diferencia de las proporciones
5.15. Distribución muestral de la varianza
5.16. Distribución de la Muestral de la Relación de Varianzas


Video Conferencia: Distribuciones de Probabilidad Continuas y Muestrales
Materiales de Lectura y Estudio
Examen de la Lección

Leccion 6: Estimación de Parámetros


6.1. Introducción. A la inferencia estadística le interesa sacar conclusiones de un gran número de acontecimientos (población), fundándose en las observaciones de una parte de los mismos (muestra). 

La estadística nos proporciona herramientas que formalizan y uniforman los procedimientos para sacar conclusiones siempre que las muestras seleccionadas sean representativas de la población que han sido extraídas. Esta representatividad permite extender los valores que describen a las muestras (estadísticos), tales como la media, la desviación típica, un coeficiente de correlación, a la población correspondiente, es decir, la media o la desviación típica (estadísticos) pueden tomarse como estimadores de los parámetros µ y s, valores que caracterizan a la población. 

Los estadísticos, valores obtenidos en la muestra, son, pues, estimadores de los parámetros correspondientes (valores de la población)

6.2. Caracteristicas de un Buen Estimador
6.3. Estimación Puntual
6.3.1. Metodos
6.3.2. Maxima Verisimilitud
6.3.1.2. Momentos
6.4. Intervalos de Confianza para la Media
6.6. Intervalo de Confianza para la Proporción
6.7. Intervalo de Confianza para la Diferencia de Proporciones.


Video Conferencia: Estimación de Parámetros
Materiales de Lectura y Estudio

Leccion 7: Prueba de Hipótesis


7.1 Introducción 

7.2. Errores tipo I y tipo II.

7.3. Potencia de la prueba

7.4. Formulación de la hipótesis estadística. En la prueba de hipótesis se pone a prueba un reclamo hecho sobra la naturaleza de una población a base de la información de una muestra. El reclamo se llama hipótesis estadística. Hipótesis Estadística: Una hipótesis estadística es un reclamo hecho sobre la naturaleza de una población.
Por ejemplo, la premisa formulada por un productor de baterías para autos de que su batería dura en promedio 48 meses, es una hipótesis estadística porque el manufacturero no inspecciona la vida de cada batería que él produce. Si surgieran quejas de parte de los clientes, entonces se pone a prueba el reclamo del manufacturero. La hipótesis estadística sometida a prueba se llama la hipótesis nula, y se denota como H0.
7.5. Prueba de hipótesis para la media
7.6. Prueba de hipótesis para la diferencia de media
7.7. Prueba de hipótesis para la proporción
7.8. Prueba de hipótesis para la diferencia de proporciones
7.9. Prueba de hipótesis para la varianza
7.10. Prueba de hipótesis para la relación de varianza


Video Conferencia: Prueba de Hipótesis
Materiales de Lectura y Estudio

Leccion 8: Pruebas de Bondad y Ajuste


8.1. Prueba C2

8.2. Prueba kolmogorov – Somimov

8.3. Prueba de Anderson – Darling. La mayoría de los métodos estadísticos asumen una cierta distribución en la derivación de sus resultados. Sin embargo, cuando se asume que nuestros datos siguen una distribución específica, tomamos un riesgo serio. Si nuestra consideración es errónea, los resultados obtenidos pueden ser no validos. Por ejemplo, los niveles de confidencia de los intervalos de confianza (IC) o las pruebas de hipótesis implementados [2, 7] pueden estar completamente equivocados. Las consecuencias de especificar mal una distribución puede resultar ser muy costoso. Una forma de tratar con este problema es verificar las consideraciones de la distribución cuidadosamente. Existen 2 enfoques principales para verificar la distribución a considerar [2, 3, y 6]. Uno implica procedimientos empíricos, los cuales son fáciles de entender e implementar y son basados en intuición y en las propiedades gráficas de la distribución que se desea probar. Los procedimientos empíricos pueden ser usados para verificar y validar la distribución a considerar. Varias de ellas han sido discutidas a profundidad en otros artículos [8,9, y 10]. 


Video Conferencia: Pruebas de Bondad y Ajuste
Materiales de Lectura y Estudio
Examen de la Lección 6 al 8

Evaluacion Final del curso Probabilidad y Estadísticas I


 

No hay comentarios:

Publicar un comentario