Plan de estudios de la Maestría en Estadística Matemática - 2021 

(Aprobado por Resolución Consejo Superior Nº 196/2021)

El Plan de estudios de la Maestría en Estadística Matemática:
Carga Horaria total 704 horas
Asignaturas obligatorias: 472 horas.
Asignaturas optativas: 72 horas
Trabajo de tesis: 160 horas.

Bimestre 1

Vectores aleatorios. Función de probabilidad y de densidad conjunta. Independencia. Sumas de variables aleatorias. Esperanza condicional. Distribución normal multivariada, Ley de los Grandes Números, Teorema Central del Límite y Teorema Central del Límite Multivariado. Método Delta Multivariado.

Métodos exploratorios de datos. Medidas resumen. Boxplot. Frecuencia relativa. Histogramas. Estimación de densidad. Clasificación Bayes Naive. Modelos de Regresión. Estimación de la función de regresión. Estimadores no paramétricos: Nadaraya, KNN. Clusters por el método de k-medias.

Bimestre 2

Estimación. Sesgo, varianza y error cuadrático medio. Compromiso sesgo-varianza. Estimación en modelos paramétricos: máxima verosimilitud, momentos, M estimadores. Propiedades asintóticas: consistencia y distribución asintótica. Intervalos de confianza para la media de una distribución normal con varianza conocida. Intervalos de confianza para la media de una distribución normal con varianza desconocida: Distribución t de Student. Intervalos de confianza de nivel asintótico basados en estadísticos asintóticamente normales. Intervalos de confianza para proporciones. Intervalos de confianza para dos muestras. Bootstrap.   

Hipótesis nula y alternativa. Tipos de errores. Nivel y potencia de un test. Valor "p". Tests para la media de una población normal con varianza conocida y con varianza desconocida. Tests de Wald (basados en estadísticos asintóticamente normales). Tests e intervalos de confianza para dos muestras. Relación entre tests e intervalos de confianza. Comparación del vector de medias de dos poblaciones multivariadas. El problema de comparaciones múltiples o cubrimiento simultáneo. Tests no paramétricos.

Bimestre 3

Óptimo lineal poblacional. Mínimos cuadrados. Supuestos. Inferencia para los parámetros del modelo: bajo normalidad y teoría asintótica. Predicción. Regresión no lineal. Ajuste y sobreajuste. Métodos de regularización (Ridge, Lasso, etc.). Técnicas y métricas de evaluación de modelos-métodos (validación cruzada, etc.)

Cluster,T-sne. Clasificación. Curvas ROC. Reducción de la dimensión: componentes principales, correlación canónica, projection pursuit.

Bimestre 4

Árboles de decisión. Regresión logística: estimación de parámetros por máxima verosimilitud. Redes Neuronales. Modelo lineal generalizado. Técnicas y métricas de evaluación de modelos-métodos (validación cruzada, etc.)  

En esta materia los alumnos se familiarizarán con la aplicación a problemas reales de las técnicas de inferencia estadística y análisis de datos estudiados en las materias previas. 

Una vez aprobadas todas las asignaturas y a partir de la experiencia adquirida en las mismas, los alumnos deberán elaborar y presentar un Trabajo Final Integrador de manera individual. Este trabajo tendrá como objetivo permitir la integración de todos los conocimientos adquiridos durante la Carrera. Para esto se propondrá a cada alumno un conjunto de datos reales solicitando que se los analice usando los métodos estadísticos más adecuados para el mismo teniendo en cuenta un determinado propósito en vista. Los alumnos deberán presentar por escrito un informe con el análisis realizado y las conclusiones obtenidas, describiendo en forma detallada las metodologías aplicadas y la justificación de las conclusiones finales.

Su evaluación estará a cargo de la Comisión Académica y recibirá una calificación de 0 a 10. Se establece un plazo de seis meses para la entrega del trabajo final integrador a partir del momento en el que el trabajo es asignado.

Asignaturas optativas de la Maestría en Estadística Matemática:

A continuación se enumera un conjunto de posibles asignaturas optativas y sus contenidos mínimos. Esta lista no es exhaustiva.

Pruebas de hipótesis basadas en rangos para una muestra: Pruebas del Signo, Wilcoxon y Scores Normales. Pruebas para dos muestras: Mann Whitnney, Scores Normales. Pruebas para varias muestras independientes: Kruskal-Wallis y Jonckheere. Prueba de Friedman para Análisis de la Varianza de dos factores. Prueba para la igualdad de Varianzas. Prueba de hipótesis para la independencia de dos muestras.

Test de bondad de Ajuste. Test de bondad de Ajuste a una distribución multinomial. Tablas de contingencia. Test de Mac Nemar para dos muestras binomiales relacionadas. Test de Irwin Fisher para dos muestras binomiales independientes. Test de la mediana o de Mood. Tests para varias muestras multinomiales. Test de independencia. Test de Cochran para observaciones relacionadas. Test de bondad de ajuste a una distribución dada. Tests no paramétricos basados en el estadístico de Kolmogorov-Smirnov.

Modelos autorregresivos. Estacionaridad. Modelos de promedios móviles. Invertibilidad. Modelos ARMA. Estacionaridad e Invertibilidad. Estimación de mínimos cuadrados para modelos autoregresivos. Ecuaciones de Yule- Walker. Estimadores de máxima verosimilitud, Box-Jenkins y mínimos cuadrados para modelos ARMA. Criterios FPE y AIC de Akaike. Autocorrelograma y autocorrelograma parcial. Test de Box y Pierce para bondad de ajuste. Modelos no estacionarios ARIMA. Modelos estacionales. Test de bondad de ajuste para modelos ARIMA. Predicción. Varianza de la predicción.

Identificación de observaciones atípicas y cambios de nivel. Función de transferencia. Modelos autoregresivos vectoriales. Modelos ARIMA vectoriales. Filtros de Kalman. Suavizadores. Modelos condicionalmente heterocedásticos. Modelos ARCH y GARCH.

Distribución Wishart. Distribución de los estimadores de máxima verosimilitud. Distribución de Hotelling. Test de Hotelling. Aplicación al problema de dos muestras y al análisis de la varianza. Estadístico U de Rao. Aplicaciones del test de Hotelling. Problema de Fisher-Behrens. Análisis de perfiles. Modelo lineal multivariado. Análisis de la varianza multivariado. Escalamiento multidimensional. Análisis de correspondencia. Análisis factorial. Curvas y superficies principales. Reducción suficiente

Análisis de varianza con efectos fijos. Modelos con varios efectos. Datos no balanceados. Efectos aleatorios y mixtos. Bloques aleatorizados. Bloques completos. Bloques incompletos balanceados y parcialmente balanceados. Cuadrados latinos. Diseños factoriales. Superficies de respuesta.

Familia Exponencial y Generalidades del MLG. Propiedades. Teoría general del MLG. Funciones de verosimilitud. Funciones de enlace. Estadísticos suficientes y links canónicos. Bondad del ajuste y residuos. Residuos de la deviance, de Anscombe y de Pearson. Estimador de Máxima Verosimilitud (EMV). Algoritmos para el cálculo del EMV. Tests de hipótesis. Datos Binarios y generalización a datos multinomiales. Regresión de Poisson. Diagnóstico para detectar outliers. Cuasi-verosimilitud. MLG no paramétrico y semiparamétrico. Modelo Aditivo Generalizado. Tablas de Contingencia de doble y triple entrada. Odds ratio. Independencia y homogeneidad. Modelo log-lineal. Modelos Jerárquicos. 

Teoría de la decisión. Teoría de la utilidad y función de pérdida. Función de riesgo. Reglas de Bayes. Reglas minimax. Admisibilidad de la regla de Bayes. Distribuciones a priori. Familias de distribuciones conjugadas. Familias Exponenciales. Estimación puntual bayesiana. Estimación en los modelos usuales. Aplicación al análisis de tablas de contingencia. Enfoque bayesiano para contrastes de hipótesis y regiones de confianza. Selección de modelos. El modelo lineal normal. La distribución Gamma inversa. Distribución a posteriori y factores de Bayes para el modelo lineal. Métodos Bayesianos jerárquicos. El método Bayesiano empírico.

Estimación Puntual. Estadísticos suficientes y completos. Estimadores de momentos y de Máxima Verosimilitud. Teoría Asintótica. Tests de hipótesis. Tests uniformemente más potentes. Regiones de confianza. Relación entre tests de hipótesis y regiones de confianza. Métodos Bayesianos. Tests no paramétricos para una y dos muestras.

Métodos asintóticos. El principio de reemplazo (“plug-in”). Bootstrap paramétrico y no-paramétrico. Datos i.i.d. Estimación de sesgo y de variabilidad de estimadores. Intervalos de confianza. Pivotes aproximados. Transformaciones para simetría. Métodos BC y ABC. Tests basados en el bootstrap. El bootstrap en el modelo lineal. Predictores fijos y aleatorios. El bootstrap en series temporales y procesos puntuales. Otros métodos: jacknife y validación cruzada. Cómputo eficiente del bootstrap.

Computación de estimadores de Máxima Verosimilitud y de tipo M. El algoritmo EM. Fundamentos y Aplicaciones. Métodos de Monte Carlo basados en cadenas de Markov. Bootstrap paramétrico y no paramétrico. Boostrap robusto.

Dependencia en la media (y su medición). Relación con otras formas de dependencia. Test F y análisis de la varianza simple (deviance total, deviance residual). Principios de selección de modelos (con respecto al uso del modelo, parsimonia, eficiencia). Métodos usuales: Stepwise, Forward y Backward. Mallows Cp, AIC, BIC. Algoritmo Branch and Bound. Métodos más recientes: Cross-validation, Bootstrap, LARS, Lasso. Comparación entre métodos. Selección robusta de modelos.

Instituto de Cálculo, Ciudad Universitaria. 
Ciudad de Buenos Aires CP1428 - Argentina

Best AI Website Maker