Plan de estudios de la Maestría en Estadística Matemática 2021

(Sujeto a aprobación del Consejo Superior)

Año 1

Bimestre 1

Vectores aleatorios. Función de probabilidad y de densidad conjunta. Independencia. Sumas de variables aleatorias. Esperanza condicional. Distribución normal multivariada, Ley de los Grandes Números, Teorema Central del Límite y Teorema Central del Límite Multivariado. Método Delta Multivariado.

Métodos exploratorios de datos. Medidas resumen. Boxplot. Frecuencia relativa. Histogramas. Estimación de densidad. Clasificación Bayes Naive. Modelos de Regresión. Estimación de la función de regresión. Estimadores no paramétricos: Nadaraya, KNN. Clusters por el método de k-medias.

Bimestre 2

Estimación. Sesgo, varianza y error cuadrático medio. Compromiso sesgo-varianza. Estimación en modelos paramétricos: máxima verosimilitud, momentos, M estimadores. Propiedades asintóticas: consistencia y distribución asintótica. Intervalos de confianza para la media de una distribución normal con varianza conocida. Intervalos de confianza para la media de una distribución normal con varianza desconocida: Distribución t de Student. Intervalos de confianza de nivel asintótico basados en estadísticos asintóticamente normales. Intervalos de confianza para proporciones. Intervalos de confianza para dos muestras. Bootstrap.   

Hipótesis nula y alternativa. Tipos de errores. Nivel y potencia de un test. Valor "p". Tests para la media de una población normal con varianza conocida y con varianza desconocida. Tests de Wald (basados en estadísticos asintóticamente normales). Tests e intervalos de confianza para dos muestras. Relación entre tests e intervalos de confianza. Comparación del vector de medias de dos poblaciones multivariadas. El problema de comparaciones múltiples o cubrimiento simultáneo. Tests no paramétricos.

Bimestre 3

Óptimo lineal poblacional. Mínimos cuadrados. Supuestos. Inferencia para los parámetros del modelo: bajo normalidad y teoría asintótica. Predicción. Regresión no lineal. Ajuste y sobreajuste. Métodos de regularización (Ridge, Lasso, etc.). Técnicas y métricas de evaluación de modelos-métodos (validación cruzada, etc.)

Cluster,T-sne. Clasificación. Curvas ROC. Reducción de la dimensión: componentes principales, correlación canónica, projection pursuit.

Bimestre 4

Árboles de decisión. Regresión logística: estimación de parámetros por máxima verosimilitud. Redes Neuronales. Modelo lineal generalizado. Técnicas y métricas de evaluación de modelos-métodos (validación cruzada, etc.)  

En esta materia los alumnos se familiarizarán con la aplicación a problemas reales de las técnicas de inferencia estadística y análisis de datos estudiados en las materias previas. 

Año 2

Bimestre 1

A continuación se enumera un conjunto de posibles asignaturas optativas y seminarios y sus contenidos mínimos. Esta lista no es exhaustiva.

Métodos No Paramétricos. Tests No Paramétricos. Series de Tiempo I. Series de Tiempo II. Técnicas de Análisis Multivariado. Diseño y Análisis de Experimentos. Modelos Lineales Generalizados y plicaciones. Técnicas de Estimación Bayesiana. Métodos de Remuestreo.
Estadística Computacional. Selección de Modelos. Estimación No Paramétrica y Métodos de Suavizado. Estadística Teórica. Modelos de Regresión en Alta Dimensión. Fundamentos Teóricos de los Modelos Lineales. Estudio de Casos. Métodos Robustos. Muestreo. Tópicos de Estadística Robusta y no Paramétrica. Datos Funcionales. Tópicos Procesos Empíricos. Tópicos de Estimación Semiparamétrica y Datos Funcionales. Econometría. 

Una vez aprobadas todas las materias el alumno deberá realizar y presentar su Tesis de Maestría, guiado por un Director o una Directora de Tesis propuesto por el alumno y designado por el Consejo Directivo de la Facultad.

Carga Horaria total 704 horas

Asignaturas obligatorias: 472 horas.
Asignaturas optativas: 72 horas
Trabajo de tesis: 160 horas.

Asignaturas optativas de la Maestría en Estadística Matemática:

A continuación se enumera un conjunto de posibles asignaturas optativas y sus contenidos mínimos. Esta lista no es exhaustiva.

Pruebas de hipótesis basadas en rangos para una muestra: Pruebas del Signo, Wilcoxon y Scores Normales. Pruebas para dos muestras: Mann Whitnney, Scores Normales. Pruebas para varias muestras independientes: Kruskal-Wallis y Jonckheere. Prueba de Friedman para Análisis de la Varianza de dos factores. Prueba para la igualdad de Varianzas. Prueba de hipótesis para la independencia de dos muestras.

Test de bondad de Ajuste. Test de bondad de Ajuste a una distribución multinomial. Tablas de contingencia. Test de Mac Nemar para dos muestras binomiales relacionadas. Test de Irwin Fisher para dos muestras binomiales independientes. Test de la mediana o de Mood. Tests para varias muestras multinomiales. Test de independencia. Test de Cochran para observaciones relacionadas. Test de bondad de ajuste a una distribución dada. Tests no paramétricos basados en el estadístico de Kolmogorov-Smirnov.

Modelos autorregresivos. Estacionaridad. Modelos de promedios móviles. Invertibilidad. Modelos ARMA. Estacionaridad e Invertibilidad. Estimación de mínimos cuadrados para modelos autoregresivos. Ecuaciones de Yule- Walker. Estimadores de máxima verosimilitud, Box-Jenkins y mínimos cuadrados para modelos ARMA. Criterios FPE y AIC de Akaike. Autocorrelograma y autocorrelograma parcial. Test de Box y Pierce para bondad de ajuste. Modelos no estacionarios ARIMA. Modelos estacionales. Test de bondad de ajuste para modelos ARIMA. Predicción. Varianza de la predicción.

Identificación de observaciones atípicas y cambios de nivel. Función de transferencia. Modelos autoregresivos vectoriales. Modelos ARIMA vectoriales. Filtros de Kalman. Suavizadores. Modelos condicionalmente heterocedásticos. Modelos ARCH y GARCH.

Distribución Wishart. Distribución de los estimadores de máxima verosimilitud. Distribución de Hotelling. Test de Hotelling. Aplicación al problema de dos muestras y al análisis de la varianza. Estadístico U de Rao. Aplicaciones del test de Hotelling. Problema de Fisher-Behrens. Análisis de perfiles. Modelo lineal multivariado. Análisis de la varianza multivariado. Escalamiento multidimensional. Análisis de correspondencia. Análisis factorial. Curvas y superficies principales. Reducción suficiente

Análisis de varianza con efectos fijos. Modelos con varios efectos. Datos no balanceados. Efectos aleatorios y mixtos. Bloques aleatorizados. Bloques completos. Bloques incompletos balanceados y parcialmente balanceados. Cuadrados latinos. Diseños factoriales. Superficies de respuesta.

Familia Exponencial y Generalidades del MLG. Propiedades. Teoría general del MLG. Funciones de verosimilitud. Funciones de enlace. Estadísticos suficientes y links canónicos. Bondad del ajuste y residuos. Residuos de la deviance, de Anscombe y de Pearson. Estimador de Máxima Verosimilitud (EMV). Algoritmos para el cálculo del EMV. Tests de hipótesis. Datos Binarios y generalización a datos multinomiales. Regresión de Poisson. Diagnóstico para detectar outliers. Cuasi-verosimilitud. MLG no paramétrico y semiparamétrico. Modelo Aditivo Generalizado. Tablas de Contingencia de doble y triple entrada. Odds ratio. Independencia y homogeneidad. Modelo log-lineal. Modelos Jerárquicos. 

Teoría de la decisión. Teoría de la utilidad y función de pérdida. Función de riesgo. Reglas de Bayes. Reglas minimax. Admisibilidad de la regla de Bayes. Distribuciones a priori. Familias de distribuciones conjugadas. Familias Exponenciales. Estimación puntual bayesiana. Estimación en los modelos usuales. Aplicación al análisis de tablas de contingencia. Enfoque bayesiano para contrastes de hipótesis y regiones de confianza. Selección de modelos. El modelo lineal normal. La distribución Gamma inversa. Distribución a posteriori y factores de Bayes para el modelo lineal. Métodos Bayesianos jerárquicos. El método Bayesiano empírico.

Estimación Puntual. Estadísticos suficientes y completos. Estimadores de momentos y de Máxima Verosimilitud. Teoría Asintótica. Tests de hipótesis. Tests uniformemente más potentes. Regiones de confianza. Relación entre tests de hipótesis y regiones de confianza. Métodos Bayesianos. Tests no paramétricos para una y dos muestras.

Métodos asintóticos. El principio de reemplazo (“plug-in”). Bootstrap paramétrico y no-paramétrico. Datos i.i.d. Estimación de sesgo y de variabilidad de estimadores. Intervalos de confianza. Pivotes aproximados. Transformaciones para simetría. Métodos BC y ABC. Tests basados en el bootstrap. El bootstrap en el modelo lineal. Predictores fijos y aleatorios. El bootstrap en series temporales y procesos puntuales. Otros métodos: jacknife y validación cruzada. Cómputo eficiente del bootstrap.

Computación de estimadores de Máxima Verosimilitud y de tipo M. El algoritmo EM. Fundamentos y Aplicaciones. Métodos de Monte Carlo basados en cadenas de Markov. Bootstrap paramétrico y no paramétrico. Boostrap robusto.

Dependencia en la media (y su medición). Relación con otras formas de dependencia. Test F y análisis de la varianza simple (deviance total, deviance residual). Principios de selección de modelos (con respecto al uso del modelo, parsimonia, eficiencia). Métodos usuales: Stepwise, Forward y Backward. Mallows Cp, AIC, BIC. Algoritmo Branch and Bound. Métodos más recientes: Cross-validation, Bootstrap, LARS, Lasso. Comparación entre métodos. Selección robusta de modelos.

Instituto de Cálculo, Ciudad Universitaria. 
Ciudad de Buenos Aires CP1428 - Argentina

Offline Website Creator