Programa 2012

Asignaturas obligatorias de la Maestría en Estadística Matemática:

Axiomas de Probabilidad. Probabilidad Condicional e Independencia. Variables Aleatorias. Vectores Aleatorios. Esperanza, Varianza y Covarianza. Esperanza Condicional. Leyes de los Grandes Números. Teorema Central del Límite.

Programación en R. Histogramas. Diagramas de tallo-hoja. QQ-plot. Medidas resumen. Box-plot. Transformaciones. Regresión Lineal Simple. Rectas resistentes.

Estimación Puntual. Estadísticos suficientes y completos. Estimadores de momentos y de Máxima Verosimilitud. Teoría Asintótica. Tests de hipótesis. Tests uniformemente más potentes. Regiones de confianza. Relación entre tests de hipótesis y regiones de confianza. Métodos Bayesianos. Tests no paramétricos para una y dos muestras.

Modelo lineal general. Modelo de regresión. Estimadores insesgados de mínima varianza: método de mínimos cuadrados. Tests de hipótesis lineales. Regiones de confianza. Regiones de predicción. Análisis de la varianza de uno y dos factores. Tests no paramétricos para Análisis de la Varianza de 1 Factor. Diagnóstico: Detección de fallas en el cumplimiento de las suposiciones del modelo lineal. Análisis de residuos. Estimador de mínimos cuadrados generalizado. Selección de variables en modelos lineales. 

Distribución normal multivariada. Distribución Wishart. Distribución de Hotelling. Test de Hotelling. Aplicación a los problemas de una y dos muestras y al análisis de la varianza. Test para igualdad de medias. Componentes principales. Biplot. Coordenadas discriminantes. Escalamiento multidimensional. Clasificación.

En este taller los alumnos se familiarizarán con la aplicación a problemas reales de las técnicas de inferencia estadística y análisis de datos. Cada alumno recibirá varias “tareas”, cada una de las cuales consistirá en el análisis estadístico de un conjunto de datos reales con uno o varios objetivos determinados. Los alumnos recibirán una descripción del significado de los datos y de la forma en que fueron obtenidos. Se procurará que las situaciones planteadas se asemejen lo más posible a consultas reales interdisciplinarias. Para la aprobación de este taller cada alumno deberá presentar informes de cada una de las tareas realizadas.

Pruebas de hipótesis basadas en rangos para una muestra: Pruebas del Signo, Wilcoxon y Scores Normales. Pruebas para dos muestras: Mann Whitnney, Scores Normales. Pruebas para varias muestras independientes: Kruskal-Wallis y Jonckheere. Prueba de Friedman para Análisis de la Varianza de dos factores. Prueba para la igualdad de Varianzas. Prueba de hipótesis para la independencia de dos muestras.

Lineamientos generales de la inferencia en el muestro en poblaciones finitas. Diseños simples sin reposición. Muestreo simple al azar y muestreo sistemático. Diseños muestrales con información auxiliar: a) Muestreo estratificado y b) Estrategias basadas en esquemas con probabilidad proporcional al tamaño. Diseños muestrales por conglomerados en 1 y 2 etapas. 

Una vez aprobadas todas las materias el alumno deberá realizar y presentar su Tesis de Maestría, guiado por un Director o una Directora de Tesis propuesto por el alumno y designado por el Consejo Directivo de la Facultad.

Asignaturas optativas de la Maestría en Estadística Matemática:

A continuación se enumera un conjunto de posibles asignaturas optativas y seminarios y sus contenidos mínimos. Esta lista no es exhaustiva.

Test de bondad de Ajuste. Test de bondad de Ajuste a una distribución multinomial. Tablas de contingencia. Test de Mac Nemar para dos muestras binomiales relacionadas. Test de Irwin Fisher para dos muestras binomiales independientes. Test de la mediana o de Mood. Tests para varias muestras multinomiales. Test de independencia. Test de Cochran para observaciones relacionadas. Test de bondad de ajuste a una distribución dada. Tests no paramétricos basados en el estadístico de Kolmogorov-Smirnov.  

Modelos autoregresivos. Estacionaridad. Modelos de promedios móviles. Invertibilidad. Modelos ARMA. Estacionaridad e Invertibilidad. Estimación de mínimos cuadrados para modelos autoregresivos. Ecuaciones de Yule-Walker. Estimadores de máxima verosimilitud, Box-Jenkins y mínimos cuadrados para modelos ARMA. Criterios FPE y AIC de Akaike. Autocorrelograma y autocorrelograma parcial. Test de Box y Pierce para bondad de ajuste. Modelos no estacionarios ARIMA. Modelos estacionales. Test de bondad de ajuste para modelos ARIMA. Predicción. Varianza de la predicción.

Identificación de observaciones atípicas y cambios de nivel. Función de transferencia. Modelos autoregresivos vectoriales. Modelos ARIMA vectoriales. Filtros de Kalman. Suavizadores. Modelos condicionalmente heterocedásticos. Modelos ARCH y GARCH.

Modelo lineal multivariado. Análisis de la varianza multivariado. Escalamiento multidimensional. Correlación canónica. Análisis de correspondencia. Análisis factorial. Taxonomía numérica.

Análisis de varianza con efectos fijos. Modelos con varios efectos. Datos no balanceados. Efectos aleatorios y mixtos. Bloques aleatorizados. Bloques completos. Bloques incompletos balanceados y parcialmente balanceados. Cuadrados latinos. Diseños factoriales. Superficies de respuesta

Familia Exponencial y Generalidades del MLG. Propiedades. Teoría general del MLG. Funciones de verosimilitud. Funciones de enlace. Estadísticos suficientes y links canónicos. Bondad del ajuste y residuos. Residuos de la deviance, de Anscombe y de Pearson. Estimador de Máxima Verosimilitud (EMV). Algoritmos para el cálculo del EMV. Tests de hipótesis. Datos Binarios y generalización a datos multinomiales. Regresión de Poisson. Diagnóstico para detectar outliers. Cuasi-verosimilitud. MLG no paramétrico y semiparamétrico. Modelo Aditivo Generalizado. Tablas de Contingencia: de doble y triple entrada. Odd ratio. Independencia y homogeneidad. Modelo log-lineal. Modelos Jerárquicos.

Teoría de la decisión. Teoría de la utilidad y función de pérdida. Función de riesgo. Reglas de Bayes. Reglas minimax. Admisibilidad de la reglas de Bayes. Distribuciones a priori. Familias de distribuciones conjugadas. Estimación puntual bayesiana. Estimación en los modelos usuales. Aplicación al análisis de tablas de contingencia. Enfoque bayesiano para contrastes de hipótesis y regiones de confianza. El modelo lineal normal. La distribución Gamma inversa. Distribución a posteriori y factores de Bayes para el modelo lineal. Métodos Bayesianos jerárquicos. El método Bayesiano empírico.

Métodos asintóticos. El principio de reemplazo (“plug-in”). Bootstrap paramétrico y no-paramétrico. Datos i.i.d. Estimación de sesgo y de variabilidad de estimadores. Intervalos de confianza. Pivotes aproximados. Transformaciones para simetría. Métodos BC y ABC. Tests basados en el bootstrap. El bootstrap en el modelo lineal. Predictores fijos y aleatorios. El bootstrap en series temporales y procesos puntuales. Otros métodos: jacknife y validación cruzada. Cómputo eficiente del bootstrap.

Computación de estimadores de Máxima Verosimilitud y de tipo M. El algoritmo EM. Fundamentos y Aplicaciones. Métodos de Monte Carlo basados en cadenas de Markov. Bootstrap paramétrico y no paramétrico. Boostrap robusto.

Dependencia en la media (y su medición). Relación con otras formas de dependencia. Test F y análisis de la varianza simple (deviance total, deviance residual). Principios de selección de modelos (con respecto al uso del modelo, parsimonia, eficiencia). Métodos usuales: Stepwise, Forward y Backward. Mallows Cp, AIC, BIC. Algoritmo Branch and Bound. Métodos más recientes: Cross-validation, Bootstrap, LARS, Lasso. Ejemplos y uso en R. Comparación entre métodos. Selección robusta de modelos. Ejemplos y uso en R.

Estimación No Paramétrica de la Densidad: Estimación por Núcleos, Error Cuadrático Medio, Error Cuadrático Medio Integrado. Selección del Núcleo. Regresión No Paramétrica: Modelos No Paramétricos, Estimación por Núcleos, Polinomios Locales, Vecinos Más Cercanos, Método de Splines, Estimación de la Derivada. Selección Parámetro de Suavizado. Inferencia con Regresión No Paramétrica. Caso Multivariado. Selección del Parámetro de Suavizado: Suavizadore sOptimos, Validación Cruzada, Funciones de Penalización. Método Plug-in. Datos con Outliers. LOWESS y M-smoothing. Introducción a los Modelos Semiparamétricos y Aditivos.

Instituto de Cálculo, Ciudad Universitaria. 
Ciudad de Buenos Aires CP1428 - Argentina

AI Website Builder