Tópicos de Aprendizaje Supervisado: de la matemática al learning - 3er bimestre
Martes de 14 a 16 y miércoles de 10 a 12
Instituto de Cálculo - Edificio 0 + Infinito – Facultad de Ciencias Exactas y Naturales – Ciudad Universitaria (UBA)
Ricardo Fraiman
Profesor a cargo del dictado del curso: Ricardo Fraiman
Profesora del IC para responder inquietudes sobre la inscripción al curso: Maria Eugenia Szretter Noste - meszre@dm.uba.ar
Ya podés completar el formulario de pre inscripcion
**Comienza el 19 de agosto**
Carga horaria: 64 horas.
Horario tentativo de clases teóricas
Martes de 14 a 16 y miércoles de 10 a 12.
Clases prácticas y de consulta a continuación.
Es materia optativa de las carreras: Licenciatura en Ciencias de Datos, Licenciatura en Ciencias Matemáticas, Profesorado en ciencias Matemáticas.
Como materia de grado, es correlativa de Introducción a la estadística y Ciencia de Datos/ Estadística (M).
Como materia de posgrado, está dirigida a Estudiantes de posgrado con conocimientos de matemática. Idealmente que hubieran cursado la materia Estadística (M) o bien Introduccion a la Estadística y Ciencia de Datos o equivalente.
Programa
1. Introducción y repaso de esperanza condicional.
2. Introducción al aprendizaje automático. Regla de Bayes.
3. Modelos no paramétricos para aprendizaje automático.
4. Reglas Plug-in.
5. Minimizando el riesgo empírico.
6. Teorema de Stone y sus aplicaciones.
7. Desigualdades de concentración.
8. Teoría de Vapnik-Chervonenkis. Coeficientes de fragmentación.
Desigualdad VC.
9. Propiedades de los coeficientes de fragmentación.
10. Desigualdades para el riesgo relativo.
11. Dimensión VC. Lema de Sauer. Consecuencias.
12. Minimizando el riesgo empírico con la teoría VC.
13. Reglas basadas en particiones del espacio.
14. Random forest.
15. Reglas basadas en hiperplanos: el perceptrón y sus limitaciones.
16. Extensiones del perceptrón I: SVM (Support vector machines).
17. Extensiones del perceptrón II: Redes neuronales.
18. Redes neuronales con capas ocultas.
19. Consistencia de redes neuronales. Teoremas de Cybenko y Hornik.
20. Stochastic gradient descent. Subgradientes. Propiedades.
21. Aprendizaje on line y reinforcing learning.
Bibliografía:
1. A Probabilistic Theory of Pattern Recognition.
L. Devroye, L. Gyorfi, G. Lugosi. Springer. (1996)
2. Concentration Inequalities. A Nonasymptotic theory of independence.
S. Boucheron, G. Lugosi, P. Massart. Oxford University Press. (2013)
3. Prediction, Learning and Games.
N. Cesa-Bianchi, G. Lugosi. Cambridge University Press. (2006)
4. S. Boucheron, O. Bousquet, and G. Lugosi, (2005), Theory of
Classification: a
Survey of Recent Advances. ESAIM: Probability and Statistics, 9:323–375.
5. G. Lugosi. Lectures on combinatorial statistics presented at the 47th
Probability
Summer School, Saint-Flour, 2017
6. O. Bousquet, S. Boucheron, and G. Lugosi, (2004), Introduction to
statistical
learning theory in O. Bousquet, U.v. Luxburg, and G. Rätsch (editors),
Advanced
Lectures in Machine Learning, Springer, pp. 169–207, 2004.
7. Algunos articulos que incorporaremos durante el curso.