


INSCRIBETE AL CURSO

Objetivos
Clarificar los conceptos fundamentales de Machine Learning en diversos algoritmos tales como overfitting, regularización y costo computacional.
Conocer los detalles de tres célebres y útiles algoritmos (modelos) en Machine Learning: Redes Neuronales, Support Vector Machines y Árboles de Decisión.
Invitar a los alumnos al método de Boosting con un enfoque en sus aplicaciones a Machine Learning así como sus limitaciones.
Estudiar los detalles detrás de algunos algoritmos estocásticos en Machine Learning.
Una vez cumplidos los objetivos anteriores buscamos iniciar a los alumnos en las ideas de estabilidad dentro de Machine Learning, lo haremos mediante ejemplos concretos con los algoritmos y meta-algoritmos detallados en el temario.
Temario
Principios de redes neuronales
Perceptrón lineal
Justificación teórica del Perceptrón
Regularización del perceptrón
Algoritmo del gradiente
Redes neuronales en general
Forecasting vía redes neuronales
2. Support Vector Machines
Definiciones básicas y complementos de probabilidad
Comparación con el Perceptrón
Estabilidad en SVM
3. Árboles de decisión
Algoritmos básicos
Entropía y su relación con la teoría de la información.
Estabilidad de los árboles de decisión
4. Boosting
Boosting conjuntista
Boosting estocástico
Composición de algoritmos lineales
Estabilidad de Boosting
5. Stochastic Gradient Descent
Repaso sobre el método del gradiente
Método del gradiente estocástico para el perceptrón
Gradiente estocástico para SVM
Gradiente estocástico para redes neuronales en general
6. Invitación a los Algoritmos de aproximación estocástica (si el tiempo lo permite)
Urnas de Polya
Principios de Martingalas
Funciones de Lyapunov
Aproximación estocástica