

Eventos
Aquí podrán encontrar información sobre los próximos eventos de la escuela.
Calendario
Eventos pasados
Divertimento sobre geometría y física
Ofrecemos un curso gratuito y en línea sobre geometría y física para jóvenes de espíritu amantes de las matemáticas. Acerca de este evento C@mpus de las matemáticas junto a SciTechXE: "Ciencia y Tecnología para todos" y la Escuela de Matemáticas Bourbaki presentan su curso Divertimento sobre geometría y física.
Aspectos Geométricos de la Lógica Matemática y la Ciencia de Datos
Este evento surge del interés que tienen varios investigadores ubicados en el valle de México, especialistas ya sea en Lógica Matemática, en Geometría Algebraica, o en Ciencia de Datos, por comenzar a entender algunos de los muy importantes resultados que se han venido dando en la intersección de estas tres ramas de la matemática, con la idea de eventualmente ser capaces de colaborar en estas emocionantes interacciones.
Una definición matemática de la volatilidad (WIDS community)
La volatilidad es uno de los parámetros más importantes en la teoría de Black-Scholes sobre el riesgo, lo cual a su vez es uno de los logros más emocionantes de las matemáticas financieras. En esta charla hablaremos de la definición matemática y sus implicaciones en problemas concretos.
Consideraciones Bayesianas sobre el modelado epidemiológico
Este es un webinar en conjunto entre Monterrey DataScience and Egineering y Escuela de Matemáticas Bourbaki sobre modelos epidemiológicos. Acerca de este evento Los algoritmos de muestreo puede ser utilizados para estudiar diversos problemas desde una perspectiva Bayesiana. En esta charla vamos a introducir los fundamentos matemáticos necesarios para definir un algoritmo de muestreo tipo Monte-Carlo, algunos otros algoritmos similares son el método de Gibbs, Metrópolis o Enfriamiento simulado. Todos ellos se basan en el concepto de Cadena de Markov y su eficacia reside en profundos teoremas en la teoría de la Probabilidad. El objetivo de esta charla es participar en la discusión sobre diversas técnicas que pueden ser utilizadas para atacar un problema de naturaleza epidemiológica.
Conversaciones en línea sobre Ciencias de Datos (Bourbaki-IBM)
Este curso en línea está organizado en forma de charlas, la conexión entre las distintas charlas dependerá de los intereses más recurrentes en los participantes. El objetivo es introducir y utilizar el lenguaje de las matemáticas para estudiar algunas de las ideas y dificultades recurrentes en la Ciencia de Datos.
Machine Learning: ¿por qué?
Las técnicas que constituyen Machine Learning se han descubierto de suma utilidad en diversas áreas como lo son la inteligencia artificial, el manejo de datos, las predicciones meteorológicas, las finanzas entre muchas otras. Diariamente somos parte y utilizamos algoritmos que aprenden de manera cada vez más parecido a los humanos con la ventaja de una mayor capacidad computacional. Conocer las matemáticas detrás de estos algoritmos es una de las mejores maneras para mejorar nuestro dominio tanto en la implementación (las aplicaciones) como en el desarrollo de nuevas técnicas.
Una invitación a Machine Learning
Machine Learning es un área de la ciencia de la computación que permite idear algoritmos que mejoran con la calidad y la cantidad de información provista, el objetivo de uno de estos algoritmos es predecir de manera cada vez más precisa algún fenómeno. Utilizando algunos conceptos básicos de matemáticas es posible formalizar la noción de aprendizaje y por tanto estudiar la eficacia de un tal algoritmo. Las aplicaciones de estas ´técnicas en diversas áreas son tan extensas que no es aventurado decir que son densas en nuestra vida cotidiana y actividad profesional.
Perspectivas sobre Data Science
El tamaño de las bases de datos en la actualidad las ha convertido en objetos prácticamente incomprensibles incluso para las temiblemente veloces súper-computadoras. Existen técnicas y métodos inspirados por las matemáticas que son increíblemente eficaces en reducir la complejidad de ciertas bases de datos y convertirlas en objetos mansos a los ojos de algunos algoritmos.
Manejo de Portafolios: Machine Learning, Time series o Cálculo Estocástico?
El Manejo de Portafolios es uno de los problemas fundamentales en el análisis de riesgo, daremos una presentación informal del problema introduciendo gentilmente los conceptos matemáticos necesarios para entender sus sutilezas.
De Productos Derivados y Pattern Recognition a multiplicación de matrices.
Tanto el precio de los Productos Derivados como el reconocimiento de imágenes son dos problemas sumamente difíciles y al mismo tiempo de extremo interés en el sector productivo. Con la irrupción y apogeo de las técnicas de Machine Learning nuevas soluciones a ambos problemas han comenzado a aparecer, siendo necesario para su implementación métodos numéricos del álgebra lineal, en esta plática daremos una breve introducción a ambos problemas y una exposición formal de una posible solución utilizando Support Vector Machines (el cuello de botella de los llamados Kernel Methods).
Teoría del aprendizaje, lógica y sus aplicaciones a la ciencia datos
El trabajo de Vapnik sentó las bases del estudio teórico del aprendizaje, la pregunta fundamental que buscaba responder es la siguiente: cómo estamos seguros que un algoritmo en verdad aprende (capacidad de generalización)? Gracias a un estudio combinatorio del problema logró aislar una clase de funciones (aprendizaje supervisado) que garantizaban la existencia de un algoritmo capaz de generalizar el conjunto de ejemplos con considerable eficacia. Paralelamente S. Shelah un lógico matemático encontró la misma clase de funciones en su intento por clasificar las teorías de primer orden con buenas propiedades geométricas (en un sentido a definir).
Boot camp en Machine Learning para Series Temporales y Signal Processing
¿Necesitas un nuevo impulso en tu carrera como programador, data analyst, data scientist o te gustaría mejorar tu competitividad en el manejo científico de datos y machine learning? Te invitamos a participar en nuestro boot camp enfocado en diversas técnicas de Machine Learning con un enfoque práctico y formal. Estamos convencidos de que los profesionistas mejor preparados en estas técnicas serán capaces de resolver los problemas de predicción más complejos a los que se enfrentan las compañías en la actualidad. Ofrecemos el único curso en el mercado que incluye un tratamiento matemático riguroso y formal, sus ventajas son inmensas.
Construyendo equipos de científicos de datos sin morir en el intento
Gestión ágil de proyectos en ciencia de datos
Las matemáticas detrás de Reinforcement Learning
Reinforced Learning es una de las técnicas de Machine Learning que mejores resultados ha obtenido, sus aplicaciones de distinta índole han permeado no solo su campo sino a la sociedad en general. Un ejemplo es la victoria de AlphaGo contra Lee Sedol, considerado uno de los mejores jugadores del mundo, hito comparable con la victoria de Deep Blue contra Kasparov . Tambinén incluiremos algunos ejemplos relacionados con las finanzas como son los algoritmos de trading.
Developers Circle from Facebook: Deep learning y matemáticas
El reciente boom de los métodos analíticos en la predicción de datos se debe al éxito que algunos métodos matemáticos han tenido en diversos tipos de problemas como lo son las finanzas, el procesamiento de datos, la inteligencia artificial etc... Por medio de ejemplos concretos de problemas que puede afrontar un programador o un analista jr de datos explicaremos la importancia de comprender las matemáticas detrás de los algoritmos más utilizados en la actualidad. Un conocimiento moderado pero sólido del formalismo detrás de estas técnicas puede convertirte en verdadero analista. Te invitamos a nuestra explicación desenfadada de algunas de estas técnicas y su potencial.
Machine Learning y Monte Carlo
El menú de técnicas disponibles para los científicos de datos es basto, eso implica una riqueza en las soluciones y una complicación al momento de elegir el adecuado. Daré una introducción a las técnicas en Machine Learning que utilizan el método Monte Carlo así como una descripción de aquellos problemas en los que es preferible utilizar este método sobre algunos otros de naturaleza Bayesiana.
Seminario Topological Data Analysis, CIMAT: Teoría del aprendizaje
Comenzaré explicando algunas de las cualidades de Support Vector Machines y Boosting para motivar el estudio de aquellas funciones que son PAC learnable y por qué podemos garantizar su aprendizaje. Al final hablaré de la relación entre estas ideas y la Teoría de Modelos geométrica (à la Shelah), si el tiempo lo permite explicaré algunas generalizaciones de estas ideas.
Seminario Deep Learning, CIMAT: PAC learning vía regularizadores
En la plática pasada mostramos la equivalencia entre PAC-learning, dimensión finita VC y Empirical Risk minimization como un algoritmo universal para problemas de clasificación binaria. Este tipo de problemas no generalizan incluyen a los problemas tipo regresión en los que buscamos aproximar a cierto modelo. Un problema de optimización convexa y función de pérdida Lipschitz acotada es un problema tipo regresión que generaliza lo problemas clásicos aproximados por la regresión lineal. Para garantizar el aprendizaje en el sentido PAC será necesario introducir regularizadores (o estabilizadores). Si el tiempo lo permite hablaremos de un algoritmo que es aún más eficiente para este tipo de problemas que el análogo de Empirical Risk Minimization llamado Stochastic Gradient Descent.
Las magiamáticas detrás de Deep Learning
En problemas relacionados a la predicción, al análisis de datos o a la inteligencia artificial las técnicas de Deep Learning se encuentran entre las más valiosas. Su enorme eficacia las ha convertido en una herramienta fundamental, sin embargo no es fácil entender el porqué de este éxito. En esta charla daremos una explicación utilizando matemáticas y trataremos de convencer a los asistentes de la ventaja de conocer el formalismo matemático detrás del aprendizaje de las redes neuronales. Contrario a lo que normalmente pensamos, entender este formalismo no es una actividad exclusiva de los matemáticos profesionales y cualquier profesionista puede hacerlo.
Una explicación matemática de Machine Learning
Machine Learning es uno de los instrumentos más utilizados en el análisis de datos y en Forecasting en la actualidad. Sus aplicaciones abarcan un amplio espectro de dominios tanto del conocimiento como de la industria, las finanzas o los algoritmos inteligentes que utilizan la mayoría de las plataformas que utilizamos en nuestra vida diaria. En esta charla explicaremos por qué conocer los 3 (por definir en la charla) aspectos matemáticos en machine learning representa una ventaja incalculable para los analistas de datos.
Algunas ventajas de Deep Learning
En problemas relacionados a la predicción, el análisis de datos o la inteligencia artificial las técnicas de Deep Learning se encuentran entre las más valiosas. Su enorme eficacia las ha convertido en una herramienta fundamental, sin embargo no es fácil entender el porqué de este éxito. En esta charla daremos una explicación utilizando matemáticas y trataremos de convencer a los asistentes de la ventaja de conocer el formalismo matemático detrás del aprendizaje de las redes neuronales. Contrario a lo que normalmente pensamos, entender este formalismo no es una actividad exclusiva de los matemáticos profesionales y cualquier profesionista podría aprenderlas.
Transparencia en Machine y Deep Learning
La carrera por obtener un alto poder de predicción en Machine Learning ha hecho que algunas veces sea complicado comprender lo que está pasando dentro de nuestros algoritmos. En la Escuela de Matemáticas Bourbaki entendemos lo importante que es en términos analíticos tener un entendimiento claro y transparente de las razones por las que nuestro algoritmo reacciona de determinada manera. En esta charla buscamos mostrar con ejemplos concretos cómo es posible mediante un conocimiento del formalismo matemático de Machine y Deep Learning adquirir la confianza necesaria para hacer predicciones más transparentes.
Monterrey Data Science & Engineering: Clustering y reducción de dimensión.
Sabemos que la mayoría de las compañías e instituciones en la actualidad se enfrentan al problema de la maldición de la dimensión con sus bases de datos. En esta charla hablaremos de algunas de las técnicas más eficientes para manipular la información de las bases de Datos enfocándonos en lo particular en métodos: clustering y reducción de la dimensión. El primero consiste en aquellas técnicas que buscan agrupar la información de acuerdo a ciertas cualidades, buscando así homogeneizar la información. El segundo es un problema que ha fascinado tanto a los informáticos como a los matemáticos desde hace varias décadas, podemos situar sus orígenes en los trabajos de Fourier.
PAC and Online learning via Mathematical Logic (Deep Learning, CIMAT-INAOE)
The work of Vapnik around PAC- learnability has been rediscovered independently by some logicians (Shelah among others), since then deep connections have been found between those two approaches. Despite both of them being highly theoretical, in the side of Machine Learning, PAC is an important concept that has implications in the applied side of Machine Learning like SPV or Boosting. Less known is the work of Macintyre-Karpinski around deep learning and some applications could be found there. In this talk I will survey some of the more important results in this line of investigations and talk about some new plausible lines of investigation both in the applied and theoretical side.