+52 1 55 59957954

The Pool, CDMX, México.

  • Facebook icono social

©2019 by Bourbakismos. Proudly created with Wix.com

Courses, reading seminars and tutoring.

All courses, seminars and tutorials could be taught in spanish, english or french.

Tutoring

Eventos pasados

Conversaciones en línea sobre Ciencias de Datos (Bourbaki-IBM)

Este curso en línea está organizado en forma de charlas, la conexión entre las distintas charlas dependerá de los intereses más recurrentes en los participantes. El objetivo es introducir y utilizar el lenguaje de las matemáticas para estudiar algunas de las ideas y dificultades recurrentes en la Ciencia de Datos.

Machine Learning: ¿por qué?

Las técnicas que constituyen Machine Learning se han descubierto de suma utilidad en diversas áreas como lo son la inteligencia artificial, el manejo de datos, las predicciones meteorológicas, las finanzas entre muchas otras. Diariamente somos parte y utilizamos algoritmos que aprenden de manera cada vez más parecido a los humanos con la ventaja de una mayor capacidad computacional. Conocer las matemáticas detrás de estos algoritmos es una de las mejores maneras para mejorar nuestro dominio tanto en la implementación (las aplicaciones) como en el desarrollo de nuevas técnicas.

Una invitación a Machine Learning

Machine Learning es un área de la ciencia de la computación que permite idear algoritmos que mejoran con la calidad y la cantidad de información provista, el objetivo de uno de estos algoritmos es predecir de manera cada vez más precisa algún fenómeno. Utilizando algunos conceptos básicos de matemáticas es posible formalizar la noción de aprendizaje y por tanto estudiar la eficacia de un tal algoritmo. Las aplicaciones de estas ´técnicas en diversas áreas son tan extensas que no es aventurado decir que son densas en nuestra vida cotidiana y actividad profesional.

Perspectivas sobre Data Science

El tamaño de las bases de datos en la actualidad las ha convertido en objetos prácticamente incomprensibles incluso para las temiblemente veloces súper-computadoras. Existen técnicas y métodos inspirados por las matemáticas que son increíblemente eficaces en reducir la complejidad de ciertas bases de datos y convertirlas en objetos mansos a los ojos de algunos algoritmos.

Manejo de Portafolios: Machine Learning, Time series o Cálculo Estocástico?

El Manejo de Portafolios es uno de los problemas fundamentales en el análisis de riesgo, daremos una presentación informal del problema introduciendo gentilmente los conceptos matemáticos necesarios para entender sus sutilezas.

De Productos Derivados y Pattern Recognition a multiplicación de matrices.

Tanto el precio de los Productos Derivados como el reconocimiento de imágenes son dos problemas sumamente difíciles y al mismo tiempo de extremo interés en el sector productivo. Con la irrupción y apogeo de las técnicas de Machine Learning nuevas soluciones a ambos problemas han comenzado a aparecer, siendo necesario para su implementación métodos numéricos del álgebra lineal, en esta plática daremos una breve introducción a ambos problemas y una exposición formal de una posible solución utilizando Support Vector Machines (el cuello de botella de los llamados Kernel Methods).

Teoría del aprendizaje, lógica y sus aplicaciones a la ciencia datos

El trabajo de Vapnik sentó las bases del estudio teórico del aprendizaje, la pregunta fundamental que buscaba responder es la siguiente: cómo estamos seguros que un algoritmo en verdad aprende (capacidad de generalización)? Gracias a un estudio combinatorio del problema logró aislar una clase de funciones (aprendizaje supervisado) que garantizaban la existencia de un algoritmo capaz de generalizar el conjunto de ejemplos con considerable eficacia. Paralelamente S. Shelah un lógico matemático encontró la misma clase de funciones en su intento por clasificar las teorías de primer orden con buenas propiedades geométricas (en un sentido a definir).

Boot camp en Machine Learning para Series Temporales y Signal Processing

¿Necesitas un nuevo impulso en tu carrera como programador, data analyst, data scientist o te gustaría mejorar tu competitividad en el manejo científico de datos y machine learning? Te invitamos a participar en nuestro boot camp enfocado en diversas técnicas de Machine Learning con un enfoque práctico y formal. Estamos convencidos de que los profesionistas mejor preparados en estas técnicas serán capaces de resolver los problemas de predicción más complejos a los que se enfrentan las compañías en la actualidad. Ofrecemos el único curso en el mercado que incluye un tratamiento matemático riguroso y formal, sus ventajas son inmensas.

Construyendo equipos de científicos de datos sin morir en el intento

Gestión ágil de proyectos en ciencia de datos

Las matemáticas detrás de Reinforcement Learning

Reinforced Learning es una de las técnicas de Machine Learning que mejores resultados ha obtenido, sus aplicaciones de distinta índole han permeado no solo su campo sino a la sociedad en general. Un ejemplo es la victoria de AlphaGo contra Lee Sedol, considerado uno de los mejores jugadores del mundo, hito comparable con la victoria de Deep Blue contra Kasparov . Tambinén incluiremos algunos ejemplos relacionados con las finanzas como son los algoritmos de trading.

Developers Circle from Facebook: Deep learning y matemáticas

El reciente boom de los métodos analíticos en la predicción de datos se debe al éxito que algunos métodos matemáticos han tenido en diversos tipos de problemas como lo son las finanzas, el procesamiento de datos, la inteligencia artificial etc... Por medio de ejemplos concretos de problemas que puede afrontar un programador o un analista jr de datos explicaremos la importancia de comprender las matemáticas detrás de los algoritmos más utilizados en la actualidad. Un conocimiento moderado pero sólido del formalismo detrás de estas técnicas puede convertirte en verdadero analista. Te invitamos a nuestra explicación desenfadada de algunas de estas técnicas y su potencial.

Machine Learning y Monte Carlo

El menú de técnicas disponibles para los científicos de datos es basto, eso implica una riqueza en las soluciones y una complicación al momento de elegir el adecuado. Daré una introducción a las técnicas en Machine Learning que utilizan el método Monte Carlo así como una descripción de aquellos problemas en los que es preferible utilizar este método sobre algunos otros de naturaleza Bayesiana.

Seminario Topological Data Analysis, CIMAT: Teoría del aprendizaje

Comenzaré explicando algunas de las cualidades de Support Vector Machines y Boosting para motivar el estudio de aquellas funciones que son PAC learnable y por qué podemos garantizar su aprendizaje. Al final hablaré de la relación entre estas ideas y la Teoría de Modelos geométrica (à la Shelah), si el tiempo lo permite explicaré algunas generalizaciones de estas ideas.

Seminario Deep Learning, CIMAT: PAC learning vía regularizadores

En la plática pasada mostramos la equivalencia entre PAC-learning, dimensión finita VC y Empirical Risk minimization como un algoritmo universal para problemas de clasificación binaria. Este tipo de problemas no generalizan incluyen a los problemas tipo regresión en los que buscamos aproximar a cierto modelo. Un problema de optimización convexa y función de pérdida Lipschitz acotada es un problema tipo regresión que generaliza lo problemas clásicos aproximados por la regresión lineal. Para garantizar el aprendizaje en el sentido PAC será necesario introducir regularizadores (o estabilizadores). Si el tiempo lo permite hablaremos de un algoritmo que es aún más eficiente para este tipo de problemas que el análogo de Empirical Risk Minimization llamado Stochastic Gradient Descent.

Las magiamáticas detrás de Deep Learning

En problemas relacionados a la predicción, al análisis de datos o a la inteligencia artificial las técnicas de Deep Learning se encuentran entre las más valiosas. Su enorme eficacia las ha convertido en una herramienta fundamental, sin embargo no es fácil entender el porqué de este éxito. En esta charla daremos una explicación utilizando matemáticas y trataremos de convencer a los asistentes de la ventaja de conocer el formalismo matemático detrás del aprendizaje de las redes neuronales. Contrario a lo que normalmente pensamos, entender este formalismo no es una actividad exclusiva de los matemáticos profesionales y cualquier profesionista puede hacerlo.

Una explicación matemática de Machine Learning

Machine Learning es uno de los instrumentos más utilizados en el análisis de datos y en Forecasting en la actualidad. Sus aplicaciones abarcan un amplio espectro de dominios tanto del conocimiento como de la industria, las finanzas o los algoritmos inteligentes que utilizan la mayoría de las plataformas que utilizamos en nuestra vida diaria. En esta charla explicaremos por qué conocer los 3 (por definir en la charla) aspectos matemáticos en machine learning representa una ventaja incalculable para los analistas de datos.

Algunas ventajas de Deep Learning

En problemas relacionados a la predicción, el análisis de datos o la inteligencia artificial las técnicas de Deep Learning se encuentran entre las más valiosas. Su enorme eficacia las ha convertido en una herramienta fundamental, sin embargo no es fácil entender el porqué de este éxito. En esta charla daremos una explicación utilizando matemáticas y trataremos de convencer a los asistentes de la ventaja de conocer el formalismo matemático detrás del aprendizaje de las redes neuronales. Contrario a lo que normalmente pensamos, entender este formalismo no es una actividad exclusiva de los matemáticos profesionales y cualquier profesionista podría aprenderlas.

Transparencia en Machine y Deep Learning

La carrera por obtener un alto poder de predicción en Machine Learning ha hecho que algunas veces sea complicado comprender lo que está pasando dentro de nuestros algoritmos. En la Escuela de Matemáticas Bourbaki entendemos lo importante que es en términos analíticos tener un entendimiento claro y transparente de las razones por las que nuestro algoritmo reacciona de determinada manera. En esta charla buscamos mostrar con ejemplos concretos cómo es posible mediante un conocimiento del formalismo matemático de Machine y Deep Learning adquirir la confianza necesaria para hacer predicciones más transparentes.

Monterrey Data Science & Engineering: Clustering y reducción de dimensión.

Sabemos que la mayoría de las compañías e instituciones en la actualidad se enfrentan al problema de la maldición de la dimensión con sus bases de datos. En esta charla hablaremos de algunas de las técnicas más eficientes para manipular la información de las bases de Datos enfocándonos en lo particular en métodos: clustering y reducción de la dimensión. El primero consiste en aquellas técnicas que buscan agrupar la información de acuerdo a ciertas cualidades, buscando así homogeneizar la información. El segundo es un problema que ha fascinado tanto a los informáticos como a los matemáticos desde hace varias décadas, podemos situar sus orígenes en los trabajos de Fourier.

PAC and Online learning via Mathematical Logic (Deep Learning, CIMAT-INAOE)

The work of Vapnik around PAC- learnability has been rediscovered independently by some logicians (Shelah among others), since then deep connections have been found between those two approaches. Despite both of them being highly theoretical, in the side of Machine Learning, PAC is an important concept that has implications in the applied side of Machine Learning like SPV or Boosting. Less known is the work of Macintyre-Karpinski around deep learning and some applications could be found there. In this talk I will survey some of the more important results in this line of investigations and talk about some new plausible lines of investigation both in the applied and theoretical side.

IBM Developer México, Data Science: regresiones lineales y regularizadores

Las regresiones lineales son una de las herramientas más útiles en Forecasting. A pesar de ser considerados básicos, su poder de predicción es sumamente poderoso y su implementación no es complicada. En este workshop proponemos un estudio de las regresiones lineales enfocado en el uso de sus regularizadores y estabilizadores. Hablaremos de Ridge regression, es decir del regularizador de Thikonov.

La Maldición de la dimensión: un acercamiento mediante wavelets y lógica

En la primera charla hablaré sobre las generalidades del problema que significa la dimensión enormemente grande para los algoritmos de Machine Learning, así como las ideas generales detrás de los distintos acercamientos a la reducción de la dimensión: Fourier o PCA entre otros. Hablaré sobre el concepto de PAC learning introducido por Vapnik y motivaré su importancia. En la segunda charla hablaré de los beneficios de las ondículas y sus diferencias con los métodos ya mencionados sobre la reducción de la dimensión, al final de la charla haré una comparación teórica utilizando la teoría del aprendizaje à la Vapnik.

Sociedad de Científicos anónimos: Realidades dispersas

Las redes sociales le han dado un rostro distinguible a un problema estudiado por los matemáticos desde hace varios siglos: ¿son las relaciones entre los elementos (y solo eso) suficientes para comprender la estructura de un fenómeno? Al aterrizar este problema para el caso de las redes sociales obtenemos la siguiente pregunta: ¿un problema social (como lo puede ser el abuso de las drogas o el desempleo) se puede inferir por la manera en la que nos relacionamos (somos o no amigos) en Facebook? A pesar de que en el sentido estricto lo anterior solo es una boutade (pues es una obviedad que tales problemas no dependen únicamente del grafo que dibuja nuestra amistad), los matemáticos han logrado obtener este tipo de resultados después de delimitar la complejidad de los problemas.

Elastic Meetup: Machine Learning, Anomaly Detection y sus matemáticas

Elastich Search es una plataforma que utiliza Machine Learning para detectar anomalías en series temporales. En esta charla daremos una explicación de por qué conocer el formalismo matemático detrás de estos algoritmos y la definición formal de anomalía puede ayudar a mejorar nuestra capacidad de predicción apoyándonos en las ventajas que provee Elastic. No es necesario un conocimiento profundo de matemáticas para asistir a la charla, por el contrario es una invitación a este lenguaje. Si el tiempo lo permite hablaremos de detección de anomalías en sparse graphs y de la dualidad que existe entre aquellas gráficas densas y sparse, esta teoría se puede ver tanto como una técnica alternativa a los métodos de Machine Learning como una explicación de la eficacia de aquellos métodos en algunos problemas.