top of page

Pláticas

Les compartimos el material que utilizamos en algunas pláticas que hemos dado:

Conversaciones en línea sobre Ciencias de Datos: AI v.s. los maestros del Ajedrez(Go y Bridge) y Ethical AI. IBM-Bourbaki Copiar Copiar

Este curso en línea está organizado en forma de charlas, la conexión entre las distintas charlas dependerá de los intereses más recurrentes en los participantes. El objetivo es introducir y utilizar el lenguaje de las matemáticas para estudiar algunas de las ideas y dificultades recurrentes en la Ciencia de Datos.

P vs NP

Invitados por la AME. Dimos una descripción de uno de los problemas del milenio junto a algunas reflexiones obre la enseñanza de las matemáticas.

Aspectos geométricos de la Lógica Matemática y la Ciencia de Datos: Teoría de grafos

Este evento surge del interés que tienen varios investigadores ubicados en el valle de México, especialistas ya sea en Lógica Matemática, en Geometría Algebraica, o en Ciencia de Datos, por comenzar a entender algunos de los muy importantes resultados que se han venido dando en la intersección de estas tres ramas de la matemática, con la idea de eventualmente ser capaces de colaborar en estas emocionantes interacciones.

Aspectos geométricos de la Lógica Matemática y la Ciencia de Datos: Topología algebráica

Este evento surge del interés que tienen varios investigadores ubicados en el valle de México, especialistas ya sea en Lógica Matemática, en Geometría Algebraica, o en Ciencia de Datos, por comenzar a entender algunos de los muy importantes resultados que se han venido dando en la intersección de estas tres ramas de la matemática, con la idea de eventualmente ser capaces de colaborar en estas emocionantes interacciones.

Aspectos geométricos de la Lógica Matemática y la Ciencia de Datos: Ley de los grandes números

Este evento surge del interés que tienen varios investigadores ubicados en el valle de México, especialistas ya sea en Lógica Matemática, en Geometría Algebraica, o en Ciencia de Datos, por comenzar a entender algunos de los muy importantes resultados que se han venido dando en la intersección de estas tres ramas de la matemática, con la idea de eventualmente ser capaces de colaborar en estas emocionantes interacciones.

Aspectos geométricos de la Lógica Matemática y la Ciencia de Datos: Teoría del aprendizaje

Este evento surge del interés que tienen varios investigadores ubicados en el valle de México, especialistas ya sea en Lógica Matemática, en Geometría Algebraica, o en Ciencia de Datos, por comenzar a entender algunos de los muy importantes resultados que se han venido dando en la intersección de estas tres ramas de la matemática, con la idea de eventualmente ser capaces de colaborar en estas emocionantes interacciones.

Aspectos geométricos de la Lógica Matemática y la Ciencia de Datos: Análisis de Fourier y compresión

Este evento surge del interés que tienen varios investigadores ubicados en el valle de México, especialistas ya sea en Lógica Matemática, en Geometría Algebraica, o en Ciencia de Datos, por comenzar a entender algunos de los muy importantes resultados que se han venido dando en la intersección de estas tres ramas de la matemática, con la idea de eventualmente ser capaces de colaborar en estas emocionantes interacciones.

Conversaciones en línea sobre Ciencias de Datos: AI v.s. los maestros del Ajedrez(Go y Bridge) y Ethical AI. IBM-Bourbaki

Este curso en línea está organizado en forma de charlas, la conexión entre las distintas charlas dependerá de los intereses más recurrentes en los participantes. El objetivo es introducir y utilizar el lenguaje de las matemáticas para estudiar algunas de las ideas y dificultades recurrentes en la Ciencia de Datos.

Modelos generativos Aplicaciones a NLP

Este es un evento de la comunidad Ciencia, Datos y Ciencia de Datos, participaremos con una charla introductoria sobre modelos generativos.

Consideraciones Bayesianas sobre el modelado epidemiológico. Parte II

En esta segunda parte recordaremos la definición de la cadena de Markov asociada a un modelo epidemiológico tipo SIR (estudiada en la primera parte de este Meetup). Después definiremos los algoritmos de muestreo utilizados para calcular los parámetros que definen la matriz markoviana (y a su vez el modelo epidemiológico), nuestra intención es discutir los métodos Monte Carlo, Gibbs Gillspie.

Consideraciones Bayesianas sobre el modelado epidemiológico. PRESENTACIÓN

Este es un webinar en conjunto entre Monterrey DataScience and Egineering y Escuela de Matemáticas Bourbaki sobre modelos epidemiológicos. Los algoritmos de muestreo puede ser utilizados para estudiar diversos problemas desde una perspectiva Bayesiana. En esta charla vamos a introducir los fundamentos matemáticos necesarios para definir un algoritmo de muestreo tipo Monte-Carlo, algunos otros algoritmos similares son el método de Gibbs, Metrópolis o Enfriamiento simulado. Todos ellos se basan en el concepto de Cadena de Markov y su eficacia reside en profundos teoremas en la teoría de la Probabilidad. El objetivo de esta charla es participar en la discusión sobre diversas técnicas que pueden ser utilizadas para atacar un problema de naturaleza epidemiológica. PRESENTACIÓN

Divertimento sobre geometría y física

C@mpus de las matemáticas junto a SciTechXE: "Ciencia y Tecnología para todos" y la Escuela de Matemáticas Bourbaki presentan su curso Divertimento sobre geometría y física.

Workshop sobre clasificación y forcasting en cine

En este pequeño workshop utilizaremos algunos algoritmos como K-NN , Series de Tiempo o Regresiones tipo Ridge para predecir algunas cualidades sobre películas tales como su clasificación o la preferencia que un usuario de Netflix tiene por un título.

Machine Learning: ¿por qué?

Las técnicas que constituyen Machine Learning se han descubierto de suma utilidad en diversas áreas como lo son la inteligencia artificial, el manejo de datos, las predicciones meteorológicas, las finanzas entre muchas otras. Diariamente somos parte y utilizamos algoritmos que aprenden de manera cada vez más parecido a los humanos con la ventaja de una mayor capacidad computacional. Conocer las matemáticas detrás de estos algoritmos es una de las mejores maneras para mejorar nuestro dominio tanto en la implementación (las aplicaciones) como en el desarrollo de nuevas técnicas.

Conversaciones en línea sobre Ciencias de Datos (Bourbaki-IBM)

Este curso en línea está organizado en forma de charlas, la conexión entre las distintas charlas dependerá de los intereses más recurrentes en los participantes. El objetivo es introducir y utilizar el lenguaje de las matemáticas para estudiar algunas de las ideas y dificultades recurrentes en la Ciencia de Datos.

Una invitación a Machine Learning

Machine Learning es un área de la ciencia de la computación que permite idear algoritmos que mejoran con la calidad y la cantidad de información provista, el objetivo de uno de estos algoritmos es predecir de manera cada vez más precisa algún fenómeno. Utilizando algunos conceptos básicos de matemáticas es posible formalizar la noción de aprendizaje y por tanto estudiar la eficacia de un tal algoritmo. Las aplicaciones de estas ´técnicas en diversas áreas son tan extensas que no es aventurado decir que son densas en nuestra vida cotidiana y actividad profesional.

Perspectivas sobre Data Science

El tamaño de las bases de datos en la actualidad las ha convertido en objetos prácticamente incomprensibles incluso para las temiblemente veloces súper-computadoras. Existen técnicas y métodos inspirados por las matemáticas que son increíblemente eficaces en reducir la complejidad de ciertas bases de datos y convertirlas en objetos mansos a los ojos de algunos algoritmos.

Manejo de Portafolios: Machine Learning, Time series o Cálculo Estocástico?

El Manejo de Portafolios es uno de los problemas fundamentales en el análisis de riesgo, daremos una presentación informal del problema introduciendo gentilmente los conceptos matemáticos necesarios para entender sus sutilezas.

De Productos Derivados y Pattern Recognition a multiplicación de matrices.

Tanto el precio de los Productos Derivados como el reconocimiento de imágenes son dos problemas sumamente difíciles y al mismo tiempo de extremo interés en el sector productivo. Con la irrupción y apogeo de las técnicas de Machine Learning nuevas soluciones a ambos problemas han comenzado a aparecer, siendo necesario para su implementación métodos numéricos del álgebra lineal, en esta plática daremos una breve introducción a ambos problemas y una exposición formal de una posible solución utilizando Support Vector Machines (el cuello de botella de los llamados Kernel Methods).

Developers Circle from Facebook: Deep learning y matemáticas

El reciente boom de los métodos analíticos en la predicción de datos se debe al éxito que algunos métodos matemáticos han tenido en diversos tipos de problemas como lo son las finanzas, el procesamiento de datos, la inteligencia artificial etc... Por medio de ejemplos concretos de problemas que puede afrontar un programador o un analista jr de datos explicaremos la importancia de comprender las matemáticas detrás de los algoritmos más utilizados en la actualidad. Un conocimiento moderado pero sólido del formalismo detrás de estas técnicas puede convertirte en verdadero analista. Te invitamos a nuestra explicación desenfadada de algunas de estas técnicas y su potencial.

Machine Learning y Monte Carlo

El menú de técnicas disponibles para los científicos de datos es basto, eso implica una riqueza en las soluciones y una complicación al momento de elegir el adecuado. Daré una introducción a las técnicas en Machine Learning que utilizan el método Monte Carlo así como una descripción de aquellos problemas en los que es preferible utilizar este método sobre algunos otros de naturaleza Bayesiana.

Las magiamáticas detrás de Deep Learning

En problemas relacionados a la predicción, al análisis de datos o a la inteligencia artificial las técnicas de Deep Learning se encuentran entre las más valiosas. Su enorme eficacia las ha convertido en una herramienta fundamental, sin embargo no es fácil entender el porqué de este éxito. En esta charla daremos una explicación utilizando matemáticas y trataremos de convencer a los asistentes de la ventaja de conocer el formalismo matemático detrás del aprendizaje de las redes neuronales. Contrario a lo que normalmente pensamos, entender este formalismo no es una actividad exclusiva de los matemáticos profesionales y cualquier profesionista puede hacerlo.

Una explicación matemática de Machine Learning

Machine Learning es uno de los instrumentos más utilizados en el análisis de datos y en Forecasting en la actualidad. Sus aplicaciones abarcan un amplio espectro de dominios tanto del conocimiento como de la industria, las finanzas o los algoritmos inteligentes que utilizan la mayoría de las plataformas que utilizamos en nuestra vida diaria. En esta charla explicaremos por qué conocer los 3 (por definir en la charla) aspectos matemáticos en machine learning representa una ventaja incalculable para los analistas de datos.

Algunas ventajas de Deep Learning

En problemas relacionados a la predicción, el análisis de datos o la inteligencia artificial las técnicas de Deep Learning se encuentran entre las más valiosas. Su enorme eficacia las ha convertido en una herramienta fundamental, sin embargo no es fácil entender el porqué de este éxito. En esta charla daremos una explicación utilizando matemáticas y trataremos de convencer a los asistentes de la ventaja de conocer el formalismo matemático detrás del aprendizaje de las redes neuronales. Contrario a lo que normalmente pensamos, entender este formalismo no es una actividad exclusiva de los matemáticos profesionales y cualquier profesionista podría aprenderlas.

Transparencia en Machine y Deep Learning

La carrera por obtener un alto poder de predicción en Machine Learning ha hecho que algunas veces sea complicado comprender lo que está pasando dentro de nuestros algoritmos. En la Escuela de Matemáticas Bourbaki entendemos lo importante que es en términos analíticos tener un entendimiento claro y transparente de las razones por las que nuestro algoritmo reacciona de determinada manera. En esta charla buscamos mostrar con ejemplos concretos cómo es posible mediante un conocimiento del formalismo matemático de Machine y Deep Learning adquirir la confianza necesaria para hacer predicciones más transparentes.

Monterrey Data Science & Engineering: Clustering y reducción de dimensión.

Sabemos que la mayoría de las compañías e instituciones en la actualidad se enfrentan al problema de la maldición de la dimensión con sus bases de datos. En esta charla hablaremos de algunas de las técnicas más eficientes para manipular la información de las bases de Datos enfocándonos en lo particular en métodos: clustering y reducción de la dimensión. El primero consiste en aquellas técnicas que buscan agrupar la información de acuerdo a ciertas cualidades, buscando así homogeneizar la información. El segundo es un problema que ha fascinado tanto a los informáticos como a los matemáticos desde hace varias décadas, podemos situar sus orígenes en los trabajos de Fourier.

PAC and Online learning via Mathematical Logic (Deep Learning, CIMAT-INAOE)

The work of Vapnik around PAC- learnability has been rediscovered independently by some logicians (Shelah among others), since then deep connections have been found between those two approaches. Despite both of them being highly theoretical, in the side of Machine Learning, PAC is an important concept that has implications in the applied side of Machine Learning like SPV or Boosting. Less known is the work of Macintyre-Karpinski around deep learning and some applications could be found there. In this talk I will survey some of the more important results in this line of investigations and talk about some new plausible lines of investigation both in the applied and theoretical side.

IBM Developer México, Data Science: regresiones lineales y regularizadores

Las regresiones lineales son una de las herramientas más útiles en Forecasting. A pesar de ser considerados básicos, su poder de predicción es sumamente poderoso y su implementación no es complicada. En este workshop proponemos un estudio de las regresiones lineales enfocado en el uso de sus regularizadores y estabilizadores. Hablaremos de Ridge regression, es decir del regularizador de Thikonov.

Sociedad de Científicos anónimos: Realidades dispersas

Las redes sociales le han dado un rostro distinguible a un problema estudiado por los matemáticos desde hace varios siglos: ¿son las relaciones entre los elementos (y solo eso) suficientes para comprender la estructura de un fenómeno? Al aterrizar este problema para el caso de las redes sociales obtenemos la siguiente pregunta: ¿un problema social (como lo puede ser el abuso de las drogas o el desempleo) se puede inferir por la manera en la que nos relacionamos (somos o no amigos) en Facebook? A pesar de que en el sentido estricto lo anterior solo es una boutade (pues es una obviedad que tales problemas no dependen únicamente del grafo que dibuja nuestra amistad), los matemáticos han logrado obtener este tipo de resultados después de delimitar la complejidad de los problemas.

Elastic Meetup: Machine Learning, Anomaly Detection y sus matemáticas

Elastich Search es una plataforma que utiliza Machine Learning para detectar anomalías en series temporales. En esta charla daremos una explicación de por qué conocer el formalismo matemático detrás de estos algoritmos y la definición formal de anomalía puede ayudar a mejorar nuestra capacidad de predicción apoyándonos en las ventajas que provee Elastic. No es necesario un conocimiento profundo de matemáticas para asistir a la charla, por el contrario es una invitación a este lenguaje. Si el tiempo lo permite hablaremos de detección de anomalías en sparse graphs y de la dualidad que existe entre aquellas gráficas densas y sparse, esta teoría se puede ver tanto como una técnica alternativa a los métodos de Machine Learning como una explicación de la eficacia de aquellos métodos en algunos problemas.

The Data Pub Octubre: Boosting

Boosting es una herramienta en Machine Learning que permite mejorar un algoritmo por medio de cuidadas iteraciones. Esta técnica nació del buen entendimiento de un problema clásico en la teoría del aprendizaje sobre un algoritmo: ¿aprendizaje débil implica aprendizaje fuerte? En esta charla buscamos introducir las ideas básicas de boosting así como un panorama de aquellos algoritmos donde el boosting es realmente útil. Es importante aislar aquellas circunstancias donde el resultado de Boosting es realmente útil. Si el tiempo nos permite vamos a motivar las razones estadísticas que motivaron la existencia de Boosting: PAC aprendizaje.

Meetup WiDSCommunity - Del Perceptrón a Support Vector Machines

Comenzaremos esta charla introduciendo uno de los algoritmos más sencillos utilizados en la ciencia de datos: el algoritmo del Perceptrón, el cuál tiene una enorme eficacia para la clasificación de información lineal. Después de ahí motivados por el poder estadístico de generalización de un algoritmo, introduciremos Support Vector Machines buscando explicar su eficacia y algunas de sus generalizaciones como lo son los Kernel Methods cuando la información no es lineal.

bottom of page