Seminario CERAMATHS - DMATHS: presentación de Mihaly Petreczky
El seminario del departamento de matemáticas del CERAMATHS acogerá a Mihaly Petreczky (CRIStAL, Univ. de Lille), el jueves 12 de octubre de 2023
-
Le 12/10/2023
-
14:00 - 15:00
-
Seminario
-
Campus Mont Houy - Bâtiment Abel de Pujol 2 - amphi 70E
El seminario del Departamento de Matemáticas de CERAMATHS recibirá a Mihaly Petreczky (CRIStAL, Universidad de Lille) a las 14:00 horas del jueves 12 de octubre de 2023, para la siguiente charla:
.Garantías PAC(-Bayesianas) para el aprendizaje de sistemas dinámicos
.En esta charla hablaré sobre garantías teóricas no asintóticas tipo PAC para el aprendizaje de sistemas dinámicos. Consideraremos principalmente sistemas dinámicos lineales en tiempo discreto con ruido estocástico, y luego discutiremos alguna extensión de estos resultados a sistemas en tiempo continuo. El aprendizaje de sistemas lineales es un tema establecido en la teoría de control, más concretamente en el subcampo de la teoría de control conocido como identificación de sistemas. Sin embargo, la mayoría de los resultados establecidos tratan de garantías asintóticas para el aprendizaje, es decir, muestran la consistencia estadística de los algoritmos de aprendizaje. En cambio, hay relativamente pocos resultados que proporcionen límites de muestra finita sobre el error de estimación y el error de generalización de los modelos aprendidos. En particular, casi no hay resultados sobre límites probablemente aproximadamente correctos (PAC) y PAC-Bayesianos sobre la brecha de generalización para sistemas dinámicos. Este es especialmente el caso de los sistemas estocásticos que se aprenden a partir de una única serie temporal. Este problema supone un reto por varias razones: los datos no son i.i.d., los modelos utilizan un número creciente de puntos de datos para generar predicciones y las señales implicadas no tienen por qué estar acotadas. La motivación para estudiar los límites PAC(-Bayesianos) es la siguiente. En primer lugar, tales límites podrían ser útiles para el aprendizaje por refuerzo LQG. En segundo lugar, como las redes neuronales recurrentes (RNN) contienen sistemas lineales como caso especial, los límites PAC-Bayesianos para sistemas lineales podrían ser útiles como primer paso para derivar límites similares para RNNs. A su vez, los límites PAC-Bayesianos resultaron ser prometedores para derivar límites de generalización no triviales para redes neuronales.
En esta charla presentaré resultados recientes sobre límites PAC-Bayesianos para sistemas estocásticos lineales en tiempo discreto aprendidos a partir de una única serie temporal. Luego mencionaré extensiones recientes a sistemas no lineales. También discutiré extensiones a sistemas de tiempo continuo aprendidos a partir de datos i.i.d.
Responsables del seminario :
Serge Nicaise
Bouchaïb Sodaïgui
El seminario CERAMATHS - DMATHS
16.10.2024