“Medidas de distinguibilidad entre distribuciones de probabilidad: Aspectos teóricos y aplicaciones al estudio de las series temporales"

27 Marzo 2020 - La defensa se realizará de manera virtual.

El Lic. Leonardo Esteban Riveaud presentará su tesis doctoral dirigida por el Dr. Pedro W. Lamberti

Para participar, deben observarse las siguientes instrucciones.

Resumen: Las medidas de distinguibilidad entre distribuciones de probabilidad (divergencias) han sido muy útiles para la diferenciación de estados cuánticos, señales o procesos físicos. En este trabajo tenemos como objetivo principal el desarrollo de nuevas medidas de distinguibilidad con el propósito de aplicarlas en el análisis de series temporales. En una sección de la tesis se propone una generalización de la divergencia de Kullback-Leibler a partir de una simetrización de de la divergencia de Bregman. Esto no solo nos permite tener una nueva familia de divergencias a partir de entropías generalizadas sino que nos permite hacer una re-interpretación de la divergencia de Kullback-Leibler. Aplicamos al estudio de series temporales tanto de origen natural como simuladas. En el caso de señales de origen natural se opto por tomar trazas de un electrocardiograma bajo diferente condiciones clínicas de pacientes. Los resultados obtenidos son sumamente promisorios en cuanto proveen de una herramienta con potencial utilidad clínica. Por otra parte, se desarrolló otra nueva familia de divergencias, que llamaremos divergencias Gamma, a partir de las propiedades de las funciones convexas. Esto nos permitió ver la estrecha relación que existe entre el cuadrado de la métrica euclídea y la divergencia de Jensen-Shannon. Se pudo demostrar que esta nueva familia de divergencias que dependen de funciones convexas cumple con las propiedades esperadas que debe tener una divergencia generalizada. En esta misma sección se introdujo una entropía generalizada también a partir de funciones convexas. Esto nos permitió ver que mediante el uso de las divergencias “tipo Jensen”, estas nuevas entropías están estrechamente relacionadas con la divergencia Gamma antes mencionada. Con el objetivo de demostrar que esta nueva divergencia es útil en el análisis de series temporales se estudiaron electroencefalogramas asociados con paciente con problemas de sueño. Por último, se introduce una nueva medida de complejidad estadística a partir de la divergencia Gamma y de la entropía generalizada antes mencionada. En conclusión, pudimos mostrar que el desarrollo de nuevas medidas distinguibilidad no solo es útil en el análisis de series temporales sino que nos permiten entender desde otra perspectiva a las divergencias ya establecidas en la literatura.