Charla

Entendiendo tus propios modelos predictivos: si no lo haces tú, ¿quién lo va a hacer?

Ramiro Manso Alarcón

Con el auge de la Inteligencia Artificial, el Machine Learning y el Reinforcement Learning surgen nuevos paradigmas de comprensión. Desde Negocio, como Data Scientists, tendremos que contestar muchas preguntas relacionadas con el por qué del output de nuestros modelos. Dada la complejidad de los modelos, ¿cómo explicamos y fundamentamos lo que nos dice la predicción de un modelo? ¿Por qué deberíamos fiarnos del modelo?

Ya no nos podemos quedar en el model.feature_importance_ , tenemos que ir más allá y hacer un análisis exhaustivo. Dada esta creciente necesidad, explicaremos qué es la interpretabilidad, su importancia, cómo la medimos, y qué propiedades tiene. Contestaremos a estas preguntas mediante el uso, tanto en local como en la nube, de una aplicación real de Deep Learning (detección de daños en coches usando sólo imágenes) con técnicas de interpretabilidad de modelos de ML y IA y sus frameworks más importantes. Desde las capas más superiores de interpretabilidad y sensibilidad a cambios en features, hasta la interpretabilidad de modelos más black-box mediante métodos agnósticos (LIME y Shapey). En definitiva, aprenderemos a interpretar un modelo a nivel global y a nivel individual de cada predicción.

Más información y requisitos

Link con las slides y codigo: https://github.com/Rmwak/t3chfest_madrid_2019_interpretability

Medio Español Inteligencia Artificial Big Data / Data Science Ciencia / Investigación

Viernes 15/03/2019

11:30 - 12:20

Track 3 (4.1.D03)

Sobre el ponente

Ramiro Manso Alarcón

Keepler