Pablo Morala Profile picture
PhD Candidate at UC3M-Santander Big Data Institute. Mathematician and Physicist. Interested in neural networks and machine learning.

May 7, 2023, 20 tweets

¿Podemos fiarnos de lo que nos diga una inteligencia artificial #IA? ¿Cómo interpretamos sus decisiones?

Vengo a contaros cómo mi tesis en @BigData_uc3m @uc3m busca arrojar algo de luz ☀️ sobre estos algoritmos tan opacos🌑!

Abro #HiloTesis 👇

La #IA ha pasado de ser un tema exclusivo de los investigadores a estar en boca de todos en cuestión de meses. Y con ello han aparecido las preocupaciones y gente volviendo a ver Terminator para estar preparados antes de que los robots 🤖 nos dominen!

Por suerte, todavía estamos algo lejos de ese escenario apocalíptico, pero ¿os imagináis a inteligencias artificiales tomando decisiones importantes sin que sepamos cómo? Pues, en cierto modo, esto lleva tiempo ocurriendo prácticamente a diario. 😱

En primer lugar, tiene que quedar claro que un algoritmo de IA no tiene por qué ser un robot, ni ser capaz de mantener conversaciones al estilo humano como #ChatGPT, uno de los causantes de que la IA esté más de moda que nunca y que todos conoceréis.

Un pequeño "disclaimer": ni confirmo ni desmiento que #ChatGPT haya sido mi fiel asistente a la hora de sentarme a escribir este hilo 🤔

Como os decía, aunque estén entre bambalinas y no se lleven la fama, IA también son los algoritmos que permiten analizar miles de radiografías en medicina🏥, los que usa tu banco para decidir si te concede un préstamo💰,

los que se pueden usar para detectar agujeros negros usando imágenes telescópicas del universo🪐 o simplemente los algoritmos que han hecho que este hilo aparezca en tu pantalla justo ahora📲.

Como veis, se aplican en situaciones que pueden afectar a nuestro día a día o incluso para tomar decisiones trascendentales en nuestra vida a largo plazo. Y con el paso del tiempo, estas aplicaciones no hacen más que aumentar!📈

Sin embargo, a pesar de su potencial, se suelen llamar algoritmos de caja negra◼️ ya que muchas veces no podemos entender como toman sus decisiones. Y no solo por ser una IA "inteligente" sino a veces también por ser "estúpida" de maneras inesperadas.

En esto se centra el área de investigación en la que se enmarca de mi tesis📜, que es el estudio de la interpretabilidad o explicabilidad de algoritmos de IA, también conocida en algunos sectores como #XAI (eXplainable Artificial Intelligence).

La interpretabilidad busca que las decisiones de estos algoritmos puedan ser explicadas y entendidas, no solo por quienes desarrollan esos algoritmos, sino especialmente por las personas que se vean afectadas por su uso, para tener una IA más justa, transparente y equitativa.

Ahora que ya tenemos el contexto general, vamos a ir un poco al grano sobre mi tesis! En mi investigación me he centrado en mejorar la interpretabilidad del tipo de modelo de IA más usado en los últimos años: las redes neuronales! #NeuralNetworks

Se llaman así porque (al menos originalmente) buscan imitar nuestro cerebro 🧠: constan de nodos o neuronas que a su vez se conectan con otras. Estas conexiones van cambiando a medida que se entrenan con nuevos datos, logrando aprender de manera automática!

El problema⚠️ que tienen es que, aunque las operaciones que en cada neurona puedan ser muy simples (sumas➕ y multiplicaciones❌), son tantas neuronas y conexiones que resulta imposible para la mente humana analizar que factores han sido clave a la hora de tomar una decisión.

Aquí entra #NN2Poly, el método que he estado desarrollando en mi tesis! El objetivo es transformar redes neuronales (NN) en (2) polinomios (poly). La idea surge de intentar unir la perspectiva del #MachineLearning con modelos de la #Estadística clásica.

La gran ventaja de los polinomios es que cada variable o interacción de ellas lleva asociado un coeficiente, el cual sí que tiene una interpretación, ya que relaciona de forma directa los datos de entrada con la salida de la red.

Partiendo de una red neuronal ya entrenada, usamos series de Taylor para convertir en polinomios las funciones de activación (no lineales) que hay dentro de cada una de esas neuronas, y a continuación aplicamos un montón de combinatoria para llegar al polinomio final.

Así, si no sabemos si una red está tomando decisiones injustas, podemos transformarla en un polinomio equivalente con #NN2Poly para detectar qué variables tienen un coeficiente mayor, detectando así si la decisión se basa, por ejemplo, en variables discriminatorias.

Muchas gracias por haber leído hasta aquí! Y gracias también a mis directores de tesis, Rosa, Alexandra y @Enchufa2!

Si os ha gustado, os animo a preguntarme o leer nuestros trabajos. Y si programáis, podéis probar la implementación de #NN2Poly en github.com/IBiDat/nn2poly

PD: Por fin tengo un hilo que enviar la próxima vez que estando de cañas o en una cena de Navidad alguien me pregunte "¿Y tú qué haces exactamente?" o "¿Y esto para qué vale?"💃💃

Share this Scrolly Tale with your friends.

A Scrolly Tale is a new way to read Twitter threads with a more visually immersive experience.
Discover more beautiful Scrolly Tales like this.

Keep scrolling