Pablo Morala Profile picture
May 7 20 tweets 9 min read Twitter logo Read on Twitter
¿Podemos fiarnos de lo que nos diga una inteligencia artificial #IA? ¿Cómo interpretamos sus decisiones?

Vengo a contaros cómo mi tesis en @BigData_uc3m @uc3m busca arrojar algo de luz ☀️ sobre estos algoritmos tan opacos🌑!

Abro #HiloTesis 👇 Image
La #IA ha pasado de ser un tema exclusivo de los investigadores a estar en boca de todos en cuestión de meses. Y con ello han aparecido las preocupaciones y gente volviendo a ver Terminator para estar preparados antes de que los robots 🤖 nos dominen!
Por suerte, todavía estamos algo lejos de ese escenario apocalíptico, pero ¿os imagináis a inteligencias artificiales tomando decisiones importantes sin que sepamos cómo? Pues, en cierto modo, esto lleva tiempo ocurriendo prácticamente a diario. 😱
En primer lugar, tiene que quedar claro que un algoritmo de IA no tiene por qué ser un robot, ni ser capaz de mantener conversaciones al estilo humano como #ChatGPT, uno de los causantes de que la IA esté más de moda que nunca y que todos conoceréis.
Un pequeño "disclaimer": ni confirmo ni desmiento que #ChatGPT haya sido mi fiel asistente a la hora de sentarme a escribir este hilo 🤔
Como os decía, aunque estén entre bambalinas y no se lleven la fama, IA también son los algoritmos que permiten analizar miles de radiografías en medicina🏥, los que usa tu banco para decidir si te concede un préstamo💰,
los que se pueden usar para detectar agujeros negros usando imágenes telescópicas del universo🪐 o simplemente los algoritmos que han hecho que este hilo aparezca en tu pantalla justo ahora📲.
Como veis, se aplican en situaciones que pueden afectar a nuestro día a día o incluso para tomar decisiones trascendentales en nuestra vida a largo plazo. Y con el paso del tiempo, estas aplicaciones no hacen más que aumentar!📈
Sin embargo, a pesar de su potencial, se suelen llamar algoritmos de caja negra◼️ ya que muchas veces no podemos entender como toman sus decisiones. Y no solo por ser una IA "inteligente" sino a veces también por ser "estúpida" de maneras inesperadas.
En esto se centra el área de investigación en la que se enmarca de mi tesis📜, que es el estudio de la interpretabilidad o explicabilidad de algoritmos de IA, también conocida en algunos sectores como #XAI (eXplainable Artificial Intelligence).
La interpretabilidad busca que las decisiones de estos algoritmos puedan ser explicadas y entendidas, no solo por quienes desarrollan esos algoritmos, sino especialmente por las personas que se vean afectadas por su uso, para tener una IA más justa, transparente y equitativa.
Ahora que ya tenemos el contexto general, vamos a ir un poco al grano sobre mi tesis! En mi investigación me he centrado en mejorar la interpretabilidad del tipo de modelo de IA más usado en los últimos años: las redes neuronales! #NeuralNetworks Image
Se llaman así porque (al menos originalmente) buscan imitar nuestro cerebro 🧠: constan de nodos o neuronas que a su vez se conectan con otras. Estas conexiones van cambiando a medida que se entrenan con nuevos datos, logrando aprender de manera automática!
El problema⚠️ que tienen es que, aunque las operaciones que en cada neurona puedan ser muy simples (sumas➕ y multiplicaciones❌), son tantas neuronas y conexiones que resulta imposible para la mente humana analizar que factores han sido clave a la hora de tomar una decisión.
Aquí entra #NN2Poly, el método que he estado desarrollando en mi tesis! El objetivo es transformar redes neuronales (NN) en (2) polinomios (poly). La idea surge de intentar unir la perspectiva del #MachineLearning con modelos de la #Estadística clásica. Image
La gran ventaja de los polinomios es que cada variable o interacción de ellas lleva asociado un coeficiente, el cual sí que tiene una interpretación, ya que relaciona de forma directa los datos de entrada con la salida de la red.
Partiendo de una red neuronal ya entrenada, usamos series de Taylor para convertir en polinomios las funciones de activación (no lineales) que hay dentro de cada una de esas neuronas, y a continuación aplicamos un montón de combinatoria para llegar al polinomio final. Image
Así, si no sabemos si una red está tomando decisiones injustas, podemos transformarla en un polinomio equivalente con #NN2Poly para detectar qué variables tienen un coeficiente mayor, detectando así si la decisión se basa, por ejemplo, en variables discriminatorias.
Muchas gracias por haber leído hasta aquí! Y gracias también a mis directores de tesis, Rosa, Alexandra y @Enchufa2!

Si os ha gustado, os animo a preguntarme o leer nuestros trabajos. Y si programáis, podéis probar la implementación de #NN2Poly en github.com/IBiDat/nn2poly
PD: Por fin tengo un hilo que enviar la próxima vez que estando de cañas o en una cena de Navidad alguien me pregunte "¿Y tú qué haces exactamente?" o "¿Y esto para qué vale?"💃💃

• • •

Missing some Tweet in this thread? You can try to force a refresh
 

Keep Current with Pablo Morala

Pablo Morala Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

PDF

Twitter may remove this content at anytime! Save it as PDF for later use!

Try unrolling a thread yourself!

how to unroll video
  1. Follow @ThreadReaderApp to mention us!

  2. From a Twitter thread mention us with a keyword "unroll"
@threadreaderapp unroll

Practice here first or read more on our help page!

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3/month or $30/year) and get exclusive features!

Become Premium

Don't want to be a Premium member but still want to support us?

Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal

Or Donate anonymously using crypto!

Ethereum

0xfe58350B80634f60Fa6Dc149a72b4DFbc17D341E copy

Bitcoin

3ATGMxNzCUFzxpMCHL5sWSt4DVtS8UqXpi copy

Thank you for your support!

Follow Us on Twitter!

:(