My Authors
Read all threads
1. Va un #hilo sobre la relación entre #InteligenciaArtificial y #DerechosHumamos, a propósito de la columna que publiqué hoy en @RevistaSemana. ¿Waze elige su ruta? ¿Netflix su próxima película? ¿Siguió la sugerencia de Rappi para ordenar hoy su almuerzo? semana.com/opinion/articu… Image
2. Todo eso pasa porque nos ahorra tiempo. Cada vez los humanos delegamos más en los algoritmos de inteligencia artificial la toma de decisiones. Sin embargo, esos algoritmos tienen sesgos que nos imponen cierta forma de ver el mundo, que fueron definidos por sus creadores.
3. Por ejemplo, Waze escoge la ruta más rápida, pero no la más corta, ni la más segura. Netflix nos recomienda producciones parecidas a las ya vistas y Rappi induce el consumo de comidas similares a las anteriormente pedidas, por lo que refuerza los malos hábitos alimenticios.
4. Lo anterior muestra que los algoritmos tienen sesgos que usualmente ignoramos y que están diseñados para hacer más rentable el modelo de negocio; no para cuidarnos (Waze podría recomendar la ruta más segura y que consuma menos combustible y Rappi comida más saludable).
5. El problema se agrava cuando esos algoritmos son utilizados por el Estado y vulneran derechos humanos (en la columna ecuentran el ejemplo del software de predicción del riesgo de reincidencia criminal que implementaron en EE. UU. y perfilaba más drásticamente a los negros).
6. Ahora bien, no se espera que las decisiones que toma la inteligencia artificial sean perfectas, pero sí que al menos sean mejores que las del humano, gracias a su mayor capacidad de procesamiento de la información. Pero para que eso ocurra se deben establecer controles.
7. Controles que eviten la proliferación de la “estupidez artificial”, que se produce cuando un software mal diseñado se masifica y termina por empeorar el problema que buscaba solucionar porque “decide” igual de mal o peor que los humanos.
8. Los algoritmos artificiales tienen el potencial de superar los instintos y la intuición en que se basan muchas decisiones humanas, siempre que sean controlados para no reproducir los sesgos negativos de sus creadores (como por ejemplo el machismo o la discriminación racial).
9. Ojo que lo que se busca no es “evitar los sesgos”, porque toda la acción humana es sesgada. Sino de visibilizar esos sesgos y escogerlos en función de la escala de valores que se busca defender, lo cual siempre implica una decisión moral. Voy a ilustrarlo con un ejemplo...
10. Si un algoritmo quiere contrarrestar la discriminación de género, por ejemplo, en el reclutamiento de científicos de datos (de los cuales apenas el 15% son mujeres), tendrá que discriminar también, pero a favor de ellas, para reequilibrar la estructura social machista.
11. Pero atención que lo que hizo el algoritmo no fue “evitar los sesgos”, sino implementar uno a favor de la igualdad de género, que sus creadores consideraron moralmente positivo para igualar a las mujeres. En suma: no es posible evitar los sesgos, sino apenas justificarlos.
12. Entonces, cuando les digan que el objetivo de la regulación de la IA es “evitar los sesgos”, ya saben que es carreta. El verdadero objetivo es visibilizar esos sesgos y fundamentarlos de una forma moralmente aceptable. La pregunta es cómo podemos lograrlo.
13. Como medida jurídica se necesita construir una agenda de derechos humanos en relación con la inteligencia artificial (en la columna señalo los dos pasos esenciales). No se trata de promover una postura hostil al desarrollo tecnológico, sino de controlar moralmente su avance.
14. Una medida es generalizar la política de “derechos humanos por diseño” (“humans-rights-by-design”): exigir que los creadores de cualquier tecnología de IA se comprometan a que opere respetando los derechos humanos, aunque ello reduzca la rentabilidad del modelo de negocio.
15. Nueva Zelanda, por ejemplo, fue el primer país en aprobar hace poco una ley que regula el uso de algoritmos que toman decisiones sobre la vida de las personas. Esencialmente es un marco normativo que le da transparencia al diseño, implementación y seguimiento de ese software.
16. Cierro el hilo recomendando esta reseña de un libro (“Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy”) que analiza los riesgos de “opacidad”, “injusticia” y “escala” que conllevan los algoritmos artificiales.
jasoncollins.blog/2017/08/22/one…
Missing some Tweet in this thread? You can try to force a refresh.

Keep Current with José Fernando Flórez

Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

Twitter may remove this content at anytime, convert it as a PDF, save and print for later use!

Try unrolling a thread yourself!

how to unroll video

1) Follow Thread Reader App on Twitter so you can easily mention us!

2) Go to a Twitter thread (series of Tweets by the same owner) and mention us with a keyword "unroll" @threadreaderapp unroll

You can practice here first or read more on our help page!

Follow Us on Twitter!

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3.00/month or $30.00/year) and get exclusive features!

Become Premium

Too expensive? Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal Become our Patreon

Thank you for your support!