Hola amigos, hoy es sábado, sabadete y toca hilo de #privacidad y #eticadelosdatos. Hoy, Derechos Fundamentales comprometidos en la banca y en recursos humanos. Evaluación de Impacto de Derechos Fundamentales y cómo una organización con valores tiene la ética digital por bandera.
El propósito de aplicar la ética digital, además de para preservar la privacidad, sirve también para hacer el bien a las personas y evitar hacerles mal. Hay veces en las que una organización sabe cómo hacer el bien. Hay otras que necesitan ayuda para poder saber cómo hacerlo.
Uno de los mayores males en nuestra sociedad están siendo producidos por decisiones automatizadas y perfiles personales realizadas por organizaciones a las que no les importa hacer el mal si a través de él consigue sus objetivos comerciales y económicos.
La discriminación algorítmica es transversal a todos los sectores y está aumentando las desigualdades en la población. Y, seamos realistas, vivimos en un sistema en el que prácticamente no tenemos derecho a impugnar una decisión automatizada o un perfilado.
¿Por qué? Uno de los factores que influyen de manera decisiva es que las organizaciones no comunican cuándo un individuo, o grupo de individuos, ha sido objeto de una decisión automatizada y/o perfilado.
¿Qué implicaciones negativas tiene esto? Que no se detecta la discriminación. Tanto la ley como la jurisprudencia, consideran la discriminación contextual. Los algoritmos interrumpen los mecanismos tradicionales contra la prevención e investigación de casos de discriminación.
Por otro lado, la ley de no discriminación se basa en la idea de comparación. Un grupo o persona desfavorecida recibe un trato menos favorable debido a una característica protegida en comparación con un grupo o persona que recibe un trato preferencial.
Por lo tanto, las reclamaciones sólo se pueden plantear si una víctima realmente se siente en desventaja.
La persona debe proporcionar evidencia de la desventaja. Esto depende de que la víctima sepa que ha sido objeto de una decisión automatizada, del contexto en el que se haya dado, y del conocimiento que tenga sobre los criterios en los que se haya basado el perfilado.
A su vez, las ventajas competitivas que las decisiones automatizadas aportan a las organizaciones es evidente. Mayor eficiencia, ventajas competitivas y un enorme beneficio económico, pero pueden causar un enorme impacto en nuestros derechos fundamentales.
Recuerden el hilo sobre cómo el Código Postal es usado para discriminar precios transparentinternet.com/es/tecnologia-…
Que una organización haga una evaluación de impacto de derechos fundamentales y ética desde el diseño depende de que sus integrantes, empezando por su CEO, tengan sus valores muy asumidos, teniendo como uno de sus objetivos el respeto de los derechos fundamentales de las personas
VALORES, ese aspecto fundamental de las organizaciones para su funcionamiento ético, y tan (mal) usados, en muchas ocasiones, para limpiar su imagen mientras producen daño a la sociedad.
¿Por qué es fundamental que las organizaciones que usan decisiones automatizadas personales incluyan valores desde el diseño de su tecnología? porque es esencial que estén diseñados para adoptar y respetar las normas y valores de la comunidad y de las personas que viven en ella.
No sólo me refiero al RGPD. También es necesario implicar las leyes que se apliquen en el contexto en el que las decisiones automatizadas y perfilado se desplieguen (contexto financiero, trabajo, vivienda, social…). Así como, las normas relativas a la discriminación, igualdad.
Siguiendo con los valores y explicado de una manera muy escueta cómo aplicarlos en la etapa de diseño. En esta etapa se determinará qué tipos de datos se usarán para la alimentación del algoritmo, y cuáles se dejan fuera.
La decisión de elegir estos datos puede ser (y, de hecho, lo es) el resultado de los sesgos de las personas que los seleccionan. Por lo tanto, desde el diseño esta decisión automatizada o perfil ya está predestinado a provocar discriminaciones y sesgos.
Aquí se ve claramente cómo la colaboración de un equipo multidisciplinar más que importante, es crucial. Científicos sociales, humanistas, éticos, filósofos, juristas, científicos de datos, ingenieros…
En segundo lugar, los valores intervienen en la determinación de las ponderaciones del modelo estadístico para lograr el resultado deseado. Los posibles fallos deben ser resueltos. Por ejemplo, probando el sistema en entornos experimentales pero seguros, lejos del público.
En tercer lugar, la decisión automatizada o el perfilado, puede ser contraria a los derechos fundamentales de las personas. Aquí entra la comunicación a las personas dando a conocer los parámetros y darles la oportunidad de impugnar la decisión automatizada.
Este estricto enfoque del uso de decisiones automatizadas y perfiles sustenta la necesidad de una evaluación de los efectos de tal decisión en los derechos fundamentales en una etapa temprana. Deben abordarse en la etapa de diseño y desarrollo.
En la etapa posterior al despliegue queda poco margen para hacer los ajustes apropiados, y la confianza de las personas puede resultar gravemente dañada.

Por otro lado, una evaluación del impacto sobre los derechos fundamentales y ética encaja perfectamente en la EIPD.
Paso 1: Establecer la línea de base

El primer paso es responder a la pregunta: Qué derechos fundamentales se ven afectados.
En una primera aproximación, podemos tener en cuenta los siguientes para nuestro análisis:
I. Derechos de privacidad y protección de datos - que comprenden (y no se limitan a) el derecho a la vida privada, la autonomía personal, la inviolabilidad del hogar, la privacidad física, la correspondencia secreta, el desarrollo de la propia identidad...
II. Derechos de igualdad – ante la ley, entre hombres y mujeres, prohibición de la discriminación por religión, cultura, ideas políticas, integración de personas discapacitadas.
III. Libertad de expresión y de información, libertad de reunión y de asociación.
Paso 2: Identificar los impactos de la IA y solventarlos.

El segundo paso consiste en identificar cómo la introducción de la IA cambia los impactos sobre los derechos fundamentales del campo en el que se introduce la tecnología.
¿Dónde se producen estos impactos sobre los Derechos Fundamentales? Provienen de 3 fuentes:
(i) De la cantidad de datos recopilados, de la transparencia u opacidad a la hora de hacerlo, (ii) De la calidad de los datos de capacitación, y (iii) del diseño del sistema.
Vamos a ver ahora, de manera escueta, las consecuencias para los derechos fundamentales de la introducción de la toma de decisiones sobre la IA en dos campos:

(i) Finanzas (puntuaciones de crédito)
(ii) Recursos humanos (contratación y reclutamiento)
1. Finanzas (puntuaciones de crédito)
¿Qué Derechos Fundamentales se pueden ver afectados?
1. Derecho a la no discriminación
2. Derecho a la igualdad ante la ley
La IA puede discriminar al inferir la solvencia de los grupos marginados sin posibilidad de defenderse.
3. Derecho a la privacidad y protección de datos. Los sistemas de puntuación crediticia basados en la IA se basan en la recopilación, almacenamiento y análisis de grandes cantidades de datos personales, lo que plantea importantes problemas de privacidad.
4. Libertad de expresión e información
5. Derecho a la libertad de reunión y asociación pacífica
Todos los datos sirven para las calificaciones crediticias. Es posible que las personas se autocesuren o eviten asociarse por temor a que afecte a su capacidad de solvencia.
El volumen de datos que los sistemas de puntaje crediticio es apabullante. Hay bancos que tienen en cuenta más de 3.000 variables para decidir si ofrecen, o no, un crédito. P. ejemplo, cómo el solicitante tiende a teclear (apps). Este dato se correlaciona con el riesgo de impago
También examinan toda nuestra la huella digital, incluyendo el uso de las redes sociales, la geolocalización, los hábitos de navegación en su web, el historial de uso del teléfono (incluyendo mensajes y los registros de llamadas), el comportamiento de compra.
Uno de los riesgos se deriva de la calidad y precisión de los datos utilizados para entrenar estos sistemas, así como de la imparcialidad y precisión de los datos que estos sistemas utilizan para decidir sobre la solicitud de crédito de un individuo en particular.
Otro problema surge de las decisiones subjetivas que los ingenieros toman sobre cómo categorizar los datos que alimentan en sus algoritmos. Hay bancos que traducen ciertas variables (puntuando del 1-10), como el tiempo que se tarda en leer los términos y condiciones de su web.
Otra de las variables está relacionada con su entorno, de manera que pueden ser discriminados o recompensados en función de las características de su red personal.
Si hay 2 individuos en una posición financiera idéntica, pero los amigos del primer individuo viven en barrios "ricos" mientras que los amigos del segundo viven en barrios "pobres", un algoritmo puede determinar que el primero tiene un mejor riesgo crediticio que el segundo.
Hay bancos que han reducido el límite de crédito a clientes que habían incurrido en gastos en consejeros matrimoniales, talleres de reparación y recauchutado de neumáticos, bares y clubes nocturnos, salas de billar, casas de empeño o salones de masaje.
En una época en que "todos los datos son datos de crédito", las personas pueden sentirse paralizadas al expresar ciertos puntos de vista o asociarse con otros, por temor a que un algoritmo utilice su comportamiento en su contra en el contexto financiero.
Recursos Humanos.
¿Qué Derechos Fundamentales se pueden ver afectados?
1. Derecho a la no discriminación
Los sistemas de contratación basados en IA pueden discriminar en el empleo debido a los sesgos en los datos de capacitación, aunque podrían programarse para evitarlo.
2. Derecho a la privacidad y a la protección de datos.
Especialmente si comparten sus datos con los empleadores. Los sistemas de contratación basados en IA sondean una amplia variedad de fuentes de datos que afectan a la privacidad de los solicitantes de empleo y de sus empleados
3. Derecho a la libertad de opinión, expresión e información
4. Derecho a la reunión y asociación.
Todos los datos pueden ser datos de contratación. La gente podría sentir miedo a la hora de expresarse libremente o asociarse con otras por miedo al impacto en su empleabilidad.
La responsabilidad de las empresas de respetar los derechos fundamentales se aplica no sólo a los servicios que prestan y los productos que venden, sino también a sus operaciones internas.
Los procesos de contratación defectuosos pueden tener importantes repercusiones en el derecho a la no discriminación, el derecho a igual salario por igual trabajo y los derechos a la libertad de expresión y asociación.
Sobre esto escribí un hilo y post: transparentinternet.com/es/tecnologia-…
Los procesos de contratación defectuosos pueden tener importantes repercusiones en el derecho a la no discriminación, el derecho a igual salario por igual trabajo y los derechos a la libertad de expresión y asociación.
Esto ha sido todo por hoy. Muchas gracias por leerme.

• • •

Missing some Tweet in this thread? You can try to force a refresh
 

Keep Current with Manuela Battaglini Sé responsable, usa mascarilla.

Manuela Battaglini Sé responsable, usa mascarilla. Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

PDF

Twitter may remove this content at anytime! Save it as PDF for later use!

Try unrolling a thread yourself!

how to unroll video
  1. Follow @ThreadReaderApp to mention us!

  2. From a Twitter thread mention us with a keyword "unroll"
@threadreaderapp unroll

Practice here first or read more on our help page!

More from @manuelabat

6 Jun
Hola amigos, hoy es sábado, sabadete y toca hilo de #privacidad y #eticadelosdatos. 1. Por qué está siendo tan difícil la adaptación a las apps de COVID-19, y 2. Qué mínimos deben cumplir estas apps para obtener aceptación social. Mención a nuestro paper arxiv.org/pdf/2005.08370…
Las famosas apps COVID-19 están siendo desarrolladas en medio mundo con la idea de simplificar y acelerar el proceso de identificar a personas que han estado en contacto con una persona que ha dado positivo en el test COVID-19, y servir de apoyo al rastreo de contactos manual.
El recelo hacia las apps de contact-tracing no es otra cosa que parte de un PROCESO NORMAL DE ADAPTACIÓN a una nueva tecnología, y esto ha ocurrido a lo largo de la historia de la civilización humana.
Read 53 tweets
12 Apr
Este es el mejor artículo que he leído hasta ahora sobre la perspectiva humana de esta crisis. Nos alerta de la gigantesca campaña de publicidad que ya está formándose para convencernos de volver a la realidad. De que lo que vivimos fue un mal sueño.
forge.medium.com/prepare-for-th…
Voy a resumirlo en este hilo, y sustituiré USA por España. Porque nos pasará lo mismo.
Tenemos que estar preparados para lo que se nos viene ahora: la manipulación para dudar de nuestra propia cordura.

Muy pronto, cuando el país comience a descubrir cómo "abrimos" y avanzamos, fuerzas muy poderosas intentarán convencernos a todos de que volvamos a la normalidad.
Read 23 tweets
28 Feb
Hola amigos, hoy no es sábado, sabadete, pero toca hilo de #privacidad y #eticadelosdatos. ¿Sabías que la Comunidad Valenciana es la ÚNICA REGIÓN DE EUROPA que protege la privacidad de sus estudiantes en los colegios públicos a través de herramientas y plataformas #OpenSource?
Pero, ¿en qué consiste esta protección a los estudiantes? : cada palabra que tu hijo escribe, cada video que mira, o música que escucha, cómo escribe con el teclado, donde se encuentra físicamente en cada momento… es captado por las herramientas de los gigantes tecnológicos.
¿Para qué? Para reunir toda esa información y confeccionar lo que se denominan perfiles. ¿Qué pueden extraer e inferir de todos esos datos que extraen de los estudiantes en las escuelas que usan Google o Microsoft?
Read 47 tweets
9 Feb
Hola amigos, hoy no es sábado, sabadete, pero toca hilo de #privacidad y #eticadelosdatos. El pasado 5 de febrero el Tribunal de la Haya dictó una Sentencia histórica anulando la elaboración de perfiles, por el sector público, para el fraude de la Seguridad Social en Holanda.
El pasado 5 de febrero, el Tribunal de la Haya pronunció un este fallo histórico basando su análisis en virtud del artículo 8.2 CEDH, y no en el RGPD. Aquí la sentencia: uitspraken.rechtspraak.nl/inziendocument…
¿Qué es SyRI? Es un instrumento legal que el gobierno holandés utiliza para prevenir y combatir el fraude en la Seguridad Social y los impuestos. Para lograrlo, recopila datos personales creando perfiles de riesgo de los ciudadanos a través de algoritmos propietarios (opacos).
Read 45 tweets
18 Jan
Hola amigos, hoy es sábado, sabadete, así que toca hilo sobre #privacidad y #eticadelosdatos. Hoy hablaremos sobre la localización de los usuarios y la discriminación de precios. Diferentes casos en varios sectores te harán ver que tú también eres víctima de esta discriminación.
Las políticas de precios online generalmente no son transparentes para los clientes y se basan en parámetros que se desconocen por completo. Esto abre una serie de oportunidades para la llamada diferenciación de precios y discriminación de precios.
Antes de seguir, aclaremos ciertos términos que pueden llevar a confusión. Existe una importante diferencia entre la DISCRIMINACIÓN de precios y la DIFERENCIACIÓN de precios.
Read 51 tweets
22 Dec 19
Hola amigos, hoy no es sábado sabadete pero toca hilo sobre #privacidad y #eticadelosdatos. Hoy, hablaremos del papel FUNDAMENTAL de la Calidad de los Datos en #MachineLearning y, por qué una baja calidad de éstos es causa de sesgos y discriminaciones.
La calidad de los datos juega un papel crítico en Machine Learning porque cada modelo de Machine Learning se entrena y se evalúa utilizando conjuntos de datos, y las características y calidad de estos conjuntos de datos influirán DIRECTAMENTE en el resultado de un modelo.
Una definición de "calidad de los datos" es si los datos utilizados son "adecuados para el propósito". En consecuencia, la calidad de los datos depende en gran medida del propósito de su uso.
Read 49 tweets

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3/month or $30/year) and get exclusive features!

Become Premium

Too expensive? Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal Become our Patreon

Thank you for your support!

Follow Us on Twitter!