Comme Tay de Microsoft avant lui, le chatbot coréen Luda déconne et donne des réponses racistes. Son problème ? Il a été entrainé sur des données captées à partir de messages d'usagers d'une app—qui n'en savaient rien. #digitallabor#privacy#ethicsofAIvice.com/amp/en/article…
Que ce soit clair, ma position ne consiste pas à dire que l'IA déconne parce que la data est mauvaise. Accuser les données d'être la cause des malheurs de l'IA est une stratégie rhétorique des entreprises qui d'un côté survalorisent le travail des "sublimes du code"…
…de l'autre invisibilisent le travail nécessaire pour générer/annoter les données (AI preparation)+vérifier les résultats (AI verification)+suivi des processus automatisés (AI impersonation). Avec @ptubaro et @Moossye on a écrit un article en OA sur ça: journals.sagepub.com/doi/full/10.11…
Luda n'a pas échoué parce que les humains qui ont généré les données sont méchants, mais parce que son entreprise a menti sur l'origine des données, sur le type de processus mis en place pour les valoriser, et finalement sur la performance même de sa solution.
• • •
Missing some Tweet in this thread? You can try to
force a refresh
À la une de @Mediapart👉révélations depuis l’usine à "intelligence artificielle artificielle" de Siri. @JeromeHourdeaux donne la parole aux microtravailleurs traumatisés par les écoutes+met la main sur les documents qui attestent l’étendue des abus d’Apple mediapart.fr/journal/intern…
Par-delà les risques psychosociaux qu’encourent les micro-travailleurs (isolement, TSPT, perte de sens), il y a un problème évident en termes de violation systématique de la #privacy des usagers. Apple a promis de mettre fin à ces pratiques. Crédible ? Pas vraiment, à mon avis.
Mais la partie vraiment passionnante de l’enquête de Mediapart est la plongée dans le fonctionnement concret du microtravail. Ça rassemble à quoi une micro-tâche de retranscription et d’annotation de conversations captées par une IA ? Comment se structure le workflow de Siri ?
So, FB "discontinue" son assistant virtuel, M, présenté comme une IA "mue par des humains" (human powered). C'est parce que la plupart des tâches réalisées par M nécessitaient des personnes pour assister, entraîner, vérifier ses réponses--parfois se faire carrément passer pour M.
Avec cet agent conversationnel, l'objectif de FB était de développer une technologie d'intelligence artificielle capable d'automatiser presque n'importe quelle tâche ("Facebook put no bounds on what M could be asked to do").
Point de départ : les travaux de @TarletonG, qui s’est penché (avant et mieux que d’autres) sur l’utilisation de la notion de plateforme pour qualifier les services contemporains d’appariement algorithmique d’informations, relations, biens et services.
Sa théorie peut être ainsi résumée : le mot plateforme est avant tout une métaphore qui désigne une structure technique, voire une « architecture » (c’est par ailleurs de ce dernier domaine que l’emprunt linguistique s’est fait).