Je suis désolé d'enchaîner les mauvaises nouvelles, mais celle-là me paraît particulièrement préoccupante, même si beaucoup de détails restent à éclaircir.
"Google pourrait être un des leaders de la recherche sur les implications sociales de l'IA et des technologies. Mais ils sont en train de choisir une autre voie."
Il y a aura un backlash médiatique que j'espère énorme.
Ce qui me terrifie, c'est que @Google considère que ce backlash (qu'ils ont certainement anticipé) est un coût moindre que les avantages à se débarrasser de leur co-directrice de l'équipe d'#AIEthics...
Alors, bien sûr, je suis dans le flou quant à ce qu'il s'est passé.
Mais connaissant un peu les travaux de @timnitGebru et les sujets du moment en IA, je parierais que ces décisions ont à voir avec la commercialisation scandaleuse de #GPT3 par @OpenAI...
.@mjg59 raconte un cas similaire antérieur chez @Google, et affirme que @Google ne traite pas ses minorités avec autant de soin que ses autres employés.
On en arrive à la raison pour laquelle cette nouvelle me paraît terrifiante.
Je la suspecte très vivement d'être un choix délibéré des directeurs de @Google pour faire passer les intérêts à court terme de l'entreprise au dépens des conséquences socio-économiques de ses produits.
J'aimerais que ces dirigeants mesurent davantage l'impact de leurs produits, non seulement sur les utilisateurs, mais aussi et surtout sur l'équilibre du monde moderne, et, in fine, sur la sécurité de ces dirigeants aussi.
Sans éthique, nous courons TOUS à notre perte.
Il y a une incohérence frappante entre le texte co-signé par 415 employés de Google (à gauche) et l'email envoyé par @JeffDean (à droite).
La lettre me semble très bien écrite, et les trois demandes me semblent raisonnables et critiques pour la sécurité et l'éthique des algorithmes qui gouvernent le monde moderne.
Certains semblent penser qu'il est préférable d'attendre une régulation des GAFAM. Mais : (1) il n'y aura pas de régulation tant qu'il n'y aura pas de pression publique suffisante, (2) Pourquoi ne pas encourager les 415+ bonnes volontés chez Google ? (3)
Voici l'abstract de l'article de @timnitGebru, dont Google a exigé la rétraction, révélée par un reviewer.
Il s'agit en effet d'une critique éthique des algorithmes de traitement du langage, et en particulier de la course aux IA toujours plus puissantes. reddit.com/r/MachineLearn…
Voici une réponse détaillée de @JeffDean, qui insiste sur le fait que la décision de rétraction est motivée par la qualité de l'article.
L'article avait été accepté à publication par @FAccTConference, qui accepte pourtant les éditions post-acceptation...
.@math_rachel souligne plusieurs éléments qui montrent que, contrairement à ce que @JeffDean prétend, la rétraction du papier et le licenciement de @timnitGebru n'ont pas suivi le processus de révision "classique" de @Google.
Les tensions avec les intérêts de l'entreprise semblent évidentes et suggèrent vivement que sa rétraction est plus motivée par des intérêts financiers que par une faiblesse du papier. technologyreview.com/2020/12/04/101…
Par ailleurs, s'il s'agissait de corriger un manque de références, @JeffDean et ses collègues ne semblent pas avoir fait le nécessaire pour obtenir les améliorations du papier souhaitées.
.@YejinChoinka, Professeure à @UW, ne semble pas du tout avoir eu les réserves de @JeffDean sur la qualité de l'article de @timnitGebru, lorsqu'on lui a demandé un avis avant soumission.
Cette histoire ressemble de plus en plus une manoeuvre anti-éthique.
Très content de voir 27 signatures de membres de l'EPFL, loin devant KTH (2), ETH Zurich (8) et Cambridge (11), et juste derrière Carnegie Mellon (28).
Elle est jugée très insatisfaisante par certains observateurs, à commencer par @timnitGebru.
Elle est surtout très orientée Google. Mais l'éthique de Google devrait aller bien au-delà des employés Google... axios.com/sundar-pichai-…
La course à la performance n'est pas réservée au privé.
Certains académiques semblent très agacés par le fait que les conférences en IA demandent aux chercheurs d'envisager les conséquences sociales de leurs travaux.
Comme en parle @smartereveryday, il y a d'énormes campagnes de désinformation pour sculpter l'opinion publique.
Quelle crédence mettez-vous en l'utilisation de techniques similaires par Google pour décrédibiliser l'éthique des IA ? venturebeat.com/2020/12/10/tim…
.@Miles_Brundage identifie ici un clair cas de compte fake qui prétend travailler chez Google Brain, et qui semble vouloir causer plus de confusions.
À qui appartient ce compte ? Combien y a-t-il de tels comptes ? Et sont-ils financés et par qui ?
"Les créateur des IA et les gouvernements doivent investiguer dès que possible la création de normes sociales, politiques publiques et initiatives éducatives pour empêcher un torrent de propagandes et de désinformations algorithmiques."
Y a-t-il un conflit moral auquel vous êtes confrontée ?
@timnitGebru : Si je travaille dans une grande entreprise comme Google, est-ce que je rends les choses meilleures, ou est-ce que je légitimise de mauvais comportements et je rends les choses pires ?
Leur équipe de recherche a développé le plus gros algorithme de traitement de langages à ce jour, surpassant GPT-3 d'un facteur 10.
La course à la performance n'a jamais été aussi évidente... et inquiétante. arxiv.org/pdf/2101.03961…
D'après @Kyle_L_Wiggers, dans leur article (que je n'ai pas encore lu), les chercheurs de Google ne mentionnent même pas les enjeux éthiques (pourtant énormes !!). venturebeat.com/2021/01/12/goo…
Pire, l'équipe d'éthique semble avoir été court-circuitée !
Google contrôle une énorme partie du flux de l'information, dont la sécurité et le bien-être de nos sociétés sont si dépendants.
Ce qu'il est en train de se passer me semble extrêmement terrifiant pour le futur de l'humanité.
Et j'ai l'impression que tout le monde s'en fout...
Par ailleurs, le fameux article qui a déclenché toute cette histoire, et que Google a préféré enfouir pour protéger le déploiement (beaucoup trop précipité) de ses algorithmes de traitement, est maintenant accessible en ligne.
L'art du "strike a positive tone", comme l'exige aussi Google dans les articles scientifiques en IA. nbcnews.com/tech/tech-news…
Sachant toute l'industrie de la désinformation scientifique par BigTobacco, BigOil ou BigSugar, il serait irrationnel de ne pas imaginer que la recherche sur les dangers des réseaux sociaux et des IA n'est pas aussi biaisée pro-rassurisme par BigTech. fr.wikipedia.org/wiki/Les_March…
Dans mon domaine d'expertise, l'influence de BigTech est catastrophique, comme je l'ai documenté dans cette vidéo. tournesol.app/entities/yt:IV…
Je ne vois pas pourquoi il en serait autrement ailleurs, où certains chercheurs tiennent des discours étonnamment rassuristes.
Alors que la #cyberguerre se mondialise, des chercheurs ont trouvé des failles *élémentaires* dans *tous* les 45 produits qu'ils ont analysés, pourtant *certifiés* et utilisés dans des systèmes critiques. arxiv.org/abs/2303.12340
Il est urgent d'investir massivement (des milliards de $) dans les agences de certification de la sécurité des systèmes d'information.
Même dans l'aviation, les certificats de sécurité ont été donnés à tort, conduisant ainsi à des décès spectaculaire. tournesol.app/entities/yt:WH…
Malheureusement, la #cybersécurité est un sujet qui manque aujourd'hui cruellement d'attention. #MuteNews
I'm extremely disappointed by a large chunk of the supposedly "AI Safety Community" on @LessWrong_@Effect_Altruism@80000Hours for not taking a stand and giving a push to what's happening here.
Nearly none signed.
This is really making me question the value of this community.
Un biologiste, un physicien et un mathématicien partent pour la première fois en Écosse. Dans le train, peu de temps après avoir traversé la frontière, ils aperçoivent un mouton noir à travers la vitre.
Le biologiste s'exclame : "Incroyable !! Les moutons sont noirs en Écosse !"
Le physicien rétorque : "Généralisation abusive !! Tout ce qu'on peut dire, c'est qu'il existe au moins un mouton noir en Écosse."
Le mathématicien corrige : "Encore une généralisation abusive ! Tout ce qu'on peut dire, c'est qu'au moins la moitié d'un mouton d'Écosse est noir".
Les généralisations abusives sont un fléau et aident la mésinformation à proliférer sans jamais mentionner aucune #FakeNews, comme l'explique @TroncheBiais dans leur dernière vidéo d'une nouvelle série très travaillée sur le plan audiovisuel !