I'm extremely disappointed by a large chunk of the supposedly "AI Safety Community" on @LessWrong_@Effect_Altruism@80000Hours for not taking a stand and giving a push to what's happening here.
Nearly none signed.
This is really making me question the value of this community.
Also, their support of @OpenAI seems outrageous to me.
@timnitGebru's work is work that these supposedly AI Safety-driven folks should have been doing months earlier.
Long before they *commercialized* their unsafe untested hugely biased powerful large language model AI...
• • •
Missing some Tweet in this thread? You can try to
force a refresh
Je suis désolé d'enchaîner les mauvaises nouvelles, mais celle-là me paraît particulièrement préoccupante, même si beaucoup de détails restent à éclaircir.
"Google pourrait être un des leaders de la recherche sur les implications sociales de l'IA et des technologies. Mais ils sont en train de choisir une autre voie."
Un biologiste, un physicien et un mathématicien partent pour la première fois en Écosse. Dans le train, peu de temps après avoir traversé la frontière, ils aperçoivent un mouton noir à travers la vitre.
Le biologiste s'exclame : "Incroyable !! Les moutons sont noirs en Écosse !"
Le physicien rétorque : "Généralisation abusive !! Tout ce qu'on peut dire, c'est qu'il existe au moins un mouton noir en Écosse."
Le mathématicien corrige : "Encore une généralisation abusive ! Tout ce qu'on peut dire, c'est qu'au moins la moitié d'un mouton d'Écosse est noir".
Les généralisations abusives sont un fléau et aident la mésinformation à proliférer sans jamais mentionner aucune #FakeNews, comme l'explique @TroncheBiais dans leur dernière vidéo d'une nouvelle série très travaillée sur le plan audiovisuel !
#AujourdhuiJapprendsQue la continuité des racines d'un polynômes en fonction de ses coefficients n'est pas si triviale.
Je me suis toujours dit que c'était "clairement vrai". Mais je n'avais jamais pris le temps de me demander comment le démontrer 😅 lix.polytechnique.fr/Labo/Vincent.P…
À ce sujet, j'ai un souvenir d'un exo de prépa où le prof séchait.
Ma mémoire me joue peut-être des tours... mais je crois que c'était en gros "si un polynôme P est scindé sur R, alors il existe un voisinage de P tel que tout polynôme de ce voisinage est aussi scindé".
Bref. Le prof demanda à Olivier Taïbi, le meilleur élève de ma classe, s'il l'avait résolu.
Olivier fut réveillé. Il ne comprit pas ce qu'il se passait.
Le prof lui redemanda s'il avait résolu le problème.
Olivier acquiesça.
Le prof lui dit : "euh... et tu peux le corriger ?"
Selon ce rapport du Computational Propaganda Research Project d'@UniofOxford, à travers le monde, de nombreuses organisations, privées, publiques et gouvernementales, ont investi des moyens énormes dans la manipulation personnalisée de masse. comprop.oii.ox.ac.uk/research/posts…
À bien y réfléchir, ça n'a rien d'étonnant. Il y a des incentives énormes à faire croire certaines choses à certaines populations.
Ce qui est effrayant, c'est que les outils algorithmiques et les vulnérabilités des réseaux sociaux semblent décupler l'efficacité des propagandes.
Et aujourd'hui, la menace ne vient pas que d'un pays particulier. Elle vient des 4 coins du monde...
(Et souvenez-vous que ce rapport ne cite que les cas détectés... Or ces propagandes ont toutes les incentives à rester aussi secrètes que possible...)
1. Comment les gens savaient ce qu'ils cherchaient quand ils ont théorisé leurs équations ?
Il y aurait certainement de quoi écrire des livres sur cette seule question. Je vais donc donner uniquement des éléments de réponse, forcément très incomplets (désolé 😅).
L'une des grandes motivations était sans doute l'automatisation des tâches intellectuelles.
Par exemple, au lieu de compter soi-même chaque jour la taille de son troupeau, il y a plusieurs millénaires, les bergers utilisaient des cailloux pour compter.
L'étiquetage politique, le biais de confirmation et les bulles informationnelles semblent affecter radicalement notre description de l'état du monde et nos prédictions sur les futurs probables.
Et selon cette excellente présentation de @juliagalef, non, ce n'est principalement pas du tout une question d'intelligence ou d'éducation.
En fait, au moins dans le cas du changement climatique, l'intelligence et l'éducation peuvent être *néfastes*.
Dans cette vidéo, je rapporte d'autres études scientifiques à ce sujet.
Dans un problème purement mathématique qui prend pour exemple le port d'armes, les sujets à fortes convictions politiques réussissent moins bien *lorsqu'ils sont bons en maths* !