L'art du "strike a positive tone", comme l'exige aussi Google dans les articles scientifiques en IA. nbcnews.com/tech/tech-news…
Sachant toute l'industrie de la désinformation scientifique par BigTobacco, BigOil ou BigSugar, il serait irrationnel de ne pas imaginer que la recherche sur les dangers des réseaux sociaux et des IA n'est pas aussi biaisée pro-rassurisme par BigTech. fr.wikipedia.org/wiki/Les_March…
Dans mon domaine d'expertise, l'influence de BigTech est catastrophique, comme je l'ai documenté dans cette vidéo. tournesol.app/entities/yt:IV…
Je ne vois pas pourquoi il en serait autrement ailleurs, où certains chercheurs tiennent des discours étonnamment rassuristes.
D'autant que, pour les sujets complexes et/ou observationnels, le cherry-picking garantit de trouver de quoi conclure à peu près n'importe quoi ; en particulier des discours rassuristes.
En fait, et de façon frustrante, les données qui me semblent aujourd'hui les plus fiables pour mieux estimer les risques des réseaux sociaux et des IA, ce sont des leaks de discussions internes, à l'instar des leaks de BigTobacco, BigOil et BigSugar. tournesol.app/entities/yt:-U…
(c'est même encore plus le cas pour BigTech, qui a un monopole désespérant des données pertinentes pour estimer les risques...)
Or les leaks comme les #FacebookFiles sont extrêmement compromettants.
Alors que la #cyberguerre se mondialise, des chercheurs ont trouvé des failles *élémentaires* dans *tous* les 45 produits qu'ils ont analysés, pourtant *certifiés* et utilisés dans des systèmes critiques. arxiv.org/abs/2303.12340
Il est urgent d'investir massivement (des milliards de $) dans les agences de certification de la sécurité des systèmes d'information.
Même dans l'aviation, les certificats de sécurité ont été donnés à tort, conduisant ainsi à des décès spectaculaire. tournesol.app/entities/yt:WH…
Malheureusement, la #cybersécurité est un sujet qui manque aujourd'hui cruellement d'attention. #MuteNews
I'm extremely disappointed by a large chunk of the supposedly "AI Safety Community" on @LessWrong_@Effect_Altruism@80000Hours for not taking a stand and giving a push to what's happening here.
Nearly none signed.
This is really making me question the value of this community.
Je suis désolé d'enchaîner les mauvaises nouvelles, mais celle-là me paraît particulièrement préoccupante, même si beaucoup de détails restent à éclaircir.
"Google pourrait être un des leaders de la recherche sur les implications sociales de l'IA et des technologies. Mais ils sont en train de choisir une autre voie."
Un biologiste, un physicien et un mathématicien partent pour la première fois en Écosse. Dans le train, peu de temps après avoir traversé la frontière, ils aperçoivent un mouton noir à travers la vitre.
Le biologiste s'exclame : "Incroyable !! Les moutons sont noirs en Écosse !"
Le physicien rétorque : "Généralisation abusive !! Tout ce qu'on peut dire, c'est qu'il existe au moins un mouton noir en Écosse."
Le mathématicien corrige : "Encore une généralisation abusive ! Tout ce qu'on peut dire, c'est qu'au moins la moitié d'un mouton d'Écosse est noir".
Les généralisations abusives sont un fléau et aident la mésinformation à proliférer sans jamais mentionner aucune #FakeNews, comme l'explique @TroncheBiais dans leur dernière vidéo d'une nouvelle série très travaillée sur le plan audiovisuel !