, 15 tweets, 3 min read Read on Twitter
Un argomento all'ordine del giorno per la Intelligence Community nella campagna Presidenziale statunitense 2020 e' rappresentato dai deepfakes, ossia immagini e video alterate in modo impercettibile da sistemi AI, potenzialmente per scopi nefasti.
Immaginiamo un'immagine (o un video) in cui un candidato politico commette un crimine violento, o un video in cui un CEO confessa di aver occultato problemi di sicurezza sensibili per l'azienda.
L'impatto mediatico immediato, in attesa del disconoscimento, e' devastante.
Secondo Roy Chowdhury, uno dei cinque autori di un algoritmo di deepfake-detecting descritto in un recente contesto IEEE, occorre prestare attenzione.
Un algoritmo di rilevamento ritenuto affidabile che potrebbe essere "weaponized" da chi cerca di diffondere informazioni false.
Un deepfake creato per sfruttare le debolezze di un algoritmo sicuro potrebbe determinare una autenticità errata tra esperti, giornalisti e pubblico, rendendolo ancora più dannoso.
Secondo Roy-Chowdhury, i confini intorno alla porzione documentata di un'immagine sono spesso quelli che contengono segni rivelatori di manipolazione. "Se un oggetto viene inserito, sono spesso le regioni di confine hanno determinate caratteristiche".
Mediante "reti neurali ricorrenti", che dividono l'immagine in piccole patch analizzandole pixel per pixel e rilevando qualità che fanno risaltare i falsi a livello di singolo pixel, e' stato scoperto che le immagini manomesse sono spesso più "smooth" di quelle naturali.
I deepfake sono considerati una minaccia all'integrità delle elezioni. Ma un problema ancor maggiore puo' essere quello dei "dumbfake", più semplici e più facilmente smascherabili video fasulli che sono facili e spesso a buon mercato da produrre.
A differenza dei deepfake, con sofisticata IA, manipolazione audio e tecnologia di mappatura facciale, i dumbfake possono essere realizzati solo variando la velocità di montaggio video. Facili da creare e convincenti per uno spettatore ignaro, sono una preoccupazione immediata.
Un video rallentato di Nancy Pelosi, che ha alterato il comportamento dello speaker della House, ha raccolto più di 2 milioni di visualizzazioni su Facebook a maggio.
A novembre, Sarah Sanders ha twittato un video accelerato del giornalista della CNN Jim Acosta che lo ha reso più aggressivo di quanto non fosse stato durante uno scambio con uno stagista. Il suo post ha ricevuto migliaia di retweet.
La tendenza e' creare un episodio, vero o falso, che si mescoli nella quantita' abnorme di informazioni e modifichi/consolidi subliminalmente la cognizione delle persone, spesso alla ricerca di qualcosa che confermi le loro posizioni.
Qualcosa che spesso e' falso, ma e' comunque utile a confermare la bonta' dei propri punti di vista.
Per molti, quanto di preferito si possa trovare.

@FMarradi @semeraro_g @PMO_W
Missing some Tweet in this thread?
You can try to force a refresh.

Like this thread? Get email updates or save it to PDF!

Subscribe to Fabio Vanorio
Profile picture

Get real-time email alerts when new unrolls are available from this author!

This content may be removed anytime!

Twitter may remove this content at anytime, convert it as a PDF, save and print for later use!

Try unrolling a thread yourself!

how to unroll video

1) Follow Thread Reader App on Twitter so you can easily mention us!

2) Go to a Twitter thread (series of Tweets by the same owner) and mention us with a keyword "unroll" @threadreaderapp unroll

You can practice here first or read more on our help page!

Follow Us on Twitter!

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just three indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3.00/month or $30.00/year) and get exclusive features!

Become Premium

Too expensive? Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal Become our Patreon

Thank you for your support!