Microsoft presenta un nuovo strumento per individuare "deepfakes"
Microsoft ha recentemente introdotto "Video Authenticator", un nuovo strumento basato sull'intelligenza artificiale che analizza immagini fisse e video per determinare la probabilità che siano caratterizzati da manipolazione digitale. Lo strumento è progettato per affrontare il crescente problema dei "deepfakes", un tipo di contenuto manipolato altamente realistico generato o modificato da sistemi di intelligenza artificiale.
Deepfake si riferisce a immagini, video e audio modificati utilizzando strumenti AI. Sebbene questa tecnologia possa essere utilizzata in modo creativo, è più associata alla manipolazione dei media per falsificare un evento che non è accaduto nella vita reale.
Ciò potrebbe includere, ad esempio, un video di un politico che dice qualcosa che non ha mai detto o che fa qualcosa che non ha mai fatto.
Poiché questi deepfake vengono creati utilizzando algoritmi di apprendimento automatico, il contenuto generato è in genere di altissima qualità e difficile (o impossibile) per qualcuno discernere dai media autentici semplicemente guardandolo o ascoltandolo.
La soluzione alla manipolazione on l'intelligenza artificiale occorre un'altra intelligenza artificiale addestrata per individuare i cambiamenti.
Microsoft ha introdotto quindi "Video Authenticator" nell'ambito del suo programma "Defending Democracy", sottolineando che negli ultimi anni sono state identificate dozzine di "campagne di influenza straniera mirate" in paesi di tutto il mondo. Queste campagne hanno lo scopo di manipolare il pubblico in certe credenze o ideologie; altri tentano di suscitare dibattiti e polarizzare ulteriormente i gruppi l'uno contro l'altro.
Sebbene "Video Authenticator" non sia una soluzione a lungo termine a quella che è inevitabilmente una tecnologia in evoluzione, Microsoft spiega che "nel breve periodo, come le imminenti elezioni statunitensi, le tecnologie di rilevamento avanzate possono essere uno strumento utile per aiutare gli utenti più esigenti a identificare i deepfake."
"Video Authenticator" funziona analizzando ogni fotogramma di un video, oltre alle immagini fisse, e assegnando loro una "probabilità percentuale", chiamata anche punteggio di confidenza, che indica la sua probabilità di essere stato manipolato. Durante l'analisi dei video, "Video Authenticator" presenta agli utenti una percentuale in tempo reale per ogni fotogramma.
In un campione fornito da Microsoft, lo strumento non è in grado di rilevare prove di manipolazione in ogni frame; alcuni passano senza attivare il sistema, mentre altri possono avere elementi in scala di grigi sufficienti, confini di fusione, sfumature sottili o altri aspetti per attivare il sistema di rilevamento.
In definitiva, Video Authenticator è solo l'inizio. Microsoft spiega:
"Ci aspettiamo che i metodi per generare media sintetici continueranno a crescere in sofisticazione. Poiché tutti i metodi di rilevamento dell'IA hanno tassi di fallimento, dobbiamo capire ed essere pronti a rispondere ai deepfake che sfuggono ai metodi di rilevamento. Pertanto, a lungo termine, dobbiamo cercare metodi più forti per mantenere e certificare l'autenticità degli articoli di notizie e di altri media. Ci sono pochi strumenti oggi per assicurare ai lettori che i media che stanno vedendo online provengono da una fonte attendibile e che non sono stati alterati."
Microsoft per il momento non rende disponibile al pubblico il "Video Authenticator" per proteggerlo da manipolazioni che potrebbero ostacolare lo sforzo.
Non è l'unico programma progettato per lo scopo, l'anno scorso, ad esempio, Adobe Research e UC Berkeley hanno introdotto un metodo per rilevare le sottili manipolazioni del viso effettuate utilizzando lo strumento Face Aware Fluidifica in Photoshop.
Comments