Il continuo miglioramento delle tecnologie di generazione e la natura virale del web rendono molto difficile la gestione di questi contenuti.
I notevoli sviluppi della tecnologia IA hanno portato con sé nuove opportunità ma anche sfide significative, tra cui la crescente diffusione dei deepfake. Questi video manipolati, creati con tecnologie avanzate, sono diventati oggi una minaccia in continua evoluzione: possono danneggiare gravemente la reputazione di una persona, manipolare l’opinione pubblica, fino a influenzare elezioni e destabilizzare governi.
Gli esperti di sicurezza e ricercatori di tutto il mondo stanno quindi lavorando duramente per sviluppare strumenti in grado di rilevare queste falsificazioni. Nonostante gli sforzi e le recenti innovazioni, però, gli algoritmi di rilevamento non sono ancora in grado di garantire una protezione completa.
Perché l’intelligenza artificiale non riesce a rilevare i deepfake
Gli algoritmi di rilevamento dei deepfake, nonostante i progressi, non possono offrire una soluzione definitiva al problema. Studi recenti mostrano che anche i sistemi più avanzati, pur raggiungendo un’accuratezza superiore al 90%, sono solo una risposta parziale. La tecnologia deepfake è in continua evoluzione, sviluppando nuovi metodi per sfuggire alla rilevazione, rendendo i sistemi di identificazione obsoleti in breve tempo.
Hao Li, professore associato all’Università della California del Sud, sottolinea che qualsiasi strumento di rilevamento dei deepfake sarà efficace solo per un periodo limitato. La tecnologia dei deepfake, infatti, si sviluppa seguendo una dinamica simile a quella tra virus e antivirus. Quando un algoritmo di rilevamento diventa pubblico, i creatori di deepfake modificano rapidamente i loro metodi per superarlo.
La capacità degli umani di riconoscere un deepfake, poi, è sempre più messa alla prova dagli sviluppi incredibili di questa tecnologia. I segnali biometrici morbidi, come i movimenti facciali, finora venivano utilizzati per identificare questi contenuti digitali falsi perché sono troppo sottili per essere replicati dagli attuali sistemi di IA. Man mano che la tecnologia avanza, però, anche le caratteristiche umane più distintive possono essere imitate, riducendo ulteriormente l’efficacia degli algoritmi di rilevamento.
Un ulteriore problema riguarda l’applicazione pratica di questi strumenti. Anche con un’accuratezza elevata, come il 97%, una minima percentuale di errore può comportare gravi conseguenze su larga scala, specialmente su piattaforme come Facebook che gestiscono milioni di immagini al giorno. Ogni falso positivo compromette la fiducia degli utenti e mette in discussione l’affidabilità della piattaforma.
La soluzione, secondo alcuni esperti, potrebbe risiedere in un approccio che combini l’analisi automatizzata con il giudizio umano. Altri suggeriscono di concentrare gli sforzi sulla verifica dei contenuti autentici piuttosto che sul rilevamento dei falsi. Tecnologie come la blockchain per la verifica delle fonti e l’applicazione di filigrane digitali potrebbero offrire una maggiore sicurezza, ma al momento è sicuro che nessuna di queste tecniche può eliminare completamente il problema.