Tra meraviglia e minaccia, l’intelligenza artificiale generativa apre scenari straordinari e pericolosi. Il ricercatore Hany Farid lancia un appello: servono regole, educazione e coscienza etica per non perdere il controllo del reale.
Viviamo in un’epoca in cui vedere non significa più credere. Una voce, un volto, una scena: bastano pochi click per generare l’illusione perfetta, il falso impeccabile. L’intelligenza artificiale generativa ci ha regalato strumenti straordinari, ma anche mostri mimetici difficili da domare. E in questo paesaggio che ondeggia tra il progresso e il panico, la figura del ricercatore Hany Farid si staglia come un faro nella nebbia digitale.
Nel suo intervento intitolato A Perspective, Farid, pioniere nel campo della forensica digitale, solleva un tema urgente: l’esplosione dei deepfake e la crescente difficoltà nel distinguere il vero dal manipolato. I deepfake – video o immagini alterate da algoritmi che replicano in modo verosimile la realtà – sono diventati armi di disinformazione, strumenti di frode, e in alcuni casi, strumenti di violenza.
Ma non tutto è distopia.
Farid riconosce anche i lati luminosi dell’AI: la democratizzazione della creatività, l’assistenza a chi vive con disabilità, il supporto alla ricerca scientifica. “L’intelligenza artificiale può dare voce a chi non ce l’ha più”, dice. Ma subito dopo arriva l’ombra: immagini intime diffuse senza consenso, video falsi per truffare o diffamare, persino contenuti legati ad abusi su minori.
E il danno non si ferma qui. L’esistenza stessa della tecnologia deepfake alimenta il cosiddetto liar’s dividend: la possibilità di negare la verità anche quando è documentata, semplicemente accusandola di essere falsa. In un mondo dove tutto può essere artefatto, anche ciò che è autentico perde valore.
Cosa fare, allora?
Farid propone un pacchetto d’interventi etici, educativi e normativi:
- Filigrane digitali e metadati obbligatori per ogni contenuto creato dall’AI, così da poterne tracciare l’origine;
- Limitazioni nei prompt, cioè le istruzioni date all’AI per generare contenuti;
- Collegamento tra contenuto e autore, per evitare l’anonimato dannoso;
- Moderazione rigorosa dei social media, affinché immagini e video pericolosi vengano bloccati tempestivamente;
- Alfabetizzazione mediatica digitale nelle scuole, per rendere le nuove generazioni capaci di distinguere il vero dal falso.
La visione di Farid è lucida e pragmatica. Non chiede di fermare l’intelligenza artificiale, ma invita a un uso consapevole e responsabile. Suggerisce persino che i ricercatori, prima di pubblicare o sviluppare certi strumenti, si interroghino: “Il mio lavoro potrebbe essere usato per nuocere? E se sì, come posso prevenirlo?”. Una riflessione che dovrebbe essere scolpita su ogni tastiera, su ogni server, su ogni algoritmo.
Perché non tutto ciò che può essere creato deve essere creato.

Credito
Immagine AI creata da Hany Farid
Oltre l’allarme: verso una nuova etica digitale
Il dibattito sull’intelligenza artificiale generativa e i deepfake non riguarda solo tecnici e giuristi, ma ciascuno di noi. In un’era di sovraccarico informativo, la verità diventa fragile, liquida come i pixel che scorrono sugli schermi. E la battaglia per la verità – quella vera – non si vince solo con la tecnologia, ma con l’educazione, la responsabilità e una visione condivisa del bene comune.
In fondo, sopravvivere all’esplosione dell’intelligenza artificiale non significa respingerla, ma imparare a danzare con essa, senza perdere l’equilibrio.
Hashtag per i social media:
#Deepfake #IntelligenzaArtificiale #AIethics #MediaLiteracy #EducazioneDigitale #FakeNews #AIresponsabile #HanyFarid #Disinformazione #TecnologiaEtica