Immagina di ricevere una videochiamata e trovarti davanti il volto rassicurante di un collega, un familiare o addirittura una celebrità. Peccato che, in realtà, dietro quello schermo ci sia un truffatore. È il fenomeno dei deepfake in tempo reale, una tecnica avanzata che, con pochi clic e l’aiuto dell’intelligenza artificiale, permette di modificare aspetto e voce durante una diretta, ingannando anche i sistemi di verifica più evoluti.
Dalle email fasulle ai deepfake, l’evoluzione dell’ingegneria sociale
Se fino a poco tempo fa le truffe viaggiavano tramite email sospette e messaggi truffaldini, oggi la truffa si presenta in video, con un volto familiare e una voce convincente. MARCO RAMILLI, fondatore della startup italiana IDENTIFAI, spiega come queste sofisticate tecniche di morphing siano molto più insidiose rispetto ai metodi tradizionali. Grazie alla tecnologia ’degenerativa’, la sua azienda è in grado di smascherare immagini e video creati dall’intelligenza artificiale generativa, contrastando la disinformazione e le frodi digitali.
Quando la tecnologia diventa un’arma, il caso di Mr. Deepfakes
La piattaforma americana 404 MEDIA ha acceso i riflettori sull’uso illecito dei deepfake, documentando truffe mirate soprattutto contro gli utenti più vulnerabili, come gli anziani. Emblematico il caso della chiusura di MR. DEEPFAKES, un sito dove gli utenti pagavano fino a 1.500 dollari per creare video pornografici falsi sostituendo i volti con quelli di personaggi noti. Un fenomeno inquietante che ha evidenziato quanto questa tecnologia possa essere facilmente utilizzata a scopi illeciti.
Numeri allarmanti, un’escalation senza precedenti
Dal 2017 al 2022 si sono registrati 22 incidenti legati ai deepfake. Ma la vera esplosione è arrivata nel 2023 con 42 casi, fino a toccare i 150 incidenti nel 2024, segnando un aumento del 257%. E i dati del primo trimestre 2025 sono ancora più preoccupanti: ben 179 episodi, già superiori del 19% rispetto all’intero anno precedente. Sono cifre che dimostrano quanto rapidamente stia crescendo il rischio legato a queste tecnologie.
Oltre ai video, anche le voci diventano armi di frode
Le truffe non si fermano ai volti. Le voci generate artificialmente sono sempre più utilizzate per ingannare gli utenti. Come racconta RAMILLI, bastano pochi secondi di registrazione per clonare la voce di un parente o di una persona di fiducia. Nei settori bancario e assicurativo, si moltiplicano i casi di documenti falsi e scontrini contraffatti. Ma il vero pericolo è l’uso massiccio di immagini e voci di personaggi famosi, prelevate dai social, per manipolare l’opinione pubblica o influenzare eventi politici.
Dal caso Ucraina ai video falsi di Trump, l’Italia in prima linea
Durante il conflitto in Ucraina e più di recente con episodi di disinformazione politica, la tecnologia di IDENTIFAI ha supportato la piattaforma NEWSGUARD nello smascherare video falsi di DONALD TRUMP. Uno di questi lo mostrava mentre minacciava il Pakistan in un discorso mai pronunciato, con la voce creata artificialmente e il movimento delle labbra modificato digitalmente. Secondo RAMILLI, le frodi basate sull’intelligenza artificiale rappresentano oggi il 5% del totale, ma si prevede che entro quattro anni raggiungeranno il 60-70%. La sfida sarà riuscire a mantenere la fiducia nel digitale, adottando strumenti efficaci per verificare l’autenticità di ciò che vediamo e sentiamo.
12 Maggio 2025
© Redazione editoriale PANTA-REI
https://www.panta-rei.it/home.do?dettagli=deepfake-in-tempo-reale&key=1747051948
editoriale non-profit della
Fondazione Premio Antonio Biondi
realizzato in collaborazione con la

Centro studi su innovazione, comunicazione ed etica.
Copywriters
Francesca S., Matteo R., Laura A., Antonella B., Giorgio F., Anna C., Miriam M., Stefano G., Adele P. e Francesca N.
Redazione

Seguici nel nostro canale WhatsApp con il tuo smartphone e quando vorrai, noi saremo li con le ultime notizie ...
Fondazione iscritta al Registro Unico Nazionale del Terzo Settore RUNTS e riconoscita ISTITUTO CULTURALE dalla Regione Lazio - Ente NON-PROFIT
www.fondazionepremioantoniobiondi.it
C.F. 92088700601
__
Privacy e Cookies (GDPR)
PANTA-REI
editoriale della
Fondazione Premio Antonio Biondi
Via Garibaldi 34
03017 Morolo (FR)
__
redazione
editoriale@panta-rei.it
Messaggio WhatsApp
© PANTA-REI editoriale della Fondazione Premio Antonio Biondi. Tutti i diritti sono riservati.
[C]redit design&development gruppo mediterranea™