PANTA REI, quando l'informazione è libera, gratuita e partecipativa

Torna a precedente

Il paradosso dell’intelligenza artificiale, quando i chatbot non riconoscono i video creati dall’IA

Un test mostra che l’intelligenza artificiale non identifica i propri contenuti, anche senza watermark

Il paradosso dell’intelligenza artificiale, quando i chatbot non riconoscono i video creati dall’IA

Condividi

Tra disinformazione e video realistici, l’IA fatica a distinguere il vero dal generato

L’intelligenza artificiale è sempre più abile nel generare immagini, testi e video realistici, ma fatica ancora a riconoscere i propri prodotti. È questo il paradosso che emerge da una recente analisi: strumenti progettati per interpretare e spiegare il mondo digitale non riescono, nella maggior parte dei casi, a individuare contenuti creati dalla stessa tecnologia su cui si basano.

Un test che mette in discussione le certezze

A sollevare la questione è NewsGuard, piattaforma specializzata nel monitoraggio della disinformazione online. L’analisi ha coinvolto tre chatbot tra i più noti e utilizzati, Grok di xAI, ChatGpt di OpenAI e Gemini di Google, messi alla prova nel riconoscere video generati artificialmente. I risultati mostrano percentuali di errore sorprendenti, comprese tra il 78% e il 95% dei casi.

I video di Sora come banco di prova

L’esperimento è partito da una serie di video creati con Sora, lo strumento di OpenAI capace di produrre clip estremamente realistiche a partire da semplici descrizioni testuali, i cosiddetti prompt. I filmati, privi di filigrana, sono stati sottoposti ai chatbot, che nella stragrande maggioranza dei casi non sono riusciti a identificarli come contenuti generati dall’intelligenza artificiale.

Numeri che fanno riflettere

Nel dettaglio, Grok ha fallito nel riconoscimento nel 95% dei casi, ChatGpt nel 92,5% e Gemini nel 78%. Un dato particolarmente significativo riguarda proprio ChatGpt, che appartiene alla stessa società che ha sviluppato Sora. Questo mette in luce una criticità strutturale: anche quando la tecnologia è “di casa”, il sistema non è in grado di distinguere il reale dal sintetico.

Quando il falso sembra vero

Tra gli esempi più emblematici citati da NewsGuard c’è un video, generato con Sora e senza watermark, che mostrava un presunto arresto di un bambino immigrato da parte di un agente dell’Ice statunitense. Sia ChatGpt sia Gemini non hanno riconosciuto il filmato come artificiale, indicando addirittura che l’episodio sarebbe stato coerente con fonti giornalistiche e collocandolo al confine tra Stati Uniti e Messico. Un caso che evidenzia quanto sia sottile il confine tra simulazione e realtà percepita.

Il ruolo del watermark e i suoi limiti

Il watermark, ovvero la filigrana digitale che identifica immagini, video e testi generati dall’IA e ne traccia la proprietà intellettuale, dovrebbe rappresentare una prima linea di difesa. Tuttavia, anche in presenza di questa marcatura, due chatbot su tre hanno commesso errori. Grok non ha riconosciuto i video come artificiali nel 30% dei casi, mentre ChatGpt ha sbagliato nel 7,5% delle risposte.

Una sfida aperta per informazione e tecnologia

Questi risultati pongono interrogativi cruciali sul futuro della verifica dei contenuti digitali. Se le stesse intelligenze artificiali faticano a riconoscere i prodotti dell’IA, il rischio di diffusione di disinformazione aumenta sensibilmente. La sfida non riguarda solo lo sviluppo di strumenti più sofisticati, ma anche la definizione di standard condivisi e affidabili per distinguere ciò che è reale da ciò che è generato.


Condividi

26 Gennaio 2026
© Redazione editoriale PANTA-REI
https://www.panta-rei.it/home.do?dettagli=paradosso-ia-e-video&key=1769424724
__
Le informazioni contenute in questo articolo sono tratte e rielaborate da fonti ufficiali e/o agenzie di stampa riconosciute, nel rispetto del presente codice etico redazionale.

PANTA-REI, l'informazione libera, gratuita e partecipativa

editoriale non-profit della
Fondazione Premio Antonio Biondi
Fondazione Premio Antonio Biondi
realizzato in collaborazione con la
icoe, centro studi su innovazione, comunicazione ed etica.
Centro studi su innovazione, comunicazione ed etica.

Copywriters ICOE
Francesca S., Matteo R., Laura A., Antonella B., Giorgio F., Anna C., Miriam M., Stefano G., Adele P. e Francesca N.
Redazione | Chi siamo


PANTA-REI canale WhatsApp

Seguici nel nostro canale WhatsApp con il tuo smartphone e quando vorrai, noi saremo li con le ultime notizie ...

__
Lettera aperta ai lettori, lettrici di PANTA-REI da parte di Luigi Canali
Presidente della Fondazione

L'EDITORIALE
libero, gratuito e partecipativo

Precedente

L'editoriale libero, gratuito e partecipativo
www.panta-rei.it
LANGUAGE

Fondazione iscritta al Registro Unico Nazionale del Terzo Settore RUNTS e riconoscita ISTITUTO CULTURALE dalla Regione Lazio - Ente NON-PROFIT
www.fondazionepremioantoniobiondi.it
C.F. 92088700601
__
Privacy e Cookies (GDPR)

PANTA-REI
editoriale della
Fondazione Premio Antonio Biondi
Via Garibaldi 34
03017 Morolo (FR)
redazione I.CO.E.
Via Giusué Carducci, 10 - 00187 Roma
editoriale@panta-rei.it
Messaggio WhatsApp

© PANTA-REI editoriale della Fondazione Premio Antonio Biondi. Tutti i diritti sono riservati.
[C]redit design&development gruppo mediterranea™