PANTA REI, quando l'informazione è libera, gratuita e partecipativa

Torna a precedente

OpenAI e Commissione Ue, dialogo aperto sulla sicurezza del nuovo modello ChatGpt

OpenAI e Commissione Ue discutono sul nuovo modello ChatGpt e sui possibili controlli legati alla sicurezza informatica

OpenAI e Commissione Ue, dialogo aperto sulla sicurezza del nuovo modello ChatGpt

Condividi

La Commissione europea accoglie con favore la trasparenza di OpenAI e valuta i prossimi passi sul nuovo ChatGpt

La Commissione europea e OpenAI mantengono aperto un confronto sul nuovo modello di ChatGpt, con particolare attenzione agli aspetti legati alla sicurezza informatica. Un dialogo che, secondo quanto riferito da un portavoce europeo, non si è limitato a un singolo incontro ma proseguirà anche nei prossimi giorni.

Un confronto ancora in corso

Durante il briefing con la stampa, un portavoce della Commissione Ue ha confermato che lo scambio con OpenAI è già avvenuto e continuerà anche questa settimana. Le discussioni, quindi, risultano ancora aperte e riguardano i possibili passaggi successivi legati al nuovo modello di intelligenza artificiale.

Il punto centrale sembra essere la possibilità per la Commissione di ottenere un accesso diretto al modello, così da poter osservare più da vicino il modo in cui verrà implementato e valutare eventuali aspetti critici sul piano della sicurezza.

La trasparenza di OpenAI vista come un segnale positivo

La Commissione europea ha accolto favorevolmente l’atteggiamento di OpenAI, sottolineando la disponibilità dell’azienda a condividere informazioni e a consentire un possibile accesso al nuovo sistema. Per Bruxelles, questo elemento rappresenta un passaggio rilevante in un settore in cui la trasparenza non è solo una scelta comunicativa, ma anche una condizione utile per costruire fiducia.

La crescita dei modelli di intelligenza artificiale generativa, infatti, porta con sé grandi opportunità ma anche interrogativi concreti. Tra questi ci sono la gestione dei dati, la prevenzione di usi impropri, la protezione degli utenti e la capacità di individuare eventuali vulnerabilità prima che possano diventare un problema più ampio.

Sicurezza informatica e controllo dei nuovi modelli

Il tema della sicurezza informatica è uno degli aspetti più delicati nello sviluppo dei sistemi di intelligenza artificiale. Un modello avanzato come ChatGpt può essere utilizzato per molte attività utili, dalla produttività alla ricerca, dalla scrittura alla programmazione, ma proprio per questo richiede controlli attenti.

La Commissione sembra voler seguire da vicino non solo il funzionamento tecnico del nuovo modello, ma anche le sue possibili implicazioni operative. L’obiettivo è comprendere se esistano rischi specifici e se possano essere affrontati in modo preventivo, prima della piena diffusione o durante le fasi di rilascio.

Il possibile accesso al modello

Tra i punti in discussione c’è il cosiddetto potenziale accesso al modello. Questa espressione indica la possibilità che la Commissione possa analizzare direttamente il nuovo sistema, o comunque ricevere elementi sufficienti per verificarne il comportamento in determinati contesti.

Non si tratta soltanto di una questione tecnica. L’accesso a un modello di intelligenza artificiale può diventare uno strumento importante per valutare la conformità alle regole europee, verificare i livelli di sicurezza dichiarati e comprendere se le misure adottate siano adeguate rispetto ai rischi.

Un rapporto sempre più stretto tra tecnologia e regolazione

Il dialogo tra OpenAI e la Commissione Ue conferma un dato ormai evidente, l’intelligenza artificiale non è più soltanto una questione industriale o scientifica. È diventata anche un tema politico, normativo e sociale.

L’Europa sta cercando di costruire un equilibrio tra innovazione e tutela dei cittadini. Da una parte c’è la necessità di non frenare lo sviluppo tecnologico, dall’altra c’è il bisogno di garantire che strumenti così potenti vengano progettati e utilizzati con criteri di sicurezza, responsabilità e controllo.

Un passaggio importante per la fiducia degli utenti

La disponibilità di OpenAI al confronto può essere letta come un segnale importante anche per gli utenti finali. Quando un modello di intelligenza artificiale viene sottoposto a una maggiore attenzione istituzionale, aumenta la possibilità di individuare criticità, correggere problemi e rafforzare le misure di protezione.

Naturalmente, le discussioni sono ancora in corso e non è possibile sapere quali saranno i prossimi passaggi concreti. Tuttavia, il fatto che Commissione e azienda stiano dialogando direttamente sul nuovo modello rappresenta un elemento significativo nel rapporto tra grandi piattaforme tecnologiche e istituzioni pubbliche.

L’intelligenza artificiale entra in una fase più matura

Il caso conferma che l’intelligenza artificiale sta entrando in una fase più matura, nella quale non basta più presentare modelli sempre più potenti. Servono anche garanzie, verifiche, procedure di controllo e un confronto costante con le autorità competenti.

Per OpenAI, la trasparenza può diventare un modo per consolidare la propria credibilità. Per la Commissione europea, invece, il dialogo rappresenta un’occasione per monitorare da vicino l’evoluzione di una tecnologia destinata a incidere sempre di più sulla vita digitale, sul lavoro, sulla sicurezza e sull’informazione.


Condividi

13 Maggio 2026
© Redazione editoriale PANTA-REI
https://www.panta-rei.it/home.do?dettagli=openai-e-commissione-ue&key=1778666233
__
Le informazioni contenute in questo articolo sono tratte e rielaborate da fonti ufficiali e/o agenzie di stampa riconosciute, nel rispetto del presente codice etico redazionale.

PANTA-REI, l'informazione libera, gratuita e partecipativa

editoriale non-profit della
Fondazione Premio Antonio Biondi
Fondazione Premio Antonio Biondi
realizzato in collaborazione con la
icoe, centro studi su innovazione, comunicazione ed etica.
Centro studi su innovazione, comunicazione ed etica.

Copywriters ICOE
Francesca S., Matteo R., Laura A., Antonella B., Giorgio F., Anna C., Miriam M., Stefano G., Adele P. e Francesca N.
Redazione | Chi siamo


PANTA-REI canale WhatsApp

Seguici nel nostro canale WhatsApp con il tuo smartphone e quando vorrai, noi saremo li con le ultime notizie ...

__
Lettera aperta ai lettori, lettrici di PANTA-REI da parte di Luigi Canali
Presidente della Fondazione

L'EDITORIALE
libero, gratuito e partecipativo

Precedente

L'editoriale libero, gratuito e partecipativo
www.panta-rei.it
LANGUAGE

Fondazione iscritta al Registro Unico Nazionale del Terzo Settore RUNTS e riconoscita ISTITUTO CULTURALE dalla Regione Lazio - Ente NON-PROFIT
www.fondazionepremioantoniobiondi.it
C.F. 92088700601
__
Privacy e Cookies (GDPR)

PANTA-REI
editoriale della
Fondazione Premio Antonio Biondi
Via Garibaldi 34
03017 Morolo (FR)
redazione I.CO.E.
Via Giusué Carducci, 10 - 00187 Roma
+39.06.5654.8962
centrostudi@icoe.it
Messaggio WhatsApp

© PANTA-REI editoriale della Fondazione Premio Antonio Biondi. Tutti i diritti sono riservati.
[C]redit grippi associati ICT