PANTA REI, quando l'informazione è libera, gratuita e partecipativa

Torna a precedente

Intelligenza artificiale e pregiudizi di genere, quando gli algoritmi riflettono il potere

Dal caso Grok alle reti femministe, l’IA come terreno di conflitto e trasformazione sociale

Intelligenza artificiale e pregiudizi di genere, quando gli algoritmi riflettono il potere

Condividi

Dati, bias e diritti, perché l’equità nell’intelligenza artificiale va progettata

L’intelligenza artificiale viene spesso raccontata come neutrale, razionale, oggettiva. Ma basta osservare cosa accade negli spazi digitali per capire che non è così. Gli algoritmi non nascono nel vuoto: assorbono dati, visioni del mondo e rapporti di potere di chi li progetta e li alimenta. Il risultato è una tecnologia che, invece di ridurre le disuguaglianze, rischia di amplificarle.

Chi costruisce l’IA e chi resta fuori

Oggi la forza lavoro globale dell’intelligenza artificiale è ancora fortemente sbilanciata. Secondo stime rilanciate dal World Economic Forum, le donne rappresentano meno di un terzo delle persone impiegate nel settore. Questo squilibrio non è solo numerico, ma culturale: meno diversità significa meno punti di vista nei dati, nei modelli e nelle decisioni che plasmano le tecnologie che usiamo ogni giorno.

Gli stereotipi che finiscono nei dataset

La letteratura tecnologica è ricca di esempi di pregiudizi di genere incorporati nei sistemi di intelligenza artificiale. I software di riconoscimento delle immagini hanno mostrato difficoltà nel riconoscere correttamente le donne, soprattutto quelle di colore, con errori che hanno avuto conseguenze concrete anche per le forze dell’ordine. Gli assistenti vocali, per anni, hanno adottato quasi esclusivamente voci femminili, rafforzando l’idea che il ruolo di supporto e servizio sia “naturalmente” associato alle donne.

Quando le immagini parlano da sole

Anche nella generazione di immagini emergono schemi ricorrenti. Inserendo parole come “Ceo”, molti sistemi restituiscono figure maschili; cercando “assistente”, compaiono prevalentemente volti femminili. Non è un dettaglio estetico: è la rappresentazione visiva di ruoli di potere e subordinazione che vengono normalizzati e riprodotti, spesso senza che l’utente ne sia consapevole.

Dati non neutrali, equità da progettare

“L’Intelligenza artificiale si nutre di dati che non sono neutrali: riflettono società segnate da disuguaglianze storiche e rapporti di potere”, spiega Ivana Bartoletti, esperta internazionale di governance dell’IA e autrice di uno studio del Consiglio d’Europa su intelligenza artificiale e genere. Per ottenere risultati equi, sottolinea, le aziende devono interrogare i dataset, verificarne la rappresentatività e intervenire quando emergono squilibri. “L’equità non emerge da sola: va progettata”.

Il caso Grok e il confine mancato della sicurezza

Il recente caso di Grok, l’intelligenza artificiale sviluppata da Elon Musk, ha reso evidente cosa accade quando sicurezza e diritti delle donne non vengono considerati nel design dei sistemi. La possibilità di generare deepfake a sfondo sessuale, inclusi nudi falsi di donne e minori, poi sospesa, ha mostrato il lato più oscuro di queste tecnologie. “Se esistono strumenti per nudificare le donne, verranno usati”, osserva Bartoletti. I deepfake nudi diventano così una forma di controllo e umiliazione, con un messaggio implicito inquietante: se sei online, allora te lo meriti.

Ripensare l’IA come spazio di autodeterminazione

In risposta a questi rischi, stanno nascendo alternative tecnologiche che cercano di ripensare l’intelligenza artificiale come terreno di potere condiviso. In America Latina e nei Caraibi si è sviluppata la Rete Femminista di IA, che sostiene progetti orientati alla trasparenza e alle politiche pubbliche. Strumenti come AymurAI, Arvage IA e SofIA applicano una prospettiva di genere all’analisi giuridica, smascherando i bias degli algoritmi. Anche l’afrofemminismo rivendica l’IA come spazio di autodeterminazione, con assistenti come AfroféminasGpt, addestrati su saperi e voci nere.

La questione del potere, non solo del codice

“Possiamo organizzarci per usare l’IA per il bene comune, condividere dati e sviluppare soluzioni centrate sui bisogni reali”, conclude Ivana Bartoletti. Ma il nodo centrale resta il potere. La questione femminista nell’intelligenza artificiale non riguarda solo chi scrive il codice, ma chi decide le strategie, le regole e le politiche tecnologiche. L’IA non è solo una tecnologia: è una scelta su come vogliamo trasformare la società.


Condividi

01 Febbraio 2026
© Redazione editoriale PANTA-REI
https://www.panta-rei.it/home.do?key=1769943859&dettagli=ia-e-pregiudizi-di-genere
__
Le informazioni contenute in questo articolo sono tratte e rielaborate da fonti ufficiali e/o agenzie di stampa riconosciute, nel rispetto del presente codice etico redazionale.

PANTA-REI, l'informazione libera, gratuita e partecipativa

editoriale non-profit della
Fondazione Premio Antonio Biondi
Fondazione Premio Antonio Biondi
realizzato in collaborazione con la
icoe, centro studi su innovazione, comunicazione ed etica.
Centro studi su innovazione, comunicazione ed etica.

Copywriters ICOE
Francesca S., Matteo R., Laura A., Antonella B., Giorgio F., Anna C., Miriam M., Stefano G., Adele P. e Francesca N.
Redazione | Chi siamo


PANTA-REI canale WhatsApp

Seguici nel nostro canale WhatsApp con il tuo smartphone e quando vorrai, noi saremo li con le ultime notizie ...

__
Lettera aperta ai lettori, lettrici di PANTA-REI da parte di Luigi Canali
Presidente della Fondazione

L'EDITORIALE
libero, gratuito e partecipativo

Precedente

L'editoriale libero, gratuito e partecipativo
www.panta-rei.it
LANGUAGE

Fondazione iscritta al Registro Unico Nazionale del Terzo Settore RUNTS e riconoscita ISTITUTO CULTURALE dalla Regione Lazio - Ente NON-PROFIT
www.fondazionepremioantoniobiondi.it
C.F. 92088700601
__
Privacy e Cookies (GDPR)

PANTA-REI
editoriale della
Fondazione Premio Antonio Biondi
Via Garibaldi 34
03017 Morolo (FR)
redazione I.CO.E.
Via Giusué Carducci, 10 - 00187 Roma
editoriale@panta-rei.it
Messaggio WhatsApp

© PANTA-REI editoriale della Fondazione Premio Antonio Biondi. Tutti i diritti sono riservati.
[C]redit design&development gruppo mediterranea™