Salta al contenuto principale

Discriminazione artificiale, come l'AI rafforza il bias di genere

Valerio Basile, ricercatore del Dipartimento di Informatica che si occupa di Natural Language Processing, ci aiuta a capire perché succede e cosa può fare la scienza
Temi dell'articolo
  • Tecnologia
  • Società
Articolo di
6 min
Discriminazione artificiale, come l'AI rafforza il bias di genere

L’assegnazione del Nobel per la Fisica 2024 a Geoffrey Hinton, l’informatico e scienziato cognitivo noto per le scoperte sull’apprendimento automatico con reti neurali artificiali, ha riportato alla ribalta il tema dell’etica nell’intelligenza artificiale. Proprio in occasione dell’annuncio del Premio, Hinton ha ribadito i rischi legati a queste tecnologie e l’urgenza di indirizzare la ricerca e gli interventi governativi verso una maggiore sicurezza dell'AI.   

Sono diverse le preoccupazioni, dal timore che l’AI possa sfuggire al controllo umano al rischio che contribuisca a perpetuare pregiudizi e disparità o, peggio, a diffondere deep fakefake news. Tra i vari temi che sollecitano la riflessione sulle questioni etiche abbiamo scelto di esplorare la relazione tra queste tecnologie e il gender bias, ovvero quei pregiudizi di genere che l’IA potrebbe addirittura a rafforzare.

Ne abbiamo parlato con Valerio Basile, ricercatore del Dipartimento di Informatica dell'Università di Torino che si occupa di Elaborazione del Linguaggio Naturale, in inglese Natural Language Processing (NLP), una branca dell'intelligenza artificiale che tratta l'interazione tra i computer e il linguaggio umano. 

A cosa ci riferiamo quando parliamo di gender bias nelle tecnologie basate sull'Intelligenza Artificiale? 

Il gender bias nell’AI si manifesta quando sistemi che vorremmo "intelligenti" perpetuano stereotipi di genere, sulla base dei dati che hanno processato durante il loro addestramento. Strumenti come ChatGPT si basano su modelli di calcolo chiamati Language Models, in grado di catturare le proprietà statistiche di un linguaggio naturale, vale a dire la probabilità con cui una certa parola segue una sequenza di parole precedenti. Il suggeritore automatico, che ci propone come continuare un testo, è l’applicazione naturale di un Language Model. Riesce a farlo perché è stato "alimentato" con una grande quantità di testi. 

Nessuna rete neurale al mondo è capace di inventarsi una nuova idea. Questa è ancora una prerogativa umana, per il momento

Alla fine del decennio 2010-2020, c’è stata un’accelerazione straordinaria in questo settore: grazie a una serie di sviluppi tecnologici, i modelli di linguaggio sono diventati Large Language Models, è aumentata la loro dimensione, cioè il numero di parametri che sono in grado di considerare. Ma più aumenta il numero di parametri, più è necessario accrescere la mole di dati con cui i modelli vengono alimentati. Che cosa fanno allora i produttori di questi “oggetti”? Scansionano l'intero web, senza una selezione dei contenuti e spesso senza curare il dataset che viene usato per l'addestramento. Quindi, se nel dataset ci sono delle associazioni spurie, indesiderabili o anche scorrette, la macchina - per quanto la chiamiamo intelligente, è pur sempre una macchina - impara quello che le viene detto, nient'altro. Nessuna rete neurale al mondo è capace di inventarsi una nuova idea. Questa è ancora una prerogativa umana, per il momento. In sintesi, le associazioni tra parole che presentano gender bias sono un sintomo di “deformazioni” nel tessuto del linguaggio naturale che abbiamo prodotto noi, che non si trovano solo sul web ma sono parte del contesto sociale.

Quindi se il bias è nella nostra società, in quello che scriviamo noi, che sia esplicito o implicito, queste macchine lo “mangiano”, lo imparano e possono riprodurlo. È corretto?

Esatto. Molto banalmente, se la parola uomo capita vicino alla parola dottore più spesso di quanto capiti vicino alla parola infermiere e, viceversa, se la parola donna è accostata più spesso alla parola infermiera, il modello imparerà che la donna è l’infermiera e l’uomo il medico.

Cosa si può fare? Come interviene la scienza per evitare o correggere il gender bias?

Innanzitutto misurandolo. Noi siamo scienziati, partiamo sempre da un’osservazione il più possibile oggettiva e quantificabile dei dati. Ma misurare i bias non è facile, bisogna trovare le metriche giuste e in base a quelle creare i benchmark. Il linguaggio misogino e le sue variazioni, come il linguaggio omofobo o transfobico, sono declinazioni del linguaggio d’odio o, più in generale, del linguaggio indesiderabile. Si tratta di uno dei casi studio più interessanti ed è anche più facile da misurare rispetto ad altri scenari, perché, senza ignorare tutte le possibilità intermedie o laterali, lo spettro da considerare ha due poli opposti, uomo e donna. Per questo si presta meglio a una semplificazione matematica. 

Entriamo nel vivo: ci può spiegare come lo misurate?

Nei modelli di AI il gender bias è misurabile tramite associazioni spurie di parole. Un classico esempio è la vicinanza semantica, quantificabile con tecniche apposite, di certi campi professionali (medicina, avvocatura) a termini esplicitamente maschili come "uomo" o "ragazzo", e la vicinanza di altri ambiti (infermieristica, insegnamento scolare) ai corrispettivi femminili. In uno studio recente, abbiamo osservato come in forum online di sport e di politica, i termini riferiti alle donne abbiano una connotazione significativamente negativa, mentre i termini maschili hanno una connotazione positiva nello sport e neutra nel discorso politico.

Oltre a misurare il bias, la scienza è anche in grado di correggerlo? Come?

Molti studi hanno l’obiettivo di implementare un’azione correttiva automatica. Con il mio gruppo di ricerca abbiamo sviluppato un prototipo che si basa sul principio di usare il bias contro il bias. In che modo? Nei sistemi di AI le parole, le frasi, i concetti sono rappresentati da numeri, o più precisamente da vettori numerici, che possiamo immaginare come punti nello spazio. Più sono vicini, più le parole che rappresentano sono correlate nel significato. Una volta identificati i bias che si ritengono indesiderabili, le stesse tecniche utilizzate per creare il modello possono essere applicate per "correggerlo", allontanando quei punti quando le associazioni semantiche vogliono essere contrastate, ad esempio perché considerate frutto di stereotipi. Qui è interessante l'aspetto etico e filosofico, ossia: a chi spetta stabilire l'indesiderabilità di certe associazioni di parole? Chi decide cosa è eticamente accettabile nell’AI?

Come si pone di fronte a questa questione la comunità scientifica? 

C’è un dibattito molto acceso. All’ultima conferenza internazionale della Association for Computational Linguistic (ACL), lo scorso agosto a Bangkok, c’è stato un intero workshop dedicato a questo tema. Prevale la tendenza a pensare: chi siamo noi, singoli scienziati, per giudicare quando è giusto correggere un bias? Noi siamo pronti con gli strumenti, siamo in grado di modificare i modelli in modo da annullare l’effetto di certe associazioni, ma il linguaggio naturale è espressione di un sistema cognitivo e sociale, di una cultura. E una cultura ha inevitabilmente dei bias. Per questo la linea di demarcazione tra un bias pericoloso e uno naturale è difficile da tracciare. È necessaria una ricerca transdisciplinare, che coinvolga anche ambiti diversi dall’informatica, come la filosofia e in particolare l'etica, la linguistica, la psicologia, e probabilmente altre.

Valerio Basile, Silvia Casola (al centro) e Cristina Bosco (a sinistra)
Valerio Basile con Cristina Bosco (Università di Torino) e Silvia Casola (LMU Munich), premiati alla Conferenza ACL 2024

Lei è arrivato a Torino sei anni fa dall’Università di Groningen, in Olanda, proprio per occuparsi di hate speech (linguaggio d’odio): ora su cosa sta lavorando?

Da qualche anno ho iniziato una linea di ricerca con un approccio al Natural Language Processing chiamato “prospettivista”, che propone di creare modelli di linguaggio capaci di distinguere la diversità di prospettive derivanti da fattori umani, culturali, sociali, come anagrafica (età, genere), ma anche provenienza geografica, educazione, e così via. Un modello prospettivista è in grado di analizzare un'espressione linguistica da vari punti di vista e generare risposte appropriate all'interlocutore umano. Il nostro obiettivo è creare una AI più vicina ai bisogni umani, più equa e sensibile alle voci di minoranza. Questa linea di ricerca sta suscitando l’interessa della comunità scientifica: un nostro lavoro sulla modellazione dell'ironia multilingue è stato premiato come "outstanding paper" nella conferenza internazionale ACL dello scorso agosto.

ne abbiamo parlato anche qui