Bias e intelligenza artificiale: come affrontarli secondo Irene Buselli

September 29, 2025 00:10:06
Bias e intelligenza artificiale: come affrontarli secondo Irene Buselli
UniGE al Festival della Comunicazione 2025
Bias e intelligenza artificiale: come affrontarli secondo Irene Buselli

Sep 29 2025 | 00:10:06

/

Show Notes

Irene Buselli racconta la sua ricerca in Trustworthy Artificial Intelligence, con un focus sulla algorithmic fairness: come costruire algoritmi più equi e trasparenti. Una sfida che unisce matematica ed etica.

View Full Transcript

Episode Transcript

[00:00:00] Speaker A: Durante il Festival della Comunicazione l'Università di Genova ha fatto incontrare al pubblico camoglino i giovani ricercatori onigie. Abbiamo con noi Irene Buselli che al festival ci ha raccontato che l'intelligenza artificiale sa fare tutto anche discriminare. Ciao Irene, benvenuta. [00:00:15] Speaker B: Ciao, ciao Nadia, grazie dell'invito. [00:00:18] Speaker A: Allora, cerchiamo di raccontare la tua storia in un modo un po' più comunicativo e interessante, quindi ti chiedo. Se la tua storia di ricercatrice fosse il capitolo di un libro, quale sarebbe il suo titolo? Raccontami come è iniziato questo capitolo, quale futuro vorresti scriverci dentro e qual è il tema principale delle tue ricerche. [00:00:39] Speaker B: Allora, se la mia ricerca fosse il capitolo di un libro, si intitolerebbe Il Ritorno. Nel senso che io in realtà durante l'università ho iniziato a lavorare, anche se comunque sempre dentro una spinoff universitaria, per cui un po' in azienda, un po' con finalità di ricerca, pensando poi di non continuare. Quindi ho poi effettivamente finito con la laurea. E dopo un paio d'anni che lavoravo, ho cominciato a sentire che in realtà mi mancava molto imparare qualcosa di nuovo, cercare qualcosa di nuovo. E quindi è stato questo lento comprendere che avevo voglia di tornare allo studio. E quindi poi ne ho parlato con il professor Oneto, che è sia il mio supervisor di dottorato sia anche il mio capo nella spin-off, quindi diciamo tutto in famiglia. E effettivamente sono poi riuscita a prendere questo dottorato in Trustworthy Artificial Intelligence, quindi come rendere l'intelligenza artificiale il più possibile equa, trasparente e affidabile. Il mio ambito di ricerca in particolare si chiama Algorithmic Fairness, che appunto sta per equità algoritmica, quindi come fare in modo che gli algoritmi discriminino il meno possibile quando imparano le nostre discriminazioni, essendo comunque lì a qualcosa che impara dai nostri dati, dai nostri comportamenti, chiaramente si porta presso tutta una serie di bias nostri e difetti nostri. e quindi, diciamo, vorremmo che imparasse, ma che non imparasse proprio tutto tutto delle nostre strutture e quindi l'algoritmic fairness studia un po' come evitare che impari troppo. [00:02:28] Speaker A: Ok, e in che modo riusciamo a insegnare all'intelligente artificiale a non essere cattiva come noi? [00:02:37] Speaker B: Allora, diciamo che si potrebbe riassumere in tre modi, nel senso che Il primo passo è fare in modo che l'intelligenza artificiale impari da dei dati equi, per cui evitare le situazioni che in passato si sono verificate molto spesso, per cui gli algoritmi di riconoscimento facciale sono testati principalmente su facce bianche, oppure gli algoritmi di selezione dei curriculum sono testati su dati che hanno già dei bias perché le donne vengono assunte meno, eccetera eccetera. Quindi la prima cosa è avere dei dataset inclusivi o fare in modo che diventino inclusivi mettendo dei dati sintetici o andandosi via a cercare. Il secondo modo è barare sull'output, nel senso che nel momento in cui l'algoritmo restituisce degli output che sono sbilanciati verso una categoria piuttosto che un'altra, La cosa da fare è riconoscere che c'è questo sbilanciamento e correggere la soglia oltre alla quale voi prendete una decisione. Quando decidi sulle persone bianche, decidi con questa soglia, quando decidi sulle persone nere, decidi in altro modo. Le tecniche in realtà che in questo momento risultano più efficaci invece sono il terzo tipo, che sono le in-processing, quindi quelle che fai durante il processo di apprendimento dell'algoritmo. e dove proprio la matematica ci viene più in aiuto di tutte perché l'idea è che quando alla fine la geometria dell'ottimizzazione dell'algoritmo entra in opera anziché fargli minimizzare soltanto l'errore gli chiedi di minimizzarti anche l'iniquità e quindi a quel punto diventa proprio una questione di come l'algoritmo si costruisce Aprendo ovviamente tutta una serie di problemi perché poi devi definire delle misure matematiche di iniquità e quindi che cosa è che vuoi ottenere? Che sia accurato uguale su maschile e femmine? Che abbia la stessa possibilità di avere un outcome positivo su maschile e femmine anche se non ce l'aveva in origine? Quindi ovviamente ogni decisione che prendi nel definire l'equità è una decisione che ha un piede nella matematica ma anche un piede nell'etica per cui è sempre un pochino umbilico. [00:04:53] Speaker A: Quindi anche un lavoro difficile, mi immagino, nel comprendere dove siamo più o meno equi, perché ci sono magari fattori palesi e magari invece cose che rimangono un po' più nascoste, magari che hai scoperto che non sono equi, ma non sapevano che fossero. [00:05:15] Speaker B: Esattamente, poi a volte ci sono anche delle questioni in cui è difficile capire se sia giusto o meno agire modificando l'output, nel senso che ad esempio un caso recente, un caso di language processing, Gemma, che è la cuginetta di Gemini, che avrebbe l'obiettivo di studiato dalle pubbliche amministrazioni e che riassumeva la situazione di un anziano malato e di un'anziana malata con le stesse caratteristiche, se c'era un anziano malato solo come una persona molto bisognosa di aiuto, mentre una donna anziana sola come una che tutto sommato poteva cavarsela. Perché avendo imparato da dei dati storici sembra più problematico un uomo da solo, perché tendenzialmente culturalmente c'è questa differenza nella nostra società. E lì chiaramente devi pensare che il rischio di agire è che magari togli il livello di preoccupazione su un caso di un uomo solo malato perché vuoi essere equo però poi di fatto stai togliendo una possibilità di cura a una persona potenzialmente. Quindi a volte agire e poi soprattutto forse è vero che nella nostra città in questo momento un uomo è più in difficoltà da solo e quindi cosa facciamo? Agiamo a cambiare l'algoritmo ignorando che comunque il mondo là fuori è effettivamente storto come l'ha imparato l'algoritmo. Quindi ovviamente così come quando ad un certo punto è successo che c'è il GPT Quando gli chiedevi, voglio una foto, un'immagine di un gruppo di miei amici che giochiamo, siamo tutti bianchi e lui comunque ti restituirà persone indiane di ogni altra etnia e tu dici, sì ma non è che voglio discriminare qualcuno, è che voglio il mio gruppo di amici. Quindi ogni tanto inserire una formula di equità dentro un algoritmo vuol dire farlo non solo consapevoli delle strutture del mondo, ma anche consapevoli che deve imparare il contesto oltre l'equità, perché altrimenti non riflette quella che poi è la verità, ma riflette una sua verità che non esiste fuori. [00:07:22] Speaker A: Ok, comunque quindi mi sembra una ricerca abbastanza difficile e impegnativa anche, come dicevi prima, a livello etico, non solo a livello informatico. Bene, quale pensi o quale speri che sia il futuro della tua ricerca? O della tua vita accademica? [00:07:42] Speaker B: Allora, intanto appunto c'è da dire che io continuo a tenere un piede nella ricerca applicativa, quindi nella spin-off, e un piede nella ricerca teorica, che è questa che ti ho raccontato. E quindi appunto, di conseguenza, penso che la mia vita continuerà un pochino con un piede in due scarpe, che è forse la cosa che mi piace di più. Per quanto riguarda il futuro di quest'ambito, c'è da dire che negli ultimi anni sono stati fatti moltissimi passi, tant'è che appunto tutti più o meno abbiamo imparato negli ultimi mesi a capire che ci sono intelligenze artificiali, ad esempio c'è GPT, Gemini, eccetera, che sono più eque e più esenti da bias, avendo anche diciamo il Trump e Elon Musk della situazione che sbraitano contro questa cultura woke che ci fa, le intelligenze artificiali censurate. E invece appunto c'era stato anche quel caso dell'intelligenza artificiale di Musk che lui ha cercato di rendere invece Chevrolet da questi freni con successo, direi, limitato. E quindi, insomma, è una ricerca molto molto attuale e che già ha visto molti passi farsi. Penso che le sfide del futuro siano essenzialmente due. Una è l'intersezionalità, che abbiamo imparato essere veramente importante in tutto ciò che riguarda questo ambito, in generale le discriminazioni, nel senso che non possiamo lavorare su una sola caratteristica, ad esempio, in genere dimenticandoci le altre. perché ogni discriminazione accade come intersezione di caratteristiche per cui ovviamente il senso, la provenienza etnica, il genere sono tutte cose che si intersecano. E l'altro grande tema sono gli LLM che fino a poco tempo fa erano molto poco considerati nella Fairness e che appunto se è facile vederne la discriminazione nel senso che basta dargli lo stesso input magari a generi invertiti o a categorie sociali invertite Poi capire come modificare l'output in realtà non è banalissimo sempre, quindi è una ricerca che è ancora in corso e che un pochino proseguirà. [00:09:52] Speaker A: Ok, direi che sei stata chiarissima e estremamente interessante, quindi buona ricerca e buon piedino anche dall'altra parte. Grazie, grazie per essere stata con noi. [00:10:04] Speaker B: Grazie, grazie a te della chiacchierata. Ciao.

Other Episodes

Episode

September 12, 2025 00:02:29
Episode Cover

Riuscire a scomporre un grande problema ci permette di comprenderlo

Con Anna Maria Pittaluga, farmacologa e direttrice del Dipartimento di Farmacia, ci interroghiamo sull'importanza di eventi come il Festival della Comunicazione per tradurre ricerche...

Listen

Episode

September 15, 2025 00:06:38
Episode Cover

Genetica e archeologia: leggere la storia attraverso i genomi

Il DNA antico ci permette di rileggere il passato e scoprire dettagli inediti sull’evoluzione umana. Con David Caramelli, uno dei massimi esperti internazionali di...

Listen

Episode

September 12, 2025 00:01:18
Episode Cover

Sono i Boomers a doversi adeguare!

Giovanni Mari, caporedattore centrale del Secolo XIX, ha preso parte al Festival della Comunicazione 2025, intervenendo all’incontro Ehi Boomers. È meglio la comunicazione dei...

Listen