Now Reading
Se anche l’intelligenza artificiale (AI) ragiona come un uomo

Se anche l’intelligenza artificiale (AI) ragiona come un uomo

L’intelligenza artificiale (AI) è ormai un elemento onnipresente – a volte in maniera quasi invisibile – nella nostra quotidianità: riesce a catturarci con una storia toccante, diagnosticare un tumore o affrontare problemi complessi in maniera abbastanza autonoma – accontentandosi solo di piccole informazioni di partenza. 

Il suo arrivo ha suscitato opinioni contrastanti. Se alcune persone ne sono entusiaste sostenitrici, altre invece le si approcciano con spavento, temendo possa da un momento all’altro distruggere il Pianeta con un click. La realtà però non può essere ignorata: che ci piaccia o no, l’intelligenza artificiale farà sempre più parte del nostro futuro e pertanto, prima ne comprenderemo le dinamiche prima saremo in grado di trarre vantaggio dalle sue potenzialità – controllandole e limitandole quando necessario. 

Ma come si impara a conoscere un’intelligenza artificiale?

Risposta secca: parlandole. Mi è capitato di farlo spesso, spinta prima di tutto dalla curiosità e poi dalla voglia di saperne di più. Un sabato mattina di qualche mese fa per esempio le ho chiesto – lo ammetto, in maniera un po’ provocatoria: 

“Ti consideri sessista? Ritieni di perpetuare degli stereotipi di genere?”

La sua risposta mi ha sorpresa e incupita allo stesso tempo. 

“È importante che gli sviluppatori e i ricercatori si impegnino a ridurre i bias nell’AI, lavorando su dati di addestramento più equilibrati e implementando tecniche per mitigare i pregiudizi. L’obiettivo è sviluppare sistemi di intelligenza artificiale che siano etici, imparziali e inclusivi”. 

Se da una parte ‘la macchina’ si è mostrata inaspettatamente conscia dei propri limiti e propensa a volerli in un futuro non troppo prossimo superare, dall’altra l’utilizzo del maschile sovraesteso di “sviluppatori” e “ricercatori” ha spento i miei entusiasmi, spingendomi a puntare i fari della mia attenzione esclusivamente sulla presenza di forti bias – di genere in questo caso. 

Si tratta di bias algoritmici, che emergono sostanzialmente perché i software dell’AI si nutrono di una vasta quantità di dati, tra cui quelli che riflettono le debolezze e le brutture della società in cui sono generati. Inclusi i pregiudizi e gli stereotipi di genere. Inconsapevolmente, questi dati vengono trasferiti all’AI: la macchina li persegue, li amplifica e li normalizza. Sebbene sia giudicato “intelligente”, il sistema infatti non è in grado di comprendere autonomamente se un concetto è eticamente corretto o meno, e per questo non può di certo dirsi neutrale. 

Se si tiene poi in conto che in tutto il mondo le donne hanno mediamente il 21% in meno di possibilità di accedere a una connessione internet rispetto agli uomini – per motivi diversi tra cui disparità di risorse, analfabetismo digitale forzato dalla condizione di vita o per atteggiamenti violenti online – è evidente che i dati da cui la macchina attinge sono realmente poco rappresentativi e quindi intrinsecamente distorti. Tale ‘vuoto’ non può infatti far altro che riflettere e amplificare le disuguaglianze di genere, dovute ad una rappresentazione incompleta nel mondo dei dati. Un fenomeno capace di creare un circolo vizioso: la mancanza di dati accurati e rappresentativi influisce negativamente sulla capacità di sviluppare soluzioni informate e imparziali.

Per fare un esempio, da un’inchiesta del Guardian del 2023, è emerso che a parità di nudità di un corpo maschile e uno femminile, l’algoritmo dell’intelligenza artificiale giudica quello femminile come più sessualmente allusivo e più “audace” rispetto a quello maschile. Di conseguenza, i social media regolati da questo sistema bannano maggiormente le immagini di corpi femminili rispetto a quelle di corpi maschili. Il risultato? Il danneggiamento di aziende con una forte rappresentanza femminile e un inasprimento della disparità.

Ma se da un lato quindi è la fonte dei dati stessa ad essere influenzata dalla mancata parità di genere, dall’altro non possiamo ignorare il fatto che la stessa gestione e programmazione dei dati sia in mano a persone prevalentemente di sesso maschile. 

D’altronde come si legge nel rapporto “Gender Gap Report 2022” del World Economic Forum, nel campo STEM (che comprende le discipline scientifico-tecnologiche) le donne sono ancora sottorappresentate. E (ovviamente) non perché siano meno capaci ma perché ostacolate dalla solidità degli stereotipi di genere. Infatti solo il 22% fra le persone specializzate nello sviluppo di intelligenze artificiali è donna (Rapporto sull’uguaglianza di genere del Forum Sistemic). Una percentuale che inevitabilmente porterà la macchina ad avere una visione parziale sulle questioni del mondo, con una scarsa diversità di pensiero e senza un’equa rappresentanza di tutti i generi. 

Neppure quest’ambito, dunque, è privo di discriminazioni. E, per questo – e al pari di tutti gli altri – necessita di una lotta a sostegno della diversità di genere, essenziale per la creazione di tecnologie etiche e imparziali.

Certo, guardandoci intorno è difficile immaginare che le cose possano andare diversamente da così: durante i dibattiti sul progresso tecnologico, per esempio, sono quasi sempre gli uomini – prevalentemente bianchi, cis e abili – a prendere il microfono, mentre donne, persone con disabilità e razzializzate, che sperimentano sulla propria pelle le discriminazioni causate dagli algoritmi, finiscono per rimanere in platea, stringendo fra le mani ricerche che non vengono prese sul serio e ascoltate. 

See Also

Scatenando una serie di conseguenze a catena. Succede che, per esempio, senza dati e studi rappresentativi gli algoritmi di selezione del personale basati sull’IA discriminino involontariamente una certa persona proprio per via del suo genere, favorendo candidature di un determinato genere – e perpetuando quindi  le disuguaglianze. Come d’altronde già accaduto nel 2018, quando si è scoperto che il sistema di recruiting di Amazon, basato sull’apprendimento automatico, scartava le donne, soprattutto per i ruoli tecnologici, perché “allenato” attraverso i curricula ricevuti dalla società nell’arco di 10 anni e provenienti in gran parte da uomini. 

Un fatto piuttosto grave, ma che assume una connotazione ancora più pericolosa se calato nella realtà dei software per diagnosticare malattie o suggerire trattamenti: visto che potrebbero basarsi su dati clinici che contengono pregiudizi di genere, o essere carenti di dati su generi diversi da quello maschile, potrebbero portare a diagnosi mancate o errate, così come a raccomandazioni o cure proposte errate.

Il problema è dunque sistemico, e va per questo contrastato, oltre che con comprensione e conoscenza del sistema, con un ‘rimboccarsi le maniche’ collettivo e un’apertura agli studi condotti dalle esperte.

Come quello dell’attivista e docente Safiya Umoja Noble, autrice del testo “Alghoritm of Oppressions”, un libro che esplora il modo in cui gli algoritmi utilizzati nei motori di ricerca possono perpetuare e amplificare le disuguaglianze sociali, le discriminazioni razziali e di genere, spingendo a una riflessione critica sulla progettazione, l’implementazione e l’impatto sociale degli algoritmi utilizzati nelle tecnologie digitali.

D’altronde, lo sappiamo, le donne si curano delle altre donne. Un assioma che ha spinto l’imprenditrice statunitense Mia Dand a dar vita all’iniziativa collettiva chiamata Women in AI Ethics (WAIE), nata con la missione di aumentare il riconoscimento, la rappresentanza e la forza delle donne nell’etica dell’intelligenza artificiale. E che, ogni anno, s’impegna ad aggiornare una lista di 100 donne esperte di etica nell’AI.

Perché, ormai è chiaro: sebbene l’intelligenza artificiale rafforzi la disparità di genere, rendendola universale e inespugnabile, non è responsabile della sua creazione: a quello, infatti, ci pensiamo noi

Link fonti
https://webfoundation.org/research/costs-of-exclusion-report/
https://www.theguardian.com/technology/2023/mar/26/artificial-intelligence-meredith-broussard-more-than-a-glitch-racism-sexism-ableism
https://www.weforum.org/publications/global-gender-gap-report-2022/
https://www.dirittoantidiscriminatorio.it/i-sistemi-di-intelligenza-artificiale-amplificheranno-i-pregiudizi-di-genere/
https://www.businessinsider.com/amazon-ai-biased-against-women-no-surprise-sandra-wachter-2018-10?r=US&IR=T

 

Credits
Immagine cover sito
Foto di Unsplash: https://unsplash.com/it/foto/testo-di-sessismo-da-combattimento-nero-WqhTMspO-e8
Immagine sito orizzontale
Foto di Unsplash: https://unsplash.com/it/foto/fermo-immagine-del-film-di-matrix-iar-afB0QQw
Immagine sito verticale
Foto di Unsplash: https://unsplash.com/it/foto/donna-che-tiene-la-parte-posteriore-della-sua-testa-KjDAe0dezaY
View Comments (0)

Leave a Reply

Your email address will not be published.