Nell’imperscrutabile foschia che circonda il futuro si intravede anche l’intelligenza artificiale, entità che sembra ora ineluttabile nel mondo del domani. In verità è bene avere presente che, per quanto possa mostrarsi oscuro, l’avvenire altro non è che la propagazione del passato e lo slancio del presente.
Ciò è quanto mai vero soprattutto nell’era del datismo, dove quasi ogni aspetto umano viene tramutato in bit.
Il passato cristallizzato in bit. Il futuro previsto dai bit.
Da una parte risulta ormai evidente come l’intelligenza artificiale rappresenti un aspetto quasi irrinunciabile per interi settori sociali, dall’altra diligenza e cautela si è mossa sui cosiddetti bias, ovverosia i pregiudizi, che tale tipo di tecnologia porta con sé spesso in modo silente.
Il bias è un aspetto del processo decisionale.
È un elemento di frequente rilevato non solo nei sistemi di intelligenza artificiale, ma anche negli esseri umani o nelle istituzioni. Per discriminazione ci si potrebbe riferire agli effetti sfavorevoli derivanti da preconcetti o pregiudizi. I sistemi di intelligenza artificiale imparano tramite dati che potrebbero essere distorti, o che in base alla costruzione del dataset di apprendimento siano sbilanciati verso alcune caratteristiche della realtà a scapito di altre, manifestando quindi pregiudizi, e da ciò, portando a risultati che potrebbero discriminare individui in base al loro genere, razza, età, stato di salute, religione, disabilità, orientamento sessuale o altre variabili.
Il fatto che i sistemi di intelligenza artificiale apprendano dai dati non assicura l’assenza di effetti discriminatori nei loro risultati.
Le modalità di addestramento, test e utilizzo di tali sistemi potrebbero generare trattamenti meno equi per specifici gruppi senza una giustificazione obiettiva, oppure in base ad un semplice pregiudizio derivante dal programmatore del sistema di AI, oppure in relazione alla semplice raccolta dati sbilanciata. Dimostrare che un sistema di AI non sia discriminatorio è complesso, ma è necessario almeno predisporre strumenti in grado di prevenire tale insidioso problema.
Comprendere come si possa manifestare il rischio di bias dell’intelligenza artificiale che porti verso forme di discriminazione è fondamentale.
Alcuni esempi potrebbero far comprendere i rischi potenziali. L’occupazione è un campo in cui i pregiudizi sono ancora molto diffusi nella società contemporanea. Nonostante i progressi degli ultimi due decenni, le donne continuano a essere sottorappresentate nei settori legati alle materie STEM (scienza, tecnologia, ingegneria e matematica).
In tal senso, secondo Deloitte, nel 2020 le donne occupavano meno di un quarto dei ruoli tecnici. Ad esempio, l’utilizzo di un sistema di AI da parte di Amazon ha accentuato tale disparità in quanto il sistema di reclutamento automatizzato ha imparato a valutare l’adeguatezza di un candidato esaminando i curriculum degli aspiranti precedenti, e quindi, ciò ha portato il sistema ad avere pregiudizi di genere, penalizzando i curriculum delle candidate donne con punteggi inferiori.
I dati rappresentavano una situazione in cui le donne erano poco rappresentate nei ruoli tecnici nel passato, e pertanto, il sistema di intelligenza artificiale ha interpretato erroneamente che i candidati di sesso maschile fossero preferiti volontariamente. Non sorprende che, nonostante le modifiche apportate, Amazon abbia infine interrotto l’utilizzo di questo sistema nel 2017.
Purtroppo, il bias non riguarda solamente i pregiudizi relativi al sesso, ci sono anche diversi esempi di pregiudizi dell’AI legati alla razza.
Un esempio è il Correctional Offender Management Profiling for Alternative Sanctions (COMPAS), che stimava la probabilità di recidiva dei criminali negli Stati Uniti.
Nel 2016, ProPublica ha indagato su COMPAS e ha scoperto che il sistema tendeva ad indicare che gli imputati neri avevano una maggiore probabilità di recidiva rispetto ai loro omologhi bianchi.1
Sebbene il sistema avesse una precisione simile nel prevedere la recidiva, attorno al 60%, sia per gli imputati neri che per quelli bianchi, COMPAS ha mostrato i seguenti disallineamenti:
- ha erroneamente classificato quasi il doppio degli imputati neri (45%) come ad alto rischio rispetto agli imputati bianchi (23%);
- ha erroneamente etichettato più imputati bianchi come a basso rischio, ma questi hanno poi continuato a recidivare: il 48% degli imputati bianchi rispetto al 28% degli imputati neri;
- gli imputati neri sono stati considerati ad alto rischio anche quando, controllate le altre variabili, come crimini precedenti, età e sesso, vi era il 77% in più di probabilità di recidiva rispetto agli imputati bianchi.
Nel JTC Resource Bulletin si fa riferimento al Conference of State Court Administrators, dove viene chiaramente espresso che: “la tecnologia e l’innovazione hanno il potere di migliorare e innovare i processi nella comunità giudiziaria. Nel settore pubblico, compresi i tribunali, non si rimarrà indifferenti a tale innovazione dirompente. I gestori dei tribunali possono sfruttare tale innovazione per rendere la giustizia disponibile a un pubblico più ampio a un costo inferiore preservando l’equità, la neutralità, la trasparenza e la prevedibilità nel processo giudiziario”.2
L’utilizzo estensivo di tale strumento in ambito giudiziario apre seri problemi relativi al bias come abbiamo visto, ma vi è un altro aspetto da approfondire, cioè quello inerente al termine della “prevedibilità nel settore giudiziario”.
Nel termine letterale prevedere vuol dire elaborare ipotesi sulla base di congetture, indizi, modelli oppure dati in possesso, in relazione a fatti futuri.
La giustizia predittiva in sostanza andrebbe a prevedere dei comportamenti (quindi non ancora accaduti), sulla scorta di elementi presenti. L’aspetto più controverso potrebbe riguardare la giustizia criminale, ossia prevedere un reato e punirlo prima del suo avvenimento.
L’AI evidentemente potrà aiutare il mondo della giustizia esaminando le informazioni e assistendo il processo decisionale, ma delineare sistemi di tipo predittivo potrebbe rappresentare un pericolo come abbiamo visto.
Il Consiglio d’Europa ha emanato delle linee guida in merito con la carta per l’uso dell’intelligenza artificiale nel mondo giudiziario.3
Se L’intelligenza artificiale dovesse essere utilizzata per individuare il rischio, oppure, la propensione di un soggetto al reato analizzando i suoi dati, si potrebbe incorrere nel problema del bias di progettazione.
Uno studio del London University College ha verificato che i sistemi di AI sono in grado di prevedere oltre 500 sentenze della Corte europea dei diritti umani con una precisione del 79%.4 Il giudice Dory Reiling si chiede quanto possiamo considerare accurato il 79%. E solleva preoccupazioni sulla legittimità.5
Attorno alla progettazione delle AI vi è il problema, decisamente rilevante, relativo al bias di progettazione; infatti, a tal riguardo il ricercatore Aurélie Jean afferma che, il peggior nemico è “il bias dei programmatori negli algoritmi”.6
La ricercatrice del MIT Joy Buolamwini ha scoperto che il suo volto non veniva identificato dai sistemi di riconoscimento facciale dell’università, perché i ricercatori che avevano progettato gli algoritmi di riconoscimento dei volti erano tutti maschi e bianchi, andando ad istruire inconsapevolmente il riconoscimento facciale verso una classe maschile e bianca, e quindi il volto di una donna di colore, come Joy Buolamwini non veniva riconosciuto.7
I sistemi di AI possono essere, come già accennato, affetti da bias di varia natura (di genere, etnici, di classe, di sesso), in quanto sviluppati da esseri umani i quali, anche inconsapevolmente, sono assoggettati al rischio di attuare condotte discriminatorie e realizzare decisioni più o meno favorevoli verso alcune categorie di popolazione.
Come ogni tecnologia sviluppata dagli esseri umani, i sistemi di intelligenza artificiale possono riflettere sia i pregiudizi del loro creatore, sia i pregiudizi presenti nei dati su cui vengono addestrati.
Se i dati di addestramento rappresentano in modo sproporzionato determinati gruppi demografici rispetto ad altri, oppure codificano pregiudizi storici, l’intelligenza artificiale potrebbe perpetuarli nei suoi risultati. In sostanza, l’intelligenza artificiale potrebbe istruirsi a rafforzare tali modelli, sostanzialmente distorti, a meno che non vengano adottate misure adeguate.
Alcuni potenziali metodi per contrastare i bias dell’IA includono:
- controllo dei dati di formazione per distorsioni e pregiudizi in relazione alla rappresentazione del campione di popolazione;
- l’utilizzo di tecniche di mitigazione dei bias durante il processo di sviluppo dell’intelligenza artificiale in relazione agli sviluppatori del codice, come ad esempio un gruppo diversificato per sesso o etnia;
- un monitoraggio continuo dei risultati del sistema di AI oltre alla capacità di ignorare le decisioni dell’AI.
- la ricerca del bias algoritmico in relazione anche all’etichettatura di alcune variabili, come ad esempio l’implicita sovrastima di alcune università rispetto ad altre durante la valutazione dei curriculum non basate su oggettivi elementi di stima.
Risulta evidente come il bias dei sistemi di intelligenza artificiale sia argomento complesso, ma parimenti è necessario considerare gli eventuali “pregiudizi” come elemento da tenere in considerazione in vista di un utilizzo esteso di questi sistemi di apprendimento.
Sarà fondamentale che tali architetture informatiche dovranno necessariamente essere affidabili ed eque, nonché volte ad un reale beneficio dell’umanità nel suo complesso
- https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing ↩︎
- JTC, https://www.ncsc.org/~/media/Files/PDF/About%20Us/Committees/JTC/JTC%20Resource%20Bulletins/Courts%20Disrupted_final_5-9-2017.ashx ↩︎
- Consiglio d’Europa, https://www.coe.int/en/web/cepej/justice-of-the-future-predictive-justice-and-artificial-intelligence ↩︎
- London University, https://www.theguardian.com/technology/2016/oct/24/artificial-intelligence-judge-university-college-london-computer-scientists ↩︎
- http://home.hccnet.nl/a.d.reiling/html/180627%20AI%20and%20justice%20for%20CEPEJ.pdf ↩︎
- A. Jean, http://home.hccnet.nl/a.d.reiling/html/180627%20AI%20and%20justice%20for%20CEPEJ.pdf ↩︎
- J. Buolamwini, https://www.nytimes.com/2018/06/21/opinion/facial-analysis-technology-bias.html ↩︎
Articolo di di Giovanni Gambino | Senior Researcher | Centro Studi Europeo WG on Geopolitical, Strategic, Economic & Intelligence Analysis