Atti del convegno “L’algoritmo alla prova del caso concreto: stereotipi, serializzazione, discriminazione”


MONDO E ITALIA - ALGORITMI E INTELLIGENZA ARTIFICIALE

2022

Il FOCUS del no. 2022-1 della rivista GenIus - Rivista di studi giuridici sull’orientamento sessuale e l’identità di genere - affronta le sfide della crescente digitalizzazione per le professioni giuridiche, la discriminazione algoritmica, il rapporto tra diritto fatto dagli esseri umani per le persone e le teconologie le cui regole diventano esse stesse normative, il senso di impotenza …

Pubblica gli Atti del convegno “L’algoritmo alla prova del caso concreto: stereotipi, serializzazione, discriminazione” ospitato dall’Università di Ferrara in data 6.4.2022:

Maria Giulia Bernardini e Orsetta Giolo nella relazione introduttiva “L’algoritmo alla prova del caso concreto: stereotipi, serializzazione, discriminazione”, rilevano come anche per la sfera giuridica la realtà modificata dalle tecnologie informatiche ci pone davanti a sfide perlopiù inedite, sia concettuali che in relazione al ruolo dei professionisti del diritto. I contributi di questo FOCUS si concentrano sul “problema della possibile falsa neutralità ed obiettività dell’algoritmo, soprattutto laddove è utilizzato per la formulazione di decisioni che producono conseguenze rilevanti sulla vita delle persone, come quelle che interessano la sfera dell’amministrazione della giustizia, nelle sue diverse declinazioni”. Affrontano quindi il fenomeno della cosiddetta “discriminazione algoritmica” e l’elevato rischio di stereotipizzazione e serializzazione. L’obiettivo della digitalizzazione infatti “è quello di disporre di un diritto certo, chiaro, conoscibile e univoco, che possa essere interpretato ed applicato in modo omogeneo dai diversi uffici giudiziari.” Ma letto nel panorama della globalizzazione neoliberale, la giustizia “efficiente” – che ottimizza il nesso tra i costi e le procedure - non è necessariamente quella “accessibile”, tale da offrire a tutte le persone la possibilità concreta di agire in giudizio. Vi è anche un problema di gerarchizzazione delle persone: “La serializzazione, a ben vedere, è sempre stata la tecnica peculiare adottata dai soggetti dominanti per reprimere le soggettività altre.”
Nicola Lettieri, nel suo intervento “La discriminazione nell’era delle macchine intelligenti.”, presenta “Modelli possibili di analisi, critica e tutela”. “I meccanismi, le forme e le implicazioni dell’ingiustizia algoritmica sono difficili da identificare e comprendere nel loro concreto svolgersi e questo, come vedremo, per ragioni che vanno anche al di là della connotazione tecnologica del fenomeno. Un secondo ordine di problemi, poi, si colloca sul piano ordinamentale dove i rimedi giuridici tradizionali fanno fatica da soli a rispondere con la necessaria efficacia a processi rapidissimi, implementati da infrastrutture tecnologiche inaccessibili”. Sta quindi maturando la consapevolezza della necessità di human oversight, del controllo umano sui sistemi di decisione algoritmica, e di modelli di intelligenza artificiale di cui gli esseri umani possono comprendere le decisioni o le previsioni. Nell’ambito poi degli algoritmi che investono più soggetti, le cose si complicano: possono catalizzare i processi sociali e culturali che conducono a discriminazioni pur senza operare in maniera diretta delle discriminazioni. L’articolo presenta quindi alcune prospettive di ricerca per la comprensione del modus operandi dei sistemi di decisione algoritmica e per predisporre contromisure adeguate alla particolare natura delle interazioni che hanno luogo nella società digitalizzata.
Dolores Morondo Taramundi si confronta con Le sfide della discriminazione algoritmica”. “Le decisioni basate su algoritmi, come qualsiasi altra decisione, possono avere un impatto di vario tipo sui diritti umani e le libertà fondamentali. Rispetto alle decisioni distorte che gli esseri umani possono prendere da soli, le decisioni automatizzate e semiautomatizzate, in quanto basate su criteri discriminatori, pongono un problema di scala, poiché esse vengono prese molto più velocemente e applicate ad un numero maggiore di invidui: ciò riduce la probabilità di identificare e affrontare tempestivamente il problema, mentre il volume dei casi errati rende difficile esaminarli e correggerli. Gli algoritmi di apprendimento automatico possono anche discriminare su larga scala attraverso soluzioni che riproducono modelli di disuguaglianza incorporati nei dati da cui apprendono.” E’ quindi importante poter identificare cos’è la discriminazione algoritmica e come affrontarla. L’autrice riprende alcuni esempi di discriminazione algoritmica che hanno iniziato ad occupare anche i tribunali e diversi fattori che possono esserne all’origine (quali distorsioni, errori di sistema, complessità, opacità o “effetto scatola nera”, ecc.). E’ stato osservato che il rischio della discriminazione algoritmica non è tanto l’uso di criteri discriminatori in sé, ma “che diventi più “sottile”, più “granulare”, altamente intersezionale e superi ampiamento il numero limitato di categorie protette.” I dati con cui viene addestrato l’algoritmo “potrebbero non essere sufficientemente rappresentativi di alcuni gruppi”, oppure riflettere stereotipi e discriminazioni strutturali (ad esempio, i dati che riflettono la segregazione delle donne in diversi settori lavorativi e le disparità salariali). La discriminazione algoritmica sembra perciò più trattabile dal punto di vista della discriminazione indiretta, che si concentra cioè sugli effetti. Ma l’applicazione pratica pone una serie di problemi in relazione all’identificazione di gruppi. Vi è inoltre il rischio che la funzione predittiva degli algoritmi possa essere considerata giustificazione oggettiva. Nel Parlamento Europeo è perciò in discussione la Legge sull’Intelligenza Artificiale dell’Unione Europea che tenta di stabilire requisiti di trasparenza e un approccio basato sul rischio. Ma alcuni lavori indicano già i limiti di un simile approccio tecnocentrico che sembra tralasciare l’aspetto della discriminazione strutturale, anche se “big data potrebbero rappresentare anche opportunità e strumenti nella lotta alle discriminazioni e nella tutela dei diritti fondamentali.” E’ pertanto necessaria una “collaborazione interdisciplinare per generare soluzioni a un problema complesso come la discriminazione nel contesto dell’IA” nonché sviluppare un’adeguata politica pubblica antidiscriminatoria.
Stefano Pietropaoli in “Il dado e il cubo. Innocenza degli algoritmi e umane discriminazioni” riflette sullo sviluppo delle tecnologie informatiche da strumenti di supporto ad “attori” a cui vengono delegate alcune funzioni, e sull’essenza del diritto, creato dagli esseri umani e per gli esseri umani. “Se ammettiamo che un sistema di IA possa replicare il ragionamento umano, allora può anche replicare il ragionamento giuridico. Ma questo è sufficiente a renderlo capace di dare “giustizia”?”. “Se il giudice dev’essere terzo, imparziale, per poter decidere in maniera giusta (qualunque cosa ciò significhi), non si può pensare di sostituirlo con un automa, privo di passioni, e quindi incorruttibile e infallibile?” Per concludere: “In questo scenario dominato da un diffuso senso di impotenza e dalla quasi totale inconsapevolezza verso l’uso delle tecnologie digitali, dalla retorica della black box algoritmica – evocata spesso a proposito di una inspiegabilità di decisioni che sono invece spiegabilissime – e dal farsi la Tecnica un fine in sé e non un mezzo, il diritto è chiamato ad affrontare una sfida decisiva. Non si tratta di difendere una visione conservatrice del diritto, ma di preservare la cifra più riposta di un sapere che rischia di essere sacrificato sull’altare di una giustizia che, nel pretendere di farsi sovrumana, si rivelerebbe, invece, radicalmente disumana.”
Anche Serena Vantin presenta Alcune osservazioni su normatività e concetto di diritto tra intelligenza artificiale e algoritmizzazione del mondo” e offre “alcune riflessioni su normatività e concetto di diritto nel contesto della “rivoluzione digitale” in corso”, laddove la stessa realtà tecnica diventa regolatrice. Evidenzia “una serie di aporie concettuali e difetti costitutivi che rischiano di amplificare diseguaglianze, discriminazioni e svantaggi sociali e strutturali.” Le caratteristiche proprie della computazione fanno sì che “Chi si trova maggiormente esposto al rischio di discriminazioni avrà maggiori chance di essere ulteriormente discriminato, mentre, d’altro canto, si verifica una “secessione degli eccellenti”. “In questi termini, si potrebbe delineare una precisa ideologia celata dietro la presunta neutralità della crescente algoritmizzazione dei processi della vita”. Il mondo che noi stessi abbiamo inventato ed edificato, “con il trionfo della tecnica è diventato tanto smisurato, che in verità ha smesso di essere “nostro”, nostro in senso psicologicamente verificabile.” La complessità delle sfide etiche all’applicazione delle tecnologie sembra “ancora una volta superare ogni capacità di previsione o di immaginazione umana, e con essa ogni prospettiva di adeguata regolamentazione.”

Accesso diretto alla rivista, 2022-1: geniusreview.eu


Gender Law Newsletter 2023#01, 01.03.2023