Le sfide dell’intelligenza artificiale e il nostro modo di essere

Spendenbutton / Faire un don
Gender Law Newsletter FRI 2024#1, 01.03.2024 - Newsletter abonnieren

ITALIA E MONDO: INTELLIGENZA ARTIFICIALE

Negli ultimi mesi, in Italia sono usciti numerosi articoli nelle riviste di diritto online che censiamo, sul tema dell’intelligenza artificiale e il suo rapporto con il mondo della giustizia.

Nei numeri 1-2/2023 la rivista online giudicedonna.ch, come già la rivista genius di cui abbiamo riferito nella newsletter 2023#1, si è dedicata alle sfide dell’intelligenza artificiale: “Il focus di questi due numeri tocca un tema che va oltre la riflessione tecnico giuridica. L’intelligenza artificiale interroga, come ci indicano i filosofi del diritto che hanno contribuito alla sua realizzazione, in primo luogo il nostro modo di essere, in senso antropologico e forse etologico.” (dalla presentazione di Maria Acierno).
Marilisa D’Amico e Costanza Nardocci in Le sfide dell’intelligenza artificiale:
dai “rischi” alle proposte di regolamentazione segnalano il rischio di immagazzinare stereotipi di genere e riflettono sul legame tra linguaggio e intelligenza artificiale e auspicano un’analisi attenta “di come l’intelligenza artificiale individua, seleziona, sceglie ed impiega la parola; in seconda istanza, di come le tecniche automatizzate possono essere manipolate per correggerne distorsioni in violazione del principio dell’eguaglianza di genere.” Quanto alle implicazioni dell’IA sui diritti umani, riferiscono della bozza del Consiglio d’Europa di una Convention on Artificial Intelligence, Human Rights, Democracy and the Rule of Law. Auspicano infine “che le istituzioni, anzitutto quelle europee, riescano a mettere a punto un testo che si dimostri capace, da un lato, di contenere i rischi di un utilizzo incontrollato della tecnologia, dall’altro di valorizzarne le potenzialità in linea con la loro ratio originaria, cioè quella di offrire uno strumento di supporto e di ausilio per la persona”.
Luisa Avitabile in Diritto e IA, una riflessione, si chiede: “Cosa può fare il giurista di fronte ad una società dromocratica influenzata dal virtuale? Oggi non solo il giurista e il filosofo, che avvertono i rischi di una virtualità/realtà dominati da datacrazia e dromocrazia, dovrebbero sentire il dovere di un’apertura alla terzietà e all’universalità della ratio iuris, non unicamente per l’individuazione di nuovi diritti fondamentali, ma per non rischiare che lo spazio proprio dell’autonomia del diritto venga di fatto occupato da sedicenti algoritmi che, in realtà, nascondono la vecchia ambizione di dominio, tipica dell’assolutizzazione del potere ‘oligarchico’.”
Erica Palmerini dedica il suo contributo a Decisioni algoritmiche e protezione dei dati e conclude che occorre “definire uno standard di qualità nella predisposizione della collezione di dati e nella progettazione dell’algoritmo che sia sostenibile per le imprese private e tuttavia improntato a un rigore che il regolatore considera adeguato al contesto di impiego. In relazione a tale profilo, anche per quanto già detto con riguardo alla definizione dei sistemi ad alto rischio, l’approccio dell’AI Act non sembra ancora del tutto compiuto.”
Giulia Merlo scrive delLe nuove tecnologie a servizio del processo: ragiona sulla giustizia predittiva. IA può essere utile strumento, ma poi non tutti i casi sono uguali. Alla Corte d’Appello di Venezia per esempio, “Sotto la guida della Procuratrice generale Ines Marini, dal 2017 la Corte ha sviluppato un sistema di giurisprudenza predittiva, grazie alla collaborazione con l’Università Cà Foscari, con lo scopo di rendere prevedibili le decisioni e di ridurre, al contempo, la domanda di giustizia.” Ma “L’intelligenza artificiale considera la risposta migliore sulla base del grado di correlazione con i precedenti. Ogni avvocato sa che, spesso, la difesa migliore è quella “creativa”, che è in grado di operare dei distinguo”. La sfida contro le discriminazioni di genere rimane aperta, perché vi è il rischio che l’IA, che si basa su dati e stereotipi del passato, le perpetui.
Allo stesso tema è dedicato il contributo di Claudio Castelli, Promesse e possibili mistificazioni della giustizia predittiva, che conclude: “Non dobbiamo cedere ai computer, dobbiamo utilizzarli come ausilio alla nostra irrinunciabile umanità.”
Il contributo di Donatella Salari è dedicato all’AI tra inganni, omologazione e protezione dei dati personali, perché “L’Ai fa paura un po’ a tutti: politici, consumatori, sceneggiatori, attori e attrici, semplici utenti delle piattaforme digitali, mercati”.
Costanza Corridori infine, scrive de Il fenomeno del deep-fake e il diritto penale tra tutela dell’immagine e autodeterminazione sessuale.

Problemi di discriminazione si presentano non solo in rapporto al genere, ma anche in ambiti etnico-razziali. L’Associazione per gli studi giuridici sull’immigrazione ASGI ha quindi proposto un momento di formazione pubblica con Gianclaudio Malgieri, Leila Belhadj Mohamed e Manuela Monti per riflettere e studiare Intelligenza Artificiale, algoritmi, machine learning, bias, i loro potenziali effetti discriminatori ed eventuali strumenti di tutela. Il Video di questa formazione è in rete: Formazione sull’intelligenza artificiale, algoritmi e discriminazioni etnico-razziali.

L’Associazione italiana dei Costituzionalisti dedica diversi contributi alla tematica nella sua lettera 12/2023 - Libertà di ricerca e intelligenza artificiale. Massimo Luciani nella lettera introduttiva sottopone alla comunità dei costituzionalisti alcuni interrogativi con cui si confrontano poi Maria Romana Allegri, Gian Luca Conti e Francesco Cirillo:
L’AI, oltre che un possibile fattore di progresso personale e sociale, è anche un potenziale fattore di rischio? È opportuno che il diritto regoli non solo le applicazioni tecniche della ricerca scientifica, ma anche, direttamente, quest’ultima? È possibile che il diritto regoli la ricerca scientifica? Qualora si rispondesse affermativamente ai quesiti sulla opportunità e sulla possibilità della regolazione, sarebbe possibile identificare almeno i confini estremi della ricerca scientifica, vietandola nei casi in cui il suo senso sociale fosse a priori irrintracciabile? l quesito che precede tocca il tema di ciò che la ricerca non dovrebbe fare, ma è possibile identificare qualcosa che la ricerca dovrebbe fare e che il diritto potrebbe prescrivere o almeno incentivare? Quali potrebbero essere gli istituti giuridici che il diritto potrebbe utilizzare? A fronte di queste difficoltà è giocoforza che il diritto si accontenti di disciplinare, più che la ricerca in sé, le sue applicazioni?
Un’altra lettera, sempre sul sito dell’AIC, è dedicata ad una riflessione su Robotica e diritti del lavoratore, di Massimo Cavino, attorno agli esoscheletri: apparati di “robotica indossabile”. “Cosa vuol dire essere umani nel mondo dominato dalla tecnologia? La conciliazione tra esigenze della produzione e benessere del lavoratore non può essere raggiunta con un ripensamento dei cicli produttivi piuttosto che con un ripensamento della sua dimensione personale?”

In der Schweiz hat humanrights.ch diese Tage einen Beitrag zum Thema veröffentlicht und dazu, was die Schweizer Politik gegen algorithmische Diskriminierungen und zum Schutz davor unternimmt (oder eben nicht): «Algorithmische und KI-basierte Systeme werden sowohl von Behörden als auch von Unternehmen immer häufiger eingesetzt – unter anderem auch, um Prognosen zu erstellen, Empfehlungen zu geben oder Entscheide zu fällen. Ihr Einsatz kann allerdings zu Diskriminierungen führen. Das heutige Diskriminierungsverbot in der Schweiz reicht nicht aus und muss verbessert werden, um vor algorithmischen Diskriminierungen zu schützen.» Direkter Zugang zum Beitrag mit verschiedenen Links: humanrights.ch