L’articolo qui proposto, nella sua forma integrale, è apparso domenica 1° agosto sul sito de Il Sole 24 Ore, che ringraziamo per la gentile concessione. Frank Pasquale è l’autore di Le nuove leggi della robotica Difendere la competenza umana nell’era dell’intelligenza artificiale.

__________________________________________________________

I rischi posti dalle nuove applicazioni dell’Intelligenza Artificiale (AI) sono ormai molteplici: dalla violazione della privacy alla discriminazione, dalla manipolazione mentale al rischio di danni fisici, psicologici o economici. È del 5 luglio il provvedimento del Garante Privacy italiano che sanziona la società Glovo per l’utilizzo di un sistema AI potenzialmente discriminatorio e oscuro impiegato nel suo servizio di consegna a domicilio. Per fare ulteriori esempi, i sistemi AI possono non solo identificare il volto di un soggetto in una folla, ma anche riconoscerne le emozioni e addirittura classificarlo in base a caratteristiche personalissime e sensibili. Ne sono prova alcuni discutibili studi recenti che sono riusciti a identificare l’orientamento sessuale o anche la propensione al crimine a partire da caratteristiche facciali. Altrettanto preoccupante è un recente progetto di ricerca cinese sul riconoscimento emozionale nella minoranza degli Uiguri: i soggetti sono obbligati a testare l’algoritmo sottoponendosi a test forzati.

Alcuni algoritmi possono addirittura predire le capacità e l’affidabilità dei candidati per una posizione lavorativa, basandosi semplicemente su video-interviste. Tecnologie simili potrebbero presto essere utilizzate nelle scuole per predire il livello di attenzione ed educazione degli studenti. Inoltre, le società di tecnologia finanziaria (fintech) prevedono di usare i social media e altri dati per stabilire le condizioni e i tassi d’interesse dei mutui. Sistemi AI complessi sono già usati in diverse parti del mondo per le auto a guida autonoma, per le diagnosi mediche, per cani poliziotti robotici e addirittura per le armi “intelligenti”. Peraltro, anche i più comuni sistemi AI – come quelli impiegati nelle app per la consegna a domicilio – possono essere discriminatori 

Tutto ciò può portare a scenari distopici, come il sistema di social scoring adottato dalla Cina, in cui un algoritmo può classificare i cittadini in base a quanto rispettano le regole e a quanto mostrano obbedienza (online e offline) verso il partito. Altri rischi, ben più concreti, sono la discriminazione sul luogo di lavoro in base al sesso o all’orientamento sessuale o a danno di determinate minoranze sociali in contesti di polizia predittiva. Il controllo delle emozioni da parte di sistemi AI, peraltro, può portare alla manipolazione comportamentale di bambini, anziani o altri consumatori, sfruttandone le vulnerabilità cognitive e inducendoli a scelte commerciali indesiderate. Allo stesso tempo, questi sistemi automatizzati sono spesso opachi e pertanto difficili da contestare.

Si tratta, com’è chiaro, di una sfida globale e avrebbe poco senso affrontarla all’interno degli stretti confini nazionali. Ecco perché sia l’Unione Europea che gli USA si stanno muovendo – in parallelo, ma con approcci molto diversi – nella direzione di una regolamentazione delle applicazioni AI “ad alto rischio”.

Lo scorso 21 aprile la Commissione Europea ha pubblicato una nuova proposta di Regolamento dell’intelligenza artificiale, che ora dovrà essere discussa e approvata dal Consiglio e dal Parlamento Europeo. La proposta introduce regole, proporzionali al livello di rischio, per prodotti e servizi basati sull’AI. Pur non prevedendo nessun nuovo diritto individuale per i consumatori/cittadini, il regolamento propone ambiziosi obiettivi di correttezza, sicurezza e trasparenza per le applicazioni AI.

Il quadro proposto dalla Commissione si basa su diversi livelli di rischio: alcuni sistemi di AI sono considerati a rischio intollerabile e sono pertanto proibiti. Si tratta delle pratiche online di manipolazione cognitiva che causano danni fisici o psicologici o sfruttano la vulnerabilità dovuta all’età o alla disabilità. Sono anche vietati i sistemi di valutazione sociale dei cittadini che possono produrre effetti dannosi sproporzionati o fuori contesto, nonché i sistemi di identificazione facciale usati indiscriminatamente dalle forze dell’ordine in luoghi aperti.

Altri sistemi AI sono considerati ad alto rischio (incluso il riconoscimento facciale, o l’AI usata in infrastrutture critiche, in contesti di educazione, valutazione dei lavoratori, emergenza, assistenza sociale, valutazione del credito, o l’AI usata da parte delle forze dell’ordine, della polizia di frontiera e dei tribunali). I fornitori e gli utilizzatori di tali sistemi AI dovranno effettuare una valutazione dei rischi e assicurare la sorveglianza umana nello sviluppo dell’algoritmo per garantirne la modificabilità e la comprensibilità. Dovranno, inoltre, preparare un adeguato piano di gestione dei dati, colmando eventuali lacune, prevenendo qualsiasi pregiudizio (“bias”) intrinseco all’algoritmo e contestualizzando il sistema AI nella specifica realtà socio-geografica in cui se ne prevede l’utilizzo.

Si tratta di una delle proposte legislative in merito più avanzate al mondo: indica passi concreti verso sistemi AI più equi, sicuri e affidabili, affrontando realisticamente alcune delle questioni più delicate in merito (comprensibilità del funzionamento dell’algoritmo, prevenzione di “bias” discriminatori, accuratezza dei risultati).

+
Questo prodotto ha più varianti. Le opzioni possono essere scelte nella pagina del prodotto
9,9920,00 IVA inclusa

Tuttavia, il testo lascia molti problemi aperti, come messo in luce da un recentissimo parere del Comitato Europeo per la Protezione dei Dati. In particolare, non prevede nuovi diritti individuali per consumatori/cittadini e non obbliga gli sviluppatori di AI a coinvolgere nella progettazione degli algoritmi i soggetti potenzialmente interessati. Inoltre, l’elenco delle pratiche AI proibite e l’elenco dei sistemi AI ad alto rischio potrebbero rivelarsi difficili da espandere: nell’attuale proposta i sistemi AI per il riconoscimento emozionale dei soggetti sono considerati ad alto rischio solo se utilizzati nelle attività di polizia. Per fare un altro esempio, la manipolazione commerciale online che produce danni solo economici ai consumatori non sarebbe né vietata né ad alto rischio. Peraltro, solo la Commissione Europea potrà aggiornare la lista dei sistemi AI ad alto rischio, cosa che può portare a una eccessiva rigidità del sistema.

Sappiamo tuttavia che, nonostante gli sforzi europei, la maggior parte dei servizi e prodotti AI non sono prodotti sul suolo europeo, ma soprattutto negli USA e in Cina. Anche se la proposta europea si applicherebbe a qualsiasi prodotto o servizio AI impiegato in UE (pur se sviluppato all’estero) e nonostante il Segretario USA alla Sicurezza Nazionale abbia salutato positivamente la proposta europea, dovremmo guardare anche alla legislazione d’oltreoceano per capire le concrete possibilità di ridurre i rischi dei sistemi AI.

Al netto delle suddette perplessità sulla proposta europea, questa si presenta di gran lunga più avanzata degli sforzi americani in materia: non solo negli USA manca una proposta federale organica per regolamentare i sistemi AI ad alto rischio, ma anche le frammentarie azioni in campo potrebbero essere poco efficaci.

Alla fine dell’anno scorso l’Ufficio gestione e budget dell’amministrazione Trump ha pubblicato delle linee guida che richiedevano alle agenzie federali di presentare entro il 17 Maggio 2021 un piano per regolare le aziende che usano l’AI. Tuttavia, ad oggi pare che nessuna agenzia federale abbia adempiuto a tale richiesta.

Tale tentativo para-regolatore dell’amministrazione Trump non aveva certo come obiettivo dichiarato la protezione dei diritti fondamentali dei cittadini, ma soltanto la “riduzione delle barriere allo sviluppo e all’uso dell’AI”. I pochi principi esposti in quelle linee guida – come ad esempio l’accuratezza, la sicurezza, e l’affidabilità degli algoritmi – rimangono dichiarazioni generiche, senza alcuna concreta indicazione su come si possano implementare in pratica.

Una proposta più matura e concreta è ora in discussione nello Stato della California (tentativi analoghi si registrano anche nello Stato del Washington). Il Parlamento californiano sta infatti in queste settimane discutendo una nuova legge per la regolamentazione dei sistemi AI, ma solo di quelli usati nell’ambito pubblico. La proposta ricalca il modello canadese per cui la pubblica amministrazione deve valutare l’impatto degli algoritmi sui diritti e sugli interessi dei cittadini. Essa imporrebbe, inoltre, alle grandi società tecnologiche che forniscono servizi e prodotti allo Stato di preparare un dettagliato piano per la gestione dei dati, rendere gli algoritmi spiegabili anche a un pubblico di non esperti e prevenire “bias” discriminatori.

Non sappiamo quando e se questa proposta di legge vedrà la luce, ma sarebbe in ogni caso limitata al settore pubblico e applicata alla sola California. La vera opportunità di stabilire regole più sostanziali e durature è nelle mani della nuova amministrazione Biden. Questa sfida non è soltanto necessaria, ma anche urgente. A breve potremmo avere a che fare con applicazioni AI che prendono decisioni di vita o di morte sull’assegnazione delle cure mediche, che guidano l’attività della polizia e influenzano l’accesso al credito.

Il vero progresso tecnologico sostenibile dipende dal rispetto dei diritti fondamentali, dalla garanzia della sicurezza e dal divieto di pratiche AI particolarmente rischiose per gli individui. L’UE sta ora gettando le basi per tale protezione, offrendo un modello che, nonostante i suoi limiti, appare solido e pragmatico. Anche se il regolamento UE non sarà mai ripreso alla lettera dagli USA, c’è molto da imparare dal suo approccio lungimirante.

Pubblicato in origine su https://www.ilsole24ore.com/ il 1 agosto 2021.

 In alto, foto di Photo by Michael Dziedzic – Unsplash 

 

Gianclaudio Malgieri & Frank Pasquale

Gianclaudio Malgieri è Professore Associato di Diritto e Tecnologia presso l’Augmented Law Institute della EDHEC Business School (Lille) e presso la Vrije Universiteit Brussels.

Frank Pasquale è Professore di Diritto presso la Brooklyn Law School, autore di best-seller in ambito tecnologico, come The Black Box Society (Harvard University Press, 2015) e The New Law of Robotics (Harvard University Press, 2020, tradotto in italiano da Luiss University Press, 2021).