Proponiamo un estratto del volume Le nuove leggi della robotica. Frank Pasquale, tra i maggiori esperti al mondo in materia di regolamentazione delle nuove tecnologie, presenta le nuove leggi che dovranno essere applicate affinché la rivoluzione digitale, con le straordinarie possibilità di crescita e sviluppo che comporta, non si trasformi in una trappola per la nostra specie.

__________________________________________________________

La medicina immagina la AI in due modi. Il primo è utopistico, degno di un romanzo di fantascienza. I robot medici individueranno e cureranno all’istante ogni malattia. I nanobot ci pattuglieranno vene e arterie, eliminando le ostruzioni e riparando i tessuti danneggiati. Organi, ossa e pelle stampati in 3D ci consentiranno di sembrare giovani e in salute anche a ottanta o novant’anni. Con un po’ di fortuna, potremo caricare i nostri cervelli in corpi robotici, per farli vivere in eterno. Comunque possa andare a lungo termine, questa visione fantascientifica è lontanissima e forse irrealizzabile.

Ci sono futurologi più realistici, ma comunque ambiziosi, che seguono una visione più fattibile. Si rendono conto del ruolo chiave dell’empatia umana nel settore medico, del contributo dell’intuito alle diagnosi e dell’importanza della destrezza dei chirurghi. Aderiscono pertanto alla prima nuova legge della robotica, che auspica un futuro nel quale la AI aiuti (e non sostituisca) medici e infermieri. Visto lo stato attuale di dati e tecnologia, si tratta di una scelta saggia. Sfortunatamente, anche molti realisti cadono in errore quando si tratta di leggi e politica, vedendo il sistema sanitario dal punto di vista economico, preoccupandosi dei costi e delle possibili inefficienze. Invocano la deregulation per incentivare l’innovazione e i limiti di bilancio per forzare i tagli alle spese.

Quel che ci serve davvero in termini di politica sanitario- tecnologica è una maggiore responsabilità nella raccolta e nell’uso dei dati, non una deregolamentazione. Dobbiamo investire in pratiche sanitarie all’avanguardia, senza presumere che ospedali e medici troveranno nuovi geniali sistemi per operare meglio con meno fondi.

Gli scrittori di fantascienza sognano un giorno in cui una combinazione di app e robot si potrà prendere cura dei nostri problemi di salute, ma non è questa la strada percorsa dagli attuali progressi tecnologici, né i politici dovrebbero ambire a un tale obiettivo. Non possiamo prescindere dalla presenza umana nella sanità, se abbiamo a cuore gli interessi della medicina e l’aspetto psicologico dei malati.

Gli imperativi dell’economia spingono ospedali e compagnie assicurative a sostituire i terapisti con qualche software e l’attenzione degli infermieri con i robot, ma le associazioni di professionisti devono fare in modo che non si smetta mai di considerare il valore del coinvolgimento diretto delle persone.

Decidere quando cercare assistenza medica

Immaginate di svegliarvi con un fortissimo dolore allo stomaco. Si tratta di appendicite? È uno strappo muscolare? Il mal di stomaco è una delle diagnosi più ardue anche per i medici più esperti di pronto soccorso, in quanto può essere sintomo di decine di patologie, tanto di poco conto quanto possibilmente letali. Anche in presenza di un minimo rischio, meglio recarsi in ospedale a chiedere il consiglio di un professionista. Una decisione semplice, se si è ricchi o dotati di una buona assicurazione, ma per gli altri cercare aiuto potrebbe rivelarsi una tragedia. Nei Paesi in via di sviluppo, le parcelle mediche possono minacciare perfino le necessità di base di una famiglia.

Negli USA, milioni di persone non sono assicurate o hanno coperture assicurative molto limitate. Una sola visita al pronto soccorso può costare più di 10.000 dollari; perfino un falso allarme può costringere a sborsare migliaia di dollari, tenendo conto di test, parcelle e altre spese. Persino chi ha un’assicurazione adeguata e molti risparmi rischia grosso andando all’ospedale, tra test superflui, esposizione a virus e ore di stress.

Per molti, il primo riferimento in caso di sintomi improvvisi è Google. Per anni su Google le ricerche mediche – quelle che ci fa fare un dolore nel cuore della notte – non sono state diverse dalle altre. Bastava sufficiente “Google juice” (quel mix misterioso di importanza e autorevolezza che manda i contenuti in cima ai risultati delle ricerche) e siti poco affidabili si mescolavano alle informazioni di dottori e scuole di medicina di alto livello. Spettava agli utenti di Google separare il grano dal loglio e capire quanto un sito fosse credibile.

A partire dal 2016, l’azienda ha invertito l’approccio. Ha cominciato a collaborare con gli esperti della Mayo Clinic per valutare le informazioni che apparivano nelle ricerche mediche più frequenti.

Se digitiamo “mal di testa laterale”, sopra o accanto a una lista standard di risultati apparirà una serie di box che descriveranno sinteticamente una possibile classificazione dei tipi di mal di testa. Scegliendone uno (per esempio, “mal di testa da tensione”), si aprirà un altro box riconducibile allo stesso Google, che descriverà se si tratta di una condizione comune, la sua diffusione tra i vari gruppi e i possibili interventi medici.

Questi nuovi risultati di Google sono un segnale rassicurante per quanto riguarda l’uso della AI nel settore sanitario, perché ci mostrano un’azienda che non vuole sostituire l’esperienza dei medici con algoritmi e big data, ma preferisce contattare professionisti in nome di un approccio strutturato all’informazione medica e alla salute in generale. In modo simile, IBM ha cambiato il marketing del suo sistema Watson in ambito medico e giuridico, presentandolo come un aiutante e non come un sostituto dei dottori.

Nel 2017, ho parlato con un rappresentante del team Watson di IBM, che mi ha spiegato come volessero promuovere un’intelligenza aumentata e non artificiale. Anche le aziende che avrebbero maggiormente da guadagnare dalle AI propendono per la IA, pertanto presto gli strumenti di diagnosi totalmente automatizzati potrebbero sembrarci più anacronistici che futuristici. Ci sarà sempre un posto per gli esperti settoriali incaricati di valutare l’accuratezza dei consigli delle AI e verificare il loro funzionamento nel mondo reale.

La competenza principale della AI: evitare gli errori comuni

I medici sono esperti nel riconoscimento degli schemi. Ci aspettiamo che un dermatologo ci sappia dire se un neo è maligno o non è nulla di preoccupante; ci sottoponiamo a colonscopie per consentire ai gastroenterologi di individuare (e rimuovere) eventuali polipi. Eppure anche il miglior dottore può sbagliare e un medico comune può essere annoiato o distrarsi in un momento decisivo. Grazie alla AI, possiamo ridurre notevolmente errori simili, salvando migliaia di vite l’anno.

E ciò è possibile grazie a quantità enormi di dati. Un database potrebbe per esempio catalogare immagini di milioni di diverse anomalie poi divenute cancerose e di milioni poi rivelatesi benigne.

Proprio come cerchiamo un sito su Google, così potremmo servirci di un computer per confrontare in un lampo immagini del nostro colon o della nostra pelle con quelle contenute nel database. Idealmente, le macchine potrebbero riuscire a individuare i “gemelli digitali cattivi”, sventando la minaccia di tessuti che si sono rivelati pericolosi già in passato.

La visione della macchina, in grado di rilevare il pericolo dove anche un esperto specialista potrebbe sbagliare, è diversa dalla nostra. Per comprendere il machine learning può esserci utile pensare a come i computer abbiano imparato a riconoscere volti e interpretare i numeri.

Quando un programma di riconoscimento facciale identifica con successo un’immagine come la raffigurazione di una data persona, tale “abbinamento” (match) è conseguenza del confronto dell’immagine presa in esame con le altre già presenti nel database, magari in una griglia da 1000 per 1000 pixel. Ogni posizione sulla griglia può essere identificata come pelle o non pelle, liscia o non liscia e secondo una serie di centinaia o migliaia di altre scelte binarie, molte delle quali non discernibili dall’occhio umano. E le macchine possono percepire molto di più di questo.

Le immagini mediche potrebbero incorporare anche dati di vario tipo per ogni pixel o voxel (pixel 3D), mappando quel che possiamo percepire con orecchie, naso o mani.

9,9920,00 IVA inclusa

Il riconoscimento tramite schemi sottoposti alla visione delle macchine inizialmente è stato sfruttato dalle banche, alle quali serviva un sistema per riconoscere i numeri sugli assegni (vista la grande varietà delle grafie umane). Grazie alla giusta quantità di esempi e a computer adeguati, questo tipo di riconoscimento è divenuto quasi perfetto. La visione delle macchine è pertanto “sovrumana” quando si tratta di “ingerire” dati e confrontarli con milioni di altre immagini.

Un dermatologo potrebbe usare un metodo euristico per diagnosticare un melanoma (come il metodo, ABCDE: Asimmetria, Bordi irregolari, Colore diverso, Diametro più ampio, Evoluzione) o le sue esperienze passate con nei cancerosi o no. Una AI abbastanza avanzata può controllare i parametri ABCDE confrontandoli con altri nei con precisione stupefacente, a patto che i dati siano accurati. Con il miglioramento dei sensori, la AI potrebbe trovare sistemi inaspettati per capire cosa distingue nei benigni e maligni.

La visione delle macchine ha però anche aspetti “subumani” e talvolta si rivela sorprendentemente fragile. In medicina, viene infatti oggi usata soprattutto come narrow AI (“intelligenza artificiale debole”) e dunque indirizzata su un solo compito ben definito. La narrow AI per rilevare i polipi, per esempio, potrebbe “vedere” un polipo invisibile a qualunque gastroenterologo, ma allo stesso tempo potrebbe non riconoscere altre anomalie che non è stata addestrata a riconoscere.

Medici e AI sono più efficaci se lavorano insieme.

I medici si formano per anni, ma la conoscenza medica non smette mai di progredire. Non è più umanamente possibile memorizzare ogni potenziale interazione farmacologica, in particolare nei casi più complessi, con pazienti che assumono venti o più medicinali.

Per evitare risultati indesiderati, ci si può affidare ai farmacisti, ma anche loro possono non accorgersi di problemi inusuali.

Il Clinical decision support software (CDSS), integrato nei registri sanitari elettronici, è una forma elementare di AI che può aiutare i medici a evitare conseguenze nefaste. Il CDSS “monitora e avvisa i medici specialisti delle condizioni del paziente, delle sue prescrizioni e dei trattamenti che ha subito, al fine di offrire suggerimenti clinici fondati”.

Già è stato provato che il CDSS riduce gli errori. Anche in un’area così ristretta, programmatori, manager e ingegneri non si sono però limitati a imporre l’uso del CDSS. La legge, con tanto di sovvenzioni governative, ha dato un grosso contributo alla sua diffusione.

Il CDSS è stato adottato per scongiurare cause per negligenza (contro i medici) o responsabilità aziendale (contro gli ospedali); i tribunali hanno però sancito che il giudizio dei professionisti non può essere automatizzato e sono riluttanti a rendere perseguibile automaticamente chi non segue i consigli della macchina in presenza di buoni motivi per non farlo.

Per assicurarsi che i pazienti possano sfruttare tutti i lati positivi della tecnologia saranno necessari continui aggiornamenti normativi, anche per evitare di sovraccaricare di informazioni medici e infermieri. Molti studiosi si sono già occupati del problema della alert fatigue (“stanchezza da allarme”). Gli esperti di interazione uomo-computer sono all’opera per fare in modo che ci sia un equilibrio migliore tra allarmi e avvisi dei problemi segnalati che possa risultare così meno invasivo.

Un software CDSS ideale non dovrebbe essere né soffocante né un osservatore inerte, ma potrà essere efficace solo adattandosi in continuazione, in modo che medici, infermieri e farmacisti apprezzino il suo utilizzo e possano sempre criticarlo e migliorarlo.

Dati, discriminazioni e disparità

Una AI approvata dagli umani dovrebbe diventare lo standard dell’assistenza medica al servizio di ogni paziente che necessiti di un trattamento. Il fatto che la tecnologia in generale sia un vantaggio non significa però che sia da utilizzare in ogni caso. C’è inoltre il rischio che la AI possa effettuare discriminazioni basandosi su dati difettosi.

È noto il caso di un risk score (“punteggio di rischio”) – utilizzato per prestare assistenza mirata a pazienti in condizioni di bisogno – che dava la priorità ai pazienti bianchi rispetto a quelli neri perché si serviva del costo delle cure per valutare la gravità della malattia. Ricevendo in genere un’assistenza più economica, gli afroamericani avevano, secondo l’algoritmo, meno bisogno di attenzioni mediche. I pericoli di indicatori del genere sono ben noti, ma la fretta di quantificare porta spesso a ignorarne o sottovalutarne i rischi.

Anche i bias possono avere un effetto negativo sulle diagnosi.

Medici e informatici si sono già detti preoccupati di come i software per individuare i melanomi possano funzionare male per le minoranze, che in genere sono meno rappresentate nei set di dati usati per tarare le macchine. Se una tale disparità ha un ruolo effettivo, il sistema legale si deve chiedere se sia il caso di portare gli standard di questi software ai livelli utilizzati per l’etnia prevalente. Bisogna fare in modo che siano disponibili dati più rappresentativi e che vengano effettivamente usati. In caso contrario, si rischia di rendere ancora più profonde le disparità.

Se gli enti normativi non riusciranno a fare un passo avanti, saranno i tribunali a decidere quando un determinato progetto (come quello per identificare i melanomi) avrà bisogno di ulteriori dati e quando invece questi dati saranno solo “un qualcosa in più” per chi può permettersi un’assistenza di primo livello. Le leggi sulla negligenza servono a rassicurare i pazienti che se i loro medici non si atterranno a un certo standard, verranno multati e una parte della cifra sarà utilizzata per le loro cure.

Nel caso i provider non usino insiemi di dati abbastanza rappresentativi nello sviluppo delle loro AI mediche, le cause legali potranno richiamarli alle loro responsabilità, facendo in modo che tutti possano usufruire dell’uso medico della AI e non solo i più fortunati che appartengono ai gruppi più spesso oggetto di studio.

I data scientist spesso dicono in modo scherzoso che la AI è solo una forma di statistica che gode di un marketing migliore. Di certo una AI debole, pensata per fare previsioni molto specifiche, si basa sulla quantificazione delle probabilità. Si tratta solo di uno dei molti passi compiuti negli ultimi due decenni per modernizzare la medicina basandosi su un uso maggiore di prove empiriche.

I ricercatori in ambito medico hanno utilizzato l’analisi predittiva, i big data, l’intelligenza artificiale, il machine learning e il deep learning (“apprendimento profondo”) come metafore chiave per l’ottimizzazione delle performance di sistema.

In ognuna di queste aree gli studi già effettuati possono aiutare gli enti normativi a identificare i dati problematici nella AI. Gli standard legali devono tenere conto però anche dei limiti della stessa AI, come la carenza di riproducibilità, la validità ristretta, le pretese esagerate e i dati poco chiari. L’idea di fondo è che la competenza primaria della AI – aiutare gli umani a evitare di sbagliare – deve essere responsabilità degli umani che creano quella AI. Questi ultimi devono assumersi le colpe di un uso errato di dati e metodi o altrimenti in futuro ci potremmo ritrovare a commettere gli stessi errori.

Molti attivisti fanno esempi di insiemi di dati problematici utilizzati in ambito medico. Per esempio, Caroline Criado Perez ha dimostrato che troppo spesso nella ricerca medica e in pedagogia si assume in modo automatico che il soggetto in esame sia maschio. Come osserva: “Le donne non sono uomini più piccoli: il corpo maschile e quello femminile sono differenti perfino a livello cellulare. […] E ci sono ancora molti altri gap da colmare sulla questione di genere”. La diffusione di studi come quello di Criado Perez rende ancora più imperdonabile la presenza di bias nei data set. Dobbiamo finanziare raccolte di dati di gran lunga migliori per fare in modo che la AI usata in campo medico sia più equa e inclusiva, e dobbiamo inoltre imporre a sviluppatori, medici e ospedali di utilizzarle.

Da Le nuove leggi della robotica di Frank Pasquale. In alto, l’illustrazione di copertina di Noma Bar

Frank Pasquale

Frank Pasquale

Frank Pasquale, tra i maggiori esperti al mondo in materia di regolamentazione delle nuove tecnologie, è professore alla Brooklyn Law School. Le nuove leggi della robotica è il suo primo libro tradotto in italiano.