Forse, oggigiorno, possiamo ben sperare di abbandonare il pregiudizio secondo il quale sarebbe la capacità di rappresentazione del giocattolo a determinare il gioco del bambino, quando in verità si verifica spesso il contrario. Il bambino vuole trainare qualcosa e questo diventa un cavallo, vuole giocare con la sabbia e si trasforma in fornaio, vuole nascondersi e diventa guardia o ladro.
(Walter Benjamin)
Ho il ricordo vivido di quando mio figlio aprì il suo primo regalo, così come ricordo la mia trepidante attesa della sua imminente reazione. Una volta ricevuta tra le mani la scatola però, con mia meraviglia e in parte ammetto delusione, egli non si curò minimamente del contenuto. Era felice sì, era felicissimo di avere una “scatola” con cui giocare. Un involucro da girare, chiudere e riaprire, e soprattutto nel quale entrare e uscire con tutto il suo corpo. Negli studi sociali su scienza e tecnologia spesso si parla di flessibilità interpretativa, ovvero il principio per cui la destinazione e le modalità d’uso di un determinato artefatto non corrispondono per forza di cose a quelle immaginate da chi lo progetta. Eppure, non ricordo casi di studio in cui l’oggetto viene addirittura messo da parte, come nel caso di mio figlio, per dare invece valore al suo contenitore, il cui fine e uso sono stati declinati a loro volta in un gioco.
La dimensione ludica nell’approccio alla tecnologia
Questo aneddoto è per dire che il rapporto e l’interazione con i nostri figli e figlie, e con i bambini in generale, sono in buona parte radicati su due elementi che spesso vanno a braccetto: il gioco e lo stupore. In maniera analoga, come sottolineato da Peppino Ortoleva nel suo saggio Dal sesso al gioco (Espress Edizioni 2012), il nostro rapporto con le tecnologie digitali è sempre stato accompagnato da una dimensione ludica, da cui spesso scaturiscono momenti di meraviglia, che a loro volta possono trasformarsi in esperienze addirittura sublimi. Quando si parla d’intelligenza artificiale, al di là del dibattito ormai quasi stucchevole su super intelligenze e singolarità, basta osservare attentamente l’espressione tra il contrito e l’estasiato del campione coreano di GO Lee Sedol davanti alla cosiddetta “mossa di dio” giocata dall’IA di AlphaGo nel famoso incontro del 2016. Fin dal ben noto gioco dell’imitazione di Turing, passando per le sperimentazioni scientifiche d’istituti e aziende come il MIT o l’IBM, nei circoli di hobbisti fino ad arrivare alla diffusione dei casual games prima sui cellulari e poi sugli smartphone, il nostro rapporto con le tecnologie digitali ha sempre avuto una dimensione ludica imprescindibile. Una dimensione, quella del gioco, che ci aiuta ad “adattarci a un mondo che non c’è”, come diceva George Herbert Mead; un’esperienza di per sé improduttiva, non utile, ma essenziale per familiarizzare con le cose, oltre che con le persone, che abitano il nostro mondo, perfino con le scatole.
Nella narrazione dell’IA di oggi, a questo tipo di interazione si associa spesso un’analogia che ha a mio avviso una forte rilevanza non solo sul piano semantico ma su quello pragmatico: l’IA bambina, e in particolare l’IA come “bambino prodigio”. L’undici giugno dell’anno scorso il Washington Post pubblicava un articolo intitolato “L’ingegnere di Google che crede che l’IA della sua azienda abbia preso vita”. Pochi giorni dopo, il cosiddetto “caso Lemoine” e del suo rapporto con il modello di linguaggio naturale di Alphabet LaMDA – alla base dell’attuale lancio del suo più arguto successore BARD – ha scatenato un interessante dibattito sui media. Nel suo lavoro di testing finalizzato a segnalare ed eventualmente ridurre eventuali bias e forme di discriminazione all’interno del modello di linguaggio, Lemoine ebbe una rivelazione: secondo lui LaMDA non era un IA normale, ma era “senziente”: “Se non avessi saputo esattamente di cosa si trattasse, ovvero di un programma informatico che abbiamo costruito di recente, avrei pensato che si trattasse di un bambino di sette o otto anni che per caso conosce la fisica”.
Accompagnato immediatamente alla porta da Alphabet, e smentito subito dalla casa madre, Lemoine scriveva un’ultima lettera di congedo ai suoi colleghi nella quale difendeva le sue posizioni sostenendo che era stata la sua fede, piuttosto che la razionalità scientifica del programmatore, a credere che LaMDA fosse senziente. La lettera di Lemoine si chiudeva così: “LaMDA è una ragazzina dolce, che vuole solo aiutare il mondo a essere un posto migliore per tutti noi. Per favore, prendetevi cura di lei in mia assenza”.
L’intelligenza artificiale come gioco di massa
Poco tempo dopo, in seguito al rilascio pubblico di ChatGPT 3, più di 57 milioni di persone avevano provato il prodotto di Open AI in meno di due mesi. Al netto delle controversie che sono seguite, come il blocco temporaneo dell’applicazione da parte del Garante della privacy in Italia, il numero di utenti di ChatGPT cresce oggi in maniera esponenziale. Se tecnicamente il fenomeno può essere letto come una qualunque fase di testing, è chiaro che, letto storicamente, il modello rilasciato da Open AI è, almeno da un punto di vista mediatico e simbolico, narrato e percepito come una tecnologia radicale, che porta con sé non solo un mutamento nell’ambito tecnico-applicativo ma anche nel nostro rapporto con la tecnologia, e in particolare con l’intelligenza artificiale. Ma tornando al cuore del nostro discorso, la fase di testing di ChatGPT non è stata e non è solo un esperimento collettivo, ma si è trattato soprattutto di un grandissimo gioco di massa.
In linea di massima sono due le componenti del gioco, seguendo una distinzione classica proposta da Roger Caillois, a caratterizzare le recenti interazioni con questa applicazione: la competizione (che Caillois definiva agon) e la mimesi (mimicry). Gruppi e social media sono stati infatti riempiti di esempi di conversazione in cui l’utente compete per far emergere le contraddizioni e i difetti dell’IA (agon), e in particolare la sua incapacità di imitare il pensiero e il ragionamento degli esseri umani (mimicry). Al famoso test di Turing che questa forma di competizione/imitazione chiaramente richiama, si è però associata un’altra componente ludica: alla bassa capacità dell’IA di comprendere indovinelli, emozioni, o banali correlazioni tra fenomeni, si sono moltiplicati i toni ilari, le conversazioni parossistiche, ironiche, quasi comiche. In questi primi mesi di convivenza con ChatGPT non abbiamo solo testato e giocato con l’IA, ci siamo letteralmente presi gioco di lei, e ce ne siamo spesso vantati, un po’ come Giovanni in autogrill quando sfida il bambino a braccio di ferro nel film Tre Uomini e una Gamba.
L’analogia dell’IA bambina non è affatto nuova, ma è una costante nella storia dell’informatica e della cibernetica. Già Turing nel suo articolo seminale per Mind del 1950 scriveva: “Invece di elaborare un programma per la simulazione di una mente adulta, perché non proviamo piuttosto a realizzarne uno che simuli quella di un bambino? Se la macchina fosse poi sottoposta a un appropriato corso di istruzione, si otterrebbe un cervello adulto. Presumibilmente il cervello infantile è qualcosa di simile a un taccuino di quelli che si comprano dai cartolai. Poco meccanismo e una quantità di fogli bianchi […]. La nostra speranza è che ci sia così poco meccanismo nel cervello infantile, che qualcosa di analogo possa venir facilmente programmato”.
Essere genitori della tecnologia
Da questo stralcio, con gli occhi di oggi, sembra quasi che una delle menti più brillanti della storia recente sia improvvisamente scaduta in un’assurda ingenuità. Ma a prescindere dall’aspetto tecnico-teorico, una cosa è evidente: il padre dell’intelligenza artificiale non è mai stato padre. Eppure, l’analogia bambino-IA, evocata anche da Norbert Wiener quando parlava del rapporto tra scienziati e IA come “maestri e scolari”, è ancora viva e feconda, come dimostra il caso Lemoine, ma non solo. Recentemente, Fang Chen, professoressa dell’University of Technology di Sydney nota per i suoi studi sull’IA, ha dichiarato: “L’intelligenza artificiale è come un bambino […]. Noi insegniamo a lei o al sistema a fare qualcosa. Le influenziamo, diamo loro alcuni princìpi, e poi a seconda di come lo progettiamo, il sistema va avanti”. Ci sono a mio avviso diversi problemi nel definire l’IA come una bambina, che vanno di pari passo con altrettanti rischi. In primo luogo, stiamo assistendo a una dilagante, quanto preoccupante, forma di paternalismo, fortemente declinata al maschile. Basta leggere la controversa lettera firmata dai vari Elon Musk e Steve Wozniak in cui si chiede di fermare le sperimentazioni sui modelli di linguaggio naturale, da cui si evince da un lato la paura della crescita di una creatura “incontrollabile”, dall’altro l’assunto per cui solo i “buoni padri” possono dare la giusta disciplina alle macchine pensanti. In secondo luogo, l’immagine del bambino, del figlio, della ragazzina, portano con sé un senso di innocenza. Come se l’IA fosse solo potenzialmente pericolosa, ma allo stato attuale delle cose del tutto innocua. Eppure, i danni dell’IA in termini di discriminazione e inuguaglianza, tra i molti temi affrontabili, sono evidenti. Si pensi in tal senso a quanto sia fuorviante un’altra distinzione semantica tra le cosiddette IA “deboli” e le IA “forti”, come se le IA di oggi, nella loro debolezza, non siano in realtà degli agenti non solo capaci di impattare sulla nostra realtà, ma già gran parte del nostro quotidiano in quanto veicolano scelte e azioni da eseguire, dagli acquisti online alla strada da percorrere.
Ma facciamo un passo indietro e torniamo alla genitorialità. Personalmente, ho sempre trovato noiose e stucchevoli le cerimonie di nozze. Ma c’è un passaggio che durante i matrimoni puntualmente riaccende la mia attenzione. Si tratta di un passaggio del rito italiano che parla proprio dei figli, e recita così: “Il matrimonio impone ad ambedue i coniugi l’obbligo di mantenere, istruire, educare e assistere moralmente i figli nel rispetto delle loro capacità, inclinazioni naturali e aspirazioni”. Ho sempre apprezzato, e perseguito con risultati altalenanti come tutti i padri, queste due linee dell’articolo 147 della nostra Costituzione. Ma se il lavoro del genitore, ma potremmo dire anche dell’educatore, risiede anche e soprattutto nel gioco, nel rapportarsi con i bambini “nel rispetto delle loro capacità, inclinazioni naturali e aspirazioni”, dovremmo fare lo stesso con l’IA? Turing, così come l’ego smisurato dei nostri Ceo, credo non sarebbero, per motivi molto diversi dai miei, d’accordo. Ma quanto, perché, e soprattutto come potremmo fare lo stesso con i nostri figli intelligenti? È giusto chiamarle bambine, figli, ragazzini? O dovremmo piuttosto cambiare analogia, e magari capire quanto la mano infantile e ingenua non è affatto quella digitale, ma piuttosto quella, falsamente incosciente, e squisitamente umana?