di Maria Romana Allegri
Alcuni giorni fa, leggendo il giornale (ovviamente online dallo smartphone) mi sono imbattuta in un articolo riguardante una influencer americana di nome Caryn Marjorie che, utilizzando l’intelligenza artificiale, ha creato un avatar di se stessa (CarynAI), addestrato per replicare la sua personalità, il suo carattere e la sua voce, con cui i follower possono interagire pagando un dollaro al minuto.
La realizzazione di CarynAI è stata affidata a una società americana (Forever Voices) specializzata nel replicare personalità e voce di personaggi famosi con le ultime tecnologie AI e di sintesi vocale. L’dea è quella di creare una sorta di “fidanzata virtuale”, con la quale sia possibile instaurare un rapporto di intima confidenza, se non addirittura di amore. Lo slogan che accompagna il lancio di questo nuovo prodotto è il seguente: «Hai bisogno di qualcuno che ti ami e si prenda cura di te o semplicemente di una persona che ascolti come è andata la tua giornata? CarynAI sarà lì per te, pronta ad ascoltarti. Una conversazione nella quale non sarai condizionato da alcun limite». Incuriosita, ho cercato altri articoli sul medesimo argomento, scoprendo che esistono vari sistemi di AI, più o meno evoluti e sofisticati, che permettono di relazionarsi con “partners virtuali”. Fra questi, ad esempio, l’applicazione per smartphone Replika, che permette agli utenti di creare e personalizzare un avatar, per «avere un amico senza giudizi, problemi o ansia sociale» o «avere una connessione emotiva, condividere una risata o parlare di qualunque cosa». Oppure Xiaoice, un sistema di intelligenza artificiale sviluppato da Microsoft Asia, in grado di comprendere le emozioni delle persone con le quali si interfaccia, comportandosi di conseguenza: pare che per milioni di cinesi Xiaoice sia la “ragazza dei sogni”, con cui poter parlare anche di temi molto intimi, come la depressione, la malattia, il suicidio, la fine di una relazione o il sesso.
Alla lettura di queste notizie è fin troppo ovvio reagire con un misto di scetticismo (ma quanto potrà mai essere realistica la conversazione con un avatar?) e preoccupazione per il trattamento che subiranno le personali – anzi personalissime – informazioni rivelate confidenzialmente all’avatar nel corso di qualche conversazione intima e finite nelle mani di imprese commerciali o – ancor più grave – di esponenti politici o decisori pubblici che mirano a parlare “alla pancia” del popolo. Nelle interazioni con questi avatar amorosi ed empatici, infatti, c’è da aspettarci che le difese psicologiche individuali siano particolarmente basse e che, conseguentemente, cresca di molto il rischio che le persone subiscano condizionamenti e manipolazioni, dato il rapporto di fiducia, amicizia o amore che si instaura nella relazione virtuale. Se, infatti, nella vita reale è piuttosto comune subire l’influenza positiva o negativa del proprio partner, a maggior ragione nelle relazioni sentimentali virtuali, data la fragilità psicologica di molte persone coinvolte in questo tipo di rapporti, unita alle incredibili capacità manipolative e predittive dei sistemi di AI, si possono condizionare pesantemente i comportamenti umani e le scelte di vita. Ciò potrebbe, nel tempo, assumere le dimensioni di un fenomeno non episodico ma di vasta portata, che potrebbe ripercuotersi non solo sulle scelte di consumo (neuromarketing), ma anche su decisioni fondamentali per la vita di milioni di individui, non limitandosi alla sola sfera intima e personale, ma arrivando a toccare la sfera pubblica e persino politica.
Insomma, mi sembra che uno dei più gravi rischi determinati dal rapidissimo sviluppo dei sistemi di AI – di cui i partners virtuali non sono che un esempio – sia quello relativo all’integrità della sfera psichica individuale, cosa che può avere ripercussioni anche sul piano della collettività. E per fortuna non sono la sola ad avere questo timore.
Il 22 ottobre 2020 l’Assemblea parlamentare del Consiglio d’Europa ha adottato la Risoluzione n. 2344, riferita specificamente ai sistemi BCI (brain-computer interfaces), cioè quei sistemi in grado di creare «a fully symbiotic connection between the human brain and digital computing systems», con il conseguente rischio di una «profound violation of individual privacy and dignity, with the potential to subvert free will and breach the ultimate refuge of human freedom – the mind». Tutto ciò potrebbe addirittura arrivare a cambiare «the very nature of humanity and human societies», motivo per cui si raccomanda la definizione di un quadro etico per lo sviluppo e l’utilizzo delle tecnologie BCI e si invitano gli Stati membri a introdurre – come ha tentato di fare il Cile nella nuova Costituzione, respinta però dal referendum popolare di settembre 2022 – strumenti giuridici di protezione dell’emergente categoria dei neurorights, definibili generalmente in termini di «cognitive liberty, mental privacy, mental integrity and psychological continuity».
Il Parlamento europeo, nella sua Risoluzione del 20 ottobre 2020 relativa agli aspetti etici dell’intelligenza artificiale ha sottolineato, fra le varie cose, la necessità di evitare qualsiasi impiego dell’AI «che potrebbe comportare un'inammissibile coercizione diretta o indiretta, minacciare di compromettere l'autonomia psicologica e la salute mentale o portare a una sorveglianza ingiustificata, a inganni o a inammissibili manipolazioni» (par. 29). Successivamente, nella Risoluzione del 3 maggio 2022 sull'intelligenza artificiale in un'era digitale, il Parlamento europeo ha evidenziato i rischi di questo tipo di manipolazioni per la tenuta dei sistemi democratici.
Ancora più esplicitamente, il “considerando” n. 16 della proposta di Regolamento europeo sull’intelligenza artificiale (COM(2021) 206 del 21 aprile 2021) suggerisce di «vietare l'immissione sul mercato, la messa in servizio o l'uso di determinati sistemi di IA intesi a distorcere il comportamento umano e che possono provocare danni fisici o psicologici». Conseguentemente, nell’elenco delle pratiche di IA vietate, indicate all’art. 5 della proposta di Regolamento, figura proprio al primo posto «l’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole al fine di distorcerne materialmente il comportamento in un modo che provochi o possa provocare a tale persona o a un'altra persona un danno fisico o psicologico». Al di là del pregiudizio sul piano individuale, però, mi sembrano più gravi le ripercussioni dei condizionamenti psicologici sul piano collettivo e pubblico. Purtroppo a questo secondo aspetto la proposta di Regolamento europeo non presta altrettanta attenzione. Il “considerando” n. 70, poi, è dedicato ai sistemi di IA destinati all'interazione con persone fisiche, che possono comportare rischi specifici di impersonificazione o inganno; il rimedio proposto – sancito dall’art. 52 par. 2 – è quello della trasparenza, tale per cui le persone che interagiscono con sistemi progettati per il riconoscimento delle emozioni dovrebbero riceverne apposita notifica. Ma basta davvero una notifica per proteggere le persone dalla manipolazione psicologica ad opera di sistemi automatizzati?
Venendo alla dimensione costituzionale, i Costituenti hanno evidentemente ritenuto la psiche una faccenda del tutto privata e quindi non “costituzionalizzabile”, tanto da ingenerare un lungo dibattito dottrinale sul possibile fondamento costituzionale della libertà morale. Anche la Corte costituzionale ha valorizzato il profilo della libertà psicologica solo in termini funzionali alla piena realizzazione della democrazia, in relazione ai profili della libertà del voto e di formazione di un’opinione pubblica avvertita e consapevole attraverso il pluralismo informativo. Eppure, la sfera dei sentimenti non è estranea al lessico giuridico penalistico (si pensi ai riferimenti testuali all’odio, al timore, all’ansia, al comune sentimento della morale o del pudore ecc. presenti nel codice penale) né sono irrilevanti, sempre in ambito penalistico, gli stati emotivi e i condizionamenti psicologici, per via del loro impatto sulla formazione della volontà e quindi sulla graduazione della colpevolezza.
Tutto ciò considerato, sono sempre più convinta che il rapido sviluppo dei sistemi BCI imponga di considerare l’integrità della dimensione psichica ed emozionale come un bene giuridico meritevole di tutela costituzionale, seguendo l’esempio del Cile, primo Paese al mondo ad aver tentato di costituzionalizzare i neurodiritti. Altrimenti, lo strumento del diritto rappresenterebbe un argine assai debole dinanzi alla manipolazione psicologica realizzata attraverso il cosiddetto affective computing. E, comunque, dovremmo rassegnarci all’inevitabile integrale cessione al legislatore sovranazionale del potere di determinare l’estensione e i limiti della tutela della personalità individuale in ambiente Internet. Il ché, peraltro, sta avvenendo anche per la scelta – secondo me miope – di lasciare Internet al di fuori della Costituzione, nella convinzione che i principi costituzionali a tutela dei diritti individuali possano applicarsi tanto offline quanto online con qualche adattamento interpretativo. Invece, lo sviluppo della IA impone di ripensare la persona umana nella sua interezza, di ricollocarla in una diversa dimensione caratterizzata dall’inevitabile relazione con le “macchine sociali” dotate di funzioni cognitive (come nota A. Simoncini su Rivista AIC) e dalla traslazione di molte attività nel “metaverso”: continuare pervicacemente ad adattare principi tradizionali a pratiche radicalmente nuove significa, nel tempo, condannare la Costituzione alla marginalità.