di Francesco Cirillo
Vorrei sottolineare due questioni di metodo, relative alla definizione dell’oggetto e alle condizioni della regolamentazione, e due questioni di merito, relative all'impatto delle tecnologie. Quanto alle prime, mi riferisco (1.1) al problema definitorio dell’IA e (1.2) alle condizioni a cui la Costituzione possa rivolgersi a tale orizzonte. Quanto al merito, ai rischi delle tecnologie (2.1) in una dimensione collettiva e (2.2) individuale.
1.1. È tuttora in corso nelle scienze cognitive un dibattito su cosa sia un'IA e su cosa sia lecito attendersi che faccia. Non è chiaro, cioè, se l'IA sia solo il nomen di un programma di ricerche riconducibili al proposito di replicare alcune funzioni cognitive (soprattutto quelle computazionali) in una macchina, o se essa possa ambire ad essere un risultato finale (e non un mero processo). Tale risultato potrebbe, p.e., essere raggiunto superando il test di Turing; e, però, per alcuni ciò non sarebbe sufficiente (cfr., per tutti, la stanza cinese di Searle).
Seppur vero che à la Carnelutti il nostro sguardo debba spingersi oltre il diritto, lì non si danno risposte pronte, ed è precluso al giurista – perché esterno ai suoi metodi e al suo oggetto – di assumere posizioni arbitrarie.
Nessuna tecnologia, per quanto straordinaria, consente in modo incontestabile di trattare di una “intelligenza”. Siamo di fronte a dispositivi che, se rivolti a problemi semplici, non ci appaiono intelligenti e, se rivolti a problemi difficili (p.e. le reti neurali profonde), ci sembrano insondabili e diversi dall’essere umano. Allora, non avrebbe senso dire che le macchine pensano, così come non ha senso – se non figurato – dire che le automobili corrono. Ci rivolgiamo piuttosto a un insieme articolato di applicazioni, dirette a replicare capacità sensoriali, agire nell’ambiente, imitare funzioni cognitive, o a raggiungere risultati computazionali (senza neppure imitare il pensiero). Un insieme per cui sarebbe impensabile una sola regolamentazione, non meno di quanto lo sarebbe per la tecnologia tout court.
Questa difficoltà si traduce spesso, nel campo dell'etica dell’IA e nelle proposte regolatorie, nell'enunciazione di un imperativo generico: che la tecnologia si sviluppi nel rispetto dei diritti umani, che essa sia human centered, come nelle leggi di Asimov. Ciò appare condivisibile per ogni attività umana e, però, insoddisfacente per il giurista.
1.2. L'impatto delle tecnologie interessa anche la riflessione costituzionalistica, ma – come prima – il ventaglio dei problemi è ampio. Ci si può soffermare su due profili critici delle garanzie costituzionali, sia in ordine all’ambito di applicazione che alla loro natura.
In alcuni casi le tecnologie sembrano compromettere la concezione del territorio, ma ciò non è sempre vero: il problema non è identico nel caso dei chatbot o della robotica. Possiamo sempre immaginare un intervento regolatorio solo nazionale, ma nell’ipotesi di attività per lo più dislocate nell’ambiente digitale, questo sarebbe agevolmente aggirato; diversamente non accadrebbe quanto ai dispositivi dell’ambiente analogico.
Per altro verso, molte tecnologie sono adottate nell’erogazione di servizi o prodotti tra privati, sia pure tra stakeholder e consumatori. Sul punto, è indiscusso che le garanzie costituzionali si estendano anche ai rapporti privati: la costituzionalizzazione del diritto privato, l’emersione dei diritti della personalità, l’ipotesi della Drittwirkung, ecc.
Molto meno chiaro, però, è fino a che punto ciò accada. Si pensi all'indisponibilità della libertà morale donde il divieto di tecniche di lie detection nel processo (art. 188 c.p.p.), cui si oppone un’accettazione delle stesse tecnologie in un contesto extraprocessuale (sono in commercio macchine della verità con finalità ludiche; con usi nei programmi televisivi, ecc.). Ancora, alla preoccupazione per il trattamento dei dati sanitari nella pandemia cui non corrisponde un’analoga attenzione per il trattamento disinvolto da parte di altre applicazioni fruibili dall’utente.
L'aspetto più problematico dell'efficacia dei diritti costituzionali tra i privati consiste proprio nella perdita progressiva della loro indisponibilità a vantaggio di un regime più flessibile. La stessa autodeterminazione informativa incontra criticità rilevanti, se si osserva che la gestione del dato da parte del titolare del trattamento possa tradursi nei fatti in una perdita del controllo da parte dell’interessato. E tutto ciò in un contesto in cui il consenso è condizione di accesso ai servizi, senza che però si dia un particolare impegno cognitivo nella sua manifestazione.
La dimensione costituzionale, allora, va ricostruita tenendo conto della tensione verticale verso lo spazio sovranazionale che può regolare (soprattutto) alcuni fenomeni, e della tensione orizzontale che impone di riflettere sulle condizioni a cui i diritti si possano garantire tra privati. Nessuno dei due fronti può eludere il problema del rapporto tra diritti e interessi opposti (e del bilanciamento); una questione spesso aggirata dal ricorso a una visione irenica dei diritti fondamentali, che trascura il dato teorico e fattuale del loro frequente conflitto.
2.1. Venendo all'impatto delle tecnologie, alcuni rischi sono osservabili soprattutto in un orizzonte collettivo.
Nel provvedimento del Garante di limitazione del noto chatbot, si osserva che «le informazioni fornite […] non sempre corrispondono al dato reale»: un profilo che non attiene al solo diritto soggettivo all’informazione, quanto piuttosto ai rischi per una concezione pubblica della verità. Analogamente, si pensi allo sciopero della Writers Guild of America, o al dibattito sui chatbot nelle scuole. La questione è collettiva proprio perché non si dubita del legittimo ricorso a un software che scriva sceneggiature, risolva equazioni o risponda a domande di geografia; il problema sorge soltanto se molti adottano tale tecnologia, con possibili conseguenze sociali.
Allo stesso modo, le bolle informative indotte dalla profilazione delle piattaforme rincorrono e rinforzano i bias dell’individuo: nessuno nega il diritto di ciascuno di leggere un sol genere di quotidiani o di libri; nondimeno, sembra che la tecnologia sia poco trasparente nel far percepire le operazioni di profilazione e le scelte dei contenuti che essa destina all’utente; quindi, che l’esercizio di un diritto (indiscutibile per il singolo) provochi un effetto negativo, percepibile in una dimensione collettiva.
Non si vuole sostenere che siano questioni prive di ricadute sui diritti fondamentali, ma che la dimensione collettiva è più idonea a rilevare alcuni rischi e a delineare strategie di regolamentazione.
2.2. Infine, ci si interroga su possibili cataloghi di “nuovi” diritti. Si prenda in considerazione, per tutti, l'interferenza della tecnologia nella psiche, che indurrebbe a prospettare nuovi neurodiritti. Il tema, chiaramente, in parte sconfina rispetto al perimetro dell’AI (perché abbraccia anche l’intervento sul corpo).
Si possono distinguere nelle attuali proposte alcune classi di diritti: una prima si rivolge all’integrità (psichica, della mente, ecc.); una seconda alla privacy (della mente, del cervello, ecc.); una terza alla libertà (della mente, cognitiva, o al libero arbitrio, ecc.); una quarta all’identità e alla continuità (psichica, psicologica, ecc.); una quinta all’accesso al potenziamento (neurale, cognitivo, ecc.).
Il giudizio complessivo, qui forse apodittico, è che alcuni diritti siano ricompresi in quelli riconosciuti (in certi ordinamenti): l’integrità psichica, l’identità, l’equo accesso alle prestazioni sanitarie (se il neuropotenziamento è ricondotto a tale genus); perciò non si richiederebbe un ulteriore riconoscimento.
Invece, altri neurodiritti farebbero rinvio a “oggetti” molto eterogenei: libertà della psiche, libertà cognitiva, diritto al libero arbitrio, diritto alla continuità psicologica, privacy della mente, ecc. Sembra inconferente il riferimento al solo livello neurale, perché si ricorre a una semantica che esclude l’approccio neuroriduzionistico. Nel caso del libero arbitrio, della continuità psicologica o della mente, il bene oggetto del diritto sarebbe perciò inafferrabile: massima parte delle neuroscienze “scommette” sulla riduzione fisicalista della dimensione cognitiva e sull’inconsistenza di tali concetti.
Allo stato, comunque, non è possibile acquisire soluzioni al dilemma del libero arbitrio o della coscienza. Tuttavia, se si assume un approccio fisicalista, la mente e il libero arbitrio non possono poi figurare come bene oggetto di un diritto; se, invece, si accede a una prospettiva mentalista, l’interferenza delle tecnologie non dovrebbe rappresentare un rischio reale per la psiche.
Inoltre, la definizione dei neurodiritti investe la stessa dogmatica del diritto soggettivo, ponendo la questione se il libero arbitrio sia il fondamento dei diritti di libertà (un postulato necessario e indimostrabilmente presente in ciascuno) o se la libertà giuridica non dipenda (o non coincida) con la libertà filosofica del volere. Si tratta di questioni aperte, soprattutto perché le scienze cognitive non offrono risposte e, anzi, consegnano un acceso dibattito: d’altronde, la regolamentazione delle neurotecnologie non può attendere la soluzione di simili dilemmi.
Il problema potrebbe essere affrontato, forse, facendo ricorso al concetto (provvisorio) di neuroprivacy, che avrebbe il pregio di abbracciare – nella sua genericità – lo sviluppo delle ricerche: postulando l'intuitiva esigenza di riservatezza e di protezione da interferenze esterne; e facendo riferimento, in mancanza di altre e più precise distinzioni, al livello neurale, che sembra più interessato dalle neurotecnologie.
Sono alcune delle questioni con cui confrontarsi, che ricordano, come osservato in apertura del dibattito, «le fatiche di Sisifo»: potrebbero essere necessarie risposte rapide, ma non perciò frettolose; soluzioni precarie e sperimentali, ma non anche sbrigative.