82 minuti

 

 

L’INTELLIGENZA ARTIFICIALE IN PROSPETTIVA GIURIDICA: UNA RISORSA O UN NOCUMENTO PER LA GIUSTIZIA?

Chiara Piccinni e Luca Bianco

Laureati presso l’Università Bocconi e specializzati presso la Scuola di Specializzazione per le Professioni Legali Bocconi – Pavia, già tirocinanti presso la Corte dei conti di Milano.

 

SOMMARIO: 1. Premessa. – 2. Nozione e applicazioni dell’intelligenza artificiale (a cura di Chiara Piccinni). – 3. Nascita e sviluppo della disciplina (a cura di Chiara Piccinni). – 4. Fonti del diritto: gli strumenti di soft law (a cura di Luca Bianco). – 5. La giurisprudenza (a cura di Luca Bianco). – 6. Gli interrogativi dottrinali (a cura di Luca Bianco). – 7. Rapporto con le varie branche del diritto (a cura di Chiara Piccinni). – 7.1. IA e diritto pubblico. – 7.2 IA e diritto civile. – 7.3. IA e diritto penale. – 7.4. IA e diritto amministrativo e contabile. – 8. IA e processo: la figura del robot togato (a cura di Chiara Piccinni) – 9. Aspetto pratico: ChatGPT e le sue allucinazioni (a cura di Luca Bianco). – 10. Conclusioni. – 11. Bibliografia.

 

 

1. Premessa.

Il presente elaborato si prefigura lo scopo di approfondire lo studio dei moderni sistemi di intelligenza artificiale e, principalmente, di vagliare l’impatto che l’automazione può avere sul diritto, anche in punto di vantaggi e svantaggi derivanti per il sistema.

Il tema è rilevante ed estremamente attuale, tenuto conto della trasformazione della società – da società dell’informazione in quella dell’algoritmo – a causa dell’ingresso massivo della tecnologia nei settori del sapere più disparati.

Molteplici sono le inedite opportunità che conseguono i cittadini, le imprese e le pubbliche amministrazioni dalla proliferazione delle nuove tecnologie su larga scala. Tuttavia, altrettanto numerosi sono i rischi che derivano da un uso non oculato ed inappropriato delle cd. macchine ‘‘intelligenti’’, le quali, se non correttamente “governate”, possono condurre ad una compromissione dei diritti umani e delle libertà fondamentali dei loro utilizzatori.

Al fine di ridurre le ‘‘esternalità negative’’ nell’uso dell’intelligenza artificiale, si sono dunque resi necessari alcuni interventi regolatori da parte della soft law e della hard law, nonché in campo giurisprudenziale e dottrinale.

Il presente articolo, dopo aver offerto una definizione dell’intelligenza artificiale e aver ripercorso, se pur nelle sue tappe fondamentali, lo sviluppo della disciplina, dà atto:

  • dei principali interventi normativi in materia di tecnologia volti a rispondere alle esigenze di tutela individuali e collettive, nel rispetto di una dimensione antropocentrica;

  • delle più importanti riflessioni di dottrina e giurisprudenza sulla tematica;

  • delle maggiori interconnessioni del fenomeno dell’intelligenza artificiale con le varie branche del diritto (e, in particolare, con il diritto pubblico, con il diritto civile, con il diritto penale e con il diritto amministrativo e contabile);

  • dell’influenza dei relativi sistemi sul processo, in un’ottica di analisi delle problematiche e di riflessione, improntata anche a comprendere se ‘‘abdicare al ragionamento a favore di un robot togato possa costituire o meno un bene per la giustizia e per i suoi attori e destinatari’’.

Il tutto allo scopo di approcciarsi all’idea di un uso pervasivo e incondizionato della tecnologia nel campo anche giuridico con delicatezza e ragionevolezza. Occorre, infatti, avere contezza dell’importanza della realizzazione di un ‘‘trade off’’ in materia, rectius della necessità – anche in una prospettiva futura – di riadattare i paradigmi tradizionali in virtù di una maggiore efficienza delle attività lavorative umane mediante una selezione delle forme di intelligenza artificiale più ‘‘virtuose’’ in funzione di un minor livello di rischio per l’individuo e nel rispetto dei principi costituzionali.

2. Nozione e applicazioni dell’intelligenza artificiale.

L’intelligenza artificiale (abbreviata in ‘‘IA’’ – sigla a cui si farà spesso riferimento nel corso del documento – o ‘‘AI’’ dall’acronimo inglese ‘‘Artificial Intelligence’’) rappresenta indubbiamente uno dei settori più innovativi della scienza, dell’ingegneria e dell’informatica.

Non esiste una definizione univoca e indiscussa del termine in quanto essa varia a seconda del campo di applicazione precipuo. Si registrano, infatti, da più parti e in diversi ambiti plurimi tentativi definitori.

Tuttavia, in termini generali, l’intelligenza artificiale può essere definita come la capacità di un sistema tecnologico di fornire prestazioni assimilabili a quelle dell’intelligenza umana ovvero l’abilità di pensare e svolgere compiti o attività tipiche della mente e del comportamento della creatura pensante. Ciò grazie all’utilizzo contemporaneo e automatizzato di dati, algoritmi – i quali si basano sulla concatenazione di regole (se X, allora Y), metodi statistici e reti – e computing power.

A livello europeo, su impulso dello stesso Parlamento europeo, si è pervenuti ad una nozione di intelligenza artificiale alquanto ampia di modo da ricomprendere tutti quei ‘‘sistemi che mostrano un comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere specifici obiettivi’’ (Comunicazione Artificial Intelligence for Europe del 2018 della Commissione Europea).

Partendo da tale nozione, un gruppo indipendente composto da 52 esperti, con funzioni di consulenza per la Commissione Europea, si è poi espresso facendo riferimento a tutti: ‘‘ [quei] sistemi software (ed eventualmente hardware) progettati dall’uomo che, dato un obiettivo complesso, agiscono nella dimensione fisica o digitale, percependo il proprio ambiente attraverso l’acquisizione di dati, interpretando i dati strutturati o non strutturati raccolti, ragionando sulla conoscenza o elaborando le informazioni derivate da questi dati e decidendo le migliori azioni da intraprendere per raggiungere l’obiettivo’’.

Infine, il Parlamento Europeo nel 2023, ovvero in occasione dell’adozione dell’AI Act – di cui meglio si dirà oltre – ha definito l’IA come ‘‘un sistema basato su una macchina che è progettata per operare con diversi livelli di autonomia e che può, per obiettivi espliciti o impliciti, generare output come previsioni, raccomandazioni o decisioni che influenzano ambienti fisici o virtuali’’.

L’ampiezza della nozione, unitamente al livello di sofisticazione della disciplina, in costante evoluzione, hanno determinato l’accostamento pervasivo del termine ad una innumerevole varietà di campi, domestici, industriali e aziendali.

Del resto, le soluzioni adottabili di Artificial Intelligence in base alla finalità di utilizzo sono diversificate. Si spazia, infatti, dai cd. Chatbot o Virtual Assistants (che elaborano conversazioni umane, scritte o parlate) alle tecniche di NLP (id est, di elaborazione del linguaggio naturale), alla Computer Vision (volta a creare un modello approssimato del mondo reale partendo da immagini bidimensionali), alla IDP (per l’estrazione dei dati), alla Recommendation System (che crea delle raccomandazioni personalizzate in base all’utente), alle Soluzioni Fisiche (tra cui, le tecniche robotiche o i veicoli automatizzati).

In particolare, costituisce ormai fatto notorio l’utilizzo della tecnologia non solo nelle attività umane di quotidiano ovvero ‘‘ordinario’’ svolgimento – a titolo esemplificativo, attività di comunicazione (e, dunque, telefonia, messagistica, social network), attività ludiche e ricreative (cinema, videogiochi, fotografia), attività domestiche (elettrodomestici) – ma anche l’impiego della stessa in attività professionali intrinsecamente rischiose e richiedenti alti requisiti di competenza tecnica per i loro esercenti.

Paradigmatico, a tal riguardo, è lo sviluppo di meccanismi umanoidi nel campo medico, in cui oggigiorno ci si trova di fronte a macchine robotiche che si sostituiscono materialmente alla mano del chirurgo, realizzando interventi medici complessi; nel campo della difesa, dove si assiste, per esempio, all’utilizzo di robotkiller, destinati ad operare in luogo dei soldati in missioni particolarmente perigliose; nel settore dei trasporti, nel quale si sono sviluppati treni metropolitani a guida automatizzata; o, ancora, nel settore finanziario e assicurativo, per via dell’impiego dell’intelligenza artificiale nell’ambito dell’assistenza ai clienti post vendita.

Tra i numerosi ambiti in cui gli algoritmi ‘‘intelligenti’’ vengono utilizzati si annovera poi anche quello della sicurezza pubblica, la cui minaccia principale è rappresentata dal terrorismo internazionale. In particolar modo, gli algoritmi vengono utilizzati dapprima al fine di riconoscere determinati contenuti presenti in rete nelle diverse piattaforme online (ad esempio, immagini, post sui social, messaggi) – correlati al terrorismo per lo più internazionale – e, in seguito, adoperati per porre in essere azioni preventive e/o repressive.

Come si avrà modo di approfondire nel prosieguo, la tecnologia attualmente detiene un ruolo significativo anche nel settore giuridico, ove, comunque, si discute di un uso della stessa in termini ancora più sofisticati, ovvero sotto l’aspetto di un ipotetico ingresso delle macchine ‘‘intelligenti’’ anche nelle ‘‘aule’’ dei tribunali. La questione è ad ogni modo delicata e, come si vedrà, solleva riflessioni e problematiche di non poco conto.

La conseguenza di tutto ciò è il periodo storico che stiamo vivendo, definito da taluni come ‘‘Quarta Rivoluzione Industriale’’ o ‘‘Industria 4.0’’.

3. Nascita e sviluppo della disciplina.

Occorre riconoscere che l’uomo, da sempre, ha manifestato una propensione verso lo sviluppo di realtà ideali in grado di riprodurre il proprio modus operandi.

Ciò nonostante, i primi scienziati e matematici che si dedicarono allo studio della tecnologia in tal senso appartengono alla prima metà del ventesimo secolo con sviluppi veramente importanti a partire poi dagli anni 50 del Novecento.

La prima opera generalmente associata all’intelligenza artificiale risale, infatti, al 1943 e vede in Warren McCulloch e Walter Pitts i suoi autori. Essi, nel 1943, crearono un modello di neuroni ‘‘on’’ o ‘‘off’’ con il quale comprovarono che reti di neuroni sufficientemente definite erano in grado di apprendere.

Da tale modello derivarono poi il lavoro di Donald Hebb nel 1949 (Hebbian learning rule) e il primo computer di rete neurale di Marvin Minsky e Dean Edmons nel 1950 (SNARC).

Ad ogni modo, il termine ‘‘intelligenza artificiale’’ fu coniato solo nel 1956 quando si tenne il primo convegno a Dartmouth dove parteciparono i principali esperti informatici del tempo. Tra questi, si segnala la presenza di Alan Turing, padre dell’informatica moderna, grazie al quale il tema dell’Intelligenza Artificiale divenne attuale e degno di nota e la sua disciplina finalmente una scienza autonoma.

Lo studioso – produttore del primo computer a programma memorizzato già nel 1935 – ha fornito un contributo notevole allo sviluppo dell’IA per la sua analisi fondata sul cd. ‘‘Turing test’’. Esso poneva a confronto l’intelligenza umana e quella meccanica tramite la proposizione di interrogativi: chi interrogava doveva, invero, indovinare se la risposta proveniva dal computer o dall’individuo; e alla fine, se la maggior parte di coloro che cercavano di identificare il soggetto interrogato non riconosceva la macchina, si attribuiva ad essa la natura di entità ‘‘intelligente e pensante’’.

Il momento segna, senza ombra di dubbio, una tappa fondamentale nella storia dell’IA in quanto, a partire dal Turing test, si individuano nella ricerca del settore due opposte direzioni (su cui il dibattito odierno è ancora oggi orientato): la prima, fondata sul concetto di ‘‘emulazione’’ – mimare comportamenti intelligenti visibili dall’esterno; la seconda, basata sul concetto di ‘‘simulazione’’ – riprodurre la struttura fondamentale del sistema nervoso umano.

4. Fonti del diritto: gli strumenti di Soft Law.

A livello sovranazionale, nel corso degli ultimi anni – anche in virtù della natura ancora prematura del dibattito in materia – si sono susseguite elaborazioni di documenti con lo scopo di fornire le iniziali linee guida in materia di intelligenza artificiale.

In tema di tutela dei diritti fondamentali, sembra opportuno richiamare i principi sull’Intelligenza Artificiale pubblicati dall’Organizzazione per la cooperazione e lo sviluppo economico (OCSE) nell’anno 2019, la cui raccomandazione – oltre a costituire il primo standard intergovernativo sull’intelligenza artificiale – è volta a investigare tanto la promozione della ricerca e dello sviluppo dell’automazione e di un ecosistema digitale per l’intelligenza artificiale quanto la cooperazione internazionale in materia. Si precisa che detto documento identifica cinque linee guida complementari fra loro per la gestione responsabile dell’intelligenza artificiale, ossia: la crescita inclusiva, il benessere e lo sviluppo sostenibile; la robustezza, l’affidabilità e la sicurezza; la salvaguardia dell’equità e di valori parametrati sull’uomo; la responsabilità; e, infine, la trasparenza e la comprensibilità.

In aggiunta, deve menzionarsi altresì, la Carta etica – adottata nel contesto del Consiglio d’Europa dall’European Commission for the Efficiency of Justice (CEPEJ) nel dicembre del 2018 – sull’uso dell’intelligenza artificiale nei sistemi giudiziari, la quale si occupa di definire le linea guida, ovvero i principi che i legislatori e i professionisti dovrebbero adottare nell’affrontare il rapido sviluppo dell’intelligenza artificiale nel campo della giustizia e, più in particolare, nei sistemi giudiziari nazionali, sottolineando al tempo stesso come questo utilizzo debba avvenire sempre nel rispetto dei diritti fondamentali garantiti dalla Convenzione Europea sui Diritti umani (CEDU) e dalla Convenzione del Consiglio d’Europa sulla protezione dei dati personali.

A livello europeo, in un primo tentativo di regolamentazione del settore tecnologico, il Parlamento dell’Unione Europea si è occupato di fornire le introduttive linee guida in merito alla responsabilità civile nel settore della robotica, settore affine a quello dell’Intelligenza Artificiale. In particolare, la risoluzione in materia fornisce diverse proposte con riferimento alla responsabilità per danno causato da un robot come, ad esempio, la gestione dei rischi, l’applicazione degli istituti con riferimento alle ipotesi di responsabilità oggettiva, la creazione di un regime di assicurazione obbligatorio nonché l’istituzione di uno status giuridico ad hoc che permetta di ritenere i robot più sofisticati responsabili delle proprie azioni dannose. Ad ogni modo, sul punto si tornerà più approfonditamente nei successivi paragrafi.

In materia di intelligenza artificiale – sottolineando, da un lato, il ruolo sempre più fondamentale della stessa nella trasformazione digitale della società e, dall’altro, la difficoltà di immaginare un mondo senza l’utilizzo della tecnologia in molteplici beni e servizi – urge poi evidenziare che l’Unione Europea sta, di fatto, predisponendo il primo insieme di norme al mondo sull’intelligenza artificiale al fine di gestire le opportunità e i rischi collegati all’automazione e rendere, pertanto, l’Unione Europea quale punto di riferimento globale in materia.

Difatti, come parte della sua strategia digitale, l’Unione Europea intende ‘‘regolamentare l’intelligenza artificiale al fine di garantire migliori condizioni per lo sviluppo e l’uso di questa innovativa tecnologia’’ poiché essa può produrre molteplici benefici, quali, ad esempio, una miglioria tanto nel settore dei trasporti – i quali potrebbero diventare maggiormente sicuri ed eco-friendly – quanto in ambito sanitario, garantendo di fatto una maggiore assistenza medica.

Pertanto, a partire dall’aprile 2021 la Commissione aveva proposto il primo quadro normativo dell’Unione Europea sull’intelligenza artificiale, il quale classificava ed analizzava i sistemi di intelligenza artificiale utilizzabili in diverse applicazioni in base al rischio che rappresentano per gli utenti.

Successivamente la proposta della Commissione è diventata sempre più un elemento chiave della politica eurocomunitaria, la quale – come più volte espressamente affermato dai vertici dell’Unione – è rivolta alla promozione, sviluppo e adozione, in tutto il mercato unico comunitario, di una Intelligenza Artificiale corretta, lecita nonché rispettosa dei diritti fondamentali delle persone. La proposta, seguendo un approccio basato sul rischio derivante dall’utilizzo massiccio della IA, è volta a stabilire un quadro giuridico orizzontale uniforme allo scopo di assicurare la cd. certezza del diritto, elemento cardine dello stato di diritto. Pertanto, il progetto di regolamento mira tanto alla promozione di investimenti e innovazione nella IA quanto a migliorare la governance e l’applicazione effettiva della normativa vigente in materia di diritti fondamentali, oltreché di sicurezza nonché di agevolazione dello sviluppo di un mercato unico.

A distanza di qualche mese – il 6 dicembre 2022 – il Consiglio dell’Unione Europea ha raggiunto un accordo di orientamento generale su questa proposta di regolamentazione ed ha avviato colloqui interistituzionali con il Parlamento europeo.

Da allora, infatti, il lavoro è proseguito ed il 14 giugno 2023 il Parlamento europeo ha fissato la propria posizione negoziale sull’AI Act, approvando gli emendamenti alla proposta di regolamento del Parlamento e del Consiglio Europeo. Essa, di fatto, stabilisce regole armonizzate sull’intelligenza artificiale e modifica alcuni atti legislativi dell’Unione [COM(2021)0206 – C9-0146/2021 – 2021/0106(COD)]. La priorità del Parlamento è stata quella di assicurare che i sistemi di intelligenza artificiale in uso nell’Unione Europea siano sicuri, trasparenti, tracciabili e non discriminatori e – per far ciò – si è reso necessario creare una definizione neutra e uniforme dal punto di vista tecnologico per l’intelligenza artificiale, applicabile a tutti i futuri sistemi di IA.

A quasi un anno di distanza dal primo accordo generale di regolamentazione, la Commissione, il Consiglio e Parlamento europeo, nonché il Coreper (l’organo composto dai rappresentanti permanenti degli Stati Membri dell’UE), hanno approvato in data 9 dicembre 2023 l’AI Act, seppur in maniera non definitiva, in quanto – per la stesura del testo finale, che sarà votato dagli organismi europei – sono ancora al lavoro i tecnici giuridici incaricati. Il testo completo dovrà essere, infatti, confermato dalle istituzioni coinvolte e sarà sottoposto, infine, ad una revisione giuridico-linguistica prima dell’adozione formale da parte dei co-legislatori allo scopo di assicurare una migliore, chiara e semplice comprensione nonché conformità legale, preparando così il terreno per una applicazione pratica e uniforme del regolamento sulla IA all’interno dell’Unione Europea.

Ad ogni modo, si rammenta che il regolamento sulla IA ‘‘entrerà in vigore due anni dopo la sua adozione, salvo alcune eccezioni per disposizioni specifiche’’. Pertanto, il periodo di transizione fornirà a tutti i cittadini, nonché agli Stati Membri, il tempo necessario per adeguarsi alle nuove regole e implementare le misure richieste ai sensi di legge, mantenendo quindi l’innovazione al centro e garantendo una protezione adeguata dei diritti fondamentali.

Deve precisarsi a tal punto che l’AI Act, quale futura normativa che regolamenterà l’intelligenza artificiale nel vecchio continente, costituisce il primo regolamento al mondo di questo tipo e con questa portata, segnando di fatto un momento storico per l’Europa e il mondo, analogamente a quanto accaduto con il regolamento generale sulla protezione dei dati 679/2016 (GDPR). Del resto, la proposta legislativa in questione rappresenta non soltanto un importante passo avanti in materia bensì un potenziale standard globale per la regolamentazione della IA in generale a livello internazionale.

Essa, infatti, garantisce un bilanciamento tra innovazione e protezione ed assicura che la tecnologia non leda i diritti fondamentali e non costituisca un rischio per le persone, mantenendo così al centro della protezione normativa la tutela dell’integrità e dei diritti dell’individuo.

Il Regolamento, pionieristico a livello mondiale, stabilisce limiti all’uso della IA proteggendo, appunto, i diritti dei cittadini europei; esso, pur lasciando spazio a molte applicazioni, esclude tuttavia settori strategici, quale quello militare. Un elemento di particolare importanza del nuovo testo è rappresentato dalla definizione legislativa di intelligenza artificiale, la quale enfatizza l’autonomia, l’adattabilità e l’impatto sul mondo fisico o virtuale. Detta definizione, in linea con le direttive internazionali, ‘‘esclude i sistemi software tradizionali basati su regole fisse e prevede linee guida specifiche per la sua applicazione, sottolineando l’intento di non ostacolare l’innovazione’’.

L’approccio cd. “basato sul rischio” proposto dall’AI ACT risulta essere particolarmente rilevante in quanto le regole diventano sempre più stringenti in relazione al potenziale danno che può subire la società: ciò permette tanto di prevenire efficacemente possibili danni quanto di favorire l’adozione di tecnologie di intelligenza artificiale sicure.

Gli elementi chiave dell’accordo provvisorio sull’intelligenza artificiale presentano modifiche significative rispetto alla proposta iniziale della Commissione europea.

Invero, il nuovo accordo si concentra su modelli di IA ad alto impatto e sistemi ad alto rischio. Esso introduce una governance riveduta con poteri di esecuzione a livello dell’Unione Europea, nonché un elenco dei divieti ampliato rispetto al passato, con la relativa possibilità di utilizzare l’identificazione biometrica remota, rispettando quindi la tutela dei diritti, in particolar modo con riferimento al diritto d’autore, per la cui tutela vi sono molte preoccupazioni.

All’interno del testo attualmente approvato, seppur non in maniera definitiva, si precisa che la definizione di sistema di IA, allineandosi all’approccio dell’OCSE in materia, garantisce trasparenza e semplicità nella distinzione tra IA e sistemi software. Ad ogni modo, il regolamento ‘‘non si applica ai settori al di fuori del diritto dell’UE, preservando, di fatto, le competenze degli Stati membri e non copre sistemi utilizzati per scopi militari’’ affinché vengano disciplinati soltanto sistemi con potenziali violazioni dei diritti fondamentali, fra i quali, ‘‘la manipolazione comportamentale cognitiva e il riconoscimento delle emozioni sul luogo di lavoro’’.

Ciò chiarito, in tale quadro d’insieme, le iniziative susseguitesi fino ad oggi nell’ambito giuridico e regolatorio, al netto dell’AI Act, non ancora in vigore, documentano ancora una frammentarietà nella declinazione di linee guida, tendenzialmente settoriali, e una carenza di interventi di carattere organico a livello mondiale sotto forma di hard law.

Tale frammentazione induce a riflettere sul ruolo del giurista nella società dell’algoritmo, funzione che assume rilevanza fondamentale nelle fasi di transizione tra nuovi paradigmi che comportano cambiamenti radicali dello status quo. Pertanto, le nuove tecnologie dell’automazione costituiscono non solo una sfida per il giurista ma anche una opportunità nella gestione efficiente dei propri compiti, confermando il duplice binario che si sta delineando tra uomo e macchina.

Sul piano delle fonti, sembrerebbe forse maggiormente preferibile – alla luce della rapidità dei mutamenti tecnologici e della necessità di disporre di norme talvolta connaturate anche da un elevato contenuto tecnico che difficilmente potrebbero derivare dal procedimento legislativo ordinario – un processo di ‘‘deregulation’’ e delegificazione in favore dell’intervento di atti normativi di rango secondario, sempre da includersi entro un quadro opportunamente definito dal legislatore.

5. La giurisprudenza.

Accanto allo sviluppo degli iniziali strumenti di soft law, anche la dottrina e la giurisprudenza hanno iniziato a muovere i primi passi in materia di intelligenza artificiale.

Nello specifico, è stata la necessità di risolvere un caso concreto nel rispetto del principio che esige la soggezione dei giudici soltanto alla legge (e, dunque, entro il perimetro dello strumentario giuridico esistente) a spronare la giurisprudenza ad esprimere delle prime, seppur embrionali, indicazioni sull’IA.

Dapprima, esse sono emerse negli Stati Uniti ove, a fronte della diffusione dei primi dispositivi di natura robotica e del verificarsi di alcuni incidenti produttivi di eventi dannosi e talvolta mortali, i giudici – ‘‘quali attori istituzionali più prossimi alle situazioni in cui si forniscono nonché creano nuove esigenze e istanze di tutela per effetto del mutato contesto tecnologico e sociale’’ – si sono dovuti esprimere al cospetto di casi reali realizzatisi nel quotidiano.

Nonostante ci si trovi di fronte alla mancanza, per un sistema di Common Law, di un vero e proprio leading case da parte della Corte Suprema, i temi al centro della giurisprudenza più risalente in materia di robotica riguardano nel dettaglio la definizione dello standard di diligenza richiesto ai produttori di componenti robotiche e ai relativi utilizzatori. Difatti alcune delle pronunce in materia – le quali, di fatto, avevano analizzato il contributo causale offerto da eventuali comportamenti negligenti da parte delle vittime – si sono incentrate sull’esistenza di un nesso di causalità che rendesse addebitabili all’utilizzatore oppure al produttore le dannose conseguenze derivanti da incidenti.

Sul punto, anche la giurisprudenza della Corte di Giustizia dell’Unione europea ha fornito indicazioni di significativa importanza. Quest’ultima difatti, in particolar modo nelle cause C-70/10, Scarlet c. Sabam e C-360/10, Sabam c. Netlog, si è confrontata con l’applicazione di sistemi di filtraggio automatici da parte delle piattaforme digitali sui flussi di comunicazione e sull’esistenza di una responsabilità di questi operatori per potenziali illeciti compiuti da utenti terzi a mezzo di servizi digitali.

A differenza delle decisioni incentrate sulla tematica della robotica – che hanno, nella gran parte dei casi, fatto ricorso alle categorie classiche della responsabilità da prodotto difettoso in relazione ad eventi dannosi – si segnala come un recente filone giurisprudenziale (per i sistemi di Civil Law, deve farsi riferimento al Consiglio di Stato italiano sez. VI, sentenza 8 aprile 2019, n. 2270 e al Conseil Constitutionnel francese, sentenza n. 2018-765 DC del 12 giugno 2018, mentre per quelli di Common Law alla Corte Suprema del Wisconsin, richiamandosi sul punto la causa Loomis v. Wysconsin, 881 N.W.2d 749) abbia cercato di conciliare ‘‘l’utilizzo di sistemi algoritmici con l’amministrazione della giustizia e gli eventuali provvedimenti della pubblica amministrazione’’.

Sul tema, pare opportuno fare riferimento a quanto espresso dal Consiglio di Stato, il quale – in una vicenda originata dall’utilizzo da parte del MIUR di un sistema algoritmico per la definizione delle assegnazioni del personale docente della scuola secondaria – ha precisato che ‘‘la regola tecnica che governa ciascun algoritmo resta pur sempre una regola amministrativa generale, creata dall’uomo e non dalla macchina, per essere poi solamente applicata da quest’ultima’’. Pertanto, la regola algoritmica deve rispettare alcuni requisiti: ‘‘ancorché declinata in forma matematica, ha piena valenza giuridica e amministrativa, e come tale deve soggiacere ai principi di pubblicità e trasparenza, di ragionevolezza e di proporzionalità; non può lasciare spazi applicativi discrezionali ma deve prevedere con ragionevolezza una soluzione definita per tutti i casi possibili, cosicché la discrezionalità amministrativa, non demandabile al software, possa rintracciarsi al momento dell’elaborazione dello strumento digitale; presuppone che sia l’amministrazione a compiere un ruolo ex ante di mediazione e composizione di interessi, anche per mezzo di costanti test, aggiornamenti e modalità di perfezionamento dell’algoritmo; deve contemplare la possibilità che sia il giudice a svolgere, sul piano umano, valutazioni e accertamenti fatti direttamente in via automatica, per permettere di rilevare la correttezza in tutte le sue componenti del processo automatizzato’’.

Di rilevanza, altresì, il caso State v. Loomis, ove la Supreme Court del Wisconsin ha confermato la decisione d’appello in un procedimento penale conclusosi con la condanna dell’imputato in cui era stato tenuto in conto, ai fini della recidiva, il risultato di un Presentence Investigation Report prodotto attraverso l’uso di un software, il cui funzionamento risulta coperto da segreto industriale.

In questa pronuncia, la Corte, di fatto, ha ritenuto che l’utilizzo del software non implicasse una violazione del principio del giusto processo, in quanto i risultati di detto Report sono rilevanti solamente per la valutazione della recidiva e non per la decisione, avuto riguardo alla condanna. A ciò deve aggiungersi, secondo la Corte, la necessità di prevedere alcune cautele al fine di garantire che il risultato ultimo sia sempre il frutto di un apprezzamento da parte di un agente umano, il quale, tuttavia, potrà eventualmente rivedere gli esiti del processo algoritmico.

6. Gli interrogativi dottrinali.

Accanto allo sviluppo degli iniziali strumenti di soft law, anche la dottrina ha iniziato a muovere i primi passi in materia e, di fatto, i primi studiosi si sono fin da subito confrontati con la difficoltà – tratto comune, del resto, con la giurisprudenza in materia – di sussumere all’interno di fattispecie concepite prima dell’avvento della società algoritmica o, meglio, dell’intelligenza artificiale avvenimenti che appaiono discostarsi dai paradigmi ormai consolidati.

Difatti, la letteratura giuridica, nonostante sia incline da decenni al confronto con l’emersione del fattore tecnologico e con le sue conseguenze sotto un’infinita di prospettiva (cfr. la filosofia del diritto, l’analisi economica del diritto, il diritto privato, il diritto pubblico e il diritto penale), sembra percorrere una fase ancora primitiva. Del resto, l’apporto tanto della dottrina quanto della giurisprudenza ha sicuramente risentito delle medesime questioni che già in passato si erano venute a creare in relazione all’ambito della robotica.

A conferma della difficoltà di abbinare le categorie giuridiche esistenti e il carattere innovativo della tecnologia nonché dell’intelligenza artificiale, si cita, a titolo esemplificativo, il dibattito dottrinale sulla possibilità nonché, in particolar modo, sulla ‘‘convenienza’’ di realizzare una perfetta sostituzione tra automi o sistemi di intelligenza artificiale e agenti umani nell’espletamento di attività lavorative. Infatti, come sopra anticipato, oggigiorno la tecnologia detiene un ruolo di importanza sempre più crescente nell’adempimento di numerose attività professionali, di cui nel passato è stato l’Umano a detenere la direzione, il comando e il potere.

La dottrina, nello specifico, si è interrogata in materia, in particolar modo avendo riguardo a due principali aspetti sui quali lo studio degli stessi si concentrerà nei paragrafi successivi.

Il primo aspetto riguarda lo studio di tutte le problematiche legali correlate all’utilizzo ormai frequente delle macchine ‘‘intelligenti’’ nelle varie attività normalmente di competenza dell’uomo, tra le quali spicca, nelle varie branche del diritto, quella avente ad oggetto il profilo della responsabilità.

Deve premettersi, in via di principio, che la Carta costituzionale non ostacola bensì favorisce l’uso della tecnologia, statuendo all’art. 9 che ‘‘La Repubblica promuove lo sviluppo della cultura e della ricerca scientifica e tecnica’’ a tutela delle nuove generazioni, del progresso e, in ultima istanza, della qualità della vita. Ad ogni modo, deve constatarsi che la normativa italiana, se da un lato contempla le conseguenze giuridiche, sia sul piano civile (in relazione al quale opera l’art. 2052 c.c.) che penale (artt. 582 e 584 c.p.), dei danni, per esempio, cagionati dagli animali, dall’altro nulla prevede ancora, invece, per i danni cagionati da un errore di intelligenza artificiale.

Invero, uno dei principali interrogativi sorti sul piano dottrinale in relazione alle macchine ‘‘intelligenti’’ riguarda proprio la possibilità di ipotizzare un riconoscimento di soggettività giuridica in capo ai sistemi di intelligenza artificiale, sul presupposto di imputare a detti sistemi – come si vedrà meglio infra – non solo il riconoscimento di diritti e doveri bensì anche la possibilità di attribuire responsabilità per possibili eventi lesivi derivanti dal loro funzionamento. Nel dettaglio, le riflessioni dei commentatori sono rivolte all’esame delle varie ipotesi di responsabilità civile già codificate all’interno dell’ordinamento giuridico al fine di appurare la possibilità di estenderne l’applicazione in via analogica anche all’intelligenza artificiale.

Parimenti, nell’ambiente dottrinale nordamericano, è venuta a crearsi la teorizzazione di possibili forme di responsabilità penale delle apparecchiature da fondarsi sull’implicita attribuzione di personalità giuridica alle stesse e, pertanto, con una sostanziale assimilazione tra agenti umani e agenti robotici. Anche questo tema, data la sua importanza, verrà di seguito approfondito. Ad ogni modo, si anticipa che questo modello di teorizzazione postula, di fatto, la differenziazione tra tre possibili scenari: a) la ‘‘perpetration through another’’, nella quale il sistema di intelligenza artificiale è un mero esecutore materiale – e pertanto privo di capacità cognitiva e volitiva – di una condotta voluta dal programmatore o dall’utente; ne consegue che in dette circostanze, l’Intelligenza Artificiale sarebbe paragonabile a un soggetto incapace e, pertanto, non potrebbe subire alcuna imputazione di responsabilità; b) la ‘‘natural probable consequence’’, ove programmatori e utenti – come conseguenza naturale di un loro eventuale comportamento doloso o colposo – sono considerati penalmente responsabili di un reato commesso da un sistema di intelligenza artificiale, per esempio a causa di un errore nella programmazione o nell’uso; c) la ‘‘direct liability’’, nella quale si è giunti a supporre che all’Intelligenza Artificiale, poiché dotata di mens rea, sia dunque attribuibile una responsabilità per una condotta materialmente eseguita da quest’ultima; ne consegue che, in questo terzo scenario, risulta applicabile l’ipotesi della cd. aberratio delicti, ove l’intelligenza artificiale – una volta programmata una macchina per commettere un determinato reato – deviando dagli input di programmatori o utenti, ne commetta uno di diverso tipo.

Il secondo aspetto su cui la dottrina si è interrogata riguarda, invece, la possibilità che i sistemi di intelligenza artificiale possano agire in veste di ‘‘attori protagonisti’’ anche nel campo giuridico, sostituendosi ‘‘alla mente e alle mani’’ degli operatori di diritto. Anche tale aspetto sarà oggetto nel prosieguo di dedicato approfondimento, tenuto in considerazione che l’attività degli operatori di diritto e, soprattutto, quella dei Magistrati non può sovrapporsi del tutto ad ogni altra attività lavorativa umana. Il lavoro dei Giudici richiede, infatti, il più delle volte, non solo competenze tecniche ma anche ingegno e prudenza, raziocinio e ponderazione, sentimento e comprensione, collocandosi così al di fuori da automatismi decisori in un’ottica di valorizzazione del caso concreto.

7. Rapporto con le varie branche d’’el diritto.

7.1. IA e diritto pubblico.

Il rapporto tra l’IA e la materia del diritto pubblico si apprezza su più fronti e sotto diverse prospettive.

Da una parte, emerge, infatti, per il costituzionalista l’aspetto della tutela dei diritti fondamentali degli utilizzatori dell’IA; dall’altra, viene in evidenza l’esigenza di public regulation della tecnologia mediante adeguate forme di concertazione.

Per quanto riguarda il tema della tutela dei diritti fondamentali, esso si comprende pienamente considerando che i sistemi di intelligenza artificiale possono vedere come propri fruitori sia singoli individui che pubblici poteri. Questi ultimi, infatti, possono servirsi della tecnologia per conseguire plurimi obiettivi, ad esempio per l’efficientamento dell’attività amministrativa.

Da qui, si intuisce come il tema dell’automazione impatti sulle norme di diritto costituzionale – le quali regolano, per definizione, il rapporto tra potere pubblico e individuo – e abbia ripercussioni non solo sulla sfera dei diritti umani ma anche su altri principi costituzionali, rectius su quelli inerenti all’organizzazione della giustizia e all’attività della pubblica amministrazione.

Da questo punto di vista, l’influenza dell’IA sulla materia del diritto pubblico è dunque ‘‘duplice’’, essendo interessato dal tema dell’automazione non solo il rapporto orizzontale tra privati ma anche quello tra privato e pubblici poteri, nei confronti dei quali il sistema delle garanzie deve necessariamente estendersi.

Ad ogni modo, è soprattutto sul piano dei rapporti intersoggettivi che si rende indispensabile l’azione del costituzionalista, il quale deve attivarsi per assicurare che i valori tutelati dalla Carta fondamentale e dalla Carta di Nizza vengano salvaguardati anche al cospetto dei sistemi di intelligenza artificiale.

Se, infatti, sul piano del rapporto tra individuo e poteri pubblici, il ‘‘sistema di giustiziabilità’’ può generalmente dirsi abbastanza adeguato, potendosi ricorrere – come vedremo – ai principi dell’attività amministrativa (tra cui quello della trasparenza, che garantisce un controllo dell’operato di chi esercita il potere) – rispetto ai quali la tecnologia deve necessariamente conformarsi – nei rapporti orizzontali tra privati si profilano esigenze di protezione più specifiche.

Dei primi sviluppi in tal senso si sono registrati sotto il profilo della tutela dei dati personali.

Il GDPR, al Considerando 71 e all’art. 22, ha infatti offerto fondamento giuridico ad un nuovo diritto, id est quello alla spiegazione nell’ambito dei processi decisionali automatizzati, rispondente ad un’esigenza primitiva di trasparenza sul piano (anche) privatistico.

Tale diritto restituisce centralità al fattore umano, permettendo ai cittadini di godere di un significativo grado di protezione rispetto a decisioni interamente aliene dall’intervento umano che lo pregiudicano.

Ad ogni modo, l’intervento del GDPR, per quanto indubbiamente meritevole, non appare sufficiente se analizzato da una prospettiva generale. Del resto, il tema della codificazione di nova iura necessita di essere apprezzato entro confini normativi più ampi (e, dunque, non limitati alla normativa sui dati personali), trovando riconoscimento anche su un piano costituzionale.

Le implicazioni di carattere costituzionale concernenti il tema della tutela dei diritti fondamentali non si esauriscono poi su questo aspetto. Infatti, l’impiego dell’IA si riverbera anche sul diritto all’uguaglianza, da intendersi da un punto di vista sostanziale nei termini di parità di chances, e sui diritti politici.

È, del resto, evidente come la tecnologia influenzi il settore occupazionale.

La Oxford University, già nel 2013, nell’ambito dell’Oxford Martin Programme on the Impact of Future Technology, ha analizzato oltre settecento diverse occupazioni e ha osservato che almeno la metà è destinata a scomparire. Il maggiore impatto si registra nell’ambito delle professioni operaie e artigiane (ordinariamente esercitate da persone con un minor grado di istruzione) – dove si prognostica una progressiva sostituzione della macchina al lavoratore – piuttosto che nel campo professioni intellettuali – in cui si registra una maggiore resistenza dell’uomo all’automazione; ciò con l’effetto che coloro che hanno un livello di istruzione più basso subiscono una diminuzione delle opportunità lavorative di gran lunga maggiore rispetto ai professionisti ovvero agli esercenti attività che richiedono più interazioni sociali.

Negli stessi termini, merita menzione anche il settore medico, ove il ricorso alle macchine ‘‘intelligenti’’ è sempre più frequente e sofisticato, determinando un aumento dei costi sanitari e, quindi, anche del divario tra i cittadini che possono accedere a determinati servizi e quelli che non hanno la possibilità di farlo.

Sul piano, poi, della sfera dei diritti politici, l’utilizzo di tecniche algoritmiche ha condotto ad una selezione degli annunci forniti sul web agli utenti ‘‘virtuosa’’, perché automatizzata e dipendente dalle preferenze del singolo, le quali vengono registrate dal sistema informatico sulla base delle ricerche pregresse effettuate.

A tal proposito, ci si è espressi nei termini di ‘‘bubble democracy’’ ovvero di ‘‘customizzazione’’, la quale, se, da un lato, ha determinato un miglioramento dell’offerta, dall’altro, ha ostacolato una rivisitazione delle opinioni di partenza (si parla, nel senso opposto, di ‘‘confirmation bias’’) tramite il confronto con posizione contrarie, ‘‘neutralizzate’’ dalla rete.

Per quanto concerne, infine, il versante della public regulation, emerge l’esigenza di identificare un’autorità indipendente che assuma le vesti di garante di uno sviluppo dei sistemi di IA improntato al rispetto di una dimensione antropocentrica e alla tutela dei diritti fondamentali. In tal senso, potrebbe ritenersi giovevole affidare la governance ad un soggetto imparziale, con idee neutrali sul piano politico e caratterizzato da un elevato grado di preparazione e di specializzazione dei suoi componenti. A questi potrebbe devolversi l’esercizio di poteri amministrativi, ‘‘quasi legislativi’’ e ‘‘quasi giudiziali’’, di funzioni di carattere regolatorio dell’iniziativa privata ovvero di certificazione pubblica a garanzia dell’affidabilità e della trasparenza per i produttori e gli utenti e, ancora, di funzioni di vigilanza e di controllo rispetto ai rischi di manipolazione e proliferazione.

Tale autorità potrebbe essere, inoltre, affiancata dalla costituzione di un organo consultivo permanente, volto alla promozione del dibattito sulle questioni etiche, giuridiche ed economiche che sollevano i sistemi di intelligenza artificiale.

7.2. IA e diritto civile.

Come evidenziato in precedenza, nell’ambito del diritto civile, lo sviluppo dei sistemi di intelligenza artificiale solleva le problematiche principali in tema di responsabilità, specificamente sotto l’aspetto dell’applicabilità delle norme relative all’illecito in ipotesi in cui una scelta, che si rivela dannosa, sia stata compiuta in base alle elaborazioni di un algoritmo.

Sono in discussione, principalmente, i parametri in base ai quali attribuire detta responsabilità e la funzione della responsabilità medesima, la quale dovrebbe continuare a garantire una certa carica deterrente nei confronti dei possibili tortfeasors e, altresì, rispondere all’esigenza di indennizzare adeguatamente i soggetti danneggiati.

Più nel dettaglio, si è discusso della possibilità di considerare i robot come soggetti di diritto e della possibile esistenza di una garanzia patrimoniale volta a risarcire i danni sofferti dai fruitori della tecnologia ovvero da soggetti terzi.

Si è parlato, a tal proposito, di ‘‘personalità elettronica’’, grazie alla quale i programmatori e gli utilizzatori vedrebbero, di contro, limitata la propria responsabilità e, dunque, attenuate le pretese risarcitorie dei terzi nei loro confronti.

Un ambito peculiare in cui si presenta la descritta problematica attiene, ad esempio, al settore dei veicoli a guida autonoma, in cui, allo stato, le norme sulla responsabilità civile trovano più sovente applicazione e sono coinvolti interessi economici di notevole rilevanza.

Sul tema, la disciplina per danno da prodotti difettosi contenuta nella direttiva 85/374 è stata da taluni considerata inadeguata. È stato, infatti, sottolineato come le norme di conio europeo si riferiscano a tecnologie obsolete e non chiariscano con precisione in quali casi un sistema operativo in grado di apprendere autonomamente è da considerare difettoso.

La European Robotic Tecnology Platform (EUROP) ha distinto gli automi in tre classi: i robot tele-operati, il cui funzionamento dipende unicamente dall’uomo; i robot in grado di svolgere mansioni in modo autonomo ma sulla base di regole definite dall’uomo; i robot di self learning, capaci di prendere delle decisioni senza l’influenza dell’uomo, avendo riguardo ai dati esperienziali raccolti.

Orbene, è soprattutto la terza classe dei robot descritta ad aver alimentato il dibattito dottrinale sulla responsabilità, mettendone in discussione i modelli tradizionali.

Nello specifico, la dottrina formatasi sull’argomento appare divisa.

Invero, da una parte, viene negato il riconoscimento della personalità elettronica alle macchine ‘‘intelligenti’’ – su cui, inizialmente, il Parlamento Europeo, nella risoluzione del 2017 (ove si invitava la Commissione europea a valutare “l’istituzione di uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con terzi”), si è espresso a favore.

Del resto, la personalità elettronica figurerebbe come un tertium genus non riconducibile né alla personalità umana (per l’evidente impossibilità dei robot di vedersi titolari di diritti umani), né alla personalità giuridica (la quale richiede l’esistenza di plurime persone fisiche), né al trust anglosassone (caratterizzato dalla figura del trustee, cui è affidata la gestione del robot concesso).

Inoltre, deve opportunamente evidenziarsi che il robot, a differenza dei soggetti che ordinariamente intrattengono rapporti nell’ambito del diritto privato, non persegue un interesse proprio: egli, invero, agisce a favore di un soggetto diverso che si avvale degli strumenti messi a disposizione dall’Intelligenza Artificiale.

Dall’altra, una diversa parte di studiosi teorizza un nuovo status giuridico per gli automi e invoca la creazione di un patrimonio dedicato o di un fondo assicurativo per far fronte alle pretese risarcitorie conseguenti ai danni cagionati dalle entità artificiali.

Significativa, a tal proposito, è la tesi elaborata da Teubner che ha ipotizzato la sussistenza di una soggettività giuridica parziale per effetto della quale la macchina sarebbe considerata alla stregua di un ausiliario del dominus principale e quest’ultimo risponderebbe ai sensi dell’art. 1228 c.c. (secondo cui ‘‘salva diversa volontà delle parti, il debitore che nell’adempimento dell’obbligazione si avvale dell’opera di terzi, risponde anche dei fatti dolosi o colposi di costoro’’).

Degne di nota risultano poi altre impostazioni dottrinarie che, invece, fanno riferimento alla responsabilità oggettiva da attività pericolosa (art. 2050 c.c.), o del custode (art. 2051 c.c.), o del precettore e maestro (art. 2048 c.c.), o, ancora, al danno cagionato dall’incapace (art. 2047 c.c.).

La dottrina prevalente esclude, ad ogni modo, in questo ambito il ricorso automatizzato all’art. 2236 c.c. che prevede una limitazione di responsabilità nei soli casi di dolo o colpa grave per il prestatore di opera professionale. È stato, infatti, sottolineato come siffatta disposizione normativa non possa trovare un’applicazione generalizzata per ogni attività svolta con l’ausilio dei dispostivi intelligenti, poiché presupposto indefettibile per l’applicazione concreta di detto precetto codicistico è che la prestazione richiesta al professionista implichi la soluzione di problemi tecnici di particolare difficoltà. È, di contro, evidente che l’utilizzo di macchinari mossi da AI non necessariamente provvede alla soluzione di problemi tecnici di particolare difficoltà, ma, anzi, fa fronte a mere questioni ruotinarie, banali o ripetitive.

La Commissione Giuridica Juri del Parlamento Europeo, partendo dal grado di automazione del sistema, ha offerto due differenti paradigmi di responsabilità che verrebbero in rilievo nei casi di pregiudizi cagionati da una macchina ‘‘intelligente’’ alla vita, alla salute, all’integrità fisica, al patrimonio e, da ultimo, nelle ipotesi di danni immateriali significativi che causano una perdita economica verificabile.

Il primo modello – considerate le caratteristiche peculiari dell’IA, tra cui la sua complessità, l’autonomia della stessa e la sua opacità (il cosiddetto effetto “scatola nera”), che rendono difficile per i danneggiati identificare i responsabili e agire ai sensi dell’art. 2043 c.c. – prevede, appunto, la delineazione di una responsabilità oggettiva dell’operatore, unitamente alla previsione di un regime assicurativo obbligatorio. Tale modello si attaglia ai casi di danni talmente gravi che renderebbero già ex ante inaccettabile l’eventualità di non riuscire a risalire ad un colpevole. Nello specifico, i sistemi di IA ‘‘ad alto rischio’’ vengono individuati dalla Commissione Europea e aggiornati semestralmente in un elenco appositamente predisposto. Al contempo, tale regime troverebbe applicazione anche nelle ipotesi di incidenti ripetuti che provocano gravi danni, anche se i relativi dispositivi tecnologici non sono stati ritenuti ‘‘ad alto rischio’’.

Di contro, in tutte le restanti ipotesi (rectius, quelle caratterizzate da un minor grado di automazione dei sistemi di IA) entrerebbe in azione un regime di responsabilità per colpa, con l’effetto che l’operatore dovrà dimostrare di aver adottato tutte le misure necessarie per evitare il danno, ovvero dovrà provare di non aver ignorato gli avvertimenti e le istruzioni del produttore al fine di vedersi esente da responsabilità.

Ciò nonostante, è evidente che a livello europeo e nazionale, per quanto si registrino dei passi in avanti in tal senso, non esiste ancora un diritto positivo certo in vigore che regoli il tema dei danni cagionati dagli automi.

Ne consegue che la soluzione al momento forse più accreditata rimane ancora quella di applicare la (prima citata) direttiva 85/374 e, dunque, di fornire un’interpretazione estensiva del termine ‘‘prodotto’’ volta a ricomprendere il robot.

Rimane, in ogni caso, complesso comprendere in che modo sia possibile imputare un difetto proprio dei sistemi di self learning (e, dunque, in alcun modo riconducibile all’intervento umano) al produttore.

7.3. IA e diritto penale.

La proliferazione dei sistemi di intelligenza artificiale ha determinato, negli ultimi decenni, il sorgere di problematiche giuridiche anche all’interno della materia del diritto penale.

Quella principale, anche qui, concerne il tema della responsabilità per condotte penalmente rilevanti poste in essere da soggetti non umani. Cospicui sono, infatti, i casi in cui le entità artificiali realizzano la lesione di un bene giuridico tutelato dalla legge penale (si pensi, di nuovo, ai veicoli a guida automatica e alle lesioni o agli omicidi da essi realizzati) e, dunque, le ipotesi in cui si chiede se tali entità possano figurare come autori di reato.

Rispetto a tale tematica conviene approcciarsi in modo obiettivo, avendo contezza dei rischi derivanti per il sistema dall’accettazione di forme di responsabilità penali oggettive – di regola estranee al diritto penale – in capo ai progettisti (o anche agli utilizzatori) della macchina ‘‘intelligente’’.

Nella materia del diritto penale, la soluzione tradizionale, id est quella che ha raccolto nel tempo maggior consensi, è stata quella di adottare il modello di imputazione della responsabilità indiretta dell’uomo, il quale rende penalmente responsabili coloro che abbiano programmato e attivato il soggetto agente non umano. Questo sulla base dell’asserzione secondo cui la macchina è uno strumento dell’uomo e i suoi ‘‘comportamenti’’ sono prevedibili; in relazione ad essi, sarebbe dunque sempre possibile muovere all’umano un rimprovero quantomeno a titolo di colpa.

Così opinando, la circostanza che il comportamento pregiudizievole sia direttamente realizzato dall’entità ‘‘intelligente’’ rileverebbe solo in sede di commisurazione della pena, come circostanza aggravante o attenuante, ai sensi di quanto stabilito dall’art. 133 c.p. (che statuisce che il giudice deve tener conto, in primo luogo, dei mezzi di azione).

Il modello di imputazione della responsabilità indiretta dell’uomo è, però, entrato in crisi in seguito al diffondersi dei sistemi di intelligenza artificiale di ultima generazione, operanti in base ad algoritmi aperti ed auto modifiche strutturali determinate dall’esperienza del sistema stesso. In tali casi, invero, il comportamento della macchina ‘‘intelligente’’ non può definirsi come totalmente prevedibile dal suo progettista.

Orbene, di fronte al rischio che interessi primari rimangano privi di tutela penale sono state avanzate varie tesi.

Significativa, a tal proposito, è la tesi di Gabriel Hallevy (studioso a cui supra si è fatto già menzione), la quale reputa come soggetti attivi del reato le macchine ‘‘intelligenti’’ sulla base del riconoscimento in capo a queste di una soggettività giuridica. Siffatta soluzione, come detto, viene avanzata sulla base della circostanza che alcuni sistemi più sofisticati sono in grado di rappresentarsi la realtà e ‘‘prevedere’’ e ‘‘volere’’ un certo risultato come conseguenza della propria azione; o, alternativamente, sono in grado di risultare ‘‘colpevoli’’ nei casi di miscalculation, ovvero di errori di calcolo nei processi di apprendimento.

Ad ogni modo, non si può negare la ‘‘particolarità’’ di un tale approccio che mette in discussione l’intero concetto di pena e sacrifica il principio di colpevolezza di cui all’art. 27 co. 1 Cost. (secondo cui la responsabilità penale è personale) e il principio rieducativo enunciato dall’art. 27 co. 3 Cost.

Del resto, altri studiosi – di fronte al rischio di assenza di tutela penale – preferiscono mantenersi su un terreno più ‘‘neutro’’, o negando aprioristicamente l’uso legittimo dell’intelligenza artificiale al fine di evitare lesioni penalmente rilevanti o adottando la tesi dell’area del rischio penalmente consentito, la quale realizza un bilanciamento tra l’utilità collettiva e i rischi derivanti per il sistema.

7.4. IA e diritto amministrativo e contabile.

La polifunzionalità dei sistemi di intelligenza artificiale trova conferma anche guardando alle pubbliche amministrazioni ovvero agli enti pubblici, i quali sovente fanno ricorso, ai fini della decisione finale, alla procedura informatica.

L’utilizzazione dei sistemi di IA in tale campo deve essere vista con favore: essa, d’altronde, comporta una notevole riduzione della tempistica procedimentale per operazioni ripetitive, è garanzia di imparzialità ed evita interferenze dovute a negligenze del funzionario.

Ad ogni modo, se è piuttosto pacifico il ricorso alle macchine ‘‘intelligenti’’ da parte della pubblica amministrazione nell’ambito dei procedimenti vincolati (ad esempio, per il rilascio di documenti), lo stesso è foriero di dubbi e problematiche per i procedimenti caratterizzati da discrezionalità (tra cui, le procedure di gara o di concorso), in relazione ai quali la giurisprudenza, e in particolare – ovviamente – quella del Consiglio di Stato, si è espressa maggiormente.

La tematica è stata già in parte affrontata nel precedente paragrafo 4 (a cui, perciò, si rinvia) allorché si è detto che il diritto vivente – almeno guardando all’orientamento prevalente – non ha escluso il ricorso agli algoritmi nell’ambito del diritto amministrativo ma ha dichiarato la necessità che la regola tecnica, regola amministrativa generale, rispetti i principi di pubblicità, ragionevolezza, proporzionalità e, soprattutto, trasparenza. È, invero, necessario che l’IA non comporti un abbassamento del livello delle tutele, in particolare quelle di partecipazione e di motivazione dell’atto (art. 3 l. 241/1990), garantite dalla legge sul procedimento amministrativo. Secondo i giudici amministrativi, il principio di trasparenza investe, prima di tutto, il momento ‘‘anteriore’’ della costruzione dell’algoritmo, altresì caratterizzato, latu sensu, da discrezionalità. È stato, infatti, affermato che ‘‘la decisione amministrativa automatizzata impone al giudice di valutare in primo luogo la correttezza del processo informatico in tutte le sue componenti: dalla sua costruzione, all’inserimento dei dati, alla loro validità, alla loro gestione. Si è, pertanto, pervenuti ad una ‘‘declinazione rafforzata del principio di trasparenza’’.

Ad ogni modo, la giustizia amministrativa ha ritenuto che l’adozione del provvedimento sulla base di operazioni di calcolo non affievolisca l’obbligo motivazionale in capo alla pubblica amministrazione ma, di contro, lo rafforzi, richiedendo che l’amministrazione corredi anche di spiegazioni la formula tecnica, rappresentata dall’algoritmo, di modo che essa risulti pienamente comprensibile.

Sempre nell’ambito delle garanzie, si cita poi il principio di non esclusività della decisione algoritmica, il quale trova nell’art. 30 co. 3 lett. b) del Nuovo Codice dei Contratti Pubblici (d. lgs. n. 36/2023) e nell’art. 22 del Regolamento Generale sulla protezione dei dati il proprio riferimento normativo principale. Tale disposizione – secondo cui ‘‘l’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona’’ – rappresenta, nello specifico, una testimonianza dell’esigenza che l’IA rimanga confinata nella veste di ‘‘attore secondario’’ rispetto all’uomo. Essa dovrebbe essere, per lo più, inquadrata come una sorta di responsabile dell’istruttoria del procedimento, il quale – nei panni di un ‘‘funzionario virtuale’’ – presenta una bozza di atto all’organo-uomo titolare del potere di svolgimento della funzione.

Da ultimo, si segnala l’impegno del giudice amministrativo nel pronunciarsi (anche) in tema di danni da provvedimento illegittimo elaborato tramite IA.

La dottrina prevalente in tale ambito, non potendo – anche qui – ipotizzare una soggettività giuridica delle macchine ‘‘intelligenti’’ e presa, altresì, contezza della difficoltà (prima citate) legate alla sussistenza del coefficiente psicologico e alla sua prova in relazione all’art. 2043 c.c. per il danno cagionato ad un singolo funzionario e alla pubblica amministrazione (art. 28 Cost.), ha applicato analogicamente, a tutela del danneggiato, l’art. 2050 c.c. Viene poi fatta salva la possibilità di polizze assicurative per responsabilità civile verso i terzi.

Da un punto di vista amministrativo-contabile, la questione si inserisce, invece, nella tematica del danno indiretto deferito alla Corte dei conti.

Infatti, nelle ipotesi di danno cagionato da un errore ascrivibile ai sistemi di IA adoperati dalla pubblica amministrazione, il danneggiato presenterà un’azione civile innanzi al giudice ordinario o innanzi al giudice amministrativo, a seconda ovviamente del caso ovvero della tipologia di lesione, per danni nei riguardi dell’ente pubblico.

Successivamente alla condanna in giudicato dell’ente convenuto, nei casi di assenza di una polizza assicurativa a tutela della p.a. da cui il danneggiato abbia trovato integralmente ristoro, si configurerà un danno erariale, anche per le spese di lite sopportate dal soggetto pubblico soccombente, devoluto alla Corte dei conti. Quest’ultima sarà tenuta a vagliare tale danno alla stregua dei più ampi e concreti parametri della l. 14 gennaio 1994, n. 20, per ascrivere il danno alla colpa grave (senza spazi applicativi per forme di responsabilità oggettiva) del soggetto responsabile (costruttore, programmatore, utilizzatore, manutentore, custode, ecc.), purché pubblico dipendente o soggetto legato alla p.a. da rapporto di servizio.

8. IA e processo: la figura del robot togato.

Straordinario risulta essere, altresì, l’impatto che l’IA può avere nel campo dell’organizzazione della giustizia, del funzionamento dei sistemi giudiziari nazionali e sul diritto processuale. L’efficienza e la qualità dei processi, grazie all’impiego delle tecnologie algoritmiche, potrebbero trovarne infatti un giovamento importante. Anzitutto, in termini – anche qui – di velocizzazione dei (criticati) tempi della giustizia e/o, ancora, di agevolazione dell’attività di ricerca e analisi dei dati fattuali in giudizi voluminosi.

Ciò nonostante, anche in tale contesto, si rende necessario un utilizzo scrupoloso e ponderato dei sistemi di IA, di modo che venga garantito in via prioritaria il rispetto dei diritti fondamentali dei cittadini.

Nella distribuzione automatizzata dei casi, nella analisi di banche date giurisprudenziali e nella gestione ponderata dei carichi di lavoro e dei flussi, lo strumento dell’automazione è entrato di fatto nel settore giustizia ormai già da tempo.

Ad ogni modo, tre risultano essere le modalità principali attraverso cui l’IA può (o potrebbe) ancora migliorare l’attività degli operatori di diritto e della giustizia: attraverso l’analisi di documenti e la predisposizione di atti; mediante la previsione degli esiti del giudizio; e, infine, con la formulazione di giudizi.

Con riguardo alla prima modalità, si fa principalmente riferimento al settore del diritto civile e del diritto commerciale, sub specie alla predisposizione di quegli atti la cui stesura può dirsi abbastanza ripetitiva e ‘‘meccanica’’.

Ciò nonostante, anche nell’ambito del diritto penale, i sistemi di IA potrebbero trovare un benefico impiego, ad esempio in sede di determinazione degli interessi usurari in un contratto di mutuo o in punto di calcolo della pena. Meritevole di menzione è, da questo punto di vista, il sistema ‘‘Toga’’, un database in cui sono raccolte tutte le fattispecie incriminatrici del Codice penale e della legislazione speciale in grado di calcolare la pena per ciascun reato e di verificare, inoltre, la competenza, la procedibilità, l’ammissibilità a riti alternativi, i termini prescrizionali e la durata delle misure cautelari.

L’IA è stata, inoltre, già di forte sussidio nell’ambito di numerose indagini, tra cui – a titolo esemplificativo – quelle relative al crollo del ponte Morandi, dove la Procura di Genova ha adoperato un software dell’FBI il cui funzionamento si regge, di fatto, sulla presenza di algoritmi molto complessi.

La seconda modalità è quella concernente la giustizia cd. predittiva, rappresentata dalla capacità della macchina ‘‘intelligente’’ di elaborare previsioni sulla base di un calcolo probabilistico effettuato da algoritmi, operanti su base statistica o su base logica, ovvero di prevedere la probabile sentenza relativa ad uno specifico caso.

In questa logica, la giustizia algoritmica potrebbe avere un ruolo estremamente importante. Del resto, partendo dal presupposto che il diritto trova la sua principale ragione giustificativa nella misura in cui esso è garanzia di certezza per i cittadini, potrebbe affermarsi che le previsioni dell’IA (id est la giustizia predittiva), da questo punto di vista, non si porrebbero contro il diritto ma anzi ‘‘potenzierebbero’’ la ratio del diritto medesimo.

Molteplici sarebbero i vantaggi dal ricorso alla giustizia predittiva: in primo luogo, in termini di deflazione del contenzioso, con conseguente maggior ricorso agli strumenti conciliativi, ADR e transazioni; ancora nell’ambito della criminalità, sotto l’aspetto della prevenzione di reati della stessa specie o similari grazie alla registrazione in un sistema informatico delle denunce presentate alla Polizia riguardanti – ad esempio – rapine o furti commessi nelle stesse zone in modo analogo; oppure, infine, in un’ottica di integrazione dell’attività del giurista volta a interpretare la legge ed a individuare argomenti a favore della tesi che si sceglie di sostenere, oltre che di determinazione della decisione finale.

A riguardo, occorre riconoscere come le banche dati giuridiche abbiano, da questo punto di vista, già agevolato il compito del giurista, il quale riesce, grazie alla tecnologia, ad estrapolare il principio di diritto da una sentenza e ad orientarsi su quale possa essere la decisione futura del giudice relativa ad un caso analogo.

Sul punto, non mancano tuttavia numerose critiche. La preoccupazione più grande afferisce al profilo dell’indipendenza del giudice: nello specifico, si instaura il timore che possa crearsi una ‘‘dittatura del precedente’’, simile a quella dei Paesi di Common Law – con conseguente snaturalizzazione del nostro ordinamento giudiziario dovuta ad una poca opera di ‘‘personalizzazione’’ del giudice sulla base del caso concreto in fase decisionale – e che la predizione della macchina finisca per avere non un valore ‘‘indicativo’’ ma ‘‘prescrittivo’’.

Inoltre, da tutto ciò, si segnala anche che ne uscirebbe inevitabilmente sminuita l’importanza della valenza persuasiva delle tecniche argomentative adoperate dall’avvocato nella sua opera di convincimento dell’organo giudicante.

Da ultimo, si pone la questione se una macchina ‘‘intelligente’’ possa addirittura emettere un giudizio (si parla, a tal proposito, della figura del ‘‘giudice robot’’).

Orbene, anche detto impiego della tecnologia dovrebbe considerarsi come foriero, da una parte, di vantaggi, tenuto conto del fatto che gli esiti decisionali devono essere ragionevoli, argomentati, approfonditi e, soprattutto, prevedibili secondo il vigente quadro normativo e giurisprudenziale. È, invero, la stessa Carta costituzionale all’art. 3 – che impone di trattare in modo uguale situazioni giuridiche uguali, assicurando loro il medesimo risultato (trattamento) in presenza di uguali variabili (situazioni) – a valorizzare la necessità di un diritto oggettivo e certo. Ne consegue che, da questo punto di vista, il ricorso alla IA potrebbe addirittura assumere le vesti di uno strumento latu sensu garantista per i cittadini in quanto, minimizzando il rischio di stravaganze interpretative, renderebbe la decisione finale ‘‘impermeabile’’ agli umori e ai preconcetti che ineluttabilmente influenzano e condizionano i giudizi umani, ivi compresi quelli dei magistrati.

Ciò nonostante, pur potendosi adottare un approccio più ‘‘realistico’’ avendo riguardo ai giudizi civili e tributari (si pensi ad una ‘‘banale’’ causa di risarcimento dei danni da incidente stradale ovvero ai ricorsi avverso avvisi di accertamento originati da verifiche bancarie), si manifesta un certo scetticismo nell’ utilizzo dell’IA in relazione ai giudizi penali.

Ciò, in primo luogo, dal momento che il mezzo di prova più sovente utilizzato in ambito penale è la testimonianza e sussiste un’evidente difficoltà per un’entità artificiale nello stabilire se il teste abbia detto o meno la verità; in secondo luogo, perché nel giudizio di valutazione della prova bisogna ricorrere ai criteri di gravità, precisione e concordanza degli indizi di cui all’art. 192 co.2 c.p.p. – di non facile apprezzamento per un automa; e, da ultimo, per il presupposto del giudizio di condanna, rappresentato dalla colpevolezza ‘‘oltre ogni ragionevole dubbio’’, che mal si concilia con l’essenza stessa del computer.

Eppure, il verbo ‘‘decidere’’, dal latino ‘‘de-caedere’’ (tagliar via, eliminare), e il procedimento decisionale del giudice – consistente, appunto, nell’individuare le questioni di fatto e di diritto, nel sottoporle ad un procedimento di eliminazione e poi nel sottoporre la soluzione dominante ad un ulteriore controllo sulla base del criterio di ‘‘falsificabilità’’ – ricordano il procedimento algoritmico di una macchina ‘‘intelligente’’. Quest’ultimo viene, infatti, definito come un procedimento che risolve un determinato problema attraverso un numero finito di passi elementari, chiari e non ambigui.

Ad ogni modo, la normativa vigente sembra negare una possibile esistenza della figura del giudice robot nel settore del diritto penale.

L’art. 6 co. 1 della Convenzione per la Salvaguardia dei diritti dell’uomo e delle libertà fondamentali prevede, infatti, che la causa venga esaminata da un tribunale ‘‘indipendente e imparziale’’; alla stessa stregua, l’art. 111 co. 2 della Costituzione richiede che il processo si svolga davanti ad un giudice ‘‘terzo e imparziale’’. Ciò, tuttavia, non esclude che alle macchine ‘‘intelligenti’’ possa essere comunque demandata, se non la decisione finale, la soluzione di specifiche questioni costituenti il presupposto di tale decisione.

Del resto, l’affidamento completo della decisione finale al robot togato – dotato indubbiamente di memoria storica fatta di dati normativi e di milioni di precedenti giurisprudenziali e di riflessioni dottrinarie – urterebbe con il buon senso, l’equilibrio, l’etica e la coscienza di cui è titolare solo l’Uomo e, dunque, l’Uomo Magistrato.

Vero è, infatti, che la sentenza deve essere prevedibile e coerente, tenuto conto della normativa e dei principali orientamenti giurisprudenziali esistenti in materia ma deve, al contempo, sottolinearsi l’importanza primaria del libero arbitrio dell’Uomo Magistrato, il quale, quando vengono, soprattutto, in rilievo in particolar modo i diritti fondamentali della persona, deve approcciarsi alla decisione finale in maniera tutt’altro che ‘‘meccanica’’ ma con ragione e sentimento, propri della Vita umana.

La Giustizia, a differenza di un algoritmo che tende al ragionamento esatto, deve tendere alla verità, coniugando la verità sostanziale con la verità processuale. E questa prerogativa valutativa è propria solamente dell’Uomo. Pertanto, nel giudicare in tribunale, l’intelligenza artificiale non può che avere un ruolo ancillare e servente rispetto alla riflessione e valutazione del caso concreto, che deve restare appannaggio dell’Uomo.

9. Aspetto pratico: ChatGPT e le sue allucinazioni.

L’intelligenza artificiale sta avendo nel panorama attuale una sempre più vasta applicazione grazie all’utilizzo di GPT-3, creato da Open AI, nonché della sua applicazione pratica cd. ChatGPT. Essa è in grado di generare testi, nuovi contenuti, come ad esempio immagini, video e testi, senza l’intervento umano, ‘‘allineandosi su un ampio set di esempi’’, nonché imparando a creare nuovi campioni simili; ciò pone, di fatto, ‘‘il serio problema del diritto d’autore sui testi elaborati da una macchina’’, la quale – restando pur sempre una res – ‘‘risulta essere come tale inidonea a rivendicare propri diritti personali sulle opere create che così risultano essere orfane di un proprietario’’.

Difatti, deve precisarsi che nei confronti di Open AI, creatrice di ChatGPT, è stata di recente intentata in un Tribunale Federale della California una class action per asserita violazione del diritto d’autore e della privacy di milioni di cittadini. Di fatto, lo studio legale promotore della causa sosteneva come il sistema di intelligenza artificiale cd. “generativa” eseguisse ‘‘i suoi algoritmi mediante l’utilizzo di masse di dati e di informazioni, acquisibili tanto in fonti aperte online, quanto in quelle consultabili da chiunque. La rielaborazione di questi dati da parte dell’AI – con capacità superiori a quelle dell’uomo – al fine di fornire testi, immagini, opere di ingegno comporterebbe nel concreto una violazione del diritto d’autore e della privacy degli originari autori dei dati riutilizzati. Tuttavia, sul punto – in considerazione dell’assenza di solidi spunti normativi in materia – si specifica che il compito di fissare limiti all’acquisizione e alla rielaborazione dei cd. open data sarà appannaggio della giurisprudenza.

Anche nell’ambito dell’insegnamento universitario sono state introdotte forme di AI al servizio degli studenti. L’Università di Harvard, difatti, ha messo a disposizione degli studenti CS50 una intelligenza artificiale analoga a ChatGPT, disponibile 24 ore su 24 ogni giorno, come assistente; ciò permette, da un lato, agli alunni di guadagnare in termini di disponibilità di dati offerti acquisiti in tempi rapidi, ma dall’altro fa sì che si perda ovviamente quella “empatia personale” tipica di un Uomo – specialmente di un docente universitario – la quale rappresenta il profilo più valorizzante del rapporto “maestro e allievo”.

Ad ogni modo, diversamente rispetto a quanto accade nel campo della medicina – dove i risultati iniziali ottenuti dall’Intelligenza Artificiale sembrano essere più che promettenti – la prima esperienza della AI, più specificatamente Intelligenza Artificiale ChatGPT, quale ausiliaria del giurista e/o esperto legale, in Tribunale negli Stati Uniti d’America si è rivelata catastrofica.

La relativa vicenda coinvolgeva il signor Roberto Mata, passeggero di un volo di linea della compagnia aerea Avianca – la cui difesa è stata affidata all’avvocato Steven Schwartz – il quale citava avanti al Tribunale di Manhattan la suddetta compagnia aerea a causa della ferita riportata dallo stesso durante un viaggio aereo ad un ginocchio a seguito dello scontro con un carrello porta vivande a bordo dell’aeromobile.

Davanti al Tribunale di New York, la compagnia aerea richiedeva l’archiviazione del caso, contestando altresì la scadenza dei termini per la proposizione della domanda; tuttavia, l’avvocato Schwartz, si opponeva alla richiesta di archiviazione, menzionando ex multis sette precedenti casi legali in cui i Tribunali americani davano ragione ai passeggeri (quali, ad esempio, il caso Martinez contro Delta Airlines, il caso Zicherman contro Korean Air e molti altri).

Si deve precisare come risultava impossibile per il giudice riuscire a risalire alle sentenze dei casi citati quali precedenti e, pertanto, il giudice stesso richiedeva al legale del signor Mata ove avesse recuperato le sentenze e, soprattutto, in che modo fosse venuto a conoscenza di detti casi.

Il legale, il quale fin da subito, per la ricerca degli stessi, si era rivolto all’Intelligenza Artificiale ChatGPT, svolgeva una ulteriore ricerca su ChatGPT, richiedendo di fatto alla medesima Intelligenza Artificiale i testi completi delle sentenze. Tuttavia, a seguito di questa ulteriore ricerca, veniva a conoscenza che quei precedenti legali forniti dall’Intelligenza Artificiale non erano mai esistiti nella realtà ma frutto dell’invenzione della stessa ChatGPT.

A tal punto, il legale di New York confessava al giudice l’accaduto e di essere – di fatto – stato tradito dalle allucinazioni dell’Intelligenza Artificiale, vale a dire dalle risposte casualmente false e inventate che l’Intelligenza Artificiale, a volte, unisce alle informazioni comprovate e autentiche. Ne consegue, pertanto, l’amara constatazione che le allucinazioni di ChatGPT possono essere deleterie nel mondo del diritto.

Accanto a ciò, deve rammentarsi come recentemente si siano verificate ulteriori ipotesi di cd. allucinazioni da parte dell’IA, quali, ad esempio, la vicenda di un professore universitario di diritto della Georgetown University che era stato accusato di indebite avances sessuali contro una studentessa, le quali, nella realtà, non sono mai state realizzate ma erano solamente il frutto di una invenzione dell’Intelligenza Artificiale.

Sul tema, è utile precisare che denominare detti gravi errori non con il termine ‘‘allucinazioni’’ bensì con quello – forse più corretto – di ‘‘difetti o malfunzionamenti’’ potrebbe dirsi, in un certo senso, più giovevole; infatti, in caso di difetti o malfunzionamenti, il nostro sistema giuridico prevede già delle sanzioni come, ad esempio, in materia di vizi e difetti del prodotto ai sensi dell’art. 1490 e ss. c.c. Ne deriverebbe, pertanto, un’applicazione analogica di dette norme sulla responsabilità anche a ChatGPT e al suo produttore OpenAI.

Ad ogni modo, una simile vicenda apre la strada ad una nuova idea della diffamazione.

Difatti, fermo restando quanto esplicitato nei paragrafi precedenti, se un’Intelligenza Artificiale provoca – così come accaduto nelle ipotesi sopra enunciate – dei danni ad una persona, colui il quale l’abbia progettata e messa sul mercato dovrebbe risponderne: di fatto, da un punto di vista giuridico, trattasi di diffamazione.

Sul punto, si rende necessario ricorrere al parallelismo o meglio all’analogia con il mezzo della stampa, qui specificandosi che nel nostro ordinamento il reato di diffamazione di cui all’art. 595 c.p. è aggravato nel caso in cui l’offesa sia arrecata con il mezzo della stampa o con qualsiasi altro mezzo di pubblicità.

Ugualmente, difatti, si potrebbe ragionare per quanto riguarda ChatGPT, in quanto – oltre a trattarsi di uno strumento che produce notizie al pubblico – non risulta esservi alcun dubbio che sia stato cagionato un danno a colui il quale sia stato infondatamente accusato, ad esempio, di molestie, corruzione, appropriazione indebita e di reati che non avevano alcun collegamento con la realtà (perfino con allegazione di prove costruite ad hoc dall’applicazione di Intelligenza Artificiale).

Ne consegue che nei casi sopra richiamati OpenAI, organizzazione senza fini di lucro volta alla ricerca in materia di intelligenza artificiale, possa dunque dirsi responsabile, tanto sotto il profilo civile quanto quello penale, per i danni che l’Intelligenza Artificiale ChatGPT abbia prodotto. Del resto, non sembra possibile una esenzione da responsabilità giuridica poiché risulta verosimilmente configurabile il reato di diffamazione aggravata a cui deve aggiungersi il risarcimento del danno causato.

10. Conclusioni.

In conclusione, si evidenzia come il tema dell’intelligenza artificiale, analizzato da una prospettiva giuridica, determini la genesi di numerose questioni problematiche che si innestano in ogni principale branca del diritto.

Sovente si guarda, invero, all’IA mettendo alla luce i plurimi vantaggi che dalla stessa conseguono in ogni campo in termini di efficienza e razionalizzazione del lavoro, minimizzazione dei costi, riduzione dei tempi e ottimizzazione delle risorse; tuttavia, è doveroso prendere contezza della grave minaccia per i diritti umani – ‘‘nocciolo duro e insacrificabile’’ del nostro Stato di diritto – e della conseguente necessità di salvaguardarli.

Per i più, la soluzione deriva proprio dalla legge, id est da una regolamentazione appropriata e oculata dei sistemi di intelligenza artificiale, con l’effetto che il pericolo è proprio rappresentato dalla possibilità che il diritto non vada di ‘‘pari passo’’ con l’automazione, ovvero con i moderni sviluppi della tecnologia. Rimangono, invero, ancora irrisolti molti interrogativi inerenti al tema della responsabilità civile e/o penale per i danni cagionati dalle entità artificiali, specialmente nei casi di utilizzo dell’intelligenza artificiale generativa. Da questo punto di vista, verosimilmente decisivo potrà ritenersi l’apporto dell’approvazione definitiva dell’AI Act.

Tuttavia, un’altra parte di esperti guarda con scetticismo al fenomeno del ‘‘novismo digitale’’, cioè alla creazione di nuove leggi ad hoc per gestire le nuove tecnologie. Essi sottolineano come si tratti spesso di leggi non vincolanti e come i principi generali della Costituzione italiana si attaglino già bene al mondo dell’automazione. In aggiunta, si teme che una sovrapproduzione di leggi, volte a tutelare i diritti umani, realizzi il paradosso che i diritti medesimi non vengano più usati come ‘‘spada’’ ma come ‘‘scudo’’ per cercare di evitare le responsabilità di chi realizza illeciti civili o penali.

Da ultimo, deve sottolinearsi, proprio in ragione delle ‘‘esternalità negative’’ di cui supra, la necessità primaria di non cedere, anche in giudizio, alla primazia dell’intelligenza artificiale, bensì quella di favorire nonché affermare quella umana: la tecnologia deve, dunque, detenere un ruolo ancillare e servente rispetto all’intelletto umano, il solo che raccoglie al suo interno equilibrio, buon senso, coscienza, senso del limite, sensibilità, prudenza ed etica, concetti imprescindibili per l’esercizio di ogni attività giuridica e non replicabili in un robot – antropomorfo.

11. Bibliografia.

V. Tenore, I robot in giudizio! Considerazioni sull’utilizzo di intelligenza artificiale (AI) da parte del Magistrato: abdicare al ragionamento e alla riflessione quotidiana a favore di un robot togato, ovvero un ‘‘cretino digitale’’, è un bene per la giustizia e per i suoi attori e destinatari?

A. Pajno, M. Bassini, G. De Gregorio, M. Macchia, F. P. Patti, O. Pollicino, S. Quattrocolo, D. Simeoli e P. Sirena, AI: profili giuridici. Intelligenza artificiale: criticità emergenti e sfide per il giurista in Biodiritto.

R. Borsari, Intelligenza artificiale e responsabilità penale: prime considerazioni in MediaLaws.

S. Riondato, Robot: talune implicazioni di diritto penale in P. Moro, C. Sarra, Tecnodiritto. Temi e problemi di informatica e robotica giuridica.

G. Hallevy, Liability for Crimes Involving Artificial Intelligence Systems.

A. Di Cerbo, Intelligenza artificiale e responsabilità per danno da agente intelligente in Ius in itinere.

Risoluzione del Parlamento Europeo del 16 febbraio 217 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2013 INL).

G. Teubner, Soggetti giuridici digitali? Sullo status privatistico degli agenti software autonomi.

U. Salantrino, Intelligenza artificiale e responsabilità: la strategia della Commissione Europea.

C. Leanza, Intelligenza artificiale e diritto: ipotesi di responsabilità civile nel terzo millennio.

 

M. Soffientini, Intelligenza artificiale: quando si trattano dati personali il pregiudizio può rappresentare un rischio elevato.

U. Ricciardelli, Automazione, Self Learning e Responsabilità civile: note a margine di una riflessione europea in Cammino Diritto.

A. Traversi, Intelligenza artificiale applicata alla giustizia: ci sarà un giudice robot? in Questione Giustizia.

C. Barbaro, Uso dell’Intelligenza Artificiale nei sistemi giudiziari: verso la definizione di principi etici condivisi a livello europeo? in Questione Giustizia.

Normativa sull’IA: la prima regolamentazione sull’intelligenza artificiale, sul sito del Parlamento Europeo.

Sito del Parlamento Europeo.

L. De Biase, G. Finocchiaro, O. Pollicino, Perché OpenAI è responsabile per i danni che ChatGPT ha prodotto sul Sole24Ore.

La prima volta di ChatGPT in tribunale: a New York cita sentenze fasulle e il giudice gli dà torto sul sito Open.online.

Regolamento sull’intelligenza artificiale: cosa vuole il Parlamento europeo, sul sito del Parlamento Europeo.

L. Viola, L’intelligenza artificiale nel procedimento e nel processo amministrativo.

D.U. Galetta, J.G. Corvalán, Intelligenza Artificiale per una pubblica amministrazione 4.0? Potenzialità, rischi e sfide della rivoluzione tecnologica in atto.

M. Martorana, Intelligenza Artificiale: approvato il nuovo regolamento UE in Ipsoa.

M.A. Catarozzo, Giustizia predittiva e Intelligenza Artificiale: quel bisogno antico di prevedere il futuro, in www.dirittoegiustizia.it.

F. Pizzetti, Intelligenza Artificiale, protezione dei dati personali e regolazione, Giappichelli, 2018.

G. Riccio, Ragionando su intelligenza artificiale e processo penale, in Arch. pen., 2019.

F.G. Capitani, Chi vince e chi perde con l’intelligenza artificiale nel diritto, in <www.dirittoegiustizia.it>