STUDIOPELUSO

Intelligenza Artificiale

Intelligenza Artificiale: prospettive di disciplina della responsabilità e strumenti attuali di tutela. 

Nel sito del parlamento europeo, alla voce “attualità”, l’intelligenza artificiale (IA) è definita come “l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività”. L’intelligenza artificiale permette ai sistemi di capire il proprio ambiente, mettersi in relazione con quello che percepisce e risolvere problemi, e agire verso un obiettivo specifico, lavorando in autonomia. Tali sistemi possono essere: puramente basati su software e agire nel mondo virtuale (ad esempio assistenti vocali, analisi di immagini software, motori di ricerca, sistemi di riconoscimento vocale e facciale); o possono essere incorporati in dispositivi hardware (ad es. robot avanzati, automobili autonome, droni o applicazioni Internet of Things).

L’utilizzo sempre più diffuso dell’I.A.  sta producendo inevitabili conseguenze sia sul piano etico che giuridico. Sotto tale ultimo profilo, una delle questioni più dibattute è senz’altro quella della responsabilità. Noti sono i casi verificatisi nell’esperienza pratica, come ad esempio quello del veicolo a guida autonoma che causa un incidente stradale, o delle informazioni errate, false o anche diffamatorie diffuse da un’assistente virtuale o ancora quello dell’investimento finanziario basato sull’I.A. che determina gravi perdite sul piano economico.

In tale contesto, quello delI’IA è sicuramente uno dei temi prioritari per l’Unione Europea, avendo dichiaratamente espresso il proprio interesse a regolamentare il fenomeno dell’intelligenza artificiale (IA) al fine di sviluppare ed implementare  l’uso di tale innovativa tecnologia per i benefici che è idonea ad apportare nei vari campi (si pensi a quello sanitario, dei trasporti, della produzione o anche dell’energia). Con la proposta dell’aprile 2021 (Regolamento IA) la Commissione ha delineato il primo quadro normativo dell’UE sull’IA, proponendo di analizzare e classificare i vari sistemi di intelligenza artificiale utilizzabili nelle diverse applicazioni in base al rischio che rappresentano per gli utenti e di disciplinare i diversi livelli di rischio in modo maggiore o minore. In data 28 settembre 2022, poi, la Commissione Europea ha adottato una proposta volta ad emanare una nuova direttiva sulla responsabilità per l’intelligenza artificiale (Direttiva IA), allo scopo di facilitare il risarcimento per coloro che abbiano subìto danni derivanti dall’impiego di sistemi di IA. Mentre, dunque, il Regolamento IA proposto dalla Commissione nell’aprile 2021 si concentra principalmente sul monitoraggio e sulla prevenzione dei danni, la Direttiva IA mira ad armonizzare il regime di responsabilità applicabile nei casi in cui i sistemi di IA causino danni, siano essi sistemi ad alto o a basso rischio, in quanto le norme nazionali vigenti in materia di responsabilità, con particolare riferimento al profilo soggettivo della colpa, non sono apparse sufficientemente idonee a disciplinare le azioni di responsabilità per danni causati da prodotti e servizi basati sull’IA.

In particolare, la Direttiva IA prevede due fasi. La prima sarà proiettata a coordinare i regimi nazionali in materia di responsabilità civile per danni causati dall’IA, senza, tuttavia, alterare le regole di diritto interno. In questo senso, ove si verifichino le tassative condizioni contemplate previste in proposta, viene delineata un’agevolazione probatoria in favore del danneggiato, da un lato, prevedendosi una presunzione relativa di responsabilità del danneggiante, con riferimento specifico alla prova del nesso eziologico tra comportamento colposo, attivo od omissivo, del soggetto che ha impiegato l’I.A. ed evento e, dall’altro, conferendo agli organi giurisdizionali nazionali il potere di ordinare al fornitore od ad altro soggetto tenuto ai medesimi obblighi del fornitore la divulgazione di elementi di prova. Trascorsi cinque anni dal recepimento della direttiva ed alla luce del report della Commissione, si aprirà la seconda fase che sarà volta alla verifica dell’efficacia delle misure adottate nella prima fase, degli sviluppi tecnologici, normativi e giurisprudenziali e della necessità di coordinare ulteriori profili della normativa interna dei vari stati membri. Nello stesso contesto la Commissione valuterà anche l’opportunità di prevedere un regime di responsabilità oggettiva per le domande avanzate nei confronti degli operatori di determinati sistemi di IA e l’introduzione di una copertura assicurativa obbligatoria.

In attesa che venga adottata la Direttiva IA, il dibattito resta aperto per la soluzione delle questioni giuridiche insorte, e, per talune di esse, il dibattito non potrà che continuare anche dopo l’adozione della Direttiva I.A.

Tra queste ultime, ad esempio, merita di essere ricordata quella che riguarda la possibilità di riconoscere una qualche “soggettività” o “personalità elettronica” ai sistemi di IA. In verità, ruotando il problema intorno alla identificazione di chi sia la “persona” o il “soggetto” rilevante per il diritto, nei sistemi privi di una normativa che disciplini in modo positivo tale aspetto, quali quelli di common law, la possibilità di un riconoscimento della soggettività anche alla macchina che mostra capacità talmente umane da autonomizzarsi del tutto rispetto al su artefice, non può essere affatto esclusa (nel 2021 la Corte federale d’Australia ha stabilito che l’Artificial Intelligence può essere riconosciuta legalmente come un inventore nelle domande di brevetto). Nei sistemi di civil law, invece, tale aspetto è adeguatamente regolato.  Così ad esempio, il codice civile italiano individua chiaramente la categoria dei soggetti giuridici, inglobando in essa non solo le persone fisiche, ossia le persone umane, ma anche le associazioni, le società e taluni agglomerati di persone, cui il diritto attribuisce la capacità di agire, e cioè il potere di disporre dei propri beni e diritti. Per altro, il codice riconosce in taluni casi eccezionali, qual è quello dei nascituri, anche una capacità più limitata, cd. capacità giuridica, che consiste nell’idoneità a essere centro di imputazione di diritti e di doveri. In tale contesto evidentemente non sussiste nessuno spazio per riconoscere alla macchina che mostra capacità umane alcuna “soggettività” e capacità. La macchina è, sul piano giuridico, una cosa, non un soggetto.

Da tanto consegue che nessuna responsabilità può essere attribuita alla macchina di IA in caso di danno. La responsabilità deve, invece, in ogni caso essere ricondotta ad un soggetto (non importa se persona fisica o giuridica o ente dotato di soggettività). Senza entrare nella elencazione di tutti i possibili soggetti teoricamente facenti parte della catena dei responsabili per l’utilizzo dell’IA (dall’inventore all’utente finale), essendo la casistica assai varia, non è revocabile in dubbio che non potrà considerarsi estraneo colui che, mettendolo a disposizione del pubblico, consenta al sistema di IA di operare nel mondo esterno, come anche colui che, assumendo acriticamente come vera qualunque notizia o informazione derivante dall’IA, la utilizzi e la divulghi senza nessun preventivo controllo. In ogni caso, stando al diritto italiano, le ipotesi che potranno profilarsi saranno due: quella della responsabilità contrattuale o quella della responsabilità aquiliana, o extracontrattuale (salvo, in taluni casi, la convergenza di entrambe). Nella prima, che presuppone l’esistenza di un contratto, il riferimento normativo sarà quello dell’art. 1218 c.c. che, nel presumere la colpa del danneggiante, lo obbliga a risarcire il danno cagionato all’altra parte dal suo inadempimento, salvo non provi che esso dipende da causa a lui non imputabile (si pensi al caso del contratto tra istituto finanziario e cliente di gestione automatica del risparmio in base a un sistema di IA). Nella seconda ipotesi, la disciplina applicabile sarà quella degli artt. 2043 c.c. e seguenti del codice civile. Ai sensi del citato articolo, qualunque fatto doloso o colposo che cagioni ad altri un danno ingiusto obbliga colui che l’ha commesso a risarcire il danno. Nel caso dell’IA si è cercato di applicare direttamente talune norme specifiche (in particolare quelle dall’art 2047 cod. civ. all’art. 2054 cod civ), come l’art. 2048 c.c. sulla responsabilità dei genitori e tutori, o l’art. 2049 c.c. sulla responsabilità dei committenti, o l’art. 2050 c.c. sulla responsabilità per l’esercizio di attività pericolose o anche l’art. 2051 c.c. sulla responsabilità da cosa in custodia. In siffatte ipotesi, com’è noto, si discute se si tratti di casi di responsabilità oggettiva o di casi riconducibili comunque alla responsabilità per colpa (omissiva). In verità, nessuna delle norme indicate pare applicabile in modo diretto al fenomeno della IA, ma la loro analisi sembra confermare l’esistenza di un denominatore comune ravvisabile nello spostamento della responsabilità dall’entità che arreca il danno – sia essa un oggetto (cose in custodia o edifici), un animale o un soggetto (minore, incapace o commesso) – sul soggetto tenuto a vigilare su di essa. Sembra, cioè, che dal sistema si evinca il principio secondo cui il soggetto cui la legge attribuisce uno specifico dovere di vigilanza, di controllo e di custodia su ciò che all’esterno è idoneo a determinare un danno a terzi, risponde del danno. Tale principio è perfettamente suscettibile di essere applicato ai casi di responsabilità extracontrattuale per danno prodotto dall’IA e questa, del resto, sembra essere la direzione verso cui si sta muovendo la UE nella Direttiva IA in fase di emanazione.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Torna in alto