AI-DA


AI-DA, non è il titolo dell’omonima opera lirica di Giuseppe Verdi, ma il nome della robot-artista dalle sembianze umane, il cui arresto avvenuto in Egitto, ad opera dalle forze di polizia locale, per spionaggio internazionale, è risuonato negli organi di stampa di tutto il mondo qualche settimana fa. 

A destare sospetto sono stati i suoi occhi, non per la loro indiscussa bellezza, ma per le telecamere in essi installate, attraverso le quali AI-DA acquisisce immagini, le elabora e successivamente, con il movimento delle braccia crea le sue opere d’arte. AI-DA era infatti volata in Egitto, insieme al suo creatore, Aidan Meller, per partecipare ad una mostra d’arte contemporanea che avrebbe dovuto svolgersi ai piedi delle celebri piramidi di Giza.

Questo avvenimento oltre a suscitare grande ilarità in chi lo legge, pone in verità un fondamentale e allo stato irrisolto problema: può un robot o comunque più ampiamente un sistema di Intelligenza Artificiale, essere considerato penalmente responsabile per azioni, che se commesse, dall’uomo darebbero luogo a reato, come quello di spionaggio internazionale previsto da molti ordinamenti giuridici di quasi tutti gli stati del mondo?

La risposta banale che ad ognuno di noi verrebbe spontanea sarebbe certamente no, ma si tratta di una risposta semplicistica e che non tiene conto delle grandi potenzialità dei sistemi di intelligenza artificiale di raggiungere, in modo autonomo, risultati ulteriori, migliori o peggiori, rispetto a quella che sarebbe stata l’intenzione del loro creatore. 

Vorrei sottoporre al lettore alcune brevi riflessioni senza la pretesa di esaurire, in queste brevi righe, un tema che presenta un’elevata complessità e che richiederebbe molto più tempo e spazio.

Prima di addentrarci nelle questioni della responsabilità penale, ma anche civile, per azioni poste in essere in modo autonomo dai sistemi di Intelligenza Artificiale (in breve anche IA), occorre soffermarsi sulle caratteristiche di queste evolute tecnologie che stanno sempre più pervadendo la vita di ciascuno di noi.

Per quanto qui di interesse, possiamo dire che l’IA è un sistema di tecnologie  complesso creato mediante algoritmi, attraverso il quale è possibile acquisire tutta una serie di dati della realtà o dell’ambiente che la macchina, grazie a tecniche di machine learning e deep learning, elabora per poi produrre, in modo autonomo, un risultato, un’azione o una decisione ( gli esperti parlano di “emergence”), capace di modificare l’ambiente e la realtà anche al di là delle previsioni dei suoi creatori/utilizzatori.

Ci si chiede allora chi risponde degli eventuali eventi lesivi di beni giuridici altrui quando l’IA agisce in modo autonomo?

Si pensi ad es.  al caso dell’incidente stradale provocato nello scorso aprile nel Texas dall’auto a guida autonoma ove persero la vita due persone. È dunque evidentemente che nel caso di specie l’agente artificiale è il diretto esecutore dell’azione che ha provocato la morte dei due soggetti sopra citati; se il fatto fosse accaduto in Italia, ci troveremmo di fronte ad una ipotesi di reato di omicidio colposo. 

Considerato che secondo il nostro ordinamento giuridico e, allo stato, anche secondo  quello europeo, l’IA non è munita di personalità giuridica (com’è invece per es. per le società), chi deve rispondere di questo tipo di reato?  Il creatore dell’IA? Il suo realizzatore? Il venditore? Il suo utilizzatore?

Indubbiamente questi soggetti potranno rispondere di eventi lesivi che siano il risultato di una loro decisione e di una loro scelta, più complesso diventa delineare una loro responsabilità per quegli eventi che sono causati dal comportamento autonomo della macchina.

Una delle ipotesi avanzate dagli studiosi è quella di ricorrere alla normativa sulla responsabilità civile e penale per prodotti difettosi. Tuttavia occorre subito dire che tale legge potrà trovare applicazione solo nei casi in cui vi sia un difetto di progettazione o di fabbricazione del sistema di IA, ma non potrà essere applicata anche per tutti quei comportamenti che sono il risultato “ulteriore” dell’attività di apprendimento della macchina. 

Altri studiosi hanno suggerito di attribuire personalità giuridica (elettronica) almeno a quei robot che hanno la capacità di prendere autonome decisioni.

Alla luce di quanto sin qui affermato appare evidente che il nostro ordinamento giuridico registra un vuoto normativo, al quale si dovrà far fronte imponendo degli obblighi di controllo e di corretto utilizzo ai vari soggetti che intervengono nel processo di creazione prima e di utilizzazione poi dei sistemi di IA, allo scopo di prevenire quei comportamenti emergenti della macchina che possano dar luogo a lesioni dei beni giuridici altrui. 

La soluzione proposta di attribuire alla macchina una distinta personalità giuridica, sembra difficile da percorrere, soprattutto nel campo della responsabilità penale, non solo perché sarebbe complicato, se non addirittura impossibile, accertare l’elemento soggettivo del reato commesso dall’agente artificiale, quale la colpa o il dolo, ma anche perché, la sanzione penale che gli dovrebbe essere applicata, ha, nel nostro sistema giuridico, delle funzioni, quali per es. la rieducazione del colpevole che ci sembrano almeno, allo state dell’arte, impossibili da attuare da un robot o da un sistema di IA comunque denominato, privo della coscienza di cui è munito invece l’agente umano. 

Non ci resta per il momento che affidarci alle tre leggi della robotica di Isaac Asimov, biochimico e scrittore di fantascienza.

Avv. Marilena Zanon

© Riproduzione riservata.


Carrello
Torna in alto