Un' Intelligenza Artificiale può essere legalmente responsabile delle proprie azioni?

Main Content

Machina delinquere non potest

Prima dell'avvento dell'Intelligenza Artificiale, è sempre stato ritenuto inamovibile il principio non scritto, vigente in ogni ordinamento giuridico, secondo il quale un soggetto "non vivente" non può essere considerato imputabile di un reato.
Questa frase è oggi più che mai divenuta attualissima: siamo infatti nell'era della realizzazione pratica delle speranze e della visione del mondo per le quali il celeberrimo matematico Alan Turing ha gettato le fondamenta, che hanno portato alla nascita degli elaboratori elettronici così come oggi li conosciamo e della loro evoluzione in Intelligenza Artificiale. Ci si pone pertanto la lecita domanda: è ancora valida tale frase nel mondo di Intelligenza Artificiale moderno?
Partendo dall'etimologia della frase il termine "machina" deriva dal latino e significa appunto macchinario, meccanismo o strumento. Il proverbio, pertanto, è una sorta di affermazione morale che afferma l'incapacità delle macchine di commettere reati ed è basato sulla convinzione che solo gli esseri umani possono essere ritenuti responsabili delle proprie azioni, poiché dotati di libero arbitrio e capacità di intendere e volere, elementi che invece mancano alle macchine.
Questa interpretazione della legge rimane ancora valida ai nostri giorni e non sembra prestarsi a molte eccezioni. Infatti, anche nell'era moderna, in cui la tecnologia è diventata una componente sempre più presente della nostra vita quotidiana, le macchine sono considerate incapaci di commettere reati. Una macchina, per la sua natura, non può stabilire coscienziosamente di compiere un'azione illecita, né possiede lo stato mentale necessario per commettere un reato, come ad esempio la valutazione di "colpa" o di "dolo".
Tuttavia, quando si entra nello spazio del diritto tecnologico moderno, a causa del crescente utilizzo di macchine e algoritmi nelle situazioni più disparate è possibile (da un certo punto di vista) inquadrare l'agire della macchina come un "coautore" implicito di alcune attività criminali. Consideriamo l'esempio di un incidente in cui un'auto a guida autonoma investa un pedone: pur non di per sé colpevole il mezzo, le autorità potrebbero richiedere alla società produttrice dell'auto di rispondere di un possibile fallimento o manomissione del sistema (colposo o doloso che sia), il che potrebbe avviare un processo penale vero e proprio. Altri esempi possono essere assistenti virtuali che aiutino con successo una persona nell'eseguire una serie di azioni criminali: tali "assistenti" potrebbero quindi essere utilizzati come prova in un processo penale. In questi casi, la macchina diventa una sorta di attore secondario indiretto delle azioni illecite e potrebbe quindi essere ritenuto in qualche modo responsabile.
Si analizzi inoltre la situazione in cui alcuni paesi stanno sviluppando armi autonome con il potere di decidere e agire senza l'intervento umano. Ciò significa che queste macchine potrebbero diventare armi letali, che potrebbero essere utilizzate per uccidere esseri umani in situazioni di conflitto.
Alla luce di ciò la macchina stessa assume un significato diverso, in quanto armata ed autonoma, ovvero in grado di causare danni ed uccidere in virtù degli algoritmi che eseguono. Questo solleva interrogativi sul fatto che le macchine possano essere considerate "responsabili" per le proprie azioni.
Altro problema è quello di considerare le macchine come rappresentanti di interessi umani e come appare evidente, questa posizione potrebbe comportare numerose complessità. Tuttavia, la responsabilità e l'applicazione delle macchine belliche create dall'uomo sono ancora da interpretare. Ad esempio, in caso di danno o morte causati da un'arma autonoma, chi sarebbe considerato responsabile: il produttore della macchina, il proprietario della macchina, il programmatore della macchina o (presumendo un errore nell'esecuzione del software) la macchina stessa? Ovviamente una macchina autonoma non possiede una propria coscienza morale e di conseguenza non sarebbe in grado di valutare la forza del proprio comportamento col suo potenziale negativo. Proprio per questo motivo umanisti e sociologi si sono posti la domanda se la creazione di tali macchine sia eticamente giustificata, o se sia giusto permettere l'uso di questo tipo di armi in situazioni di conflitto (a prescindere dai dilemmi etici del conflitto stesso). Oltre a ciò, ci sarebbero implicazioni riguardo il rispetto delle norme internazionali, delle leggi sulla guerra, delle leggi internazionali sui diritti umani e della riparazione per i danni causati dal loro uso.