The paper focuses on the criminal liability of artificial agents and the ‘humans behind’ Artificial Intelligence. Firstly, it classifies the artificial agents on the basis of their structure and their level of automation and autonomy. Secondly, it excludes the possibility to consider an autonomous agent as a recipient of criminal punishment. Hence, it determines under what conditions humans should be held criminally responsible for developing, programming, producting and using artificial agents that cause harm to others. The paper also analyses when an artificial agent can be considered as a tool to commit a crime or a ‘victim’ of a crime. Finally, it suggests possible criteria to solve some criminal issues related to the technological opacity and the AI development.
Il saggio ha lo scopo di verificare se i tradizionali modelli di attribuzione della responsabilità penale siano ancora validi in relazione ad eventi lesivi che derivano dall’agire di un agente artificiale. Dopo aver classificato gli agenti artificiali sulla base dei loro livelli di automazione ed autonomia, si stabilisce se, allo stato attuale, questi possano essere considerati come “autori” di un reato ed essere assogettati ad una pena. Esclusa tale possibilità, si individuano i criteri di attribuzione della responsabilità penale nei confronti di coloro che stanno “dietro” agli agenti artificiali per gli eventi lesivi ad essi connessi. Di seguito si determinano i casi in cui un agente artificiale può essere impiegato come mezzo di esecuzione di un reato o assurgere ad oggetto materiale di un reato. In conclusione, vengono individuate possibili soluzioni per risolvere alcuni dei complessi problemi giuridico-penali connessi con lo sviluppo dell’Intelligenza Artificiale e la opacità tecnologica che tende a connotarla.
Agenti artificiali, opacità tecnologica e distribuzione della responsabilità penale
SALVADORI IVAN
2021-01-01
Abstract
The paper focuses on the criminal liability of artificial agents and the ‘humans behind’ Artificial Intelligence. Firstly, it classifies the artificial agents on the basis of their structure and their level of automation and autonomy. Secondly, it excludes the possibility to consider an autonomous agent as a recipient of criminal punishment. Hence, it determines under what conditions humans should be held criminally responsible for developing, programming, producting and using artificial agents that cause harm to others. The paper also analyses when an artificial agent can be considered as a tool to commit a crime or a ‘victim’ of a crime. Finally, it suggests possible criteria to solve some criminal issues related to the technological opacity and the AI development.I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.