Il lavoro di tesi oggetto della ricerca dottorale muove dall’assunto fondamentale secondo cui l’intelligenza artificiale – la cui regolamentazione rappresenta (forse) la principale sfida che il diritto nel suo complesso sarà chiamato ad affrontare nel prossimo futuro – cela particolari insidie anche in ambiti tradizionalmente “deboli” in fatto di allarme sociale, qual è quello della criminalità economica. Cercando di approfondire il tema della responsabilità penale delle macchine intelligenti, infatti, fiumi di inchiostro si rinvengono, ad esempio, con riferimento ai veicoli a guida autonoma (cd. Self-driving cars) o ai pericoli della pornografia minorile generata per il tramite di sistemi IA, mentre molti meno sono i contributi dedicati allo studio dei rischi esistenti, in materia penale, rispetto all’utilizzo di sistemi di intelligenza artificiale nel mondo dell’economia. Laddove, in altri termini, sono interessi superindividuali a trovare tutela – quali quelli che contraddistinguono spesso la ratio dei reati economici (integrità del mercato, ambiente, interesse dello Stato alla riscossione dei tributi ecc…) – sembra che sia timidamente sentita la necessità di approfondire il tema penale delle emergenze negative degli artefatti intelligenti; e ciò nonostante la centralità che i beni giuridici ad ampio spettro rivestono nell’assicurare pacifica e dignitosa esistenza ai consociati. La disciplina dei reati finanziari algoritmici (chiaramente appannaggio dei cd. White-collar crimes), in questo senso, non è evidentemente esclusa da tale ragionamento e, pur essendo stata oggetto di ampio studio in dottrina estera, si mantiene in Italia sullo sfondo delle riflessioni di pochi specifici autori, sebbene i mercati abbiano, già da molti anni, interiorizzato l’elemento algoritmico come attore decisivo. Molto prima del sorgere di qualsivoglia discussione attorno al chirurgo robotico o all’auto a guida autonoma, infatti, la finanza moderna ha elevato calcolabilità e prevedibilità a valori essenziali del proprio modus operandi e ha favorito l’ascesa di tecnologie sofisticatissime come i traders algoritmici – tra i più noti, i cd. High-Frequency Traders (HFT) o “algoritmi ad alta frequenza” – capaci di svolgere migliaia di operazioni in ristrettissimi lassi di tempo e in assenza di controllo umano, con la conseguenza che le borse costituiscono oggi un interessantissimo banco di prova per la ricerca di soluzioni possibili al problema (irrisolto) della responsabilità penale delle intelligenze artificiali. L’algotrading, infatti, se da un lato si rivela estremamente profittevole nell’immediato, dall’altro reca importanti rischi per quanto concerne i fenomeni di cd. market abuse, posto che la prassi applicativa ha evidenziato, in più occasioni, la tendenza degli algoritmi (soprattutto ad alta frequenza) a volgere autonomamente a condotte assimilabili alle fattispecie di reato più note in ambito finanziario, quali l’abuso di informazioni privilegiate (art. 184, D.lgs. 24 febbraio 1998, n. 58 – T.U.F.) e la manipolazione del mercato (art. 185 D.lgs. 24 febbraio 1998, n. 58 – T.U.F.). Gli HFT, insomma, nascondono un indice di criminosità tutt’altro che trascurabile dietro al proprio agíto, alterando la regolarità delle operazioni finanziarie al variare di fattori impercettibili e influenzando il normale andamento degli scambi senza che sia possibile, per l’utente finale o il produttore/programmatore, conoscerne fino in fondo l’esito o prevederne i comportamenti. Per questa ragione, essi consentono di affiancare agli interrogativi che trasversalmente concernono l’idoneità dell’odierno diritto penale a disporre dei mezzi necessari per disciplinare i reati compiuti dalle intelligenze artificiali (comuni ad altri ambiti) anche alcune considerazioni in merito all’efficacia del diritto penale d’impresa in sé e per sé – pur una volta individuato un modello d’imputazione adeguato al reato algoritmico – a fungere da deterrente rispetto alla commissione di illeciti di natura economica. Ciò premesso, dunque, a valle dell’esame della natura e del funzionamento delle strategie High-Frequency trading di cui si è trattato nel primo capitolo e dello studio delle fattispecie di abuso di mercato rilevanti nella corrispondente forma di manifestazione algoritmica oggetto del secondo, scopo del lavoro di tesi è stato quello di esaminare se e come possano applicarsi gli istituti tradizionali del diritto penale a fattispecie di reato che non trovano compiuta disciplina nella loro manifestazione algoritmica, in un contesto nel quale la grande autonomia di cui queste tecnologie dispongono è causa di una vera e propria dissociazione tra la volontà dell’umano dietro la macchina e il percorso intrapreso dall’automazione nella realizzazione di un dato output. L’interruzione del meccanismo causale tradizionalmente posto alla base dei meccanismi di imputazione presenti nell’ordinamento penale, infatti, non solo scardina la struttura delle attuali fattispecie di reato commissive dolose human-based di cui agli articoli 184 e 185 T.U.F., ma ha indotto chi scrive a chiedersi chi debba rispondere dei fenomeni di market abuse germogliati nel sistema IA, stanti anche il rifiuto solitamente opposto dalle società di produzione a rendere noto il training set di programmazione (cd. “effetto black box”), e la tendenza degli operatori di mercato a opporre il segreto professionale qualora chiamati a rendere conto dell’accaduto. In aggiunta, sempre la rottura della correlazione altrimenti esistente tra il voluto (dall’umano) e il realizzato (dal sistema IA) e della difficoltà dell’umano di conoscere quali siano i processi retrostanti le scelte automatizzate dell’artefatto ha imposto di ragionare attorno alla possibilità di considerare l’intelligenza artificiale quale nuovo e diverso centro di imputazione di situazioni giuridiche soggettive, del pari affrontando l’annosa questione della sanzionabilità di comportamenti che, in quanto figli di esseri inanimati, rischiano di non trovare alcuno sbocco nell’irrogazione di una pena se addebitati direttamente alla macchina. Ciascuna delle funzioni tipiche della sanzione è invariabilmente destinata a venir meno di fronte a un reo non-senziente privo di autocoscienza, di talché ci si è domandati se, anziché perseguire il sistema IA in quanto tale, non valga la pena estendere i confini della rimproverabilità all’umano in chiave omissiva per non aver impedito l’evento algoritmico o ricorrere al modello della responsabilità da reato degli enti di cui al D.lgs. 8 giugno 2001, n. 231, anche passando per lo studio di fattibilità di un modello fondato sulla strict liability. Inoltre, proprio in virtù della complessità di una risalita ai gangli di un comportamento figlio dell’autonomia della macchina, non si è trascurato neppure l’approfondimento delle ipotesi in cui gli algoritmi divengano strumenti per la commissione dell’illecito nelle mani di soggetti malintenzionati interessati a costruirsi uno schermo per l’impunità. Preso atto, infine, della necessità di ripensare l’assetto del diritto penale dei mercati finanziari per venire incontro alle moderne istanze della materia, ci si è soffermati, in chiave critica, sull’utilità effettiva delle ipotesi di reato attualmente esistenti (anche laddove ripensate in veste algoritmica) e del diritto penale stesso – anche in rapporto ad altre branche del sapere giuridico quali, ad esempio, il diritto amministrativo o la responsabilità civile per danno da prodotto) – a fronteggiare simili fenomeni, posto che sovente il costo stesso della sanzione penale è sopportato dalle imprese e dagli operatori del mercato quale balzello necessario per la realizzazione di ulteriore profitto.

Algoritmizzazione dei mercati finanziari, abusi di mercato e criteri di imputazione penale all'epoca delle strategie High-Frequency Trading

Baccin, Alice
2025-01-01

Abstract

Il lavoro di tesi oggetto della ricerca dottorale muove dall’assunto fondamentale secondo cui l’intelligenza artificiale – la cui regolamentazione rappresenta (forse) la principale sfida che il diritto nel suo complesso sarà chiamato ad affrontare nel prossimo futuro – cela particolari insidie anche in ambiti tradizionalmente “deboli” in fatto di allarme sociale, qual è quello della criminalità economica. Cercando di approfondire il tema della responsabilità penale delle macchine intelligenti, infatti, fiumi di inchiostro si rinvengono, ad esempio, con riferimento ai veicoli a guida autonoma (cd. Self-driving cars) o ai pericoli della pornografia minorile generata per il tramite di sistemi IA, mentre molti meno sono i contributi dedicati allo studio dei rischi esistenti, in materia penale, rispetto all’utilizzo di sistemi di intelligenza artificiale nel mondo dell’economia. Laddove, in altri termini, sono interessi superindividuali a trovare tutela – quali quelli che contraddistinguono spesso la ratio dei reati economici (integrità del mercato, ambiente, interesse dello Stato alla riscossione dei tributi ecc…) – sembra che sia timidamente sentita la necessità di approfondire il tema penale delle emergenze negative degli artefatti intelligenti; e ciò nonostante la centralità che i beni giuridici ad ampio spettro rivestono nell’assicurare pacifica e dignitosa esistenza ai consociati. La disciplina dei reati finanziari algoritmici (chiaramente appannaggio dei cd. White-collar crimes), in questo senso, non è evidentemente esclusa da tale ragionamento e, pur essendo stata oggetto di ampio studio in dottrina estera, si mantiene in Italia sullo sfondo delle riflessioni di pochi specifici autori, sebbene i mercati abbiano, già da molti anni, interiorizzato l’elemento algoritmico come attore decisivo. Molto prima del sorgere di qualsivoglia discussione attorno al chirurgo robotico o all’auto a guida autonoma, infatti, la finanza moderna ha elevato calcolabilità e prevedibilità a valori essenziali del proprio modus operandi e ha favorito l’ascesa di tecnologie sofisticatissime come i traders algoritmici – tra i più noti, i cd. High-Frequency Traders (HFT) o “algoritmi ad alta frequenza” – capaci di svolgere migliaia di operazioni in ristrettissimi lassi di tempo e in assenza di controllo umano, con la conseguenza che le borse costituiscono oggi un interessantissimo banco di prova per la ricerca di soluzioni possibili al problema (irrisolto) della responsabilità penale delle intelligenze artificiali. L’algotrading, infatti, se da un lato si rivela estremamente profittevole nell’immediato, dall’altro reca importanti rischi per quanto concerne i fenomeni di cd. market abuse, posto che la prassi applicativa ha evidenziato, in più occasioni, la tendenza degli algoritmi (soprattutto ad alta frequenza) a volgere autonomamente a condotte assimilabili alle fattispecie di reato più note in ambito finanziario, quali l’abuso di informazioni privilegiate (art. 184, D.lgs. 24 febbraio 1998, n. 58 – T.U.F.) e la manipolazione del mercato (art. 185 D.lgs. 24 febbraio 1998, n. 58 – T.U.F.). Gli HFT, insomma, nascondono un indice di criminosità tutt’altro che trascurabile dietro al proprio agíto, alterando la regolarità delle operazioni finanziarie al variare di fattori impercettibili e influenzando il normale andamento degli scambi senza che sia possibile, per l’utente finale o il produttore/programmatore, conoscerne fino in fondo l’esito o prevederne i comportamenti. Per questa ragione, essi consentono di affiancare agli interrogativi che trasversalmente concernono l’idoneità dell’odierno diritto penale a disporre dei mezzi necessari per disciplinare i reati compiuti dalle intelligenze artificiali (comuni ad altri ambiti) anche alcune considerazioni in merito all’efficacia del diritto penale d’impresa in sé e per sé – pur una volta individuato un modello d’imputazione adeguato al reato algoritmico – a fungere da deterrente rispetto alla commissione di illeciti di natura economica. Ciò premesso, dunque, a valle dell’esame della natura e del funzionamento delle strategie High-Frequency trading di cui si è trattato nel primo capitolo e dello studio delle fattispecie di abuso di mercato rilevanti nella corrispondente forma di manifestazione algoritmica oggetto del secondo, scopo del lavoro di tesi è stato quello di esaminare se e come possano applicarsi gli istituti tradizionali del diritto penale a fattispecie di reato che non trovano compiuta disciplina nella loro manifestazione algoritmica, in un contesto nel quale la grande autonomia di cui queste tecnologie dispongono è causa di una vera e propria dissociazione tra la volontà dell’umano dietro la macchina e il percorso intrapreso dall’automazione nella realizzazione di un dato output. L’interruzione del meccanismo causale tradizionalmente posto alla base dei meccanismi di imputazione presenti nell’ordinamento penale, infatti, non solo scardina la struttura delle attuali fattispecie di reato commissive dolose human-based di cui agli articoli 184 e 185 T.U.F., ma ha indotto chi scrive a chiedersi chi debba rispondere dei fenomeni di market abuse germogliati nel sistema IA, stanti anche il rifiuto solitamente opposto dalle società di produzione a rendere noto il training set di programmazione (cd. “effetto black box”), e la tendenza degli operatori di mercato a opporre il segreto professionale qualora chiamati a rendere conto dell’accaduto. In aggiunta, sempre la rottura della correlazione altrimenti esistente tra il voluto (dall’umano) e il realizzato (dal sistema IA) e della difficoltà dell’umano di conoscere quali siano i processi retrostanti le scelte automatizzate dell’artefatto ha imposto di ragionare attorno alla possibilità di considerare l’intelligenza artificiale quale nuovo e diverso centro di imputazione di situazioni giuridiche soggettive, del pari affrontando l’annosa questione della sanzionabilità di comportamenti che, in quanto figli di esseri inanimati, rischiano di non trovare alcuno sbocco nell’irrogazione di una pena se addebitati direttamente alla macchina. Ciascuna delle funzioni tipiche della sanzione è invariabilmente destinata a venir meno di fronte a un reo non-senziente privo di autocoscienza, di talché ci si è domandati se, anziché perseguire il sistema IA in quanto tale, non valga la pena estendere i confini della rimproverabilità all’umano in chiave omissiva per non aver impedito l’evento algoritmico o ricorrere al modello della responsabilità da reato degli enti di cui al D.lgs. 8 giugno 2001, n. 231, anche passando per lo studio di fattibilità di un modello fondato sulla strict liability. Inoltre, proprio in virtù della complessità di una risalita ai gangli di un comportamento figlio dell’autonomia della macchina, non si è trascurato neppure l’approfondimento delle ipotesi in cui gli algoritmi divengano strumenti per la commissione dell’illecito nelle mani di soggetti malintenzionati interessati a costruirsi uno schermo per l’impunità. Preso atto, infine, della necessità di ripensare l’assetto del diritto penale dei mercati finanziari per venire incontro alle moderne istanze della materia, ci si è soffermati, in chiave critica, sull’utilità effettiva delle ipotesi di reato attualmente esistenti (anche laddove ripensate in veste algoritmica) e del diritto penale stesso – anche in rapporto ad altre branche del sapere giuridico quali, ad esempio, il diritto amministrativo o la responsabilità civile per danno da prodotto) – a fronteggiare simili fenomeni, posto che sovente il costo stesso della sanzione penale è sopportato dalle imprese e dagli operatori del mercato quale balzello necessario per la realizzazione di ulteriore profitto.
2025
"algoritmi", "mercati finanziari", "intelligenza artificiale" "abusi di mercato" "market abuse"
File in questo prodotto:
File Dimensione Formato  
Baccin - Tesi di dottorato.pdf

embargo fino al 20/12/2026

Tipologia: Tesi di dottorato
Licenza: Creative commons
Dimensione 2.91 MB
Formato Adobe PDF
2.91 MB Adobe PDF   Visualizza/Apri   Richiedi una copia

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11562/1161207
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact