DAI BIG DATA ALL'INTELLIGENZA ARTIFICIALE. ALLA RICERCA DI PRINCIPI *

 

GIAN PAOLO DEMURO

Università di Sassari. Già direttore

del Dipartimento di Giurisprudenza

 

 

SOMMARIO: 1. Premessa. – 2. I Big Data e la rivoluzione digitale. – 3. Il diritto penale di fronte a Big Data e Intelligenza Artificiale. – 4. Tutela da Big Data e da sistemi di Intelligenza Artificiale. – 5. Tutela dei Big Data e delle entità artificiali. – 6. Big data e algoritmi predittivi. – 7 Ripartiamo dai principi: un quadro di riferimento e compatibilità a livello sovranazionale. – Abstract.

 

 

1. – Premessa

 

Il disagio del diritto penale, con il suo rigido armamentario, di fronte al nuovo che agilmente e rapidamente avanza, si ripete periodicamente. È quanto avvenuto con la responsabilità delle persone giuridiche, dove Carlo Enrico Paliero ha ritenuto gravare storicamente «una pregiudiziale ideologica – rectius una pregiudiziale che non è esagerato definire di natura quasi-teologica – volta ad escludere per se la possibilità di imputare un reato (direttamente o indirettamente, ma soprattutto direttamente) alla persona giuridica. Tale esclusione deriverebbe necessariamente dalla Natur der Sache, ovvero dalla 'incapacità naturale', ontologicamente radicata, della persona giuridica, in quanto non-uomo, ad essere attinta dall'ethos che impregna il rimprovero penale»[1]. E il Maestro che onoriamo in questi Studi superava questa pregiudiziale ponendo scenari ordinamentali, compensando apoditticità e ricercando rationes.

Scenari simili si prospettano oggi di fronte al rapporto del diritto penale con l'intelligenza artificiale e con la fonte da cui promana, i Big Data. Questo non significa inseguire le medesime soluzioni trovate per la responsabilità delle persone giuridiche, ma tentare anche in questo caso un approccio ponderato, soprattutto ricercando rationes e principia per porre poi regulae.

 

 

2. – I Big Data e la rivoluzione digitale

 

Il rapporto del diritto con le tecnologie digitali è una continua rincorsa, con il diritto che come fenomeno di regolazione sociale stenta a seguire i ritmi di sistemi nuovi e complessi. La complessità del rapporto è data innanzitutto dall'oggetto di riferimento: Big Data (BD) e Intelligenza Artificiale (IA) sono termini di uso comune ma di difficile fissazione teorica, con definizioni dunque poliedriche, legate a un fenomeno in continua evoluzione. Ci si chiede addirittura se abbia davvero senso un'unica definizione di IA, considerato che si tratta di materia fortemente interdisciplinare, coinvolgendo diversi ambiti del sapere umano, quali Filosofia, Matematica, Fisica, Economia, Diritto, Neuroscienze, Psicologia, Informatica, Cibernetica, Linguistica. In un comune glossario l'IA viene definita come lo sviluppo di sistemi di elaborazione dati che effettuano funzioni normalmente associate con l’intelligenza umana, come il ragionamento, l’apprendimento e l’auto-miglioramento (Vocabolario Sevocab). Nell'Oxford Dictionary è l’abilità di sviluppare sistemi in grado di acquisire e applicare conoscenza e competenze, come la percezione visuale, il riconoscimento del parlato, il supporto alle decisioni, la traduzione tra linguaggi. L'IA può essere a sua volta implementata in diversi modi: tra i più importanti, algoritmi di ricerca, tecniche di ragionamento e di apprendimento (machine learning).

L'essenza dell'IA ci sembra sia data dalla natura di processo di comprensione o di decisione, in differenti settori della vita sociale, basato su dati, su un gran numero di dati. Il ricorso ai BD nel settore pubblico ha acquisito un’influenza non trascurabile sul processo decisionale, con riferimento a molteplici ambiti, tra cui quello finanziario, sanitario, ambientale o ancora nell'ambito dell’ordine pubblico e dell’istruzione[2]; l’uso dell’IA si manifesta poi nell’ambito delle decisioni politiche, ponendo problemi in parte diversi e ulteriori rispetto a quelli nei campi dell’amministrazione e della giurisdizione[3]. L’utilizzo di Big Data Analytics rappresenta per i soggetti pubblici l’opportunità di identificare con precisione le esigenze dei cittadini e di realizzare, conseguentemente, l’erogazione di servizi in grado di assicurare un maggiore benessere per la collettività[4].

In fondo l'obiettivo di un sistema di IA è arrivare a una scelta razionale: cerca di pervenirvi tramite sensori che raccolgono e interpretano dati, ragionando su ciò che viene percepito o elaborando le informazioni desunte dai dati, decidendo poi quale sia l'azione migliore e agendo di conseguenza tramite i suoi attuatori[5].

Sono dunque i dati la base di partenza e di analisi, dipendendo anzi la qualità del risultato dalla loro correttezza e completezza, considerato che i dati rappresentano fenomeni del passato, con la conseguenza che, attraverso la loro elaborazione, l’algoritmo li proietta nel futuro elaborando la decisione. Anche il termine Big Data richiama un concetto astratto con diverse possibili concettualizzazioni, la cui base comune è l'idea di dati che si riferiscono a un data set la cui dimensione va oltre la capacità di un data base normale di catturare, memorizzare, gestire e analizzare i dati[6]. Per i tecnici informatici, banalmente, Big Data sono Anything that does not fit in Excel, tutto ciò che non entra in Excel o la manda in tilt. I primi produttori di dati siamo noi stessi: ogni minuto nel mondo vengono scambiati milioni di informazioni, con una eterogeneità di fonti («data is everywhere») quali siti web, social, dati gps, mail, whatsapp, ecc. Ogni istante dell’agire, grazie alle tecnologie digitali, è oggi infatti registrato, immagazzinato e successivamente analizzato e rianalizzato per essere valorizzato, potenzialmente, per i più diversi fini[7].

Sempre alla ricerca di una definizione, i caratteri comuni dei BD vengono indicati con i modelli a "V": il volume, che indica il quantitativo di dati disponibile; la varietà, potendo i dati avere tante forme, di tipo numerico, testuale, grafico e audio; la velocità, perché sia la raccolta che l'elaborazione devono avvenire in tempi rapidissimi; la veridicità, difficile da accertare, dipendendo dalle variabili utilizzate per ricercare i dati e dal contesto dal quale vengono estrapolati; la variabilità, nel senso che i dati devono essere contestualizzati; la viralità, relativa alla loro crescita esponenziale[8].

La sfida iniziale dell'IA è stata quella di riprodurre in maniera algoritmica i processi cognitivi umani. I software tradizionali svolgono ancora oggi specifiche funzioni con la guida di sviluppatori e programmatori: dunque il linguaggio, elaborato dall'uomo, è, di regola, trasparente e verificabile, consentendo di comprendere il modo di operare di un algoritmo[9] e il motivo per cui adotta determinate decisioni (input) e produce dati risultati (output). La prima evoluzione, dopo questa fase primordiale, è stata l'affermarsi di una nuova forma di IA basata sull'apprendimento da osservazioni empiriche, il c.d. Machine Learning (ML): in questa forma l'intervento umano è ancora necessario nel predisporre la macchina con competenze di base le quali vengono poi raffinate con l'esperienza empirica. Dal 2010 interviene una nuova tecnica in cui i BD sono ancor più protagonisti, il modello denominato Deep Learning (DP) dove il sistema impara esclusivamente dai dati, senza richiedere più alcuna teoria di base immessa dall'uomo, essendo invece indispensabile un gran numero di osservazioni: come se la nostra conoscenza si basasse esclusivamente sull'esperienza diretta e non, anche, sullo studio[10].

Il diverso grado di intervento dell'uomo rispetto alla macchina incide sulla responsabilità giuridica: in presenza di apporto umano risulta decisivo il momento di messa a punto dell’algoritmo e l’attività dei soggetti a ciò preposti, i Data Scientists, giacché la qualità e la veridicità dei dati stessi è determinante affinché il procedimento matematico possa condurre a un risultato affidabile; quando diminuisca o sia assente il contributo umano si pone l'opposto problema della mancanza di trasparenza sulla responsabilità della scelta o ancora quello ulteriore della autonoma responsabilità della macchina, peraltro con il rischio concreto – segnalato in dottrina[11] – che l’assenza di un qualsivoglia coinvolgimento umano nel corso del procedimento generi il pericolo che l’algoritmo, autoalimentandosi attraverso i suoi stessi risultati, giustifichi l’apparente correttezza del modello adottato.

 

 

3. – Il diritto penale di fronte a Big Data e Intelligenza Artificiale

 

Il rapporto del diritto con l'IA viene ritenuto esplicarsi in due sensi: il primo riguarda il modo in cui il diritto regola o non regola le varie applicazioni dell'IA; il secondo concerne il modo in cui è il diritto stesso a essere soggetto a trasformazioni per il fatto di vivere in una realtà sociale sempre più tecnologizzata[12]; inoltre l'IA è direttamente legata con i principi fondamentali della socialità umana (libertà, tolleranza, giustizia, ecc.)[13]. Le prime implicazioni giuridiche sorte dall’utilizzo di questa nuova fonte di informazioni sono state rappresentate dalla difficile relazione tra BD e leggi anti-trust e con la privacy, dalla relazione tra BD e proprietà intellettuale, dalla titolarità dei BD, nonché dalle politiche di accessibilità e libera circolazione dei dati promosse dall’Unione Europea per la creazione di un Mercato Unico Digitale[14].

Un atteggiamento comune del rapporto del diritto, e dei giuristi, nei confronti di BD e IA è preoccuparsi più per i problemi che pone quanto per le opportunità che offre.

Eppure già oggi l'aggregazione dei dati personali è in grado di fornire un contributo significativo in ambito giuridico, anche specificamente penale. Si pensi in particolare alla capacità a delinquere di cui al comma 2 dell'art. 133 c.p., all'analisi retrospettiva e prognostica investita dagli elementi indicati nei diversi numeri di tale disposizione. La raccolta sistematica di un rilevantissimo numero di dati personali consente la combinazione e individuazione di trend comuni, spesso difficilmente percettibili dall’Autorità Giudiziaria e dal giudicante umano. È possibile così creare matrici statistico-criminologiche aggregando dati personali storici, clinici, attuariali e di personalità del reo o dell’indagato: ciò rappresenta uno strumento sia per l’identificazione del reo ignoto, ma anche per la valutazione della pericolosità e del rischio di recidiva del singolo, alla luce delle sue caratteristiche, a sostegno tanto del giudice cautelare quanto di quello di sorveglianza[15]. L'esito più avanzato, e discusso, è costituito da algoritmi predittivi impiegabili in sede giudiziaria, vuoi per l’implementazione delle attività di law enforcement, di profiling e di policing, vuoi per sostituire il giudice nella prognosi di pericolosità e nell’irrogazione della sanzione (sentencing)[16].

Prevale comunque un approccio "prudente", date le peculiarità del diritto penale, pensato dall’uomo per l’uomo[17], una vicenda di umanità fondata sulla responsabilità personale e sul rimprovero indirizzato nei confronti di una condotta umana; lo stesso esito del giudizio di razionalità vincolata in cui consiste il processo vede come protagonista la motivazione, al centro della quale stanno la ragionevolezza e la fondatezza delle argomentazioni proposte a sostegno della decisione[18].

Dunque si è prospettata l'alternativa se «appellarsi, ancora, all'arnese tradizionale di regolamentazione della hard law, che, per sua stessa natura, privilegia un’ottica ‘reattiva’, idonea cioè ad agire solo sulle conseguenze indesiderate derivanti dalla penetrazione dell’IA» oppure se occorra «muovere in direzione di un approccio ‘proattivo’, capace, cioè, di intercettare i rischi e di governarne in anticipo le problematiche»[19].

I principali profili critici del rapporto - evidenziati dalla dottrina[20] - sono i seguenti:

a) l'imputazione della responsabilità nel caso di commissione di un reato da parte di un sistema che sia in grado di poter agire autonomamente;

b) la legittimità dell'utilizzo di algoritmi predittivi come mezzo di prevenzione della criminalità;

c) il ricorso ad algoritmi nei processi decisionali, e in particolare di risk assessment, per valutare la pericolosità sociale o il rischio di recidiva.

 

 

4. – Tutela da Big Data e da sistemi di Intelligenza Artificiale

 

L'ipotesi più semplice è quella di sistemi non (completamente) autonomi in cui la macchina pensante diviene strumento per la commissione del reato da parte di un uomo. Le fattispecie che vengono in possibile considerazione sono svariate. Si parte naturalmente dai crimini informatici, per passare a quelli economici e ambientali, ai traffici internazionali di sostanze stupefacenti e di altri prodotti illeciti, arrivando anche alla tratta di esseri umani; possono essere coinvolte le violazioni in materia di privacy e trattamento dei dati personali, quelle in tema di proprietà intellettuale e industriale, i reati di diffamazione e di abuso della credulità popolare, magari commessi attraverso bot che creano fakenews destinate alla rete[21]. Si applicheranno in questi casi le fattispecie esistenti, con l'esigenza talora di un rimodellamento legislativo di fronte a queste nuove forme di aggressione.

La dicotomia macchina pensante strumento-autore di reato vive però di molte sfumature per l'imputazione della responsabilità[22]. Si può infatti verificare che la condotta sia opera condivisa di agire umano e IA, col dubbio dunque se imputare l'evento, magari colposamente provocato, a chi ha generato il focolaio di rischio ideando o applicando l'algoritmo[23]; ovvero se la responsabilità gravi su chi ha attualizzato il rischio, producendo e mettendo in vendita la macchina; o ancora infine se la responsabilità si appunti su chi ha concretamente gestito il rischio, servendosi della macchina pensante o cooperando con essa[24].

Può darsi insomma che l'autonomia del software sia "contaminata" dalla persistenza in capo all'utilizzatore di poteri impeditivi, la cui mancata attivazione possa giustificare un'imputazione almeno per colpa; oppure sia possibile configurare una responsabilità per danno da prodotto al programmatore che abbia erroneamente impostato la macchina o abbia sottovalutato rischi e difetti di funzionamento. Possono venire qui in considerazione scenari penalistici (almeno in parte) noti e problematici, come l'individuazione del responsabile di un'attività svolta in equipe, o l'individuazione del colpevole in quelle ipotesi in cui il procedimento decisionale ed esecutivo è parcellizzato, frazionato e distribuito in capo ad una pluralità di soggetti. Quando manchi però la figura umana a cui ascrivere l'illecito, nei casi soprattutto di sistemi di ultima generazione, forniti di capacità di autoapprendimento e di autonomia decisionale, si pone il problema se sia possibile l'attribuzione di responsabilità diretta a tali macchine pensanti, ai dispositivi che generano IA, se possano essere cioè considerati soggetti attivi del reato[25].

Il parallelismo "allettante" con l'incriminazione delle persone giuridiche, la cui capacità criminale è stata riconosciuta con il d. lgs. n. 231/2001 [26], viene ritenuto infondato giacché la colpa di organizzazione dell'ente[27], così come le sanzioni a esso indirizzate, hanno pur sempre come referente la compagine sociale, mentre nei sistemi intelligenti basati sui BD la facoltà di autoapprendimento recide ogni legame con l'uomo[28]. E se anche residuasse un collegamento con la persona o le persone fisiche chiamate a governare la cellula funzionale dalla quale sarebbe stato generato il difetto poi concretizzatosi nel danno, non basterà l’accertamento del nesso di causalità, ma sarebbe ben più problematica l'individuazione delle singole responsabilità all’interno delle organizzazioni complesse[29].

Mentre in fondo la realizzazione di un fatto tipico sarebbe riferibile a tali dispositivi autonomi, il principale nodo problematico di un'attribuzione di responsabilità penale è la compatibilità e la riferibilità della colpevolezza, elemento della sistematica del reato che esprime la tendenza del diritto penale moderno verso una personalizzazione della responsabilità penale, nel senso della rimproverabilità di un coinvolgimento soggettivo dell’autore rispetto al fatto commesso. È davvero pensabile riferire a un algoritmo la capacità di rendersi conto del significato sociale dei propri atti, quella di autodeterminarsi liberamente, di rappresentarsi e volere un fatto tipico, la violazione di una regola cautelare[30]? La risposta è ovviamente no, almeno con gli schemi di attribuzione odierni. Dunque è opinione condivisa, e condivisibile, che seppure si riuscisse a ricostruire la dinamica causale nel rispetto dei principi del diritto penale, se anche si risolvesse il profilo oggettivo, è sul terreno della tipicità soggettiva e della colpevolezza che si profilerebbe comunque il congedo dal diritto penale: per una ragione di immediata percezione, che involgerebbe l’imprevedibilità degli eventi dovuti all'auto-apprendimento del sistema di IA; una caratteristica, questa, in grado di paralizzare il giudizio di imputazione per colpa[31].

Già ci si chiede pertanto se alle diverse costellazioni di casi si adattino schemi di responsabilità basati sul principio della responsabilità personale e colpevole e orientati sulla finalità rieducativa della pena, o se si imponga un cambiamento di prospettiva, adottando schemi di attribuzione della responsabilità – evidentemente eccentrici rispetto a un diritto penale costituzionalmente orientato – basati sull'oggettiva causazione del danno e orientati sul risarcimento come pena; ovvero ancora schemi centrati su nozioni nuove, come quelle di "colpa di programmazione" o di "automazione", che coinvolgano in prima battuta, l'impresa produttrice della macchina, sul modello della product liability[32]. Alla ricerca di una soluzione, o almeno di un percorso di indagine, potrebbe spingere anche - come segnalato in dottrina[33] - la prospettiva europea, in particolare la Risoluzione del Parlamento europeo sulla robotica nel suo considerando Z, per quanto tale Atto si occupi esclusivamente di responsabilità civile, dove le problematiche sono peraltro ben diverse[34].

In un recente contributo critico su un (improbabile) diritto penale ‘robotico’ vengono ben illustrati i tentativi (vani, come vedremo) di trovare una base teorica alla considerazione delle macchine come possibili “soggetti di diritto[35].

Un primo orientamento (in realtà di indirizzo civilistico) punta al riconoscimento della personalità giuridica della macchina ‘pensante’, una sorta di personalità elettronica, giuridicamente rilevante, autonomo centro di interessi e di imputazione, con significative assonanze con il tema della responsabilità penale della societas[36]. I limiti visti a proposito di questo accostamento inducono altri a cambiare paradigma, in senso funzionale: la "persona" diviene così un artificio”, socialmente indotto, che può essere proiettato in direzione di qualsiasi entità capace di deludere aspettative sociali di comportamento[37]. Una decisa posizione di avanguardia è infine quella di chi propone addirittura una responsabilità diretta delle macchine, sostenendo che esse sarebbero certamente capaci di azioni penalmente rilevanti e sul piano soggettivo i sistemi di IA vanterebbero tanto l’estremo della cognizione che quello della volizione[38].

A tutte queste tesi viene però opposto che, se può essere vero che, da un punto di vista meccanico, il sistema ‘agisce’ nel mondo fisico, rimane tuttavia invincibile l'argomento della carenza di libertà di autodeterminazione che contraddistingue l'esperienza degli esseri umani e costituisce la base per qualsiasi volizione cosciente; le intelligenze artificiali non sarebbero comunque rimproverabili, perché sprovviste della capacità di scelta, del libero arbitrio. Il decision making, infatti, non è frutto di una scelta ma è la risultante obbligata dei meccanismi oscuri che alimentano l’algoritmo, a sua volta forgiato dall’uomo[39].

In conclusione, vi è quanto basta per affermare che, allo stato, «machina artificialis delinquere et puniri non potest».

A fronte, oggi, del vuoto di tutela in quei casi in cui l'evento lesivo sia riconducibile in via esclusiva al sistema intelligente, si porrebbe dunque l'alternativa tra:

a) vietare tout court l'uso di tali sistemi, in virtù del principio di precauzione, rinunciano però ai vantaggi che l'IA generata da tali sistemi è in grado di produrre;

b) ammettere invece – ed è la soluzione preferibile – un'area di rischio consentito, al di fuori della quale eventuali deviazioni del software dalle linee programmate potrebbero dar luogo a responsabilità del produttore per colpa con previsione o, nei casi più gravi, di dolo eventuale[40].

Più in generale, in un (prospettato) contesto futuro in cui lo Stato perde il monopolio sul controllo del fenomeno a vantaggio di forme di self-regulation, rispetto alle quali esercita funzioni di indirizzo e di coordinamento, si è proposta per il diritto penale una duplice funzione, che viene definita di cooperative compliance, e che si esplica: a) da un lato nel richiedere alle organizzazioni complesse efficienti apparati organizzativi; b) per altro verso, al cospetto di fenomeni dannosi, il presidio penalistico dell'inosservanza delle ingiunzioni delle autorità all'adozione di misure conformative (ri-programmatorie) o definitive (disattivatrici)[41]. Un ruolo non eclatante, legato a un uso circospetto del diritto penale, ma ritenuto coerente in contesti di incertezza decisionale, che richiedono un governo condiviso della gestione del rischio[42].

 

 

5. – Tutela dei Big Data e delle entità artificiali

 

Alla considerazione come vittima del reato di un sistema o di un agente artificiale si oppongono molte delle considerazioni svolte a proposito della sua possibile veste di autore. Il processo di umanizzazione troverebbe un ostacolo insuperabile già nella considerazione di base per la quale gli agenti artificiali «non hanno, né avranno mai, veri sentimenti»[43]. Ciò non esclude, anzi suggerisce – si osserva esattamente – la possibile introduzione di nuove figure di reato (o l’eventuale modificazione di figure di reato già esistenti), in modo da rendere punibili anche attacchi rivolti specificamente ad agenti artificiali, che oggi non possono trovare adeguata e piena risposta nelle vigenti disposizioni penali[44].

Impossibile il ravvicinamento alle persone, è invece oggi possibile la considerazione dei BD e dei sistemi o agenti artificiali come oggetto materiale di diverse fattispecie di reato[45].

Una prima equiparazione agli effetti penali è quella tra agenti software e programmi informatici: consegue che ogni fatto non autorizzato di alterazione, modificazione, soppressione o deterioramento di un software agent potrà essere ricondotto nell'ambito applicativo della fattispecie di danneggiamento di programmi informatici di cui all'art. 635-bis c.p.[46].

Quanto agli agenti artificiali più complessi, composti da uno o più dispositivi di tipo hardware e software, essi sono da equiparare a un sistema informatico o telematico. La conseguenza è qui che i comportamenti non autorizzati che cagionino, mediante le condotte di danneggiamento di cui all’art. 635-bis c.p., la distruzione, l’inservibilità, totale o parziale, o che ostacolino gravemente il funzionamento di un sistema di IA, potranno pertanto essere sussunti nei delitti di danneggiamento di sistemi informatici (privati o pubblici) di cui agli artt. 615-quater e 635-quinquies c.p. Più in generale – si osserva – a tutela degli agenti artificiali potranno applicarsi, laddove ne sussistano tutti i presupposti, i reati cibernetici (cyber crimes) che hanno a oggetto dati ovvero sistemi informatici[47].

Infine il valore commerciale, talora assai elevato, degli agenti software, porta alla ricerca di una specifica tutela giuridica dei diritti di esclusiva ai loro sviluppatori e produttori. Qui è possibile ricondurre i software agents al concetto di «programmi per elaboratore», che il nostro legislatore equipara, in forza dell’art. 1, co. 2, l. 22 aprile 1941, n. 633 e succ. modifiche (l.d.a.) alle opere letterarie, li rende meritevoli e bisognosi di protezione, anche penale, in quanto sono il risultato di una creazione intellettuale. Ne risulta dunque la rilevanza penale delle condotte consistenti nella duplicazione e nella commercializzazione abusive di agenti software ovvero nella fabbricazione, distribuzione o vendita di dispositivi che abbiano la prevalente finalità o l’uso commerciale di eludere efficaci misure tecnologiche di protezione, destinate ad impedire o limitare atti non autorizzati dai titolari del copyright (art. 171-bis l.d.a.)[48].

 

 

6. – Big data e algoritmi predittivi

 

L'IA pare rivolgere "allettanti" promesse all'amministrazione della giustizia penale (soprattutto a una giustizia penale in crisi): quella innanzitutto che attraverso l'uso di tecnologie informatiche intelligenti la criminalità possa essere effettivamente resa impossibile o possa essere drasticamente ridotta; e poi la promessa che il processo decisionale penale possa essere affrancato dalla soggettività e dalla parzialità umana e, quindi, svolgersi “finalmente” – così si dice – in modo oggettivo, neutrale e coerente[49].

Sul piano operativo, i BD si convertono in algoritmi predittivi in molti settori di rilevanza penale[50].

Viene in rilievo innanzitutto la c.d. polizia predittiva, l'attività statistica con la finalità di prevedere chi potrà commettere un reato e dove e quando esso sarà realizzato[51]. I dati a disposizione sono potenzialmente immensi: si tratta – al solito – di selezionare, processare e intrecciare questi elementi di valutazione, trasformandoli in predizioni. Si va dalle notizie di reati precedentemente commessi, agli spostamenti e alle attività di soggetti sospettati, ai luoghi teatro di ricorrenti azioni criminali e alle loro caratteristiche, al periodo dell’anno o alle condizioni atmosferiche maggiormente connesse alla commissione di determinati reati; molto più delicata è la cernita di dati personali, potendo investire, oltre a livelli di scolarizzazione o condizioni economiche, anche informazioni relative all'origine etnica, con il rischio dunque di etichettare determinate fasce di popolazione. L'indubbia utilità di siffatti sistemi predittivi va bilanciata con alcuni fattori di rischio per diritti fondamentali, soprattutto perché non esistono regolamentazioni ma solo prassi applicative. Del possibile attrito con il divieto di discriminazioni si è detto; va aggiunta la possibile interferenza col diritto alla privacy, considerati i meccanismi non chiari di raccolta delle informazioni e la loro possibile manipolazione o deformazione. Ancora, si mette opportunamente in rilievo il rischio che tali sistemi si autoalimentino con il loro stesso utilizzo, producendo circoli viziosi[52].

L'algoritmica predittiva può trovare applicazioni anche al di là dell'attività di prevenzione dei reati da parte delle forze dell'ordine. Certamente interessante, nel campo imprenditoriale privato, ma con possibili utilizzi anche in ambito pubblico, è l'implementazione, nel mondo anglosassone, di strumenti informatici automatizzati di raccolta, confronto e analisi – anche mediante l’uso di algoritmi e software di IA – di una rilevante quantità di dati, per prevenire reati nell'ambito dell'impresa, in una triplice direzione: 1) identificare indicatori di anomalia e rischio corruzione, nonché ulteriori segnali d’allarme nelle operazioni aziendali; 2) monitorare il traffico mail interno, allo scopo di individuare conversazioni in cui si utilizzino determinate parole chiave considerate “a rischio”; 3) fornire al management un report in real-time in merito a eventuali profili di anomalia nel comportamento del (o nei dati raccolti sul) partner/agente con cui sono in corso determinate operazioni (c.d. third party due diligence)[53].

Anche qui però di fronte alle positive potenzialità applicative si pone il problema della base di partenza, vale a dire la qualità e l’attendibilità dei dati posti al centro dell’analisi informatica: in assenza infatti di regolamentazioni pubblicistiche – sia interne che internazionali – sull’utilizzo di siffatte procedure di valutazione e gestione del rischio reato, ciascuna organizzazione ha assoluta libertà nello strutturare siffatti sistemi. Emerge pertanto ancora il primo, delicato, problema che si sta manifestando nei diversi campi di utilizzo dei BD e dell'IA: la provenienza dei dati da fonti affidabili e sicure[54]; a tale, ormai classico, problema, potrebbe aggiungersi una possibile (arbitraria) selezione alla fonte dei dati stessi attraverso una discrezionalità libera. Dunque perché il funzionamento degli strumenti di data analytics, per individuare fonti di rischio-reato e progettare idonee misure preventive, non si ponga in frizione con diritti fondamentali del singolo si segnala con forza l’esigenza di una regolamentazione del fenomeno nell’ambito pubblico e privato[55].

Dal punto di vista del diritto penale sostanziale sono particolarmente interessanti e dibattuti gli accennati utilizzi di BD e sistemi predittivi a proposito di capacità a delinquere e pericolosità sociale, con i connessi rischi di recidiva[56]. Si pensi innanzitutto al giudizio di previsione in sede di commisurazione della pena, con la prognosi desunta dai motivi a delinquere e dal carattere del reo, dai suoi precedenti penali e dalla vita anteatta, dalla condotta contemporanea o susseguente al reato e dalle condizioni di vita individuale, familiare e sociale (art. 133 comma 2 c.p.), tutte valutazioni utili anche ai fini di applicare una misura alternativa, una misura di sicurezza o una misura di prevenzione oltre che per la recidiva. Qui la spinta propositiva derivante da modelli soprattutto americani è fortissima, con valutazioni prognostiche della pericolosità criminale affidate a specifici algoritmi (risk assessment tools), capaci di attingere e rielaborare quantità enormi di dati al fine di far emergere relazioni, coincidenze, correlazioni, che consentano di "profilare" una persona e prevederne i successivi comportamenti di rilevanza penale[57]. Valga per tutti il citatissimo modello COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), il quale si basa sia su informazioni fornite direttamente dall'imputato in un'intervista (basata su 137 domande), sia sul certificato del casellario giudiziale e dei carichi pendenti, informazioni che vengono poi elaborate per mezzo di un modello computazionale in relazione a dati statistici di controllo[58].

Gli algoritmi predittivi offrono uno scenario carico di attenzione e potenzialità nel contesto italiano[59]. Un primo fattore di attrazione si ritiene possa essere la sempre più marcata crisi della certezza del diritto, che potrebbe alimentare l'interesse verso la giustizia predittiva, al fine di elaborare previsioni quanto più precise possibile in ordine all'esito di alcune tipologie di controversie; un secondo profilo è già l'accettazione come parte integrante del sistema penale italiano delle misure di prevenzione, di per sé strutturate su valutazioni di pericolosità inclini a essere integrate da indici predittivi; infine la crisi, anche di legittimazione, della giurisdizione, potrebbe portare, all'estremo, a invocare valutazioni giudiziali con smart machines, perseguendo l'obiettivo di decisioni tecniche e automatizzate, maggiormente rassicuranti per l'opinione pubblica[60].

Quanto alla capacità a delinquere nella commisurazione della pena, una prima difficoltà viene evidenziata già sul piano tecnico-normativo. Infatti nel nostro sistema non esiste alcuna distinzione bifasica tra pronuncia della sentenza di condanna e successiva irrogazione della pena: ne deriva – de iure condito – l’impossibilità di utilizzare strumenti come COMPAS che si basano sulle risposte fornite dall’imputato al consulente incaricato, dato che un'attività di questo tipo, anche se diversamente denominata, integrerebbe a tutti gli effetti una perizia e, come tale, inutilizzabile per violazione di legge ex art. 191, comma 1, c.p.p.[61].

Le maggiori riserve sull'uso di algoritmi predittivi vengono però direttamente dal rispetto di garanzie fondamentali e di principi costituzionali in materia penale, oltre che in fondo da profili etici[62]. Un primo problema viene posto nella prospettiva del principio di eguaglianza, dato che l'algoritmo è per definizione "antiegualitario", perché considera alcuni fattori di rischio e non altri, ponendo una presunzione di pericolosità per alcuni soggetti e non per altri, con il rischio di discriminazione già sopra segnalato. Un secondo fattore critico è il rispetto del principio democratico e di trasparenza, con ricadute anche sulla riserva di legge. Ancora, sempre sul piano sostanziale, vengono in questione i canoni della materialità, dell'offensività e della personalità della responsabilità penale: la valutazione infatti su generalizzazioni statistiche relegherebbe in secondo piano la considerazione del fatto e porrebbe in risalto invece l'autore, secondo processi di standardizzazione; emergerebbe inoltre il rischio di una sorta di determinismo penale, con valutazioni basate su schemi comportamentali generalizzanti, contrari perciò al principio di individualizzazione del trattamento, sia sanzionatorio che cautelare[63].

In fondo deve condividersi l'opinione di chi svaluta qui lo stesso obiettivo di una stabilizzazione (o peggio ancora, standardizzazione) giurisprudenziale[64], che ha senso quando si tratta di giudicare (in senso ampio), di mettere a confronto, situazioni eguali, fortemente similari od omogenee: lo stesso principio di uguaglianza posto dalla nostra Costituzione sottende una parità di trattamento da intendersi come trattamento eguale di situazioni eguali e trattamento diverso di situazioni diverse. E considerata l'irriducibile diversità di fatti e persone oggetto del giudizio penale, è pertanto quello stesso principio di uguaglianza che si vorrebbe maggiormente garantito con previsioni algoritmiche il principale ostacolo alla loro introduzione in ambito penale. L'adattamento alla diversità richiede una mediazione critica tra valori magari contrapposti in cui la specificità umana non è sostituibile.

 

 

7. – Ripartiamo dai principi: un quadro di riferimento e compatibilità a livello sovranazionale

 

Di fronte a un avanzare privo di specifiche regolamentazioni nella raccolta e nella elaborazione dei dati che poi portano alle decisioni algoritmiche, si pone invece, positivamente, la fissazione di principi[65].

Il quadro normativo di riferimento è dato da atti dell'Unione Europea e del Consiglio d'Europa.

Nell’aprile del 2019 la Commissione Europea ha pubblicato le "Linee guida etiche per un intelligenza artificiale affidabile" (Ethics Guidelines for Trustworthy AI), in cui sono delineati sette principi al fine di assicurare uno sviluppo affidabile dell’intelligenza artificiale.

·                Rispetto dell'autonomia umana: i sistemi di IA dovrebbero responsabilizzare gli esseri umani, consentendo loro di prendere decisioni informate e promuovendo i loro diritti fondamentali, con adeguati meccanismi di supervisione.

·                Resilienza tecnica e sicurezza: i sistemi devono garantire un piano di sicurezza in caso di emergenza, oltre a essere accurati, affidabili e riproducibili, al fine di prevenire e ridurre i danni non intenzionali.

·                Privacy e governance dei dati: oltre a garantire il pieno rispetto della privacy e della protezione dei dati, devono essere assicurati adeguati meccanismi di governance dei dati, tenendo conto della qualità e dell'integrità dei dati stessi, e garantendo un accesso legittimato ai dati.

·                Trasparenza: i modelli di BD e IA dovrebbero essere trasparenti (e tracciabili). Gli esseri umani devono essere consapevoli che stanno interagendo con un sistema di IA e devono essere informati delle capacità e dei limiti dei sistemi.

·                Diversità, non discriminazione ed equità: è necessario evitare pregiudizi ed emarginazioni. I sistemi di IA dovrebbero essere accessibili a tutti, indipendentemente da qualsiasi disabilità.

·                Benessere sociale e ambientale: i sistemi di IA dovrebbero andare a beneficio di tutti gli esseri umani, comprese le generazioni future. Occorre quindi garantire che siano sostenibili e rispettosi dell'ambiente.

·                Responsabilità: dovrebbero essere messi in atto meccanismi per garantire la responsabilità dei sistemi e sui loro risultati. La valutazione (audit) da parte di organismi indipendenti di algoritmi, dati e processi di progettazione, gioca un ruolo chiave al riguardo.

Nell'ambito del Consiglio d'Europa, la Commissione europea per l’efficacia della giustizia (CEPEJ) ha elaborato nel 2018 la "Carta etica europea sull’impiego dell’intelligenza artificiale nei sistemi giudiziari e in ambiti connessi", che rappresenta il più significativo intervento giuridico in Europa sul tema dello sviluppo dell’IA nei sistemi giudiziari[66]. La Carta etica europea è indirizzata non solo ai legislatori degli Stati membri, chiamati a stabilire una cornice normativa, ma anche ai soggetti privati e pubblici che realizzino o impieghino siffatti strumenti. L’obiettivo (dichiarato) della Carta non è certo proibire o disincentivare l’introduzione dell’IA nei sistemi giudiziari, bensì incoraggiarne le applicazioni che possano apportare un miglioramento in termini di efficienza e qualità della giustizia, garantendone però un uso responsabile e rispettoso dei diritti fondamentali enunciati dalla Convenzione europea dei diritti dell’uomo e dalla Convenzione n. 108 del Consiglio d’Europa sulla protezione dei dati personali.

Il primo e più importante principio affermato nella Carta Etica stabilisce che la progettazione e l’applicazione degli strumenti di IA devono sempre essere compatibili con il rispetto dei diritti fondamentali. Per garantire tale rispetto, la CEPEJ suggerisce soprattutto l’elaborazione di norme che operino sin dalle (delicate) fasi iniziali di progettazione e di “addestramento” degli algoritmi, con lo sviluppo di un approccio “ethical-by-design” o “human-rights-by-design”.

Il secondo principio è quello di non discriminazione, a rischio soprattutto nei casi in cui ai fini delle analisi predittive siano impiegati dati sensibili, come visto nei modelli americani.

Il terzo principio della Carta Etica attiene alla necessità di garantire la sicurezza e la qualità degli algoritmi. Tale garanzia può essere data in particolare da un approccio multidisciplinare: sono inoltre indispensabili attente verifiche sull’affidabilità delle fonti e sull’integrità dei dati forniti in input agli strumenti di IA, a tutela in fondo degli stessi Big Data.

Il quarto principio riguarda l'accessibilità, comprensibilità e verificabilità dei processi computazionali dei software, con il delicato bilanciamento tra gli interessi privati relativi alla tutela della proprietà intellettuale e la necessità di soddisfare i requisiti di trasparenza e conoscibilità degli algoritmi impiegati in sede di decision-making. A tale scopo, viene incoraggiata la creazione di autorità indipendenti volte a certificare a priori e verificare periodicamente i software impiegati nei sistemi giudiziari.

Infine il quinto principio della Carta etica impone che agli utilizzatori siano sempre assicurati informazione e controllo delle proprie scelte. Affinché ciò effettivamente avvenga, essi dovrebbero sempre essere messi in condizione di poter risalire alle informazioni elaborate dalla macchina e restare liberi di discostarsi dal risultato da essa fornito, considerando le particolarità del caso concreto. Le decisioni automatizzate dovrebbero sempre essere rese con un linguaggio chiaro e comprensibile.

Sulla base di questi cinque principi la Commissione stila anche una lista di diversi gradi di compatibilità. Si parte dagli strumenti da incoraggiare: rientrano in questa classe le banche dati di ricerca della giurisprudenza e gli strumenti impiegati a fini amministrativi per monitorare le performance dei tribunali e allocare efficientemente le risorse umane ed economiche disponibili. Vengono in considerazione poi quelli sì da considerare, ma con l’adozione di forti precauzioni metodologiche, come i sistemi di risoluzione alternativa nelle controversie online e i sistemi di polizia predittiva di individuazione degli hotspot. Iniziano a porre maggiori dubbi i sistemi in relazione ai quali sarebbero necessari ulteriori studi scientifici, come potrebbe valere per quelli che attengono alla previsione delle decisioni giudiziali; al più può essere riconosciuto a tali sistemi uno scopo puramente informativo, anche per l’impossibilità di vincolare il giudice al “precedente quantitativo”, che porterebbe a un’indesiderabile cristallizzazione del diritto. Infine vi sono quelli su cui invece la CEPEJ esprime le più “estreme riserve”: sono proprio i risk assessment tools utilizzati in ambito processuale penale, volti a fornire un ausilio alla decisione giudiziale, di cui si scoraggia caldamente l’introduzione in territorio europeo. Le principali preoccupazioni espresse dalla CEPEJ in merito all’uso degli strumenti predittivi della capacità a delinquere, della pericolosità e della recidiva, attengono ai possibili effetti discriminatori, al rischio di derive deterministiche e alla tendenziale incompatibilità con i principi della rieducazione del condannato e dell’individualizzazione della pena.

Ancora, in questa ricerca di principi – che spesso si ripetono – il contributo più recente è dato dall’approvazione (11 maggio 2023) della proposta di legge europea (Artificial Intelligence Act) da parte delle commissioni Mercato interno e Libertà civili del Parlamento europeo[67]. Rispetto al testo originario proposto dalla Commissione europea nell’aprile 2021 la più rilevante novità dell’AI Act è data proprio dall’aggiunta dei sei principi generali (art. 4a: General principles applicable to all AI systems) che tutti gli operatori dell’intelligenza artificiale dovranno rispettare nello sviluppo e nell’utilizzo dei sistemi di AI. Tali principi sono così descritti:

a)          Intervento umano e supervisione.

«I sistemi di IA devono essere sviluppati e utilizzati come uno strumento al servizio delle persone, rispettando la dignità umana e l’autonomia personale e funzionando in modo tale da poter essere adeguatamente controllato e supervisionato dagli esseri umani».

b)          Solidità tecnica e sicurezza.

«I sistemi di IA devono essere sviluppati e utilizzati in modo da ridurre al minimo i danni non intenzionali e imprevisti, nonché essere adeguati in caso di problemi non intenzionali ed essere resilienti contro i tentativi di alterare l’uso o le prestazioni del sistema di IA in modo da consentirne l’uso illecito da parte di terzi malintenzionati».

c) Privacy e governance dei dati.

«I sistemi di IA devono essere sviluppati e utilizzati nel rispetto delle norme vigenti in materia di privacy e protezione dei dati, trattando i dati in modo tale da soddisfare standard elevati in termini di qualità e integrità».

d)          Trasparenza.

«I sistemi di IA devono essere sviluppati e utilizzati in modo da consentire un’adeguata tracciabilità e spiegabilità, rendendo al tempo stesso consapevoli gli esseri umani che comunicano o interagiscono con un sistema di IA e informando debitamente gli utenti delle capacità e dei limiti di tale sistema IA e le persone interessate sui loro diritti».

e)          Diversità, non discriminazione ed equità.

«I sistemi di IA devono essere sviluppati e utilizzati in modo da includere attori diversi e promuovere la parità di accesso, l’uguaglianza di genere e la diversità culturale, evitando impatti discriminatori e pregiudizi sleali vietati dall’Unione o dalle leggi nazionali».

f) Benessere sociale e ambientale.

«I sistemi di IA devono essere sviluppati e utilizzati in modo sostenibile e rispettoso dell’ambiente, nonché in modo da apportare benefici a tutti gli esseri umani, monitorando e valutando al contempo gli impatti a lungo termine sull’individuo, sulla società e sulla democrazia».

Ci sembra significativo infine che la fissazione di principi non venga solo da autorità pubbliche, ma che si assista a una sorta di autoregolamentazione etica anche da parte privata. Dalle visioni pessimiste si passa a sognare “scientificamente”, in un arco di tempo lunghissimo, i possibili scenari positivi dell’umanità. Ma il lieto fine non è garantito. Dunque, per proteggere e rilanciare la nostra umanità in una chiave, appunto, umanista, Elon Musk (CEO di Tesla), Stephen Hawking (astrofisico) e altri 2335 ricercatori ed esperti, sotto l’egida del neocostituito Istituto Future of Life, hanno approvato un cyber-manifesto di 23 “Principi di Asilomar” (località californiana in cui a gennaio 2017 si è svolta la conferenza, con successivi incontri annuali)[68]. Tra questi, di specifico interesse, la trasparenza degli errori (“If an AI system causes harm, it should be possible to ascertain why”) e, in modo ancora più significativo ai nostri fini, “la trasparenza giudiziale” (“ogni utilizzo di un sistema automatizzato in un processo di decisione giudiziale dovrebbe fornire una spiegazione soddisfacente verificabile da una autorità umana competente”), insieme a quelli già visti in ambito internazionale, di responsabilità, compatibilità con i valori e i diritti umani, protezione della riservatezza, controllabilità umana.

 

 

Abstract

 

Artificial intelligence confronts the law and here in particular the criminal law with new challenges, new opportunities and new problems. The essay aims to illustrate the possible implications for criminal law and affirms the need to restart from shared principles, which reconcile the extraordinary capabilities of big data and artificial intelligence with respect for the fundamental rights of the human person. A problem therefore not only ethical but also legal, on which the first principles - even more essential in criminal law - are starting to be affirmed, in particular by placing the need to respect fundamental rights and the principles of non-discrimination, quality and safety, of transparency, impartiality and correctness, of guarantee of human control: above all with this last principle a deterministic or automatic approach will be precluded, to preserve a dimension of humanity throughout the process of justice.

 

La inteligencia artificial enfrenta al derecho y aquí en particular al derecho penal con nuevos retos, nuevas oportunidades y nuevos problemas. El ensayo pretende ilustrar las posibles implicaciones para el derecho penal y afirma la necesidad de partir de principios compartidos, que concilien las capacidades extraordinarias del big data y la inteligencia artificial con el respeto a los derechos fundamentales de la persona humana. Un problema, por tanto, no sólo ético sino también jurídico, sobre el que se empiezan a afirmar los primeros principios - aún más esenciales en el derecho penal - en particular situando la necesidad de respetar los derechos fundamentales y los principios de no discriminación, calidad y seguridad, de transparencia, imparcialidad y corrección, de garantía del control humano: sobre todo con este último principio se impedirá un enfoque determinista o automático, para preservar una dimensión de humanidad a lo largo del proceso de justicia.

 

L’intelligenza artificiale pone il diritto e qui in particolare il diritto penale di fronte a nuove sfide, nuove opportunità e nuovi problemi. Il saggio si propone di illustrare le possibili implicazioni per il diritto penale e afferma la necessità di ripartire da principi condivisi, che contemperino le straordinarie capacità di big data e intelligenza artificiale con il rispetto dei diritti fondamentali della persona umana. Un problema dunque non solo etico ma anche giuridico, sul quale i primi principi – ancor più essenziali in diritto penale – iniziano a essere affermati, in particolare ponendo la necessità del rispetto dei diritti fondamentali e dei principi di non discriminazione, di qualità e sicurezza, di trasparenza, imparzialità e correttezza, di garanzia del controllo umano: con quest’ultimo principio soprattutto si precluderà un approccio deterministico o automatico, per preservare una dimensione di umanità durante tutto il percorso della giustizia.

 

        



 

[Per la pubblicazione degli articoli della sezione “Contributi” si è applicato, in maniera rigorosa, il procedimento di peer review. Ogni articolo è stato valutato positivamente da due referees, che hanno operato con il sistema del double-blind]

 

* Questo saggio rappresenta una versione più estesa e un aggiornamento, anche alla luce dell’IA Act del Parlamento europeo, del contributo pubblicato negli Studi in onore di Carlo Enrico Paliero.

[1] C.E. PALIERO, La società punita: del come, del perché, e del per cosa, in Riv. it. dir. proc. pen. 4/2008, 1516.

[2] M. TRESCA, Lo Stato Digitale. Big data, open data e algoritmi: i dati al servizio della pubblica amministrazione, in Riv. dir. pubbl. 2/2021, 546.

[3] A. CARDONE, Decisione algoritmica vs decisione politica?, Napoli 2021, 11 ss.

[4] A. MORETTI, Algoritmi e diritti fondamentali della persona. Il contributo del Regolamento (UE) 216/679, in Il diritto dell'informazione e dell'informatica 4-5/2018, 800.

[5] Così descrive il processo F. BASILE, Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine, in Diritto Penale e Uomo (DPU), 29 settembre 2019, 6, basandosi sul documento "Una definizione di IA: principali capacità e discipline scientifiche", elaborato dal Gruppo Indipendente di 52 esperti ad alto livello, nominato dalla Commissione europea per svolgere a suo favore funzioni di consulenza sull’IA.

[6] J. MANIKA, Big Data: the next frontier for innovation, competition and productivity, Technical report, McKinsey Global Institute, Vol. 7, 2011, http://www.mckinsey.com/Insights/MGI/Research/Technology_and_Innovation/Big_data_The_next_frontier_for_innovation. Vedi anche S. STEFANIZZI, Riflessioni metodologiche sul concetto e sull'uso dei Big Data, in Big Data e processi decisionali, a cura di S. Gozzo, C. Pennisi, V. Asero, R. Sampugnaro, Milano 2020, 17 ss.

[7] F. DI PORTO, La rivoluzione Big Data. Un'introduzione, in Concorrenza e mercato 1, 2016, 5. In prospettiva più ampia, V. MAYER-SCHÖNBERGER e K. CUKIER, Big data. Una rivoluzione che trasformerà il nostro modo di vivere e già minaccia la nostra libertà, Milano 2013. Per l'utilizzo dei Big Data in questa fase pandemica, M. SINISI, Uso dei big data e principio di proporzionalità, in federalismi.it 8/2020, 373 ss.

[8] Tra i tanti, J.S. HURWITZ, M. KAUFMANN, A. BOWLES, Cognitive Computing and Big Data Analytics, Indianapolis 2015, 56 ss.; M. LYCETT, Datafication: Making Sense of (Big) Data in a Complex World, in Eur. J. of Inf. Syst. 2013, 381.

[9] La stessa definizione di algoritmo è tutt'altro che univoca, comprendendo un'ampia gamma di processi computazionali: vedi E. FINN, Che cosa vogliono gli algoritmi, trad. it. D.A. Gewurz, Torino 2017, 4 ss.

[10] G. GIUFFRIDA - F.M. RINALDI, Big Data, Intelligenza Artificiale e Machine Learning: tra discriminazione e responsabilità algoritmica, in Big Data e processi decisionali, cit., 35 ss. Sulle c.d. macchine pensanti, le quali svolgono cioè attività in assenza del controllo umano e sono in grado di apprendere dalla propria esperienza e di migliorare il comportamento, C. PIERGALLINI, Intelligenza artificiale: da "mezzo" ad "autore" del reato?, in Riv. it. dir. proc. pen. 4/2020, 1746. Per la classificazione degli agenti artificiali in base al grado di automazione o di autonomia, I. SALVADORI, Agenti artificiali, opacità tecnologica e distribuzione della responsabilità penale, in Riv. it. dir. proc. pen. 1/2021, 90 ss. Sulla forma di intelligenza propria delle macchine, A. SIMONCINI, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in Riv. BioDiritto 1/2019, 69 ss.

[11] A. MORETTI, Algoritmi e diritti fondamentali della persona, cit., 803.

[12] A. SANTOSUOSSO, Intelligenza artificiale e diritto. Perché le tecnologie di IA sono una grande opportunità per il diritto, Milano 2020, 25.

[13] C. BURCHARD, L’intelligenza artificiale come fine del diritto penale? Sulla trasformazione algoritmica della società, in Riv. it. dir. proc. pen. 2019, 1916.

[14] I Big data e la rivoluzione digitale del diritto, in Ius in itinere, 31 gennaio 2018. Per le problematiche in materia di analisi e gestione del rischio derivante dal trattamento dei dati personali nel nuovo contesto tecnologico e informatico, M.S. ESPOSITO, Trattamento dei dati personali e rischi correlati, nel prisma dei diritti e delle libertà fondamentali, in Il diritto dell’informazione e dell’informatica 4-5/2019, 1071 ss.

[15] C. COSTANZI, Big Data e garantismo digitale. Le nuove frontiere della giustizia penale nel XXI secolo, in La Legislazione Penale (www.lalegislazionepenale.eu), 31 dicembre 2019.

[16] C. PIERGALLINI, Intelligenza artificiale: da "mezzo" ad "autore" del reato?, cit., 1747. Vedi M. LUCIANI, La decisione giudiziaria robotica, in Rivista AIC 3/2018, 872 ss.; C. BURCHARD, L’intelligenza artificiale come fine del diritto penale? Sulla trasformazione algoritmica della società, cit., 1909 ss.

[17] In un'epoca in cui i big data e gli algoritmi cercano di dettare i ritmi della nostra vita, fanno ingresso nelle decisioni pubbliche e tentano di spiegare il passato e di predire il futuro anche nella giustizia penale, non va dimenticato il monito di Antonio Pigliaru (in un suo breve ma intenso saggio sul valore morale della pena) sulla "umanissima" vicenda penale, dal momento della commissione del reato al processo e alla esecuzione della pena: al centro sempre l'uomo e il rapporto con gli altri. Dunque il recupero di una dimensione di umanità durante tutto il percorso del diritto è un obiettivo di oggi e di sempre. Questo recupero di umanità non è una battaglia di retroguardia ma di avanguardia: una giustizia segnata nelle sue diverse fasi da un livello superiore di partecipazione personale è in grado innanzitutto di poter aspirare a una maggiore effettività, perché più sentita come propria. Sia consentito il richiamo a G.P. DEMURO, Per un'umanizzazione del diritto penale: rileggendo (il "Saggio sul valore morale della pena" di) Antonio Pigliaru, su Diritto @ Storia, Rivista Internazionale di Scienze Giuridiche e Tradizione Romana quaderno n. 15, 2017 < Demuro-Umanizzazione-diritto-penale-Antonio-Pigliaru (dirittoestoria.it)>.

[18] Così V. MANES, L'oracolo algoritmico e la giustizia penale: al bivio tra tecnologia e tecnocrazia, in Intelligenza artificiale. Il diritto, i diritti, l'etica, a cura di U. Ruffolo, Milano 2020, 547-548.

[19] C. PIERGALLINI, Intelligenza artificiale, cit., 1748.

[20] P. SEVERINO, Intelligenza artificiale e diritto penale, in Intelligenza artificiale. Il diritto, i diritti, l'etica, cit., 532.

[21] F. BASILE, Intelligenza artificiale e diritto penale, cit., 25 ss., e S. PREZIOSI, La responsabilità penale per eventi generati da sistemi di IA o da processi automatizzati, in Il diritto nell’era digitale. Persona, Mercato, Amministrazione, Giustizia, a cura di R. Giordano, A. Panzarola, A. Police, S. Preziosi, M. Proto, Milano 2022, 713 ss. A proposito di illeciti nel mercato finanziario, F. CONSULICH, Il nastro di Möbius. Intelligenza artificiale e imputazione penale nelle nuove forme di abuso del mercato, in Banca Borsa Titoli di credito 2018, 195 ss.

[22] Una accurata analisi di queste diverse combinazioni di responsabilità uomo-macchina è compiuta da I. SALVADORI, Agenti artificiali, opacità tecnologica e distribuzione della responsabilità penale, cit., 92 ss., il quale distingue, sulla base del livello di automazione e di autonomia, quattro categorie: a) agenti artificiali che operano in modo automatico e sono soggetti a un controllo da parte dell'uomo; b) agenti artificiali di secondo livello, il cui operare dipende sempre da algoritmi deterministici, possono risolvere problemi già previsti dai loro programmatori e sviluppatori o reagire in autonomia di fronte a situazioni prestabilite; c) a.a. di terzo livello (semi-autonomi), dotati di algoritmi di apprendimento automatico (ML), sono in grado di imparare, correggere e migliorare i loro comportamenti a seconda della esperienza che maturano, senza seguire regole predeterminate dall'uomo; d) il livello più elevato di autonomia viene raggiunto dai sistemi multiagente (multi-agent systems o MASs), i quali, grazie all’Internet of Things (c.d. IoT), possono interagire con altri agenti ed oggetti (a es. sensori) e sono capaci di adeguare autonomamente i loro comportamenti in base all’ambiente in cui si trovano a operare. Così descrive invece la sequenza C. PIERGALLINI, Intelligenza artificiale, cit., 1746-1747: l’ideatore (umano) genera l’algoritmo, questo ‘conosce’, grazie all’esperienza, e ‘rielabora’, potendo pervenire a scelte del tutto impreviste ed imprevedibili da parte dell’ideatore. Un vero e proprio decision making in condizioni di incertezza. Nella versione “forte”, l’IA punta a conseguire un livello di intelligenza pari a quello dell’uomo, dunque macchine pensanti (humanlike), provviste di un’intelligenza almeno pari a quella dell’uomo. In una prospettiva “debole”, le macchine si comportano come se fossero effettivamente pensanti, capaci di cooperare e di competere con l'uomo nell’ambito di svariate attività (perfino ludiche). Anche C. BURCHARD, L’intelligenza artificiale come fine del diritto penale?, cit., 1916. Sulla differenza tra "autonomia" e "automazione", G. COMANDÈ, Responsabilità ed accountability nell’era dell’Intelligenza Artificiale, in Giurisprudenza e autorità indipendenti nell’epoca del diritto liquido. Studi in onore di Roberto Pardolesi, a cura di F. Di Ciommo e O. Troiano, Piacenza 2018, 1003.

[23] Si tratta della fase più delicata, quella del c.d. “allenamento della macchina”, cioè la selezione dei dati, la costruzione di dataset e la fissazione dei parametri di ricerca da parte dello sviluppatore per l’apprendimento automatico da parte degli algoritmi.

[24] V. MANES, L'oracolo algoritmico e la giustizia penale, cit., 549. Si chiede C. PIERGALLINI, Intelligenza artificiale, cit., 1750: «Chi potrà e dovrà essere considerato ‘autore’ dell’illecito? Il progettista (il creatore dell’algoritmo), il fabbricante, l’utilizzatore?».

[25] P. SEVERINO, Intelligenza artificiale e diritto penale, cit., 534; F. BASILE, Intelligenza artificiale e diritto penale, cit., 27 ss. Vedi anche M.B. MAGRO, Decisione umana e decisione robotica. Un’ipotesi di responsabilità da procreazione robotica, in La Legislazione Penale (www.lalegislazionepenale.eu), 10 maggio 2020, la quale evidenzia l’ipotesi estrema di una responsabilità a carico dell’agente umano per aver creato o programmato un’entità artificiale non benefica, insuscettibile di controllo umano, che potenzialmente possa cagionare reati o eventi dannosi.

[26] Per un’approfondita ricostruzione del nesso di ascrizione dell’art. 8 d. lgs. 231/2001, C.E. PALIERO, La società punita, cit., specie 1540 ss.

[27] C.E. PALIERO, La colpa di organizzazione tra responsabilità collettiva e responsabilità individuale, in Riv. trim. dir. pen. economia 1-2/2018, 216 ss.

[28] P. SEVERINO, Intelligenza artificiale e diritto penale, cit., 535. Vedi anche C. PIERGALLINI, Intelligenza artificiale, cit., 1768, per il quale la societas, sia che la si interpreti in guisa di uno “schermo”, sia alla stregua di un ‘organo’, esiste nella realtà giuridica e sociale, ma è animata, naturalisticamente e spiritualmente, dagli uomini che le danno vita. In tema C.E. PALIERO, Principio di colpevolezza e reati economici, in Homo oeconomicus: neuroscienze, razionalità decisionale ed elemento soggettivo nei reati economici, a cura di R. Borsari, L. Sammicheli, C. Sarra, Padova 2016, 17 ss.; ID., Responsabilità degli enti e principio di colpevolezza al vaglio della Cassazione: occasione mancata o definitivo de profundis?, in Le Società vol. 33, 7/2014, 474 ss.

[29] C. PIERGALLINI, Intelligenza artificiale, cit., 1754.

[30] Vedi in tema D. FALCINELLI, Il dolo in cerca di una direzione penale. Il contributo della scienza robotica ad una teoria delle decisioni umane, in Arch. Pen. 1, 2018, 9, e soprattutto F. BASILE, Intelligenza artificiale e diritto penale, cit., 30 ss., anche per l'illustrazione delle varie posizioni dottrinali.

[31] C. PIERGALLINI, Intelligenza artificiale, cit., 1762. Cfr., sulla ipotizzabilità qui della c.d. colpa eventuale, M.B. MAGRO, Decisione umana e decisione robotica, cit., 19 ss.

[32] Sono le linee evolutive immaginate da V. MANES, L'oracolo algoritmico e la giustizia penale, cit., 549-550. Sulla c.d. colpa di programmazione, per un'applicazione, I. SALVADORI, Agenti artificiali, opacità tecnologica e distribuzione della responsabilità penale, cit., 103.

[33] F. BASILE, Intelligenza artificiale e diritto penale, cit., 31.

[34] Per tale disposizione: «considerando che, grazie agli strabilianti progressi tecnologici dell’ultimo decennio, non solo oggi i robot sono in grado di svolgere attività che tradizionalmente erano tipicamente ed esclusivamente umane, ma lo sviluppo di determinate caratteristiche autonome e cognitive – ad esempio la capacità di apprendere dall’esperienza e di prendere decisioni quasi indipendenti – li ha resi sempre più simili ad agenti che interagiscono con l’ambiente circostante e sono in grado di alterarlo in modo significativo; che, in tale contesto, la questione della responsabilità giuridica derivante dall’azione nociva di un robot diventa essenziale». In tema di giustizia civile, recentemente, L. BREGGIA, Prevedibilità, predittività e umanità nella soluzione dei conflitti, in Riv. trim. dir. proc. civ. 1/2019, 395 ss. e E. BATTELLI, Giustizia predittiva, decisione robotica e ruolo del giudice, in Giust. civ. 2/2020, 281 ss.

[35] C. PIERGALLINI, Intelligenza artificiale, cit., 1763 ss.

[36] S. BECK, Sinn und Unsinn von Statusfragen - zu Vor - und Nachteilen der Einführung einer elektronischen Person, in E. HILGENDORF-J.P. GÜNTHER (a cura di), Robotik und Gesetzgebung, Baden-Baden 2013, 254 ss.

[37] M. SIMMLER - N. MARKWALDER, Roboter in der Verantwortung? - Zur Neuauflage der Debatte um den funktionalen Schuldbegriff, in ZSTW 2017, 20 ss., e M. SIMMLER - N. MARKWALDER, Guilty robots - Rethinking the nature of culpability and legal personhood in an age of artificial intelligence, in Criminal Law Forum 2019, 13. Si tratta di un'impostazione da ricondurre – per C. PIERGALLINI, Intelligenza artificiale, cit., 1765 - al pensiero di G. JAKOBS (Sistema dell'imputazione penale, Napoli 2017).

[38] G. HALLEVY, The Criminal Liability of Artificial Intelligence Entities. From Science Fiction to Legal Social Control, in Akron. Intell. Prop.J. 2010, 171 ss.; ID., Liability for Crimes Involving Artificial Intelligence Systems, Springer 2015.

[39] C. PIERGALLINI, Intelligenza artificiale, cit., 1768 ss.; vedi anche, sempre in senso critico, A. CAPPELLINI, Machina delinquere non potest? Brevi appunti su intelligenza artificiale e responsabilità penale, in disCrimen, 27 marzo 2019, 1 ss.

[40] Per questa alternativa e sulla complessità della scelta, P. SEVERINO, Intelligenza artificiale e diritto penale, cit., 535-536.

[41] C. PIERGALLINI, Intelligenza artificiale, cit., 1771 ss. Da integrare con C. PIERGALLINI, Ius sibi imponere: controllo penale mediante autonormazione?, in La crisi della legalità. Il «sistema vivente » delle fonti penali (a cura di C.E. Paliero, S. Moccia, G. De Francesco, G. Insolera, M. Pelissero, R. Rampioni, L. Risicato), Napoli 2016, 117 ss.; e G. FORTI, “Accesso” alle informazioni sul rischio e responsabilità. Una lettura del principio di precauzione, in Criminalia 2006, 155 ss. Per analoghe esigenze di regolamentazione in Germania, C. BURCHARD, L'intelligenza artificiale come fine del diritto penale?, cit., 1912 ss.

[42] C. PIERGALLINI, Intelligenza artificiale, cit., 1773.

[43] J. KAPLAN, Intelligenza artificiale. Guida al futuro prossimo, 2ª ed., Roma 2018, 126.

[44] Così F. BASILE, Intelligenza artificiale e diritto penale, cit., 32.

[45] I. SALVADORI, Agenti artificiali, opacità tecnologica e distribuzione della responsabilità penale, cit., 111 ss.

[46] I. SALVADORI, Agenti artificiali, opacità tecnologica e distribuzione della responsabilità penale, cit., 111.

[47] I. SALVADORI, Agenti artificiali, opacità tecnologica e distribuzione della responsabilità penale, cit., 112.

[48] I. SALVADORI, Agenti artificiali, opacità tecnologica e distribuzione della responsabilità penale, cit., 113.

[49] Così C. BURCHARD, L'intelligenza artificiale come fine del diritto penale?, cit., 1919.

[50] Una opportuna distinzione è quella posta da S. QUATTROCOLO, Quesiti nuovi e soluzioni antiche? Consolidati paradigmi normativi vs rischi e paure della giustizia digitale "predittiva", in Cass. pen. 4/2019, 1750, tra strumenti predittivi del reato, che attengono alla sfera della prevenzione e non a quella del processo (spesso utilizzati delle forze dell’ordine in alcuni ordinamenti di common law e che iniziano ad essere sperimentati anche nel vecchio continente), e quelli di previsione del rischio di recidivanza, per lo più concepiti per la fase trattamentale, in sede di esecuzione della pena, ma talvolta utilizzati in alcune giurisdizioni statali degli Stati Uniti, anche nella fase del sentencing.

[51] F. BASILE, Intelligenza artificiale e diritto penale, cit., 10 ss. Per rimanere al nostro Paese, l'Autore segnala il software X-LAW, originariamente predisposto dalla Questura di Napoli, il quale si basa su un algoritmo capace di rielaborare una mole enorme di dati estrapolati dalle denunce inoltrate alla Polizia di Stato; si rifà, invece, all’idea del crime linking, seguendo le serialità criminali di determinati soggetti (individuati o ancora da individuare), per prevedere dove e quando essi commetteranno il prossimo reato, il software Keycrime, originariamente elaborato presso la Questura di Milano, e poi divenuto di proprietà di un’azienda privata. Sul tema anche P. SEVERINO, Intelligenza artificiale e diritto penale, cit., 540 ss.

[52] F. BASILE, Intelligenza artificiale e diritto penale, cit., 13.

[53] E. BIRRITTERI, Big Data Analytics e compliance anticorruzione. Profili problematici delle attuali prassi applicative e scenari futuri, in Dir. pen. cont. - Riv. trim. 2/2019, 290 ss. Vedi anche P. SEVERINO, Intelligenza artificiale e diritto penale, cit., 537 ss.

[54] E. BIRRITTERI, Big Data Analytics e compliance anticorruzione, cit., 292-293.

[55] E. BIRRITTERI, Big Data Analytics e compliance anticorruzione, cit., 297.

[56] Nel campo processuale, tra i tanti, vedi l'analisi di G. CANZIO, Intelligenza artificiale e processo penale, in Cass. pen. 3/2021, 797 ss., il quale sostiene che le caratteristiche del sistema “forte” di AI, che sulla base di algoritmi predittivi simula il processo cognitivo e decisorio del giudice e promette efficienza e calcolabilità della giurisdizione, non sarebbero coerenti con lo statuto epistemologico, costituzionale ed etico del “due process”. Viceversa, risulterebbe coerente lo standard “debole” di AI che assicuri fitness, discovery, corroboration, accountability, in un quadro di autonomia e responsabilità del giudice. Dal punto di vista della giustizia amministrativa, E. CARLONI, I principi della legalità algoritmica. Le decisioni automatizzate di fronte al giudice amministrativo, in Dir. amm. 2/2020, 273 ss.

[57] F. BASILE, Intelligenza artificiale e diritto penale, cit., 16 ss. e S. QUATTROCOLO, Quesiti nuovi e soluzioni antiche? Consolidati paradigmi normativi vs rischi e paure della giustizia digitale predittiva, in Cass. pen. 2019, 1748 ss.

[58] Ricerche indipendenti su COMPAS - riportate da F. BASILE, Intelligenza artificiale e diritto penale, cit., 20-21 – hanno prodotto forti critiche sulla effettiva validità predittiva (accuracy) e sulla sua imparzialità (fairness). Critiche ancor maggiori nei confronti di COMPAS hanno riguardato il suo possibile utilizzo in sede di sentencing, vale a dire a fini di commisurazione della pena dell’imputato riconosciuto colpevole. Nel c.d. caso Loomis – ancora F. BASILE, Intelligenza artificiale e diritto penale, cit., 21-22, e L. D'AGOSTINO, Gli algoritmi predittivi per la commisurazione della pena, in Dir. pen. cont. - Riv. trim. 2/2019, 362 ss. - la Corte Suprema del Wisconsin ha formulato un warning in relazione al futuro uso di COMPAS, mettendo in evidenza: a) la sua natura di prodotto coperto da segreto industriale, che impedisce la divulgazione di informazioni relative al suo metodo di funzionamento; b) il fatto che le valutazioni sono effettuate da COMPAS su base collettiva, di gruppo, e non individuale; c) infine, il rischio di una sovrastima del rischio di commissione di reati a carico di talune minoranze etniche.

[59] V. MANES, L'oracolo algoritmico e la giustizia penale, cit., 556. Vedi una presentazione del tema in A. GULLO, Nuove frontiere tecnologiche e sistema penale: alcune note introduttive, in Dir. pen. cont. - Riv. trim. 2/2019, XI ss.

[60] Una prospettiva, questa, che potrebbe risultare gradita in una certa misura dagli stessi giudici, come deresponsabilizzazione rispetto al carico di lavoro o come risposta a decisioni avvertite come troppo gravose e ad alta sensibilità mediatica. Così ancora V. MANES, L'oracolo algoritmico e la giustizia penale, cit., 557. F. BASILE, Intelligenza artificiale e diritto penale, cit., 14 osserva come algoritmi basati sull’IA vengono, già da qualche tempo, utilizzati anche a fini decisionali, prevalentemente per questioni civili attraverso metodi alternativi di risoluzione delle controversie: si tratta dei c.d. automated decision systems, i quali attingono a quantità enormi di dati da fonti quali banche dati giurisprudenziali, legislative, raccolte di precedenti, e simili.

[61] L. D'AGOSTINO, Gli algoritmi predittivi per la commisurazione della pena, cit., 366. Secondo l'Autore i limiti imposti dal legislatore alla perizia non escludono del tutto la possibilità di una valutazione algoritmica della pericolosità del reo. Rimane però il dubbio sull'attendibilità di tali strumenti. In prospettiva di sviluppo – ritiene ancora D'Agostino – un sistema però strutturato in modo da permettere al giudice di attingere dagli esiti di una valutazione algoritmica di tipo misto, previa adozione di tutte le cautele necessarie per assicurare il rispetto delle garanzie difensive dell’imputato, sarebbe degno di considerazione anche nell’ordinamento processuale italiano.

[62] Per la prospettiva di come un diritto penale in linea di principio orientato in chiave liberale, costituzionale e democratica possa essere integrato da sistemi di intelligenza artificiale, C. BURCHARD, L'intelligenza artificiale come fine del diritto penale?, cit., 1940 ss.

[63] Per tutti questi profili critici, V. MANES, L'oracolo algoritmico e la giustizia penale, cit., 557 ss. Vedi anche P. SEVERINO, Intelligenza artificiale e diritto penale, cit., 542 ss. In generale, G. SARTOR - F. LAGIOIA, Le decisioni algoritmiche tra etica e diritto, in Intelligenza artificiale. Il diritto, i diritti, l'etica, cit., 63 ss.

[64] O. DI GIOVINE, Il judge-bot e le sequenze giuridiche in materia penale (intelligenza artificiale e stabilizzazione giurisprudenziale), in Cass. pen. 3/2020, 962 ss.

[65] Indugiare per poi ripartire è destino comune, e raccomandabile, per la scienza. Si pensi a quanto accadde ad Asilomar, in California, nel febbraio del 1975, quando toccò alla biologia interrogarsi sui suoi metodi e scopi, sul come diventare “grande”, come molti dichiararono nell’occasione. Sotto la direzione del futuro premio Nobel Paul Berg, uno dei pionieri del DNA ricombinante, si riunirono oltre 200 ricercatori provenienti da tutto il mondo, per decidere come comportarsi riguardo alle ricerche sul DNA, che volontariamente erano state sospese mesi prima, in attesa di fare chiarezza sulla situazione, in presenza di una opinione pubblica che si inquietava tra incubi nazisti di selezione della razza e paure irrazionali come quella di Frankenstein, la sindrome consistente nel timore, insito nell'essere umano, che le sue creazioni prendano vita e si ribellino, distruggendo l'umanità (sull'esempio del personaggio del romanzo (del 1831) di Mary Shelley, Frankenstein ovvero il moderno Prometeo, dove il Mostro di Frankenstein diventa la personificazione della pericolosità del progresso scientifico, e la cui furia assassina è una minaccia per colui che gli ha dato vita e per la società intera).

[66] S. QUATTROCOLO, Intelligenza artificiale e giustizia: nella cornice della Carta etica europea, gli spunti per un’urgente discussione tra scienze penali e informatiche, in www.lalegislazionepenale.eu, 18 dicembre 2018; C. BARBARO, Cepej, adottata la prima Carta etica europea sull’uso dell’intelligenza artificiale (IA) nei sistemi giudiziari, in Questione Giustizia online, 7 dicembre 2018; F. BASILE, Intelligenza artificiale e diritto penale, cit., 14 ss.; C. COSTANZI, Big Data e garantismo digitale, cit., 11 ss.

[67] A proposito della più stretta attualità, ci saranno regole stringenti per i c.d. foundation models come ChatGPT, per evitare una manipolazione dei contenuti e l’uso di software di riconoscimento delle emozioni alimentati dall’AI in determinati settori.