RIFLESSIONI SULLE INTELLIGENZE
ARTIFICIALI. NEUTRALITA’ DELLA RETE
Professore
Onorario
Università
di Bari
SOMMARIO: 1. L’intelligenza
artificiale: questioni aperte. – 2. Le nuove aggressioni alla persona. – 3. Segue: le bolle di filtraggio. – 4. Tutela della neutralità della rete. – 5. Neutralità della rete. – 6. Le
implicazioni della Carta dei Diritti di Internet. – Abstract.
Lo
sconvolgimento epocale nella storia dell’umanità provocato dall’avvento o
(verrebbe di dire) dal sopravvento dell’intelligenza artificiale, destinato a
mettere a soqquadro e cambiare la percezione del mondo, mina le fondamenta
dell’antropocentrismo che, con varie accezioni, ha caratterizzato ogni
costruzione filosofica e giuridica ed investe appieno anche il diritto.
Il
dibattito è avviato ed è ampio.
Quasi tutti coloro che stanno prendendo coscienza della
specificità e della novità indotte dalla robotica[1]
sembrano concordare sul punto che le questioni da e per essa sollevate
propongono continuamente interrogativi e sfide nuove al diritto ed ai giuristi,
con la caratteristica che non è possibile prevedere in anticipo quali saranno;
di modo che occorre essere pronti a rivisitare tutto il diritto e la concezione
stessa di esso, superando la dicotomia oggetto-persona, con la certezza che le
tecnologie stanno prospettando un futuro imprevedibile.
Dinanzi alle nuove situazioni ci si è chiesto se ci si
possa avvalere della metafora[2] e/o
della analogia[3],
ritenendo, tuttavia, che sebbene le categorie utilizzate finora nella
interpretazione giuridica si possono rivelare utili ad un primo approccio ai
problemi della robotica e delle IA, non appaiono appaganti, perché, invece,
partendo da esse, occorre andare oltre e cogliere le diversità del ‘nuovo’[4].
In
Europa (e non solo) il discorso può partire da un atto di grande rilievo e
respiro: la Risoluzione del 16 febbraio
2017 (2015/2103) del Parlamento Europeo, contenente anche una
raccomandazione per la commissione sulle norme civili in tema di robotistica (European Civil Law Rules in robotics)[5].
Essa
individua i nodi dell’intera problematica e traccia la via per un impegno
futuro.
Punto
nodale, nel cammino da compiere, appare quello della privacy, considerata nella detta Risoluzione di importanza primaria
e da essa vista nel suo intrinseco collegamento con la libertà e la dignità[6].
La
protezione della privacy è affermata
(dalla Risoluzione) in differenti
punti ed è ritenuta in stretta relazione con la protezione dei dati personali[7].
Nel
mio approccio alla materia, con riguardo al campo nel quale proprio la privacy corre i maggiori rischi, vorrei
partire da una considerazione preliminare. L’età presente può dirsi
caratterizzata da una nuova forma di capitalismo: il capitalismo di sorveglianza[8], contraddistinto
dalla massiccia raccolta e analisi dei dati, dalla sperimentazione psicologica
e dalla persuasione personalizzata.
Oggi
si parla di Internet of Things (IoT).
La rete è penetrata in tutta la società da quando è diventata disponibile in
sempre più posti, specialmente attraverso lo smartphone ed i social networks.
La robotica moderna si basa su queste reti esistenti e di conseguenza cambia la
natura di queste reti. Attraverso la robotica, a Internet vengono dati
"sensi" tramite sensori e ‘mani e piedi’. In questo modo, viene
modellata quella che è stata indicata come Internet
of Robotic Things: una vasta gamma di ICT (Information Communication Technology) emergenti (come reti di
sensori, Internet, big data, IA, la robotica) stanno giocando un
ruolo di primo piano in questo sviluppo[9].
La
pervasività di queste ICT è in costante aumento e porta ad un offuscamento
delle distinzioni tra uomo e macchina, tra le nostre attività online e offline,
tra il mondo fisico e quello virtuale e tra realtà e realtà virtuale o
aumentata. Per indicare questa condizione umana, è stato usato il termine onlife[10].
Nel
mondo onlife le macchine sono dotate
di autonomia e possono cambiare i propri stati grazie alla quantità esponenziale
di dati che vengono raccolti, elaborati e conservati. Il dialogo tra macchine
permette ai dati di essere scambiati con altre macchine per venire utilizzati
in maniere nuove, dando così la possibilità di creare sistemi personalizzati in
un ambiente pervaso da flussi di informazioni.
Mai nella nostra
storia ci sono stati così tanti dati raccolti su così tante persone,
immagazzinati in così tanti luoghi (siti) e analizzati e utilizzati. In uno
studio dell’Università di Bergen[11]
è stata posta in evidenza la notevole incertezza su come questo possa
influenzare il diritto alla privacy
considerata come elemento fondamentale per lo sviluppo della personalità. Tale
incertezza di per sé è importante fonte di preoccupazione. Quando ci si
riferisce al diritto al rispetto della privacy,
si suole far riferimento al diritto alla protezione dei dati personali, sancita
dall'articolo 8, § 1, della Carta dei
diritti fondamentali dell'Unione europea e previsto dalla Convenzione 108 e dal suo protocollo[12], nonché al diritto al
rispetto della vita privata sancito dall'articolo 7 della Carta dei diritti
fondamentali dell'Unione Europea e articolo 8 della CEDU.
La protezione dei
dati personali è messa in discussione da softbot che operano attraverso Internet,
principalmente tramite il World Wide Web; pertanto è d’uopo domandarsi in che
modo il diritto alla protezione dei dati personali viene influenzato dai
processi di Robotic Things.
Va osservato che la
principale fonte di guadagno attraverso Internet è basata sulla sorveglianza di
massa[13].
L’UE si è fatta
carico dei problemi nascenti dall’era del digitale e, per affrontarne le
relative sfide, ha emanato un Regolamento generale sulla protezione dei dati
(GDPR), che si applicherà dal 25 maggio 2018 [14]
e costituisce l’ultimo anello degli interventi per la protezione dei dati sia
riguardo ai dati strettamente personali, sia riguardo all’utilizzo di cookie o degli indirizzi IP[15].
Il Consiglio
d'Europa ha affrontato numerosi quesiti concernenti i big data, sia con riguardo alla protezione della vita privata sia
riguardo ai diritti e alle libertà fondamentali in un mondo di big data.
Attualmente, secondo linee guida adottate dal Consultativo Comitato di
Convenzione 108, sta procedendo all’ammodernamento della Convenzione 108, con
l’intento di affrontare le sfide per derivanti alla privacy dall'uso di nuove TIC[16].
Oggi vi sono
macchine funzionanti all'interno di Internet. Le cose possono essere utilizzate
per raccogliere dati. Si pensi a un robot per auto che registra i dintorni o
controlla la rotta di viaggio (dati sulla posizione) o a un robot-assistente
che rileva il volto o l'emozione di una persona anziana. I proprietari dei
negozi utilizzano già tecnologie per rintracciare i loro clienti all'interno
del loro negozio o persino monitorare persone che passano dal loro negozio.
La maggior parte
delle sfide relative alla protezione dei dati dei servizi Internet si applicano
anche a Internet delle cose.
Ma c’è di più.
Aziende tecnologiche (Google, Amazon, Apple, Microsoft …) hanno sviluppato
strategie di business basate su dati raccolti all'interno e intorno alla casa.
Di conseguenza, la propria casa è diventato un luogo in cui i movimenti o il
comportamento di una persona possono essere continuamente osservati, (ad es.
tramite smartphone, smart meter o smart television). La raccolta dei dati
tramite Internet of Things consente a queste aziende di ottenere una visione
dettagliata del comportamento e delle vite di milioni di persone.
L'ascesa
dell'Internet of Things solleva questioni sulla trasparenza dell'elaborazione
dei dati e su come l'individuo sia in grado di esercitare i propri diritti,
secondo quanto stabilito nella Convenzione 108 o nel Regolamento (GDPR) sulla
protezione generale dei dati.
Uno dei principali
pilastri del trattamento dei dati, cioè la richiesta che il singolo sia
informato e presti il proprio consenso a qualsiasi attività di raccolta e/o
utilizzo dei dati, dovrebbe comunque presiedere alla raccolta di dati[17]. Invece, più i
dispositivi "intelligenti" circondano le persone, più appare
difficile per gli individui esercitare il controllo sulle attività di
elaborazione dei dati di tutti questi dispositivi. In una certa misura, si
cerca e si deve sempre più fare in modo che il trattamento di questi dati sia
coperto da norme sulla protezione dei dati, miranti ad offrire determinati
diritti individuali e salvaguardie; specialmente quando i dati possano anche
essere analizzati e utilizzati in direzioni che influiscono sui diritti umani,
a partire dal diritto al rispetto della vita privata ai sensi dell'articolo 8
della CEDU, il quale protegge l’autonomia delle persone, la privacy informativa e
l’autodeterminazione. Tanto più perché un'interferenza con il diritto al rispetto
per la vita privata, potrebbe esserci anche laddove il soggetto che elabora i
dati personali (ad esempio uno Stato o un'azienda) lo faccia nel rispetto di
tutti gli obblighi previsti dalle norme sulla protezione dei dati.
Occorre, perciò
essere consapevoli che le forme di controllo e rilevamento moderni, tramite Internet of Things, comportano
implicitamente il trattamento e la potenziale manipolazione dei dati personali.
Quali siano le conseguenze di ciò non è ancora sufficientemente chiaro ed è oggetto
di studio e ricerca, per tentare di ovviare ad alcuni effetti negativi, come
quelli che si traducono in comportamenti inconsapevoli (ad esempio quello di
conformarsi a stimoli indotti senza che lo si sappia)[18].
I ricercatori stanno cercando di cogliere l'intera portata degli effetti nocivi
sulla vita delle persone, causati dalla continua e spesso inconsapevole
sorveglianza. Un dato certo è che sia gli Stati sia le società si rafforzano a
vicenda nelle loro attività di sorveglianza[19]. Malgrado le perplessità espresse
dalle Corti internazionali[20] i Governi procedono e
legittimano la massiccia raccolta di dati, come, (per dirne una) ha
stigmatizzato la Corte di Giustizia dell'UE quando ha dichiarato invalida la
direttiva europea sulla conservazione dei dati[21].
È stato rilevato che gli individui ormai sono stati ridotti a materia prima
utilizzata e manipolata da Governi e aziende private[22].
È urgente una
reazione più efficace, che dovrebbe vedere coinvolti sempre di più il Consiglio
d’Europa e l’ONU.
Spunto
significativo può venire dall’art. 8 CEDU:
«1. Ogni persona ha diritto al rispetto della propria vita
privata e familiare, del proprio domicilio e della propria corrispondenza. 2.
Non può esservi ingerenza di una autorità pubblica nell’esercizio di tale diritto
a meno che tale ingerenza sia prevista dalla legge e costituisca una misura
che, in una società democratica, è necessaria alla sicurezza nazionale, alla
pubblica sicurezza, al benessere economico del paese, alla difesa dell’ordine e
alla prevenzione dei reati, alla protezione della salute e della morale, o alla
protezione dei diritti e delle libertà altrui».
L’articolo
è finalizzato fondamentalmente a difendere l’individuo dalle ingerenze non
autorizzate dei pubblici poteri, ma la Corte Europea dei Diritti dell’Uomo
progressivamente ne ha interpretato il dettato come avente valenza generale e
lo ha riferito all’esigenza di assicurare in ogni circostanza e nei confronti
di chiunque il diritto al rispetto per il privato, spiegando che questo diritto
è ampio e non è suscettibile di una definizione esaustiva: per esempio, il
diritto al rispetto della vita privata non è limitato alla casa di un
individuo, ma è applicabile anche ad altri luoghi, come il posto di lavoro.
Inoltre, non si concentra solo sulle libertà negative (dignità umana e
autonomia individuale) ma comprende anche le libertà positive (sviluppo
personale e sviluppo delle comunità)[23].
In
questo senso la norma è parsa applicabile anche agli sviluppi della tecnologia,
partendo da quella dei computer e di Internet, così come di ogni prodotto
informatico interattivo, spesso creato per influenzare e/o modificare il
comportamento delle persone. Di modo che da essa nascono importanti limitazioni
all’uso di tecnologie che invadano la riservatezza e la intimità personale e
famigliare delle persone, e, in ogni caso, in base alla sentenza si è cercato
di imporre estrema trasparenza sia agli ideatori e ai costruttori di robots sia
a chi si serva di robots nei confronti di altri (anche, come si sta sperimentando,
con fini meritori: ad esempio, per cura o assistenza agli anziani ed ai malati
o ai disabili) sia agli utilizzatori. L’interpretazione dell’art. 8 CEDU si è anche rivolta proficuamente
alla protezione di tutte le tecniche (comprese le neuroscienze) di persuasioni
in grado di creare dipendenze (causate con insistenza e crescente frequenza
attraverso attività sempre più invasive), conseguenti all’uso di messaggi e
stimoli accattivanti veicolati tramite la TV, Internet o con robots[24].
Contro
questi rischi la maggiore protezione ad oggi è data dai codici etici
professionali[25];
ma non bastano, perché non proteggono appieno e dipendono da chi dovrebbe
applicare le norme etico-comportamentali.
In particolare
va poi detto che, per lo più, i codici etici contemplano gli individui e,
perciò, resta comunque da potenziare la tutela del diritto alla vita
famigliare. Esso si concreta nel diritto di stabilire e sviluppare relazioni
con gli altri esseri umani e il mondo esterno, specialmente nel campo emotivo,
per lo sviluppo e la realizzazione della propria personalità. Anche per esso si
tende a farlo rientrare nella previsione dell’art. 8 CEDU: le forme, però, sono ancora da chiarire; specialmente
dinanzi alla circostanza che il rapporto sempre più frequente tra uomini
(specialmente ragazzi) e macchine tendono a limitare i rapporti sociali ed
interumani: al punto che è stato denunciato il pericolo di un social deskilling
(l'incapacità di far fronte agli altri umani, con i loro problemi e carenze, e
la riluttanza a investire nelle relazioni umane)[26].
Strettamente
legati alla riservatezza appaiono i diritti alla libertà nelle articolazioni
concernenti la persona e le sue facoltà di acquisizione e utilizzo dei dati,
sul quale (qui) non posso che limitarmi a pochissimi cenni.
Appare
superfluo, ma necessario, ricordare sempre che i diritti di libertà sono
affermati con forza dalla CEDU (artt.
5-12).
C’è
da interrogarsi sul valore di essi riguardo a robots e IA. Nel 1990 Isaac
Asimov pose l’interrogativo sul se abbia senso ed in quali termini si possa
parlare di libertà riguardo ai robots[27]. La questione è
prettamente giuridica e, non a caso, Asimov la fingeva sollevata all’interno di
un processo.
A
siffatto interrogativo ad oggi non pare esservi adeguata risposta; è necessario
che i giuristi la elaborino al più presto sia in considerazione della
progressione tecnologica (che porta a ipotizzare un futuro con robots autonomi
e capaci di scelte proprie) sia per la suggestione dell’esortazione del
Parlamento europeo a riconoscere personalità ai robots.
Al
momento gli interpreti esaminano le questioni quasi esclusivamente dal punto di
vista delle libertà degli uomini e focalizzano la propria attenzione
particolarmente sulla libertà di espressione. Infatti, quanto anche sopra
richiamato riguardo alla raccolta ed all’uso dei dati desta preoccupazione
proprio riguardo alla possibilità di coartare la formazione della volontà e il
diritto di espressione.
In
Europa la riflessione parte dagli artt. 9 e 10 CEDU[28].
Riguardo
al diritto riconosciuto di promuovere o comunicare informazioni e idee senza
interferenze non vi è dubbio che l’impiego di robots e di sistemi di IA possano
tanto favorire quanto ostacolare un libero flusso di informazioni. Se il
programmatore di IA fornisce all'utente gli strumenti per raccogliere e
diffondere informazioni potrebbe favorire il diritto alla libertà di
espressione. Tuttavia, se l'IA è in grado di decidere quali informazioni devono
essere mostrate, rende critica l’effettiva libertà di ricevere e diffondere
informazioni e idee senza interferenze. I limiti possono anche sorgere quando
si selezionano (automaticamente) informazioni da un cloud o da un cloud
computing[29].
E questo ha molta influenza nella formazione e nei processi decisionali dei
giovani[30].
Sul
punto vi è un nodo cruciale ed emergente: quello delle ormai ineludibili bolle di filtraggio[31].
Il
concetto di bolla di filtraggio non è univoco. Esso è stato
introdotto da Eli Pariser, che ne creò l’espressione per denunciare come, oggi,
sempre di più agli utenti di Internet sono forniti sempre meno punti di vista
conflittuali e/o alternativi, sicché rischiano di diventare intellettualmente
isolati in una propria bolla di informazioni[32], con evidenti
conseguenze negative per il cittadino e per i suoi rapporti sociali. Pariser
avverte che un potenziale difetto della ricerca filtrata è che «ci taglia da
nuove idee, argomenti e informazioni importanti»e «crea l'impressione che i
nostri stretti interessi siano tutto ciò che esiste». Il che è potenzialmente
dannoso tanto per gli individui quanto per la società. L’a. accusa Google e
Facebook di offrire agli utenti «troppe caramelle, e non abbastanza verdure»;
avvisa: che «algoritmi invisibili che modificano il web» potrebbero «limitare
la nostra esposizione a nuove informazioni e restringere la nostra mentalità».
Sempre secondo Pariser, gli effetti negativi delle bolle di filtraggio includono
un danno alla società nel suo complesso, nel senso che esse sono in grado di
«indebolire il discorso civico» e rendere le persone più vulnerabili a
«manipolazioni e propaganda».
Volendo
tentare una definizione, in prima approssimazione, si può dire che la bolla sia
il risultato di un sistema che organizza intorno ad una persona i risultati
delle ricerche effettuate sui siti Web, registrando la sequenza dei suoi
comportamenti in modo da ottenere il suo profilo e dedurre indicazioni sui suoi
interessi e sulle sue preferenze. In tal modo il o i gestori dei siti possono
utilizzare informazioni sull'utente (come posizione, click precedenti, ricerche
passate) per scegliere quello che va successivamente proposto all’utente,
isolando e nascondendo ciò che, in base ai dati raccolti, sembri in contrasto
con i suoi interessi e il suo punto di vista. Ne può conseguire un isolamento
dell’utente che viene come racchiuso in quella che la profilazione indica
essere sua bolla culturale o ideologica[33] o, secondo alcuni,
a fronte di determinati svantaggi non decisivi, può aiutare gli utenti nelle
loro attività.
Il
fenomeno è stato descritto anche come «quel personale ecosistema di
informazioni che viene soddisfatto da alcuni algoritmi»[34]
e si è parlato anche di «cornice ideologica»[35] o di «sfera
metaforica che ti circonda come cerchi su internet»[36].
Il
cloud consegna alle aziende che lo gestiscono informazioni utili per pubblicità
mirata e può interferire con il diritto alla libertà di espressione.
Già
dal 2013 è stato evidenziato che Google e Facebook sono diventati i custodi
delle informazioni centrali della nostra società[37]. La stessa Facebook, che è di gran
lunga la rete più importante per trovare, leggere, guardare e condividere
notizie[38],
ha ammesso di avere responsabilità per il modo in cui la sua piattaforma viene
utilizzata. L'agenzia Reuters[39]
(RISJ) rileva che almeno il 12% di utenti usano social media come principale
fonte di notizie. I servizi di informazione attraverso Internet (gatekeeping
online) si presentano come un mix di umani e codici software progettati dagli
umani e (come già dal 2006 è stato posto in luce attraverso la storia degli
interventi giudiziari e legislativi succedutisi negli usa sui problemi causati dal mondo online) fanno emergere sia
una certa prudenza nell’intervenire in modi che alterino significativamente le
architetture online sia una sollecitudine riguardo alla considerazione
dell’eventuale danno collaterale, che gli interventi potrebbero provocare su
attività innocenti, in modo da non permettere che attività inequivocabilmente
dannose rimangano incontrollate, persino dove sia possibile ridurle[40].
Un
caso eclatante è quello di Facebook. Il Report dell’Instituut Rathenau punta
l’indice in modo specifico sulla sezione trending
topics di Facebook; la quale nel 2016, in connessione con il dibattito
politico (focalizzato sulla presidenza Trump), ha ricevuto accuse di parzialità
e di tentare di veicolare pregiudizi liberali. Facebook ha negato le accuse; la
sua indagine interna «non ha rivelato alcuna evidenza sistematica di pregiudizi
politici nella selezione o nella diffusione di storie incluse nella sezione
Argomenti trattati», ma ha anche indicato che non potrebbe escludere completamente
la possibilità di pregiudizi involontari. Di conseguenza, la società ha
modificato la funzione relativa agli argomenti di tendenza «per prevenire
potenziali abusi e ridurre al minimo i rischi per i quali è implicato un
giudizio umano». A settembre 2016, Facebook ha rimosso un post dal suo sito
contenente la famosa fotografia della “ragazza napalm vietnamita” perché era in
violazione della politica del sito web in materia di nudità. La foto è stata
successivamente reintegrata. Si presume che il post sia stato taggato per la
rimozione da un algoritmo e poi sia stato seguito da un editor umano. Ciò
indica che l'assistenza di gatekeeping algoritmica non rimuove tutti i
pregiudizi umani, perché «Esistono pregiudizi tecnici come la manipolazione o
la popolarità di terzi a causa della forma computerizzata del gatekeeping.
Inoltre, fattori individuali come giudizi personali, fattori organizzativi come
le politiche aziendali, fattori esterni come le richieste governative o degli
inserzionisti saranno ancora presenti a causa del ruolo degli umani nel fornire
i suoi servigi»[41].
I
gatekeeper a volte operano
accostamenti improvvidi tra i contenuti e la pubblicità; questo, come è
avvenuto per Google, provocando la protesta delle aziende pubblicizzate, le
quali abbandonarono Google quando i loro annunci furono associati a contenuti
offensivi o razziali. Si evidenziò così la necessità di sottoporre la
pubblicazione online a supervisori umani in grado di selezionare i contenuti.
Nacque e nasce, comunque, il problema della responsabilità civile o di altro
tipo di pubblicazioni inappropriate o offensive.
Recentemente,
gli azionisti di Facebook hanno avanzato una proposta sulla «minaccia alla
democrazia e alla libertà di parola delle cosiddette notizie false diffuse sul forum
dei social media e sui pericoli che potrebbe rappresentare per la società
stessa». Gli azionisti hanno suggerito alla società di effettuare un’ampia
revisione delle regole di inserzione, compresa la modalità di blocco dei post
falsi, per non influire sulla libertà di opinione e di espressione[42].
Sembra
che più che sulla struttura delle bolle di filtraggio il diritto possa
intervenire sui loro effetti, che, poi, sono quelli che preoccupano gli utenti.
In una indagine del 2016, i ricercatori hanno concluso che al momento non ci
sono prove sperimentali che giustifichino forti preoccupazioni sulle bolle dei
filtri[43].
Tuttavia, gli stessi ricercatori hanno affermato che un dibattito sulle bolle
dei filtri è importante, poiché da loro potrebbero sorgere problemi per la
democrazia, considerato che la tecnologia di personalizzazione verrà
ulteriormente intensificata, diventando più penetrante ed invasiva, e le
notizie personalizzate diventeranno la principale fonte di informazione delle
persone. Attualmente, come si è detto[44],
già circa il 12% degli utenti di Internet in tutto il mondo utilizza i social
media come principale fonte di notizie.
Perciò,
certamente la legislazione deve intervenire con tempestività.
Qualcosa
già si sta muovendo in questa direzione: la Germania, ad esempio, ha previsto
che i social network come Facebook siano tenuti a rimuovere rapidamente post
online diffamatori o minacciosi, comminando (in caso di inottemperanza)
sanzioni che possono ammontare fino a 50 milioni di euro[45]. Questo però non
sempre è di agevole applicazione ed auspicabile: vi è, infatti, la difficoltà
di contemperare le esigenze di rispetto dei diritti e dei sentimenti con quelle
della libertà di espressione. Invero esiste il rischio che - anche con
l'ausilio di strumenti automatizzati - si possano eliminare in modo
ingiustificato post o commenti che interferirebbero con la libertà di
espressione di qualcun altro. Non sorprende perciò che un gruppo di consumatori
nella stessa Germania si opponga a siffatta eventuale, sostenendo che
costituisce un approccio sbagliato.
La
verità è che la riflessione sul punto appare soltanto agli inizi e deve
proseguire attraverso un dibattito pubblico e coinvolgente, che aiuti,
eventualmente, a stendere nuove norme e a risolvere le questioni attraverso una
corretta ermeneutica. La quale deve prestare attenzione non solo alla funzione
dei media a diffondere informazioni e idee, ma anche alle aspettative e al
diritto del pubblico a riceverle.
Il
Consiglio d'Europa potrebbe fornire chiarimenti sul ruolo di sorveglianza
incombente sui collettori di informazioni, come Google e Facebook[46],
particolarmente riguardo al loro ruolo di editori di notizie, poiché non è
affatto chiaro se siffatti Networks debbano essere considerati società di media
o agenzie giornalistiche o periodici con tutte le responsabilità connesse. Ove
ciò sia fatto, la successiva tappa consisterà nell’impegno a far sì che le
discipline delineate possano essere rispettate a livello planetario, dato che
planetarie sono le dimensioni dei social networks.
Va
comunque osservato che proprio riguardo ad eventuali attività di controllo e/o
selezione delle notizie e dell’accesso alla rete, scaturiscono
molte problematiche; le quali hanno bisogno di nuove elaborazioni, di cui il
diritto si fa carico e soprattutto dovrà occuparsi in misura crescente a causa
del vertiginoso aumento del ricorso alla robotica nell’esperienza quotidiana.
Da
qui, secondo autorevoli autori, nasce una nuova branca del diritto, indicata
come cyberlaw[47],
nella quale un posto centrale è costituito proprio dalle questioni concernenti
l’accesso e l’uso delle reti.
Gli usa hanno ritenuto di intervenire con
specifiche normative già nel 1984, per prevenire e reprimere le frodi
informatiche, e successivamente attraverso il Computer Fraud and Abuse Act
(CFAA) approvato dal Congresso nel 1986, come emendamento alla legge sulle
frodi informatiche (18 USC § 1030) inclusa nel Comprehensive Crime Control Act del 1984. La normativa vieta
l'accesso ad un computer senza autorizzazione od oltre i limiti
dell’autorizzazione. Pur avendo come scopo soprattutto la repressione dei
crimini informatici, essa ha disciplinato l’appartenenza e la disponibilità dei
dati informatici, ricevendo pesanti critiche da parte di quanti l’hanno
giudicata eccessivamente protettiva nei confronti della proprietà digitale. Il
dibattito che ne è scaturito ha mostrato quanto sia centrale la domanda
concernente i limiti che si possano apporre sia per motivi di sicurezza
(nazionale) sia per le possibili e spesso devastanti notizie false. Il
dibattito è rovente in tutto il mondo anche a causa dei tentativi, che spesso
affiorano, di introdurre il controllo sui contenuti informatici. Finora è stata
ritenuta fondamentale l’affermazione della neutralità della rete e la libertà,
anche rispetto agli Stati, dei cybernauti.
In
America si sono verificati i casi clamorosi di Julian Assange (co-promotore
nel 2007 di Wikileaks), che ha diffuso documenti segreti del Governo e, perciò,
perseguitato e costretto, per evitare l’arresto, a vivere nell’Ambasciata
dell’Ecuador e di Aaron Swartz, morto suicida dopo l’incriminazione e
l’arresto, nel 2011, per sottrazione di dati da jstor (biblioteca virtuale accademica fondata nel 1995) che
egli voleva diffondere, in modo da renderli disponibili a tutti[48],
in consonanza con il suo sogno-progetto di Open Library.
I casi
hanno portato in primo piano l’importanza e l’acutezza della proprietà dei dati digitali. Riguardo
ad essi nel 2011 il deputato repubblicano Lamar S. Smith,
rappresentante del Distretto 21 del Texas, presentò un disegno di legge per il
controllo dei contenuti veicolati dalla ‘rete’: lo Stop Online Piracy Act
(SOPA), anche chiamato H.R. 3261. La proposta mirava a consentire ai titolari
di copyright
statunitensi di agire direttamente per impedire la diffusione di contenuti
protetti. Inoltre avrebbe permesso al Dipartimento di Giustizia e ai
titolari di copyright di procedere legalmente contro i siti web
accusati di diffondere o facilitare le infrazioni del diritto d'autore. A
seconda del richiedente, le sanzioni avrebbero potuto includere il divieto ai
network pubblicitari o ai siti di gestione dei pagamenti (come, ad esempio, Paypal)
d'intrattenere rapporti d'affari con il sito accusato delle infrazioni, il
divieto ai motori di ricerca di
mantenere attivi link
verso il sito in questione e la richiesta agli Internet
Service Provider di bloccare l'accesso al sito web.
Di
maggior rilievo, riguardo alla spettanza ed all’uso dei contenuti e in generale
alla navigazione nel web appare la problematica nota come Neutralità della Rete.
Nel
2015 l’allora presidente Barack Obama creava, insieme alla Federal
Communications Commission (FCC), il documento Open Internet Order. Si trattava di uno statuto molto importante,
che definiva il Web come bene di primaria necessità, indivisibile e da
garantire in ogni maniera. A distanza di poco più di due anni, il governo USA,
per volontà di Donald Trump, è tornato sui propri passi, cancellando le dette
prerogative alla rete e definendo nuovi parametri.
L’atto
firmato ed emesso dalla FCC il 14 Dicembre 2017 ha il nome di Restoring Internet Freedom Order e
mette in lingua burocratica il voto espresso dalla commissione nel dicembre
2017: i service provider possono bloccare, rallentare o stabilire priorità
nell’acceso al network, a seconda di proprie strategie commerciali o di quelle
decise con i fornitori di contenuti. In altre parole: due clienti di uno stesso
ISP, connessi da una medesima zona, potranno godere di accessi differenti e
stabiliti in base alle offerte dei contratti. C’è da dire che, seppur
pubblicato dalla FCC, il provvedimento, in base al Congressional Review Act, deve essere fatto proprio dal
Congresso, il quale può rigettare o accettare la normativa, confermandola o
aprendo un’ulteriore discussione. Si
afferma che se vengano approvate dal Congresso le proposte dell’Amministrazione
si verificherebbe una invasione di campo, perché, in base alla Costituzione, i
contratti di concessione ed utilizzo della rete sono demandati alla competenza
dei singoli Stati. La questione è ancora in itinere, poiché la decisione della FCC è stata
ufficialmente pubblicata nel Registro federale, le porte per l'adesione e la
presentazione delle cause rimarranno aperte fino al 23 aprile 2018.
Alcuni
stati e città, come San Francisco, pensano a modi netti di proteggere la
neutralità, ad esempio ponendola come requisito essenziali per qualunque ISP
voglia offrire servizi basati sull’infrastruttura pubblica. Al momento 26 Stati
e 5 Governatori hanno emesso ordini esecutivi a favore del mantenimento del
precedente Open Internet Order, il
quale stabilisce che tutti i bit che passano per il Web sono uguali e
che come tali vanno trattati, vietando di discriminare il traffico in base alle
differenze fra i contenuti che ci passano dentro. Esso, quindi, garantisce che
quando si usa Internet si ha il diritto di accedere in egual misura al sito di
una pubblica amministrazione, di un quotidiano, di un blog antimafia, o ad un
servizio offerto da un colosso della Silicon Valley.
Viceversa
abolire la neutralità della rete significa che gli operatori delle
telecomunicazioni, che hanno in mano le infrastrutture, possono creare delle
corsie preferenziali (per lo più) a pagamento ad esempio per garantire che un
certo servizio video funzioni sempre bene o che l'accesso ad un determinato
sito sia sempre veloce. Il rischio quindi è quello di avere una rete a due
velocità: l'autostrada per chi paga, (verosimilmente le grandi compagnie) e la
mulattiera per chi non può farlo. Il secondo rischio è che i fornitori degli
accessi ad Internet si intromettano nelle scelte dei loro abbonati.
Chi è
a favore della neutralità della rete sostiene che l'assenza di barriere
d'ingresso nel mercato della comunicazione online ha fino ad ora permesso la
nascita di giornali online, siti di e-commerce e di intrattenimento ugualmente
legittimati a farsi raggiungere e con le stesse tempistiche. Si osserva,
soprattutto da parte delle compagnie Telco (cioè le società di
telecomunicazioni)[49] che i colossi del
Web occupano ormai quasi tutta la banda passante, guadagnano miliardi e non
mettono un solo euro per migliorare le infrastrutture che permettono loro di
fare soldi, perciò dovrebbe essere ritenuta legittima l’eventuale selezione
operata da chi si accolla i costi della diffusione dei dati.
Sulla
questione è scoppiata una vera e propria ‘battaglia’ giudiziaria e politica.
Numerosi
procuratori generali hanno contestato la decisione del 14 dicembre della FCC,
che (come si è visto) abroga le regole di neutralità della rete, prevista da
Obama. Essi si sono organizzati ed hanno dato il via alla lotta per salvare la
rete. A guidare questa battaglia è
stato il procuratore generale di New York, Eric Schneiderman, il quale crede
che un Internet aperto e gratuito sia addirittura funzionale al mantenimento
della democrazia. A lui si sono uniti i procuratori generali di California, Connecticut, Delaware, Hawaii,
Illinois, Iowa, Kentucky, Maine, Maryland, Massachusetts, Minnesota,
Mississippi, New Mexico, New Jersey, North Carolina, Pennsylvania, Rhode
Island, Vermont, Virginia, Washington e il distretto di Columbia.
L’accusa
rivolta al provvedimento della FCC voluto da Trump è quella di violare la legge
federale. In particolare:
- perché introduce forme di arbitrario, capriccioso e abuso di
discrezione ai sensi della legge sulla procedura amministrativa.
- Perché viola la legge federale, inclusa, la Costituzione degli
Stati Uniti, il The Communications Act del 1934 e i regolamenti FCC ivi
promulgati.
Si rivendica
per le imprese, a New York e in tutto il Paese, il diritto a una connessione
Internet gratuita e aperta.
Alla coalizione dei Procuratori Generali scesa in
campo per il mantenimento della neutralità della rete si sono affiancati Stati
come New York, Oregon, New Jersey e Montana; i quali stanno approvando
disposizioni sulla neutralità della rete a favore dei cittadini.
L’ultimo atto della FCC è ritenuto pericoloso
perché consente un ingiustificato ed arbitrario accesso ai contenuti[50]
e concreta un esiziale attacco alla Privacy[51].
I fornitori di servizi Internet, infatti, verrebbero autorizzati a bloccare
determinati contenuti, ad addebitarne i costi agli utenti, a decidere quali e
quanti contenuti siano fruibili[52].
Tutto ciò potrebbe rivelarsi mortale soprattutto
per le Start Up a favore di grossi aziende (Google in testa) che potrebbero
rivendicare la proprietà e l’esclusività di gran parte delle notizie e degli
altri dati, sottraendoli alla fruizione diffusa. È, infatti, un nodo da
sciogliere se i dati possano essere considerati ormai beni comuni e come tali
siano nella appartenenza e nella disponibilità di tutti oppure possano essere
in proprietà di alcuni gruppi, con facoltà di escludere chi vogliano dalla
fruizione, in modo da ricavare ingenti somme dalla messa a disposizione
dell’accesso ai dati.
Questo costituisce, per la struttura stessa delle
reti, un problema mondiale e non soltanto americano, sicché non è fuori luogo
temere che le nuove normative usa
possano avere un impatto fuori dagli Stati Uniti d’America.
In Europa, sull’onda dell’approvazione
della net neutrality sotto la presidenza Obama, si sono approvate norme simili,
seppur con alcuni buchi, presenti anche nelle vecchie normative USA. Basti
pensare al fenomeno dello “zero rating”, che consiste nel garantire accesso
privilegiato a un servizio rispetto a un altro, proponendo un piano di consumo
che esclude dal limite di banda previsto nel contratto i contenuti prodotti dal
proprio provider (o da fornitori terzi che lo pagano per questo); un fenomeno
che nonostante le norme viene ancora riscontrato in molte offerte di vari ISP.
Cosa succederà se passano le restrizioni volute da Trump e dalla FCC? È difficile dirlo, considerato che
l’UE ha norme più liberali, ma le Compagnie che operano anche in Europa potrebbero volere applicare le regole a loro
più favorevoli, per loro fonte di guadagno e potere.
In
Italia esiste la Carta dei
Diritti di Internet, approvata come Raccomandazione dalla Camera dei
Deputati nel novembre 2015. Essa però non vincola in nessun modo e al più sarà una guida per promuovere leggi sul
digitale. Essa comunque potrebbe avviare un discorso necessario, che è appena
alle battute iniziali e dovrà essere affrontato con urgenza, seppure con la
consapevolezza che si tratta di disciplinare situazioni non circoscrivibili in
confini nazionali.
La Carta, sul presupposto che occorre garantire il
pieno riconoscimento di libertà, eguaglianza, dignità e diversità di ogni
persona si snoda in 14 articoli[53],
tesi a realizzare la «condizione necessaria perché sia assicurato il
funzionamento democratico delle Istituzioni, e perché si eviti il prevalere di
poteri pubblici e privati che possano portare ad una società della
sorveglianza, del controllo e della selezione sociale».
Riguardo
all’accesso alla rete ed all’appartenenza dei dati prende posizione netta e si
schiera per la neutralità (artt. 2 e 4).
Riafferma
la proprietà dei dati personali ed il rispetto, in ogni caso, della dignità di
ogni persona, compreso il diritto all’oblio (art. 5 e art. 11).
Significativi
sono il riconoscimento dell’interesse pubblico per la sicurezza in rete e la
tutela dei diritti di ciascun utente, relativamente ai dati immessi in rete:
Art. 13. (Sicurezza in rete). 1. La sicurezza in Rete deve
essere garantita come interesse pubblico, attraverso l’integrità delle
infrastrutture e la loro tutela da attacchi, e come interesse delle singole
persone. 2. Non sono ammesse limitazioni della libertà di manifestazione del
pensiero. Deve essere garantita la tutela della dignità delle persone da abusi
connessi a comportamenti quali l’incitamento all’odio, alla discriminazione e
alla violenza.
Art. 14. (Governo della
rete). 1. Ogni persona ha
diritto di vedere riconosciuti i propri diritti in Rete sia a livello nazionale
che internazionale.
Come
si è detto la Carta attende di diventare il contenuto di qualche legge.
L’interprete,
però, potrebbe ravvisare in essa qualcosa di più, scorgendovi la individuazione
e l’enunciazioni di princìpi generali che già esistono e che potrebbero essere
invocati sia a livello nazionale[54] che
internazionale. C’è, infatti da domandarsi se non sia il caso di richiedere (su
iniziativa dell’onu o
dell’Italia, in conseguenza di questa Carta) una pronuncia della Corte
Internazionale di Giustizia (CIG)[55],
quanto mai opportuna per il riconoscimento dei princìpi da applicare in un
campo che concerne l’intero pianeta e che non può dipendere né dalle pressioni
delle grandi società né dai singoli Stati o dagli umori dei loro governanti di
turno.
È
altresì compito dei giuristi affermare che la ‘Rete’ ed i dati circolanti in
essa appartengono al titolare dei singoli dati e, riguardo alla facoltà di
accesso, costituiscono beni comuni, almeno per gli utenti: questo già ora e di là da eventuali
provvedimenti legislativi[56].
I
giureconsulti, peraltro, hanno ben presente che i beni digitali sono da
annoverare tra i beni immateriali, con la conseguenza che, per loro stessa
natura, non si prestano ad essere goduti in modo pieno ed esclusivo, come i
beni materiali, nei quali, come si è rilevato, «il godimento dell'uno esclude il godimento dell'altro [...]»,
laddove, invece, «le idee sono
suscettibili di godimento contemporaneo da parte di una generalità di persone»[57],
in virtù e dal momento della loro estrinsecazione attraverso il corpus
mechanicum[58].
El
avance incesante de la robótica y de la inteligencia artificial plantea
tendencias globales que preocupan particularmente el derecho.
Entre
estas son particularmente relevantes y tópicos aquellas relacionados con la
privacidad, el nuevo capitalismo llamado capitalismo
de vigilancia, TIC (Tecnología de la
Comunicación de la Información), Robotic
Things, big data, Cloud, Filter
bubbles...
Frente
al rico problema que surge, es central la cuestión de la neutralidad de la red,
alrededor de la cual se está llevando a cabo una movilización en los Estados
Unidos, mientras que Europa tiene más posiciones abiertas.
La
Cámara de Diputados de Italia aprobó la Carta de Derechos de Internet, que
parece útil para identificar los principios generales que se aplicarán a lo
nuevo en una cuestión en la que el recurso a la analogía es insuficiente.
En particular, se reitera el papel de los juristas.
[Per la pubblicazione degli articoli della
sezione “Contributi” si è applicato, in maniera rigorosa, il procedimento di peer review.
Ogni articolo è stato valutato positivamente da due referees, che hanno operato con il sistema del double-blind]
[1]
Sull’impatto delle tecnologie informatiche sulle categorie giuridiche
tradizionali da ultimo cfr., in particolare, A.a.V.v., Internet e
diritto civile, C. Perlingieri e L. Ruggeri (a cura di), Napoli 2015; A.a.V.v., Manuale di diritto dell’informatica, D. Valentino (a cura di),
Napoli 2016; G. Pascuzzi, Il
diritto dell’era digitale. Tecnologie informatiche e regole privatistiche, Bologna 2006, 16 ss.; Id., Tecnologie digitali e regole, in Dir. dell’internet 2005,
303 ss.
[2] La metafora risale ad Aristotele ed è
stata, per così dire, riscoperta nel Novecento, dopo la pubblicazione di The
philosophy of Rhetoric di Ivor Armstrong Richards, suscitando una notevole
crescita di interesse in ogni ambito dello scibile, producendo un'alluvionale
letteratura caratterizzata da un altissimo grado di interdisciplinarietà. In
tal senso, C. Sarra, Lo scudo di Dioniso. Contributo allo studio
della metafora giuridica. Principî di filosofia forense, Milano 2010.
[3] Non
c’è qui lo spazio per soffermarsi sull’analogia:
della immensa bibliografia, a partire, nell’età contemporanea, dagli studi del
pensatore polacco Chaïm Perelman, in particolare dall’ormai storico volume: C. Perelman, Traité de l'argumentation: La nouvelle rhétorique, Paris 1958 = Trattato sull’argomentazione. La nuova
retorica, Torino 2011. Cfr.: L. Caiani,
v. Analogia (Teoria generale), in Enciclopedia del diritto, II, Milano 1958; G. Carcaterra, v. Analogia (Teoria generale),
in Enciclopedia giuridica, II, Roma 1988;
per la manualistica v. A. Torrente - P.
Schlesinger, Manuale di diritto privato, curatore: F. Anelli, C. Granelli,
Milano 2017, 43 s.
[4] Cfr.: R. Calo, Robotics and the Lessons of Cyberlaw, in California Law Review 103, 6-1-2015, n 3
Article 2, 36 s. V. Meg Leta Jones & Jason
Millar, Hacking
Analogies in the Regulation of Robotics, in Oxford Handbook Of The Law And Regulation Of Technology, Oxford
2016.
[5] La
riflessione articolatasi sulla risoluzione accentua la centralità dell’uomo
anche dinanzi all’intelligenza artificiale: v., ad es. A. Morelli, Parlamento
Europeo. Approvata la risoluzione per le leggi, in www.lacostituzione.info/index.php/2017/01/14/parlamento-europeo-approvata-la-risoluzione-per-le-leggi-sulla-robotica . Punto o uno dei principali
punti focali è costituito dal fatto che la crescente autonomia che i robots in
parte hanno, ma soprattutto acquisteranno impone di interrogarsi sulla loro
natura. In virtù delle categorie note ci si chiede se debbano essere
considerati ‘persone’ (fisiche o giuridiche) oppure semplicemente oggetti o
animali. La difficoltà di farli rientrare in una o l’altra di queste categorie
spinge a congetturare l’eventuale opportunità di una categoria del tutto nuova,
con caratteristiche da individuare, particolarmente riguardo all’eventuale
riconoscimento di diritti e doveri ed alla responsabilità.
[6] Della
copiosissima letteratura concernente riservatezza
e privacy mi limito a citare
(rinviando al volume anche per i riscontri bibliografici), S. Rodotà, Intervista su Privacy e libertà, a cura di Paolo Conti, Bari 2005
(ultimo saggio nel quale l’a. da conto della sua reiterata riflessione sul
tema).
[7]
Risoluzione del parlamento Europeo. Introduction.
G. whereas many basic
questions of data protection have already become the subject of consideration
in the general contexts of the internet and e-commerce, but whereas further
aspects of data ownership and the protection of personal data and privacy might still need to be
addressed, given that applications and appliances will communicate with each
other and with databases without humans intervening or possibly without their
even being aware of what is going on;
Ethical principles. 5. Notes that the potential for empowerment through the use of robotics is
nuanced by a set of tensions or risks relating to human safety, privacy, integrity, dignity, autonomy
and data ownership.
[8] S. Zuboff,
Big other: Surveillance capitalism and
the prospects of an information civilization, in Journal of Information Technology 3 (1), London 2015, 75 s.
[10] L. Floridi,
The onlife manifesto: Being human in a hyperconnected world, Londra 2015. Ebook,
SBN 978-3-319-04093-6. Traduz. Italiana a cura di Maria Cristina Tortorelli,
rinvenibile in PDF, consultabile al sito: www.labcd.unipi.it/wp-content/uploads/.../Seminario-Maria-Cristina-Tortorelli.pdf , 5.
[11] V.: Cfr.: R. Strand & M. Kaiser, Report on Ethical issues Raised by Emerging Sciences and Technologies,
in Centre for the Study of the Sciences
and the Humanities, University of Bergen, Norway 23 January 2015.
[12] The Convention for the Protection of Individuals with regard to
Automatic Processing of Personal Data (Convention
108) e annesso Protocollo supervisory
authorities and transborder data flows are available, consultabile al sito:
https://www.coe.int/en/web/conventions/full-list/-/conventions/treaty/108 .
[13] Cfr.: B. Schneier, The
Public-Private Surveillance Partnership, Bloomberg View, 2013, consultabile
al sito https://www.bloomberg.com/view/articles/2013-07-31/the-public-private-surveillancepartnership . È stato fatto notare che il
comportamento di navigazione degli utenti di Facebook (ad esempio il loro
numero di "Mi piace") potrebbe rivelare molte informazioni personali
sensibili sulla vita di questi utenti, come le loro età, genere, orientamento
sessuale, etnia, opinioni religiose e politiche, tratti della personalità,
livello di intelligenza, livello di felicità, se usano sostanze che creano
dipendenza e se i loro genitori sono divorziati: v., M. Kosinski- D. Stillwell- T. Graepel, Private traits and attributes are predictable from digital records of
human behavior, ed. National
Academy of Sciences of the United States of America (PNAS), vol. 110 n°. 15,
5802–5805, 2013.
[14] Il General
Data Protection Regulation- Regolamento (UE 2016/679, adottato il 27 aprile 2016), non richiede alcuna forma di legislazione applicativa da
parte degli Stati membri. Esso è un Regolamento con il quale la Commissione
europea intende rafforzare e rendere più omogenea la protezione dei dati
personali di cittadini dell'Unione Europea e dei residenti nell'Unione Europea,
sia all'interno che all'esterno dei confini dell'Unione Europea (UE).
Il testo, pubblicato nella Gazzetta
Ufficiale Europea il 4 maggio 2016 ed entrato in vigore il 25 maggio dello
stesso anno, inizierà ad avere efficacia il 25 maggio 2018. Esso disciplina l'esportazione di dati
personali al di fuori dell'UE mirando a restituire ai cittadini il controllo
dei proprî dati personali e a semplificare il contesto normativo, in modo da
rendere omogenea la disciplina della privacy
dentro l'UE. Quando entrerà in vigore, il GDPR andrà a sostituire la direttiva sulla protezione dei dati
(ufficialmente Direttiva 95/46/EC) istituita nel 1995 e abrogherà le norme del
Codice per la protezione dei dati personali (dlgs.n. 196/2003), ove
incompatibili. Manca, allo stato, una normativa italiana "di
raccordo" che metta ordine e inserisca le norme del Codice sulla privacy non incompatibili all'interno
dell'impianto normativo del Regolamento. Il Regolamento è integrato da altra ed
apposita Direttiva, la UE 2016/680, concernente i trattamenti dei dati da parte
dell'Autorità Giudiziaria e di tutte le forze di polizia.
[15] V. Rathenau
Instituut, Human rights in the
robot age. Challenges arising from the use of robotics, artificial
intelligence, and virtual and augmented reality, The Hague 10 May 2017, 19.
Si tratta del documento commissionato dalla Parliamentary Assembly of the Council of Europe (PACE) in vista
della propria Raccomandazione (2012),
su Technological convergence, artificial
intelligence and human rights, adottata dall’Assemblea il 28 Aprile 2017.
[16] V. Rathenau Instituut, Human rights, cit., 20 s., dove è
fornita una documentata indicazione di alcune problematiche e della letteratura
più rilevante.
[17] Cfr.: S. Eskens, J. Timmer, L. Kool & Rinie van Est, Beyond control - Exploratory study on the
discourse in Silicon Valley about consumer privacy in the Internet of Things, 2016 consultabile al sito: https://www.rathenau.nl/en/publication/beyond-control .
[18] Sul punto v. M.E. Kaminski – S. Witnov, The Conforming Effect: First Amendment
Implications of Surveillance, University of Richmond Law Review, Vol. 49,
Richmond 2015; Ohio State Public Law Working Paper No. 288, consultabile al
sito: https://ssrn.com/abstract=2550385 .
[19] Cfr.: J.E.
Cohen, The Surveillance-Innovation
Complex: The Irony of the Participatory Turn, in D. Barney, G. Coleman, C.
Ross, J. Sterne, T. Tembeck, (eds.), The
Participatory Condition in the Digital Age, Minneapolis 2016.
[20] Sia
La Corte dei diritti dell'uomo e la Corte di giustizia dell'Unione Europea
hanno espresso le loro preoccupazioni numerose occasioni riguardanti le
attività di sorveglianza statale e l'impatto sui diritti alla privacy v. Rathenau Instituut, Human
rights, cit., 21.
[22] V.
l’articolo del Cohen (v. supra nt. 18) e quello a cura
della London School of Economics and Political Science, Code and Law between Truth and Power’, 11 March 2015, consultabile
al sito www.lse.ac.uk/newsAndMedia/videoAndAudio/channels/publicLecturesAndEvents/player.aspx?id=2972 . Adde:
E.M. Kaminski, Robots in the Home: What Will We Have Agreed To?, in Idaho Law Review 51, 2015, 661 ss.; R. Calo, Robots and Privacy, in Robot
Ethics: The Ethical And Social Implications of Robotics,
Cambridge 2012, consultabile al sito http://ssrn.com/abstract=1599189
; T. Denning, A spotlight on security and privacy risks with future household robots:
Attacks and lessons, in Proceedings of the 11th International
Conference on Ubiquitous, Orlando Sept. 30–Oct. 3, 2009.
[23] V.: B. Van der Sloot, Privacy
as human flourishing: Could a shift towards virtue ethics strengthen privacy
protection in the age of Big Data?, JIPITEC
5, 2014, 230 ss., consultabile al sito: https://www.jipitec.eu/ns/jipitec-5-3-2014/4097 .
[24]
Lucida e significativa esemplificazione è esposta in Rathenau Instituut, Human
Rights, cit., 22 s.: «Le tecnologie persuasive si basano sulla raccolta dei
dati, sull'analisi tramite intelligenza artificiale e interfacce intelligenti.
Per prima cosa ci rivolgiamo il massiccio uso segreto di tecnologie persuasive
su Internet e la sua influenza sugli esseri umani e sui loro diritto al
rispetto della vita privata. …. Le tecnologie persuasive sono in uso da diversi
decenni nel settore del gioco d'azzardo, in particolare in slot machine computerizzate. Con l'avvincente tecnologia digitale e
video, le slot machine trascinano i
giocatori in uno stato di trance, che i giocatori chiamano la 'machine zone',
in cui le loro preoccupazioni quotidiane, consapevolezza corporea e persino il
loro senso di autonomia svaniscono. Una volta nella 'zona', il gioco d'azzardo
i giocatori giocano non per vincere, ma semplicemente per continuare a giocare.
Si stanno fondendo con la macchina, o in altre parole, vengono catturati nel
loop della macchina progettata per essere accolti. Questi tipi di piccoli
anelli di feedback ripetitivi di
stimolo e risposta, i cosiddetti cicli di costrizione, che sono molto
coinvolgenti, vengono utilizzati sempre di più nel mondo in generale,
specialmente nella gamification online. … Un altro esempio è il servizio
di appuntamenti online OkCupid, che
ha condotto esperimenti progettati per testare quali aspetti del profilo di un
membro hanno avuto la maggiore influenza sull'attirare altri membri nel
servizio. Come possono le persone scegliere il proprio percorso se le
organizzazioni, tramite siti Web o app, li possono spingere verso determinate
emozioni e scelte? Questa domanda diventa particolarmente urgente quando le
persone non sono consapevoli di essere state influenzate, rendendole
praticamente indifese da queste attività d'influenza» (la traduzione è mia).
[26]
Illuminante il quadro fatto nel Report dell’Instituut Rathinau (loc. cit.): «Negli ultimi anni, il
dibattito è cresciuto su come le nuove TIC influenzano le capacità emotive e
sociali delle persone e la qualità delle relazioni umane. Lo psicologo clinico
e sociologo Turkle (2011, 2015) rappresenta una voce influente in questo
dibattito. Trova che molti giovani, assorti nei loro dispositivi, non riescono
a svilupparsi pienamente e con indipendenza. I ricercatori dell'Università del
Michigan, ad esempio, hanno riscontrato una forte diminuzione dell'empatia tra
gli studenti americani dall'inizio di questo secolo, in parte a causa dell'uso
e del contenuto dei social media. Come risultato dell'attaccamento delle
persone ai loro dispositivi, Turkle vede il rischio di un social deskilling:
l'incapacità di far fronte agli altri umani con i loro problemi e carenze e la
riluttanza a investire nelle relazioni umane. Andando avanti, questo fenomeno
potrebbe comportare un sempre minor numero di relazioni tra gli umani e ad
evitare l'intimità umana. Poiché i robots sono dotati di abilità sociali, come
si può articolare il diritto al rispetto della vita famigliare? Alcuni tipi di
robots sono dotati di intelligenza artificiale e sono programmati per simulare
le abilità sociali al fine, ad esempio, di stabilire una conversazione con il
loro utente; per esempio, un robot di cura può usare il calcolo affettivo per
riconoscere le emozioni umane e successivamente regolarne il comportamento.
Potenzialmente, i robots possono stimolare le relazioni umane. Si pensi a un
robot di assistenza, come il robot per cure olandese Alice, che chiede ai
destinatari delle sue cure se hanno recentemente contattato i loro familiari,
con l'obiettivo di ristabilire contatti e mantenere le loro relazioni. Diversi
studi sull'effetto di Paro, un robot a tenuta morbida, sugli anziani in case di
riposo sembrano suggerire che l'umore delle persone anziane migliora e che i
livelli di depressione diminuiscono; anche la loro condizione mentale migliora,
fa progredire la comunicazione tra coloro che vivono nella casa di cura e
rafforza i loro legami sociali. Tuttavia, poiché la tecnologia si annida sempre
più tra di noi, esiste il rischio che i robots possano interferire con il
diritto al rispetto della vita familiare come conseguenza anche non
intenzionale della loro influenza sui loro utenti. A causa
dell'antropomorfismo, le persone vulnerabili come gli anziani possono credere
che un robot sociale sia una persona reale, ad esempio il loro nipote. Se la
situazione non viene trattata attentamente, il curante può concentrarsi
principalmente sul robot di cura invece, ad esempio, che sui membri della sua
famiglia o su altri umani» (traduz. libera mia).
[27] I. Asimov,
Robot Visions, in Byron Press Visual Publications, 1990;
tr. it. P. Cavallari, G. Cossato, S. Sandrelli, Visioni di robot, Milano 2010, part. 191
s.
[28] Art.
9: Libertà di pensiero, di coscienza e
di religione. 1. Ogni persona ha
diritto alla libertà di pensiero, di coscienza e di religione; tale diritto
include la libertà di cambiare religione o credo, così come la libertà di
manifestare la propria religione o il proprio credo individualmente o
collettivamente, in pubblico o in privato, mediante il culto, l’insegnamento,
le pratiche e l’osservanza dei riti. 2. La
libertà di manifestare la propria religione o il proprio credo non può essere
oggetto di restrizioni diverse da quelle che sono stabilite dalla legge e che
costituiscono misure necessarie, in una società democratica, alla pubblica
sicurezza, alla protezione dell’ordine, della salute o della morale pubblica, o
alla protezione dei diritti e della libertà altrui. Art. 10: Libertà di espressione. 1. Ogni persona ha diritto alla libertà
d’espressione. Tale diritto include la libertà d’opinione e la libertà di
ricevere o di comunicare informazioni o idee senza che vi possa essere
ingerenza da parte delle autorità pubbliche e senza limiti di frontiera. 2.
L’esercizio di queste libertà, poiché
comporta doveri e responsabilità, può essere sottoposto alle formalità,
condizioni, restrizioni o sanzioni che sono previste dalla legge e che
costituiscono misure necessarie, in una società democratica, alla sicurezza
nazionale, all’integrità territoriale o alla pubblica sicurezza, alla difesa
dell’ordine e alla prevenzione dei reati, alla protezione della salute o della
morale, alla protezione della reputazione o dei diritti altrui, per impedire la
divulgazione di informazioni riservate o per garantire l’autorità e
l’imparzialità del potere giudiziario.
[29] Ad
esempio, i risultati di ricerca personalizzati di Google dipendono, almeno in
parte, dalla nostra precedente cronologia delle ricerche. Sulla funzione ed il
funzionamento dei cloud, cfr.: Borko Furht – Armando Escalante, Handbook of Cloud Computing, Londra
2011; A. Ferrari – E.L. Zanleone,
Cloud computing. Aspettative, problemi,
progetti e risultati di aziende passate al modello “as service”, Milano
2011. Adde: G. Noto La Diega, Cloud computing e protezione dei dati nel web 3.0, in Europa e diritto privato, Milano 2014,
591. Al riguardo, in dottrina, si osserva che «Il servizio di gestione dei dati
da remoto ricomprende la fornitura, sempre attraverso internet, di un servizio
che consente all’utente, oltre alla mera archiviazione, di modificare i file
salvati attraverso software che vengono impiegati per via
telematica»: D. Mula, Il contratto di archiviazione e gestione da remoto
dei documenti informatici. Qualificazione del contratto di cloud services,
cit., 50. In estrema sintesi, il cloud computing è una forma di terziarizzazione tecnologica
avanzata. Nel secondo millennio, infatti, le imprese possono affidare a
un provider specializzato la gestione di una o più risorse informatiche che, da
quel momento in poi, vengono erogate via Web attraverso un contratto di
outsourcing. Tutto questo, senza che l’azienda debba accollarsi gli oneri di
acquisto di licenze o macchine per usufruire di servizi indispensabili al
business. Grazie al cloud, sarà il
fornitore a mantenere tutta l’infrastruttura necessaria a gestire e a
distribuire i servizi in base alla richiesta (on demand) e con una formula pay
per use.
[30] Cfr.: M. Zentner, Education for
participation in a digitalised world, in
Youth Partnership – Partnership between the European Commission and the Council
of Europe in the field of youth. in Report
– Symposium on youth participation in a digitalised world, Budapest 14-16
September 2015, consultabile al sito https://pjp-eu.coe.int/web/youth-partnership/digitalised-world .
[31] Essi sono
il risultato del sistema di personalizzazione degli esiti di ricerche su siti
che registrano la storia del comportamento dell'utente. Questi siti sono in
grado di utilizzare informazioni sull'utente (come posizione, click precedenti,
ricerche passate) per scegliere selettivamente tra tutte le risposte quelle che
vorrà vedere l'utente stesso. L'effetto è di isolare l'utente da informazioni
che sono in contrasto con il suo punto di vista, effettivamente isolandolo
nella sua bolla culturale o ideologica.
[33]
Esempi importanti sono la ricerca personalizzata di Google e le notizie
personalizzate di Facebook.
[34] L.
Parramore, The Filter Bubble, in The Atlantic 10 ottobre
2010: «Since Dec. 4, 2009, Google has been personalized for everyone. So when I
had two friends this spring Google "BP," one of them got a set of
links that was about investment opportunities in BP. The other one got
information about the oil spill ...».
[35] Cfr.: D.
Gross, What the Internet is hiding
from you, 19 maggio 2011, consultabile al sito http://articles.cnn.com/2011-05-19/tech/online.privacy.pariser_1_google-news-facebook-internet/2?_s=PM:TECH : «I had friends Google BP when the
oil spill was happening. These are two women who were quite similar in a lot of
ways. One got a lot of results about the environmental consequences of what was
happening and the spill. The other one just got investment information and
nothing about the spill at all».
[36] B. Bosker,
Tim Berners-Lee: Facebook Threatens Web, Beware, in The Guardian
22 novembre 2010:«Social networking sites are threatening the Web's core
principles ... Berners-Lee argued. "Each site is a silo, walled off from
the others", he explained. "The more you enter, the more you become
locked in ...».
[37] E. Bozdag,
Bias in algorithmic filtering and
personalization, in Ethics and Information Technology,
London September 2013, Vol. 15, n° 3, 209-227; ISSN 10.1007/s10676-013-9321-6;
J. Brodkin, Google may remotely deactivate Glass if you sell it or lend to a friend,
in Ars Technica 18 April 2013,
consultabile al sito https://arstechnica.com/information-technology/2013/04/google-may-remotely-deactivateglass-if-you-sell-it-or-lend-to-a-friend .
[39] La
Reuters è un'agenzia di stampa britannica. Fa parte del gruppo Reuters Group
plc con sede a Londra.
[40] J. Zittrain,
A History of Online Gatekeeping, in Harvard Journal of Law and Technology
19, 2006, 253 ss. Published Version http://cyber.law.harvard.edu/publications/2006/A_History_of_Online_Gatekeeping .
[43] F. Zuiderveen
Borgesius - D. Trilling, J.
Möller, B. Bodó, C. de Vreese & N. Helberger, Should we worry about filter bubbles?, in Internet Policy Review (Journal
on Internet regulation) 5(1), 2013; ISSN 10.14763/2016.1.401.
[46]
Google e Facebook sono diventati i custodi delle informazioni centrali della
nostra società (cfr. supra Bozdag
cit. alla nt. 36). Va tenuto presente che, ad oggi, Facebook
costituisce il più grande canale di notizie al mondo, con oltre 1,86 miliardi attivi
utenti.
[47] V. R.
Calo, Robotics, cit.; Idem,
Robots in American Law, in Legal Studies Research Paper n° 2016-04,
della School of Law – University of Washington; H.A. Simon, Models of man
social and rational, New York 1957; Idem,
The Shape Of Automation For Men And
Management, 1st edition, London 1965.
[48] Già
nel 2009,
Swartz scaricò e diffuse pubblicamente circa il 20% del database PACER (Public
Access to Court Electronic Records) della Corte Federale degli Stati Uniti.
Nell’Ottobre del 2011 fu decisivo per bloccare la SOPA.
[49] Va
tenuto presente che la possibilità di tracciare con precisione ed elevata
frequenza la posizione degli utenti, unita all’opportunità di inferirne il
comportamento, consente alle compagnie Telco
di costruire banche dati altamente dettagliate, da cui estrarre valore per il
proprio business e per compagnie terze, cambiando il proprio ruolo da semplice Data
Storer a Data Broker.
[50] Infatti il modo in cui si accede ai
contenuti potrebbe cambiare, passando da quello odierno abbastanza aperto, il
quale consente a tutti di cercare quello che si voglia e quando lo si voglia, a
costi contenuti o nulli: questo potrebbe drasticamente cambiare.
[51]
Saremmo continuamente monitorati su come
acquistiamo, paghiamo e guardiamo i contenuti online, di modo che i nostri
comportamenti online saranno potenzialmente soggetti a terze parti come gli
ISP.
[52] I punti
esposti sono stati attinti dall’accorata analisi fatta su Forbes, dal giurista e opinionista Andrew Rossow.
[53] Dichiarazione
dei diritti in Internet.
Questo documento costituisce il nuovo testo della Dichiarazione elaborato
dalla Commissione per i diritti e i doveri relativi ad Internet a
seguito della consultazione pubblica, delle audizioni svolte e della riunione
della stessa Commissione del 14 luglio 2015. Si parte dal Preambolo, nel quale
si traccia lo schema degli interventi auspicabili: «Internet ha
contribuito in maniera decisiva a ridefinire lo spazio pubblico e privato, a
strutturare i rapporti tra le persone e tra queste e le Istituzioni. Ha
cancellato confini e ha costruito modalità nuove di produzione e utilizzazione
della conoscenza. Ha ampliato le possibilità di intervento diretto delle
persone nella sfera pubblica. Ha modificato l’organizzazione del lavoro. Ha
consentito lo sviluppo di una società più aperta e libera. Internet deve essere
considerata come una risorsa globale e che risponde al criterio della
universalità. L’Unione europea è oggi la regione del mondo dove è più elevata
la tutela costituzionale dei dati personali, esplicitamente riconosciuta
dall’articolo 8 della Carta dei diritti fondamentali, che costituisce il
riferimento necessario per una specificazione dei principi riguardanti il
funzionamento di Internet, anche in una prospettiva globale. Questa
Dichiarazione dei diritti in Internet è fondata sul pieno riconoscimento di
libertà, eguaglianza, dignità e diversità di ogni persona. La garanzia di
questi diritti è condizione necessaria perché sia assicurato il funzionamento
democratico delle Istituzioni, e perché si eviti il prevalere di poteri
pubblici e privati che possano portare ad una società della sorveglianza, del
controllo e della selezione sociale. Internet si configura come uno spazio
sempre più importante per l’autorganizzazione delle persone e dei gruppi e come
uno strumento essenziale per promuovere la partecipazione individuale e
collettiva ai processi democratici e l’eguaglianza sostanziale. I principi
riguardanti Internet tengono conto anche del suo configurarsi come uno spazio
economico che rende possibili innovazione, corretta competizione e crescita in
un contesto democratico. Una Dichiarazione dei diritti di Internet è strumento
indispensabile per dare fondamento costituzionale a principi e diritti nella
dimensione sovranazionale». I titoli degli articoli sono i seguenti: Riconoscimento
e garanzia dei diritti (Art. 1);
Diritto di accesso (Art. 2); Diritto
alla conoscenza e all’educazione in rete (Art. 3); Neutralità
della rete (Art. 4);
Tutela dei dati personali (Art.
5); Diritto all’autodeterminazione informativa (Art. 6); Diritto
all’inviolabilità dei sistemi, dei dispositivi e domicili informatici (Art. 7); Trattamenti
automatizzati (Art. 8);
Diritto all’identità (Art. 9); Protezione dell’anonimato (Art. 10); Diritto
all’oblio (Art. 11); Diritti e garanzie delle persone sulle
piattaforme (Art. 12);
Sicurezza in rete (Art. 13); Governo della rete (Art.
14).
[55] Art.
38, lett. c), dello Statuto della Corte internazionale di giustizia. Cfr.: A. Pizzorusso, Sistemi giuridici comparati, 2a ed., Milano 1998, partic. 295 s.
[56] V. U. Mattei, Beni comuni. Un manifesto, Roma-Bari 2011, partic. 89 s. Si deve
tener presente che, in Italia, i beni
comuni rientrano nell’ordine pubblico
(economico) riconosciuto e sancito dalla Costituzione con gli artt. 41, 42: v. P. Maddalena, Il territorio bene comune degli Italiani, Roma 2014, il quale (91
s.) delinea il concetto di ordine
pubblico economico conseguente ai detti articoli della Costituzione.
[57] Il
punto è stato acclarato da tempo nella dottrina italiana; v.: R. Franceschelli, Beni immateriali
(Saggio di una critica del concetto),
in Riv. dir. ind. 1956,
I, 381 ss.; M. Are, Beni
immateriali (diritto privato), in Enc. dir., V, Milano 1959, 252; G. Oppo, Creazione ed esclusiva nel
diritto industriale, in Riv.
dir. comm. 1964, I, 187 ss., spec. 191; D. Messinetti, Oggetto dei diritti, in Enc. dir.,
XXIX, Milano 1979, 808 ss.; G. Ferri,
Manuale di diritto commerciale,
Torino 1980, 169. Il quale riconosceva ai beni immateriali «la possibilità di
un integrale e contemporaneo godimento»; O.T.
Scozzafava, Oggetto dei diritti, in Enc. giur., XXI, Roma
1990.
[58]
Suggestivo appare, in proposito, il richiamo al concetto di bene comune
elaborato dai giuristi romani riguardo all’aqua
profluens. Lo scorrere di un fiume appartiene a tutti, ancorché singoli
rivieraschi possano appropriarsi dell’acqua, ma senza mai impedire che il fiume
continui il suo corso: proprio come nella rete, i cui dati possono appartenere
ai singoli, ma, contestualmente, la rete appartiene a tutti: D. 1.8.2.1 (Marc. l. 3 institutionum); v. M. Marrone, Istituzioni di diritto romano, 8a ed., Palermo 2006, 279.