L’automatizzazione dei processi decisionali è un fenomeno che può incidere profondamente sui diritti fondamentali degli individui e sui principi democratici posti a fondamento della nostra società. Tale processo di automatizzazione è riconducibile alla crescita esponenziale dei sistemi di intelligenza artificiale, ovvero sistemi in grado di apprendere autonomamente dal contesto che li circonda e di elaborare la soluzione ottimale rispetto ad un obiettivo predeterminato. Lo sviluppo e la diffusione di questi sistemi dipendono dalle enormi potenzialità di elaborazione di grandi quantità di dati, di supporto al progresso scientifico e di miglioramento del livello di efficienza dei processi decisionali umani. Con l’avanzamento dello sviluppo tecnologico, però, emergono contraddizioni e vuoti normativi che possono innescare una certa diffidenza da parte degli individui. Specialmente con riferimento a decisioni che hanno importanti conseguenze per le persone, l’utilizzo di tecniche altamente complesse, come quelle riconducibili all’intelligenza artificiale, rischia di compromettere l’“accountability” di chi prende tali decisioni. L’opacità del sistema decisionale derivante dall’utilizzo di queste tecniche impedisce agli individui di conoscere le ragioni alla base di una certa decisione e può dunque ostacolare l’esercizio di alcuni diritti fondamentali di rango primario quali la libertà d’espressione, il diritto ad un giusto processo e il diritto all’autodeterminazione. A questa opacità va sommata la complessità della disciplina dei diritti di proprietà intellettuale e dei segreti industriali, che spesso viene invocata per giustificare la mancanza di trasparenza. Questo elaborato mira ad evidenziare i potenziali rischi legati all’utilizzo di sistemi decisionali automatizzati e ad accertare il concreto ruolo dei diritti di proprietà intellettuale e della disciplina sui segreti industriali, al fine di individuare un bilanciamento tra gli interessi contrapposti. Inoltre, si tenterà di dimostrare l’inadeguatezza dell’attuale quadro normativo in materia di trasparenza e tutela dei diritti nell’auspicio di un futuro intervento del legislatore europeo. Questa analisi sarà condotta principalmente a livello europeo, ma, trattandosi di problemi trasversali a tutti gli ordinamenti giuridici, saranno considerati anche i più interessanti sviluppi normativi e giurisprudenziali provenienti da diversi ordinamenti giuridici, con uno sguardo particolare rivolto verso gli Stati Uniti. La prima fase dell’analisi avrà natura interdisciplinare: verranno analizzati gli aspetti tecnici ed etici dell’intelligenza artificiale e introdotte le principali criticità legate all’utilizzo di sistemi decisionali automatizzati. Per comprendere al meglio l’impatto incisivo dei sistemi di intelligenza artificiale, saranno presi in considerazione alcuni recenti casi eclatanti relativi all’automatizzazione della giustizia penale, ai primi utilizzi nell’ambito scolastico, e alle tecnologie biometriche. Si approfondiranno, poi, i tipi di tutela offerta dall’ordinamento giuridico alle singole componenti dei sistemi automatizzati e il ruolo effettivamente giocato da tali strumenti nell’ampliare l’opacità di tali sistemi. In particolare, verranno considerate le tutele offerte dal diritto dei brevetti, dal diritto d’autore (sia con riferimento ai software sia alle banche dati), dalla disciplina che conferisce un diritto sui generis al costitutore di una banca dati, e dalla disciplina dei segreti industriali. A seguito dell’analisi delle cause tecnico-giuridiche poste alla base dell’opacità dei sistemi automatizzati, sarà analizzato un caso pratico allo scopo di illustrare la concreta incidenza dell’automatizzazione di processi decisionali complessi sui diritti degli individui. In particolare, verrà considerato il caso dei sistemi automatizzati utilizzati per identificare e contrastare le violazioni di copyright in rete, come il sistema Content ID di YouTube, che rischia di influire – limitandola – sulla libertà d’espressione degli utenti. Per comprendere al meglio le ragioni sottostanti la diffusione di questi sistemi sarà utile approfondire l’evoluzione della disciplina sulla responsabilità degli Internet Service Providers, in una prospettiva comparata tra Unione europea e Stati Uniti. Questo esempio pratico permetterà anche di cogliere la dimensione trasversale delle problematicità legate ai sistemi decisionali automatizzati, che non riguardano esclusivamente il campo della protezione dei dati personali. Infine, si arriverà ad analizzare il tema della trasparenza. Questo concetto, inserito nel contesto dei sistemi decisionali automatizzati, può assumere significati diversi, come dimostrato da alcune prime divergenti pronunce di organi giudiziari nazionali (Germania, Italia, Francia, Paesi Bassi). Dopo una panoramica sulle ragioni poste alla base delle istanze di maggiore trasparenza nell’utilizzo di sistemi automatizzati e sui possibili argomenti contrari, sarà approfondito il ruolo della trasparenza nel campo della protezione dei dati personali, con particolare riguardo al dibattito circa il “diritto ad ottenere una spiegazione” contenuto nel GDPR. A completamento del quadro normativo, sarà poi esaminato il regime giuridico applicabile ai sistemi decisionali automatizzati basati sull’analisi di dati non personali, ossia dati che non si riferiscono a persone fisiche oppure dati originariamente riferibili a persone fisiche e successivamente anonimizzati. Questo allargamento di prospettiva permetterà di cogliere le carenze nell’attuale assetto normativo, e porrà le basi per una riflessione sulla necessità di una maggiore uniformità normativa.

Sistemi decisionali automatizzati e tutela dei diritti: tra carenza di trasparenza ed esigenze di bilanciamento / Terenghi, Irene. - ELETTRONICO. - (2021), pp. 1-172. [10.15168/11572_300389]

Sistemi decisionali automatizzati e tutela dei diritti: tra carenza di trasparenza ed esigenze di bilanciamento

Irene Terenghi
2021-01-01

Abstract

L’automatizzazione dei processi decisionali è un fenomeno che può incidere profondamente sui diritti fondamentali degli individui e sui principi democratici posti a fondamento della nostra società. Tale processo di automatizzazione è riconducibile alla crescita esponenziale dei sistemi di intelligenza artificiale, ovvero sistemi in grado di apprendere autonomamente dal contesto che li circonda e di elaborare la soluzione ottimale rispetto ad un obiettivo predeterminato. Lo sviluppo e la diffusione di questi sistemi dipendono dalle enormi potenzialità di elaborazione di grandi quantità di dati, di supporto al progresso scientifico e di miglioramento del livello di efficienza dei processi decisionali umani. Con l’avanzamento dello sviluppo tecnologico, però, emergono contraddizioni e vuoti normativi che possono innescare una certa diffidenza da parte degli individui. Specialmente con riferimento a decisioni che hanno importanti conseguenze per le persone, l’utilizzo di tecniche altamente complesse, come quelle riconducibili all’intelligenza artificiale, rischia di compromettere l’“accountability” di chi prende tali decisioni. L’opacità del sistema decisionale derivante dall’utilizzo di queste tecniche impedisce agli individui di conoscere le ragioni alla base di una certa decisione e può dunque ostacolare l’esercizio di alcuni diritti fondamentali di rango primario quali la libertà d’espressione, il diritto ad un giusto processo e il diritto all’autodeterminazione. A questa opacità va sommata la complessità della disciplina dei diritti di proprietà intellettuale e dei segreti industriali, che spesso viene invocata per giustificare la mancanza di trasparenza. Questo elaborato mira ad evidenziare i potenziali rischi legati all’utilizzo di sistemi decisionali automatizzati e ad accertare il concreto ruolo dei diritti di proprietà intellettuale e della disciplina sui segreti industriali, al fine di individuare un bilanciamento tra gli interessi contrapposti. Inoltre, si tenterà di dimostrare l’inadeguatezza dell’attuale quadro normativo in materia di trasparenza e tutela dei diritti nell’auspicio di un futuro intervento del legislatore europeo. Questa analisi sarà condotta principalmente a livello europeo, ma, trattandosi di problemi trasversali a tutti gli ordinamenti giuridici, saranno considerati anche i più interessanti sviluppi normativi e giurisprudenziali provenienti da diversi ordinamenti giuridici, con uno sguardo particolare rivolto verso gli Stati Uniti. La prima fase dell’analisi avrà natura interdisciplinare: verranno analizzati gli aspetti tecnici ed etici dell’intelligenza artificiale e introdotte le principali criticità legate all’utilizzo di sistemi decisionali automatizzati. Per comprendere al meglio l’impatto incisivo dei sistemi di intelligenza artificiale, saranno presi in considerazione alcuni recenti casi eclatanti relativi all’automatizzazione della giustizia penale, ai primi utilizzi nell’ambito scolastico, e alle tecnologie biometriche. Si approfondiranno, poi, i tipi di tutela offerta dall’ordinamento giuridico alle singole componenti dei sistemi automatizzati e il ruolo effettivamente giocato da tali strumenti nell’ampliare l’opacità di tali sistemi. In particolare, verranno considerate le tutele offerte dal diritto dei brevetti, dal diritto d’autore (sia con riferimento ai software sia alle banche dati), dalla disciplina che conferisce un diritto sui generis al costitutore di una banca dati, e dalla disciplina dei segreti industriali. A seguito dell’analisi delle cause tecnico-giuridiche poste alla base dell’opacità dei sistemi automatizzati, sarà analizzato un caso pratico allo scopo di illustrare la concreta incidenza dell’automatizzazione di processi decisionali complessi sui diritti degli individui. In particolare, verrà considerato il caso dei sistemi automatizzati utilizzati per identificare e contrastare le violazioni di copyright in rete, come il sistema Content ID di YouTube, che rischia di influire – limitandola – sulla libertà d’espressione degli utenti. Per comprendere al meglio le ragioni sottostanti la diffusione di questi sistemi sarà utile approfondire l’evoluzione della disciplina sulla responsabilità degli Internet Service Providers, in una prospettiva comparata tra Unione europea e Stati Uniti. Questo esempio pratico permetterà anche di cogliere la dimensione trasversale delle problematicità legate ai sistemi decisionali automatizzati, che non riguardano esclusivamente il campo della protezione dei dati personali. Infine, si arriverà ad analizzare il tema della trasparenza. Questo concetto, inserito nel contesto dei sistemi decisionali automatizzati, può assumere significati diversi, come dimostrato da alcune prime divergenti pronunce di organi giudiziari nazionali (Germania, Italia, Francia, Paesi Bassi). Dopo una panoramica sulle ragioni poste alla base delle istanze di maggiore trasparenza nell’utilizzo di sistemi automatizzati e sui possibili argomenti contrari, sarà approfondito il ruolo della trasparenza nel campo della protezione dei dati personali, con particolare riguardo al dibattito circa il “diritto ad ottenere una spiegazione” contenuto nel GDPR. A completamento del quadro normativo, sarà poi esaminato il regime giuridico applicabile ai sistemi decisionali automatizzati basati sull’analisi di dati non personali, ossia dati che non si riferiscono a persone fisiche oppure dati originariamente riferibili a persone fisiche e successivamente anonimizzati. Questo allargamento di prospettiva permetterà di cogliere le carenze nell’attuale assetto normativo, e porrà le basi per una riflessione sulla necessità di una maggiore uniformità normativa.
2021
Trento
Università degli Studi di Trento. Facoltà di Giurisprudenza
978-88-8443-940-6
Sistemi decisionali automatizzati e tutela dei diritti: tra carenza di trasparenza ed esigenze di bilanciamento / Terenghi, Irene. - ELETTRONICO. - (2021), pp. 1-172. [10.15168/11572_300389]
Terenghi, Irene
File in questo prodotto:
File Dimensione Formato  
LTSP_n._62_def.pdf

accesso aperto

Tipologia: Versione editoriale (Publisher’s layout)
Licenza: Creative commons
Dimensione 1.73 MB
Formato Adobe PDF
1.73 MB Adobe PDF Visualizza/Apri

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11572/300389
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact