Autodeterminazione digitale - Digital self-determination

Digital autodeterminazione è un multidisciplinare concetto derivato dal concetto giuridico di autodeterminazione e applicato alla sfera digitale, per affrontare le sfide uniche ai individuale e collettiva agenzia e l'autonomia derivante con crescente digitalizzazione di molti aspetti della società e della vita quotidiana.

Origini

Non esiste ancora un concetto di autodeterminazione digitale concordato filosoficamente o legalmente. In generale, il termine descrive il tentativo di proiettare in modo completo il modello dell'autodeterminazione umana (come esplorato per la prima volta in discipline come la filosofia e la psicologia e nel diritto) nell'era digitale.

Il concetto è stato incluso per la prima volta in un documento ufficiale dall'ARCEP , l'ente di regolamentazione francese delle telecomunicazioni, in una sezione del suo Rapporto 2021 sullo stato di Internet, esplorando il lavoro su "Autodeterminazione della rete" condotto dal professor Luca Belli .

Autodeterminazione

Filosofia

Il concetto di autodeterminazione si riferisce ai concetti di soggettività , dignità e autonomia nella filosofia classica dell'Europa centrale e derivato dalla concezione della libertà di Immanuel Kant . L'autodeterminazione presuppone che gli esseri umani siano entità capaci di ragione e responsabilità per le proprie azioni (autonomia) scelte razionalmente e giustificate, e dovrebbero essere trattati di conseguenza. Nel formulare il suo imperativo categorico (kategorischer Imperativ), Kant ha suggerito che gli esseri umani, come condizione della loro autonomia, non devono mai essere trattati come un mezzo per un fine ma come un fine in sé. Il modello di autodeterminazione mira allo stesso modo a consentire agli esseri umani autonomi di creare, scegliere e perseguire la propria identità, azione e scelte di vita senza indebite interferenze.

Psicologia

In psicologia, il concetto di autodeterminazione è strettamente correlato all'autoregolazione e alla motivazione intrinseca , cioè impegnarsi in un comportamento o un'attività perché è intrinsecamente gratificante farlo, invece di essere guidati da motivazioni o pressioni esterne, come il denaro incentivi, status o paura. In questo contesto, l'autodeterminazione e la motivazione intrinseca sono legate al sentirsi in controllo delle proprie scelte e dei propri comportamenti e sono considerate necessarie per il benessere psicologico. La teoria dell'autodeterminazione (SDT), introdotta per la prima volta dagli psicologi Richard Ryan e Eduard Deci negli anni '80, e ulteriormente sviluppata negli anni '90 e 2000, è stata largamente influente nel plasmare il concetto di autodeterminazione nel campo della psicologia. L'SDT di Ryan e Deci ha proposto che il comportamento motivato degli individui sia caratterizzato da tre bisogni fondamentali e universali: autonomia, competenza e relazione. L'autonomia si riferisce qui alla necessità di sentirsi liberi di decidere il proprio corso d'azione. La competenza si riferisce alla necessità di avere la capacità e le capacità per intraprendere e portare a termine comportamenti motivati ​​in modo efficace. Infine, la relazione si riferisce alla necessità di sperimentare relazioni sociali calde e premurose e di sentirsi in contatto con gli altri. Secondo SDT, tutti e tre i bisogni devono essere soddisfatti per un funzionamento ottimale e il benessere psicologico. Tuttavia, altri psicologi come Barry Schwartz hanno sostenuto che se l'autodeterminazione viene portata agli estremi, la libertà di scelta può trasformarsi nella "tirannia della scelta". In questa prospettiva, avere troppa autonomia e troppe scelte sul nostro corso d'azione può essere percepito come opprimente, rendere le nostre decisioni più difficili e alla fine portare a disagio psicologico piuttosto che benessere.

Legge

Diritti umani

Nel diritto internazionale, il diritto di un popolo all'autodeterminazione è comunemente riconosciuto come una regola di ius cogens . Qui, l'autodeterminazione denota che un popolo, basato sul rispetto del principio dell'uguaglianza dei diritti e dell'equa uguaglianza di opportunità, ha il diritto di scegliere liberamente la propria sovranità, status politico internazionale, sviluppo economico, sociale e culturale senza interferenze. Nell'ambito delle Nazioni Unite, i diritti fondamentali come l'autodeterminazione sono principalmente definiti nella Dichiarazione universale dei diritti umani , nel Patto internazionale sui diritti civili e politici e nel Patto internazionale sui diritti economici, sociali e culturali .

L'autodeterminazione informativa nel diritto tedesco

Il concetto di autodeterminazione informativa (Informational Selbstbestimmung), considerato come un diritto fondamentale moderno che protegge dal trattamento ingiustificato dei dati, ha avuto un ruolo di primo piano nella giurisprudenza della Corte costituzionale federale tedesca (Bundesverfassungsgericht) e potrebbe essere il precursore e l'ispirazione più diretti per il concetto di autodeterminazione digitale.

Nel 1983, il Bundesverfassungsgericht ha stabilito che "nel contesto del moderno trattamento dei dati, il diritto generale della personalità di cui all'articolo 2.1 in combinato disposto con l'articolo 1.1 della Legge fondamentale comprende la protezione dell'individuo contro la raccolta, la conservazione, l'uso e la condivisione illimitate di dati personali dati. Il diritto fondamentale garantisce all'autorità conferita all'individuo, in linea di principio, di decidere autonomamente in merito alla divulgazione e all'utilizzo dei propri dati personali”. (Volkszählungsurteil, nota 1).

Filosoficamente, il diritto all'autodeterminazione informativa è profondamente radicato nella concezione del Bundesverfassungsgericht dell'inviolabile dignità umana (Articolo 1 del Grundgesetz) come divieto di oggettivazione umana (in tedesco: Objektformel; cfr. ad esempio n. 33 di BVerfGE 27, 1 - Microzensus). Questa comprensione si riferisce alla filosofia dell'Illuminismo tedesca della fine del XVIII secolo. Il Volkszählungsurteil è stato ispirato dalla preoccupazione che la moderna tecnologia di elaborazione dei dati possa portare ad una “registrazione e catalogazione della propria personalità in modo incompatibile con la dignità umana” (Volkszählungsurteil, headnote 4). In questa prospettiva, gli esseri umani, a causa della loro dignità inviolabile, non possono mai essere trattati come risorse spersonalizzate e oggettivate che possono essere raccolte per i dati. Invece gli umani, a causa della loro capacità di autonomia, sono agenti autodeterminati che possiedono un grado significativo di controllo sulle loro immagini informative.

L'autodeterminazione nella sfera digitale

La crescente digitalizzazione della maggior parte degli aspetti della società pone nuove sfide per il concetto e la realizzazione dell'autodeterminazione. Sebbene la sfera digitale abbia inaugurato l'innovazione e aperto nuove opportunità di espressione personale e comunicazione per gli individui in tutto il mondo, la sua portata e i suoi benefici non sono stati distribuiti uniformemente, spesso approfondendo le disuguaglianze esistenti e le strutture di potere, comunemente indicate come un divario digitale . Inoltre, la trasformazione digitale ha consentito, spesso all'insaputa degli individui, la raccolta di massa, l'analisi e la raccolta di dati personali da parte di aziende private e governi per dedurre le informazioni e le preferenze degli individui (ad esempio, monitorando la cronologia di navigazione e acquisti), influenzare le opinioni e comportamento (ad es. attraverso bolle di filtro e pubblicità mirate) e/o per prendere decisioni al riguardo (ad es., approvare o meno una domanda di prestito o di lavoro), ponendo così nuove minacce alla privacy e all'autonomia degli individui.

Sebbene la definizione di autodeterminazione digitale sia ancora in evoluzione, il termine è stato utilizzato per indicare la capacità (o la sua mancanza) degli esseri umani di esercitare l'autodeterminazione nella loro esistenza e nell'uso di media, spazi, reti e tecnologie digitali, con la protezione del potenziale di prosperità umana nel mondo digitale come una delle preoccupazioni principali.

A partire dagli anni 2010, alcune iniziative multidisciplinari e intersettoriali in tutto il mondo hanno lavorato allo sviluppo di un quadro teorico per il concetto di autodeterminazione digitale.

Nel 2015, il Centro di Colonia per l'etica, i diritti, l'economia e le scienze sociali della salute, con sede presso l'Università di Colonia (CERES), ha condotto uno studio per aiutare a definire l'autodeterminazione digitale e sviluppare metriche per misurarne l'adempimento. Il loro rapporto di studio definisce l'autodeterminazione digitale come “lo sviluppo concreto di una personalità umana o la possibilità di realizzare i propri piani d'azione e decisioni di agire, nella misura in cui ciò si riferisce all'uso consapevole dei media digitali o è (co)dipendente sull'esistenza o sul funzionamento dei media digitali”.

Nel 2017, il professor Luca Belli ha presentato al Forum sulla governance di Internet delle Nazioni Unite il concetto di Autodeterminazione della rete come “diritto di associarsi liberamente al fine di definire, in modo democratico, la progettazione, lo sviluppo e la gestione dell'infrastruttura di rete come un bene, in modo che tutti gli individui possano liberamente cercare, impartire e ricevere informazioni e innovazione”. Sostenendo che il diritto all'autodeterminazione in rete trova le sue basi nel diritto fondamentale all'autodeterminazione dei popoli nonché nel diritto all'autodeterminazione informativa, Belli postula che l'autodeterminazione in rete svolga un ruolo fondamentale consentendo agli individui di associarsi e unire gli sforzi per colmare i divari digitali in modo dal basso verso l'alto, sviluppando liberamente un'infrastruttura comune. Il concetto ha preso piede a livello latinoamericano, iniziando a formare un elemento centrale della ricerca e delle proposte politiche dedicate alle reti di comunità.

Nel 2018 il governo svizzero ha lanciato una rete di autodeterminazione digitale in risposta al piano d'azione per la strategia "Svizzera digitale" del Consiglio federale, che include rappresentanti dell'Amministrazione federale svizzera, del mondo accademico, della società civile e del settore privato. Il lavoro di questa rete concettualizza l'autodeterminazione digitale come "un modo per rafforzare la fiducia nella trasformazione digitale consentendo a tutti gli attori della società di beneficiare del potenziale dell'economia dei dati". Questo lavoro propone che i principi fondamentali dell'autodeterminazione digitale siano trasparenza e fiducia, controllo e condivisione dei dati autodeterminata, spazi di dati orientati all'utente e spazi di dati decentralizzati che operano in prossimità delle esigenze dei cittadini. Il lavoro della rete mira a “creare una rete internazionale che rappresenti i principi base dell'autodeterminazione digitale e su questa base elaborerà buone pratiche, standard e accordi per sviluppare spazi di dati internazionali”.

Nel 2021, il regolatore francese delle telecomunicazioni ( ARCEP ) ha fatto riferimento al concetto di autodeterminazione digitale nel suo rapporto annuale ufficiale dedicato a "Lo stato di Internet", attingendo al rapporto del documento di output dell'IGF su " Il valore dell'apertura di Internet nei tempi di crisi ”.

Nel 2021, il Center of AI & Data Governance della Singapore Management University ha lanciato un importante progetto di ricerca incentrato sul concetto di autodeterminazione digitale, in collaborazione con il governo svizzero e altri partner di ricerca. Il loro quadro teorico si concentra sulla governance dei dati e sulla privacy e propone che le componenti principali dell'autodeterminazione digitale siano il potere degli interessati di controllare il proprio senso di sé nella sfera digitale, la loro capacità di governare i propri dati, il consenso come pietra angolare di privacy e protezione dei dati, protezione contro l'abuso dei dati e accuratezza e autenticità dei dati raccolti. Questo quadro proposto sottolinea anche che l'autodeterminazione digitale si riferisce sia agli individui che ai collettivi e che il concetto dovrebbe essere inteso nel contesto dei "diritti dipendenti dai doveri" e parallelamente ai concetti di sé sociale o relazionale, responsabilità sociale e digitale. solidarietà (vedi sotto: 3.1. Affrontare il "sé" multilivello nell'autodeterminazione digitale)

Nel 2021, il Digital Asia Hub in collaborazione con il Berkman Klein Center dell'Università di Harvard e il Global Network of Internet & Society Centers, ha condotto uno sprint di ricerca per esplorare il concetto di autodeterminazione digitale da diverse prospettive e attraverso contesti culturali. Questa iniziativa si è avvicinata all'autodeterminazione digitale "come fattore abilitante - o almeno contributore - all'esercizio dell'autonomia e dell'agire di fronte a scelte restrittive", per affrontare questioni di controllo, potere ed equità "in un mondo che è sempre più costruito, mediato e talvolta anche dominato dalle tecnologie digitali e dai media digitali, comprese le infrastrutture sottostanti”.

Oltre al lavoro dei governi e dei centri di ricerca, i membri della società civile hanno anche sostenuto l'autodeterminazione digitale. Ad esempio, Ferdinand von Schirach , un avvocato e scrittore tedesco molto letto di racconti e romanzi legali di fantasia, ha lanciato un'iniziativa intitolata "JEDER MENSCH", che si traduce in "Ogni essere umano". In "JEDER MENSCH", von Schirach chiede l'aggiunta di sei nuovi diritti fondamentali alla Carta dei diritti fondamentali dell'Unione europea. L'articolo 2 di questa proposta è intitolato “diritto all'autodeterminazione digitale” e proponeva che “Ognuno ha diritto all'autodeterminazione digitale. È vietata la profilazione eccessiva o la manipolazione delle persone”.

Elementi pratici

Diversi settori della società, che vanno dai legislatori e decisori politici, alle organizzazioni pubbliche e agli studiosi, agli attivisti e ai membri della società civile, hanno chiesto infrastrutture, strumenti e sistemi digitali che proteggano e promuovono l'autodeterminazione degli individui, compresa la parità e accesso gratuito, design incentrato sull'uomo, migliori protezioni della privacy e controllo sui dati. Questi elementi sono strettamente connessi e si completano a vicenda. Ad esempio, la parità di accesso all'infrastruttura digitale può consentire la rappresentazione di diversi punti di vista e una governance partecipativa nella sfera digitale, e potrebbero essere necessari sistemi decentralizzati per garantire il controllo delle persone sui propri dati.

Accesso all'infrastruttura e agli strumenti digitali

Colmare le varie forme di divario digitale esistente e fornire un accesso equo ed equo alle tecnologie digitali e a Internet è stato proposto come cruciale per garantire che tutti gli individui siano in grado di beneficiare dell'era digitale, compreso l'accesso a informazioni, servizi e opportunità di avanzamento.

In questo senso, il concetto di Digital Self-determination si sovrappone al concetto di “Network Self-determination” poiché sottolinea che gruppi di individui non connessi e scarsamente connessi possono riprendere il controllo delle infrastrutture digitali, costruendole e plasmando il quadro di governance che organizzarli come un bene comune. Come tale, Belli sottolinea che l'autodeterminazione della rete porta a diverse esternalità positive per le comunità colpite, preservando Internet come una rete di reti aperta, distribuita, interoperabile e generativa.

Alfabetizzazione digitale

L'alfabetizzazione digitale e l'alfabetizzazione mediatica sono state proposte come necessarie affinché le persone acquisiscano le conoscenze e le competenze per utilizzare gli strumenti digitali, nonché per valutare criticamente i contenuti che incontrano online, creare i propri contenuti e comprendere le caratteristiche e le implicazioni della tecnologia digitale utilizzata su di loro e sulla tecnologia con cui interagiscono consapevolmente e volontariamente. Oltre alle competenze di base di navigazione digitale e al consumo critico di informazioni, le definizioni di alfabetizzazione digitale sono state estese per includere la consapevolezza delle alternative esistenti alle piattaforme e ai servizi digitali utilizzati, la comprensione di come vengono gestiti i dati personali, la consapevolezza dei diritti e delle tutele legali esistenti, e di misure per proteggere autonomamente la propria sicurezza e privacy online (es. l'adozione di tecniche di offuscamento come mezzo per eludere e protestare contro la sorveglianza digitale).

Rappresentazione di realtà e punti di vista diversi

L'attivista di Internet Eli Pariser ha coniato il termine bolla di filtro per riferirsi alla ridotta disponibilità di opinioni e realtà divergenti che incontriamo online come conseguenza di algoritmi di personalizzazione come la ricerca personalizzata e i sistemi di raccomandazione . Le bolle filtro sono state suggerite per facilitare una comprensione distorta dei punti di vista degli altri e del mondo. Garantire un'ampia rappresentazione delle diverse realtà sulle piattaforme digitali potrebbe essere un modo per aumentare l'esposizione a punti di vista contrastanti ed evitare l'isolamento intellettuale nelle bolle informative.

Progettazione incentrata sull'uomo di interfacce ed esperienze utente

Gli studiosi hanno coniato il termine economia dell'attenzione per riferirsi al trattamento dell'attenzione umana come merce rara nel contesto di quantità sempre crescenti di informazioni e prodotti. In questa prospettiva, la crescente concorrenza per l'attenzione limitata degli utenti, soprattutto quando si fa affidamento su modelli di entrate pubblicitarie , crea un obiettivo urgente per le piattaforme digitali per far sì che il maggior numero possibile di persone dedichi più tempo e attenzione possibile utilizzando il loro prodotto o servizio. Nella loro ricerca della scarsa attenzione degli utenti, queste piattaforme sarebbero incentivate a sfruttare le debolezze cognitive ed emotive degli utenti, ad esempio tramite notifiche costanti, modelli oscuri , multitasking forzato, confronto sociale e contenuti incendiari. I sostenitori del design incentrato sull'uomo nella tecnologia (o tecnologia umana ) propongono che la tecnologia dovrebbe astenersi da tali pratiche di "hacking del cervello" e dovrebbe invece supportare l'agenzia degli utenti nel loro tempo e attenzione, nonché nel loro benessere generale.

Governance dei dati

La studiosa Shoshana Zuboff ha coniato il termine capitalismo della sorveglianza per riferirsi alla mercificazione dei dati personali degli utenti da parte del settore privato a scopo di lucro (ad esempio tramite pubblicità mirata ), portando a una maggiore vulnerabilità alla sorveglianza e allo sfruttamento. Il capitalismo della sorveglianza si basa su modelli di gestione dei dati centralizzati in cui le aziende private mantengono la proprietà e il controllo sui dati degli utenti. Per difendersi dalle sfide alla privacy e all'autodeterminazione degli individui, sono stati recentemente proposti vari modelli alternativi di governance dei dati in tutto il mondo, inclusi trust, commons, cooperative, collaborative, fiduciari e "pod". Questi modelli hanno alcune sovrapposizioni e condividono la missione comune di dare maggiore controllo agli individui sui loro dati e quindi affrontare gli attuali squilibri di potere tra i detentori dei dati e gli interessati.

Problemi attuali

Affrontare il "sé" multilivello nell'autodeterminazione digitale

Autodeterminazione digitale per gli individui

L'esercizio dell'auto-agency da parte di un individuo può essere intimamente connesso agli ambienti digitali in cui è inserito, che possono modellare la propria architettura di scelta , l'accesso alle informazioni e alle opportunità, nonché l'esposizione al danno e allo sfruttamento, influenzando così la capacità della persona di agire liberamente e autonomamente condurre la sua vita. Una varietà di tecnologie digitali e le loro infrastrutture sottostanti, indipendentemente dalle loro interfacce umane relativamente visibili o indirette , potrebbero contribuire a condizioni che potenziano o tolgono potere all'autodeterminazione di un individuo nelle sfere della partecipazione socio-economica, della rappresentazione dell'identità culturale e dell'espressione politica .

Un'illustrazione raffigurante l'uso della tecnologia di riconoscimento facciale su una donna.

L'estensione delle sfere mediate dalla tecnologia in cui tale influenza potrebbe avere luogo sulle scelte autodeterminate di un individuo è stata al centro di crescenti dibattiti contemporanei in diverse aree geografiche. Uno dei dibattiti riguarda il fatto che la privacy di un individuo , come forma di controllo sulle proprie informazioni, possa o meno essere sufficientemente protetta dalla raccolta di dati di sfruttamento e dal micro-targeting che possono esercitare un'influenza comportamentale indebita sull'individuo come parte di un gruppo mirato. Gli sviluppi in questo settore variano notevolmente tra i vari paesi e regioni in cui ci sono diversi privacy quadri e politiche dati grandi, come ad esempio l' Unione europea ‘s regolamento di protezione generale dei dati e la Cina ‘s sociale del sistema di credito , che si avvicinano dati personali distintamente.

Altri dibattiti spaziano dal fatto che l' agenzia individuale nel processo decisionale possa essere minata da algoritmi predittivi ; se un singolo lavoratore, in particolare nel Sud del mondo , può incontrare nuove opportunità di lavoro e vulnerabilità uniche nell'economia digitale ; se l'autoespressione di un individuo può essere indebitamente e discriminatamente controllata dalle tecnologie di sorveglianza impiegate nelle città intelligenti , in particolare quelle che integrano il riconoscimento facciale e le capacità di riconoscimento delle emozioni che funzionano su dati biometrici , come una forma di panopticon digitale ; e se l'accesso di un individuo a informazioni diverse possa essere influenzato dal divario digitale e dal dominio delle piattaforme online centralizzate, potenzialmente limitando la propria capacità di immaginare la propria identità e prendere decisioni informate.

Autodeterminazione digitale per i bambini

I media e la tecnologia digitali offrono ai bambini l'opportunità di impegnarsi in varie attività che supportano il loro sviluppo, l'apprendimento e il tempo libero. Tali attività includono il gioco, le interazioni con gli altri, la condivisione e la creazione di contenuti e la sperimentazione di varie forme di identità offerte dai mezzi con cui interagiscono. Allo stesso tempo, nonostante le disponibilità dei media digitali, i bambini sono utenti di età inferiore ai 18 anni, il che può avere conseguenze indesiderate sul modo in cui i bambini consumano contenuti, essere vulnerabili e sui modi in cui le interazioni con la tecnologia influiscono sullo sviluppo emotivo, comportamentale e cognitivo del bambino . Pertanto, gli appelli nell'ambito dell'alfabetizzazione digitale e della ricerca sull'interazione con la tecnologia dei bambini affermano che la progettazione etica della tecnologia è essenziale per la progettazione di ambienti equi per i bambini. Il lavoro nei media digitali e nell'apprendimento riconosce le opportunità della tecnologia per creare modi espansivi di apprendimento e sviluppo per i bambini, allo stesso tempo, presta attenzione al fatto che i bambini dovrebbero apprendere le alfabetizzazioni digitali critiche che consentano loro di comunicare, valutare e costruire conoscenza all'interno del digitale media. Inoltre, si dovrebbe prendere in considerazione la considerazione etica per sostenere l'autodeterminazione dei bambini. Ad esempio, all'interno di questo corpus di lavori, c'è un'attenzione al coinvolgimento dei bambini nel processo decisionale del design tecnologico come approccio metodologico etico nell'impegnare il design della tecnologia per i bambini. In altre parole, coinvolgere i bambini nel processo di progettazione delle tecnologie e pensare alle dimensioni etiche delle interazioni dei bambini consente uno spostamento della nozione di vulnerabilità verso il supporto ai bambini per mettere in atto la loro autodeterminazione e posizionandoli come creatori attivi del proprio futuro digitale .

Al di là delle considerazioni etiche, il coinvolgimento dei bambini nelle tecnologie digitali e nelle pratiche del mercato digitale ha anche un'importante rilevanza con i loro diritti alla privacy e alla protezione dei dati . L'uso di analisi predittive e sistemi software di monitoraggio può avere un impatto sulle scelte digitali e reali dei bambini sfruttando le pratiche di profilazione di massa. Infatti, a causa dell'uso ubiquo di questi sistemi algoritmici sia a livello statale che privato, la privacy dei bambini può essere facilmente violata e possono essere personalmente identificabili nella sfera digitale.

L'articolo 12 del CRC delle Nazioni Unite implica la responsabilità di affermare che i bambini dovrebbero avere il diritto di formarsi ed esprimere le proprie opinioni "liberamente, senza alcuna pressione". Nell'analisi letterale, la pressione si riferisce a qualsiasi tipo di manipolazione, oppressione o sfruttamento. Gli Stati parti dovrebbero riconoscere che tutti i bambini, indipendentemente dall'età, sono in grado di formarsi ed esprimere le proprie opinioni autonome. Inoltre, viene affermato dal Comitato che i bambini dovrebbero avere il diritto di essere ascoltati anche se non hanno una comprensione completa dell'argomento che li riguarda. Inoltre, l'articolo 3 dell'UNCRC afferma che l'interesse superiore del minore deve essere incorporato nei processi decisionali privati ​​e governativi e deve essere una considerazione primaria in relazione ai servizi e alle procedure che coinvolgono i minori. Ancorando queste responsabilità alle pratiche digitali private e pubbliche e come evidenziato nel Commento generale n. 25 del Comitato sui diritti dell'infanzia, i bambini sono a grande rischio nel dominio digitale per quanto riguarda la loro identità vulnerabile e in evoluzione . Si scopre che con la proliferazione della sorveglianza di massa e dell'analisi predittiva, sono in arrivo nuove controversie per gli stati per proteggere i diritti molto innati dei bambini. A tal fine, le recenti azioni collettive e gli sforzi di regolamentazione Le aziende tecnologiche possono essere esempi promettenti nel contesto di spingere il settore privato ad adottare più pratiche di tutela della privacy sui bambini che possono fornire uno scudo d'oro per la loro autonomia. In questo clima incautamente regolato, è diventato più facile trarre profitto con l'aiuto della pubblicità comportamentale contro i bambini. Non avendo adeguato consenso, informare / consenso dei genitori pratiche, è così facile da manipolare e sfruttare le vulnerabilità intrinseche molto di bambini e spingere loro di scegliere prodotti e applicazioni specifiche. A questo proposito, l'articolo 8 del GDPR prevede una serie di limiti di età per il trattamento dei dati personali dei minori relativi ai servizi della società dell'informazione (ISS). Ai sensi dell'articolo 8, nelle condizioni in cui i minori hanno almeno 16 anni, il minore può dare il consenso al trattamento lecito dei dati personali limitato alle finalità del trattamento (articolo (6) (1) (a). anni, è lecito solo e nella misura del consenso che è prestato dal titolare della responsabilità genitoriale al minore.Questo limite di età di 16 anni può essere inferiore a 13 anni dagli Stati membri. Oltre a questo , si sottolinea che i responsabili del trattamento dei dati dovrebbero adottare le misure necessarie in relazione alla protezione dei dati dei bambini.A sostegno di ciò, il considerando 38 afferma che i bambini meritano una protezione specifica sull'uso, la raccolta e il trattamento dei loro dati, tenendo conto che i bambini sono meno consapevoli di gli impatti, le conseguenze e le garanzie rispetto al trattamento dei loro dati personali.Il GDPR si riferisce anche ai minori di cui agli articoli 40 e 57 e ai considerando 58 e 75.

Oltre al GDPR, uno dei regolamenti strutturati è l' Information Commissioner's Office (ICO) Children Code (formalmente Age Appropriate Design Code) del Regno Unito, approvato nel settembre 2020. Il Children Code stabilisce il limite di età a 18 anni per quanto riguarda la capacità di dare gratuito, pur implicando la responsabilità nei confronti dei fornitori di servizi online come app, giochi, dispositivi e giocattoli connessi e nuovi servizi. Ciò che differenzia il codice per l'infanzia dai regolamenti dell'UE è che si applica a tutti i servizi della società dell'informazione a cui possono accedere i bambini. Ciò significa che, anche se il servizio non è rivolto direttamente ai bambini, i soggetti che offrono tali servizi devono rispettare il Codice dei bambini. Il codice per i bambini dell'ICO è anche infuso con la nozione di interesse superiore del bambino che è esposta nell'UNCRC. Avendo un ampio campo di applicazione, l'ICO elenca una serie di punti guida per le organizzazioni per sostenere la nozione di interesse superiore del bambino, come riconoscere che i bambini hanno una capacità in evoluzione di formare le proprie opinioni e dare il giusto peso a tali opinioni, proteggendo la loro esigenze dello sviluppo delle proprie idee e della propria identità, del proprio diritto all'assemblea e al gioco. Il Codice estende inoltre la protezione dei dati personali dei minori con una serie di standard chiave come la minimizzazione dei dati, le valutazioni d'impatto sulla protezione dei dati, la progettazione adeguata all'età, la privacy predefinita e la trasparenza.

Dinamiche di potere geopolitico e culturale nel mondo digitale

Colonialismo digitale

La politica dell'impero sta già permeando le storie condivise. Rapporti sociali diseguali tra popoli colonizzatori e colonizzati si sono materializzati attraverso lo sfruttamento, la segregazione, la violenza epistemica, e così via. In tutto il mondo, questi discorsi sul colonialismo hanno dominato le percezioni e le culture delle persone. I critici postcoloniali sostenevano come i popoli colonizzati potessero ottenere un'azione culturale, economica e sociale contro le strutture e la rappresentazione oppressive imposte alle loro vite e società.

Tuttavia, attraverso la temporalità, la prefazione "post" implica che il periodo storico della colonizzazione è terminato e i soggetti colonizzati sono ora liberi dai suoi discorsi. Gli studiosi si sono concentrati sulla continuità del colonialismo anche se storicamente è finito. Le strutture ei discorsi neocoloniali fanno già parte delle diverse culture “postcoloniali”. L'era postcoloniale in cui i paesi colonizzati hanno ottenuto l'indipendenza e l'autonomia è stata un mezzo per la popolazione per riconquistare la propria autodeterminazione e libertà. Eppure, le strutture neocoloniali che sono ancora dilaganti nelle società postcoloniali. Sebbene lo stato-nazione possa avanzare l'idea di autonomia e autodeterminazione, emergono sempre nuove forme di colonialismo. Questa dialettica tra colonialismo e autodeterminazione abbraccia una serie di campi, che cambiano forma, focus e scopo nel tempo. Si riflette nelle complesse relazioni politiche e politiche tra i popoli "postcoloniali" e lo stato, soprattutto perché la maggior parte degli stati sta replicando i sistemi legali e politici del loro ex colonizzatore.

La storia afferma che la politica statale in campi diversi come la salute, l'istruzione, l'alloggio, i lavori pubblici, l'occupazione e la giustizia hanno avuto e continuano ad avere effetti negativi sulle popolazioni indigene dopo l'indipendenza. Questo effetto negativo è condiviso da tutti gli ex popoli colonizzati. Accanto a queste tensioni politiche, gli interessi economici hanno manipolato i quadri legali e di governance per estrarre valore e risorse dagli ex territori colonizzati, spesso senza un adeguato compenso o consultazione per gli individui e le comunità colpite. Di conseguenza, il colonialismo digitale emerge come un discorso dominante nella sfera digitale.

Il colonialismo digitale è una forma strutturale di dominio esercitata attraverso la proprietà e il controllo centralizzati dei tre pilastri fondamentali dell'ecosistema digitale: software, hardware e connettività di rete. Il controllo sugli ultimi tre dà alle grandi corporazioni un immenso potere politico, economico e sociale non solo sugli individui, ma anche sugli stati-nazione. L'assimilazione nei prodotti tecnologici, nei modelli e nelle ideologie delle potenze straniere costituisce una colonizzazione dell'era di Internet.

Oggi è in atto una nuova forma di colonizzazione aziendale. Invece della conquista della terra, le società Big Tech stanno colonizzando la tecnologia digitale. Le seguenti funzioni sono tutte dominate da una manciata di aziende multinazionali: motori di ricerca (Google); browser web (Google Chrome); sistemi operativi per smartphone e tablet (Google Android, Apple iOS); sistemi operativi desktop e laptop (Microsoft Windows); software per ufficio (Microsoft Office, Google Docs); infrastruttura e servizi cloud (Amazon, Microsoft, Google, IBM); piattaforme di social networking (Facebook, Twitter); trasporto (Uber, Lyft); reti aziendali (Microsoft LinkedIn); streaming video (Google YouTube, Netflix, Hulu); e pubblicità online (Google, Facebook) – tra gli altri. Queste comprendono le cinque società più ricche del mondo, con una capitalizzazione di mercato combinata che supera i $ 3 trilioni. Se uno stato-nazione integra questi prodotti Big Tech nella loro società, queste multinazionali otterranno un enorme potere sulla loro economia e creeranno dipendenze tecnologiche che porteranno all'estrazione perpetua delle risorse. Questo ricorda il periodo coloniale in cui le colonie furono rese dipendenti dall'economia del colonizzatore per un ulteriore sfruttamento.

Sotto il colonialismo digitale, le infrastrutture digitali nel Sud del mondo sono progettate per le esigenze delle grandi aziende tecnologiche, consentendo il dominio economico e culturale e imponendo forme di governo privatizzate. Per svolgere questo compito, le grandi aziende progettano la tecnologia digitale per garantire il proprio dominio sulle funzioni critiche nell'ecosistema tecnologico. Ciò consente loro di accumulare profitti dai ricavi derivanti dalla rendita; esercitare il controllo sul flusso di informazioni, attività sociali e una pletora di altre funzioni politiche, sociali, economiche e militari che utilizzano le loro tecnologie.

Il colonialismo digitale dipende dal codice. In Code: And Other Laws of Cyberspace, Lawrence Lessig ha affermato che il codice del computer modella le regole, le norme e i comportamenti delle esperienze mediate dal computer. Di conseguenza, "il codice è legge" nel senso che ha il potere di usurpare le norme legali, istituzionali e sociali che hanno un impatto sui domini politici, economici e culturali della società. Questa intuizione critica è stata applicata in campi come il copyright, la regolamentazione della libertà di parola, la governance di Internet, la blockchain, la privacy e persino illeciti. Questo è simile all'architettura nello spazio fisico durante il colonialismo. Edifici e infrastrutture sono stati costruiti per rafforzare il dominio e la portata del colonialismo.

I popoli "postcoloniali", quindi, affrontano molteplici limitazioni digitali nel loro accesso e utilizzo delle infrastrutture digitali in rete. Quest'ultimo minaccia di riflettere e ristrutturare le relazioni esistenti di disuguaglianza sociale fondate sul colonialismo e sui continui processi di neocolonialismo. I popoli indigeni sono profondamente consapevoli di questo potenziale e così stanno lavorando con vari partner per decolonizzare la sfera digitale. Stanno intraprendendo una varietà di progetti che rappresentano le loro esperienze diverse e localizzate, insieme a un comune desiderio di autodeterminazione. Le comunità indigene rurali e remote affrontano persistenti problemi di accesso al digitale associati agli effetti storici e in corso del colonialismo. Le comunità indigene remote stanno diventando "offline by design" perché la loro connessione online è stata messa in discussione. I popoli indigeni stanno affermando la loro autodeterminazione digitale utilizzando queste piattaforme per costruire comunità online, esprimere identità virtuali e rappresentare virtualmente la loro cultura. Quindi, non sono più statici come offline, ma diventano 'individualismo in rete'. Il loro impegno con la sfera digitale resiste alle rappresentazioni imposte delle loro identità e deterritorializza le concezioni delle comunità virtuali. Di conseguenza, gli ex popoli colonizzati sono sempre impegnati nel processo di decolonizzazione dei discorsi neo-coloniali latenti che stanno dominando Internet.

Apartheid digitale

L'apartheid digitale è stato anche un concetto chiave nei dibattiti sull'autodeterminazione digitale . Per autori come Christian Fuchs, l'apartheid digitale significa che "alcuni gruppi e regioni del mondo sono sistematicamente esclusi dal cyberspazio e dai benefici che può creare".

Brown e Czerniewicz (2010), attingendo a un progetto di ricerca che interroga l'accesso degli studenti dell'istruzione superiore in Sudafrica alle tecnologie dell'informazione e della comunicazione (ICT), evidenziano che mentre l'età o gli aspetti generazionali sono stati una caratteristica dei divari digitali , ora questi ultimi sono piuttosto una questione di accesso e opportunità, sostenendo che ai giorni nostri "l'apartheid digitale è vivo e vegeto".

Prendendo in prestito da Graham (2011) e estendendosi alla rappresentazione delle condizioni che circondano l'istruzione superiore nel Sudafrica post- apartheid , Ashton et al. (2018) evidenziano il concetto di apartheid digitale come processo multidimensionale con tre dimensioni: una dimensione materiale (compreso l'accesso a infrastrutture , dispositivi, copertura cellulare , elettricità ), una dimensione delle competenze (compreso l'eredità dell'istruzione in materia di formazione informatica , capitale sociale per quanto riguarda le competenze informatiche familiari / comunitarie ) e una dimensione virtuale (che include lingua , cultura e rilevanza contestuale). Gli autori affermano che “La dimensione virtuale emerge dall'atto intenzionale di ' redlining digitale ' che assume diverse forme. Può avere il pretesto di proteggere un'organizzazione dallo spam e da attacchi informatici illeciti e dannosi , ma ha il risultato secondario di bloccare o filtrare le comunità che hanno accesso solo attraverso portali più economici". Include anche l'influenza dell'internet inglese occidentalizzato che influenza ulteriormente la visibilità dei contenuti . La dimensione delle competenze emerge da una comprensione in cui le lezioni sulle TIC non facevano parte del curriculum fino a poco tempo fa e quindi lo sviluppo delle competenze è rimasto sottoesposto e limitato. Gli autori fanno riferimento alla dimensione materiale come la preoccupazione più citata riguardo all'introduzione della tecnologia come parte del curriculum, sostenendo che "la mancanza di infrastrutture elettriche nelle aree socio-economiche inferiori e i costi esorbitanti dei dati, influiscono sulla capacità di alcuni studenti di accedere alle proprie risorse di apprendimento .”

Dal 2019, questo concetto che indica i vantaggi per alcuni e l'espropriazione di altri è stato utilizzato anche per caratterizzare gli arresti di Internet e i blocchi delle comunicazioni in Jammu e Kashmir . La regione, contesa e rivendicata sia dall'India che dal Pakistan nella sua interezza e luogo di un conflitto armato attivo , ha visto lo Stato indiano imporre un blackout totale delle comunicazioni e l' arresto di Internet in Jammu e Kashmir nella notte tra il 4 e il 5 agosto 2019 come parte delle sue misure unilaterali per rimuovere la natura semi-autonoma del territorio conteso di Jammu e Kashmir. Internet 2G a bassa velocità è stato ripristinato nel gennaio 2020 mentre Internet 4G ad alta velocità è stato ripristinato nel febbraio 2021. Un rapporto del 2019 rileva che tra il 2012 e il 2019 ci sono stati 180 arresti di Internet nella regione. L'India è anche in cima alla lista dei 29 paesi che hanno interrotto l'accesso a Internet per le persone nell'anno 2020. Il rapporto di Access Now ha evidenziato: "L'India aveva istituito quello che era diventato un arresto perpetuo e punitivo in Jammu e Kashmir a partire dall'agosto 2019 I residenti in questi stati avevano precedentemente sperimentato frequenti arresti periodici e nel 2020 sono stati privati ​​di Internet affidabile, sicuro, aperto e accessibile su base continuativa. Nel collocare questi frequenti arresti nel contesto del conflitto in corso in Kashmir, il rapporto Kashmir's Internet Siege (2020) della Jammu Kashmir Coalition of Civil Society sostiene che con i frequenti arresti di Internet, il governo indiano ha messo in atto in queste regioni un " apartheid digitale”, “una forma di trattamento discriminatorio sistemico e pervasivo e punizione collettiva ”. Secondo il rapporto, "le chiusure di Internet frequenti e prolungate mettono in atto un profondo apartheid digitale privando sistematicamente e strutturalmente la popolazione del Kashmir dei mezzi per partecipare a un mondo altamente interconnesso e digitalizzato ".

Questa sistematica censura e privazione non solo ha portato ad escludere le persone, collettivamente, dalla partecipazione al cyberspazio , ma come era evidente, ha paralizzato le aziende IT e le startup in Kashmir. È stato notato che ha colpito almeno un migliaio di dipendenti che lavorano in questo settore solo nel terzo mese della chiusura di Internet più lunga del mondo, iniziata la notte tra il 4 e il 5 agosto 2019 in Jammu e Kashmir. In una dichiarazione, i Relatori Speciali delle Nazioni Unite hanno definito il blackout delle comunicazioni una punizione collettiva senza alcun pretesto per aggravare il reato. "La chiusura di internet e delle reti di telecomunicazione , senza giustificazione da parte del governo, è in contrasto con le norme fondamentali di necessità e proporzionalità", hanno affermato gli esperti. Un notiziario che citava la storia di un imprenditore che stava facendo bene con una startup ha osservato che “Internet è l'ossigeno per le start-up. Il Centro ha staccato la spina il 5 agosto. Il mondo virtuale era il nostro spazio di crescita. Ora non c'è più. Tutti i dipendenti e i produttori sono stati disoccupati [..] Devo lavorare con le buone o con le cattive per far fronte ai danni causati dalla perdita di clienti, ordini non consegnati e merce accumulata dopo l'indisponibilità di Internet”. Nel giugno 2020, è stato segnalato per la prima volta come le aziende non locali siano state in grado di aggiudicarsi la maggior parte dei contratti online per l' estrazione di blocchi minerali, poiché i locali sono stati lasciati in una posizione di svantaggio a causa del divieto di Internet ad alta velocità.

L'effetto di questo apartheid digitale è stato testimoniato anche durante il blocco indotto dalla Covid-19 pandemia lasciando la sanità infrastrutture storpi come i medici si sono lamentati di non essere in grado di accedere informazioni o corsi di formazione Frequenta su coronavirus causa a Internet limitato. Il presidente dell'Associazione dei medici ha osservato che le iniziative di sensibilizzazione condotte altrove sul virus erano impossibili da eseguire in Kashmir. “Vogliamo educare le persone attraverso i video, cosa che non è possibile a velocità 2G. Siamo portatori di handicap in assenza di internet ad alta velocità”. Gli esperti sanitari e la gente del posto hanno avvertito che il blackout di Internet sta ostacolando la lotta contro il coronavirus nella regione. La chiusura di Internet ha colpito anche l'istruzione a tutti i livelli nella regione. I notiziari hanno notato come l'educazione del Kashmir sia stata lasciata indietro anche se la vita altrove si stava spostando online nel gestire le linee guida di soggiorno a casa durante la pandemia. Un notiziario dopo un anno dal blackout delle comunicazioni e dalla successiva restrizione su Internet ad alta velocità ha evidenziato che aveva "devastato la salute , l' istruzione , l' imprenditorialità " nella regione.

Regolamentazione per l'autodeterminazione digitale

Il panorama giuridico

Promuovere concetti e diritti che sono strettamente legati all'autodeterminazione digitale è un obiettivo comune dietro le iniziative di regolamentazione in vari ordinamenti giuridici. Partendo dal quadro concettuale dei diritti umani e da una nozione ben consolidata di autodeterminazione informativa, l'autodeterminazione digitale assume gradualmente un ruolo sempre più importante come concetto che racchiude valori e virtù che rimangono altamente rilevanti nel contesto del società in rete globale , come autonomia , dignità e libertà .

L'importanza di inserire i valori fondamentali nei quadri legislativi che regolano la sfera digitale è stata più volte sottolineata da studiosi, autorità pubbliche e rappresentanti di varie organizzazioni.

La politica giuridica dell'UE, pur non facendo esplicito riferimento al diritto all'autodeterminazione digitale, persegue obiettivi strettamente correlati. Una delle premesse generali della Strategia Digitale Europea è incoraggiare lo sviluppo di una tecnologia affidabile che "funzioni per le persone". Mira a promuovere, tra le altre cose, "servizi pubblici e amministrazione digitali incentrati sull'uomo", nonché "principi etici per algoritmi centrati sull'uomo".

L'UE ha delineato questi obiettivi politici in diversi programmi normativi, tra cui la strategia digitale della Commissione europea , la strategia europea sui dati e il Libro bianco dell'UE sull'intelligenza artificiale . Successivamente, l'UE ha perseguito gli obiettivi summenzionati attraverso l'adozione o la proposta di diversi strumenti giuridici tra cui:

Il Regolamento generale sulla protezione dei dati , volto a dettare “norme relative alla protezione delle persone fisiche con riguardo al trattamento dei dati personali e norme relative alla libera circolazione dei dati personali”, tutelando “i diritti e le libertà fondamentali delle persone fisiche e in particolare il loro diritto alla protezione dei dati personali” e garantendo “la libera circolazione dei dati personali all'interno dell'Unione”. Le principali disposizioni relative al concetto di autodeterminazione digitale comprendono i principi del trattamento dei dati (ad es. equità, trasparenza e responsabilità), i motivi per il trattamento legittimo dei dati (in particolare il consenso e gli interessi legittimi), i diritti degli interessati (ad es. il diritto di essere informato, diritto all'oblio , diritto di opposizione), diritto alla portabilità dei dati, obblighi associati a privacy-by-design e privacy-by-default, diritti e obblighi relativi al trattamento algoritmico dei dati (in particolare la profilazione e il processo decisionale automatizzato), e obblighi relativi ai trasferimenti di dati al di fuori dello Spazio Economico Europeo .

Il Regolamento ePrivacy , proposta legislativa volta a disciplinare le tematiche relative alle comunicazioni elettroniche all'interno dell'UE, inclusa la riservatezza delle comunicazioni, i controlli della privacy tramite consenso elettronico e browser, ei cookie .

La legge sui servizi digitali , una proposta legislativa volta ad armonizzare le norme relative ai servizi di intermediazione digitale, in particolare ai contenuti illegali, alla pubblicità trasparente, alla disinformazione sulle piattaforme dei social media e ai sistemi di raccomandazione dei contenuti, preservando la libertà di espressione . Il DSA è una delle due proposte del pacchetto Digital Services Act .

Il Digital Markets Act , proposta legislativa volta a regolamentare le prestazioni delle grandi piattaforme online che fungono da “gatekeeper” nel Mercato Unico Europeo , garantendo così una concorrenza leale e “livellando il campo di gioco”. Il DMA è una delle due proposte del pacchetto Digital Services Act .

Il regolamento sull'intelligenza artificiale , una proposta legislativa volta a fornire agli sviluppatori, ai distributori e agli utenti requisiti e obblighi chiari in merito a usi specifici dell'IA . Il progetto di regolamento introduce tra l'altro un catalogo di pratiche di intelligenza artificiale vietate che distorcono il comportamento dell'individuo in un modo che può portare a danni fisici o mentali.

La legge sulla governance dei dati e la direttiva sui dati aperti, proposte legislative volte a creare sistemi affidabili di condivisione dei dati che consentiranno ai cittadini dell'UE di decidere in merito alla condivisione dei propri dati tra settori e Stati membri, aumentando al contempo il valore economico annuale della condivisione dei dati in l'UE e la creazione di benefici sociali ed economici.

La Direttiva sul diritto d'autore , che mira a proteggere la proprietà intellettuale e, di conseguenza, il lavoro intellettuale. Tuttavia, contiene un equilibrio difficile e controverso con un altro aspetto dell'autodeterminazione, che è la libertà di parola (in particolare l'articolo 17).

• La direttiva sui servizi di media audiovisivi, che disciplina la libertà di informazione nel settore dei servizi di media audiovisivi, nonché la responsabilità delle piattaforme.

Gli Stati Uniti devono ancora introdurre una legge completa sulla privacy delle informazioni ; la legislazione relativa ai dati e ai diritti digitali esiste attualmente sia a livello statale che federale ed è spesso specifica per settore. Negli Stati Uniti, la Federal Trade Commission (FTC) ha il compito di vigilare sulla protezione della privacy e della sicurezza digitale dei consumatori, delineando principi di correttezza delle informazioni per la governance degli spazi online.

La legislazione federale include il Children's Online Privacy Protection Act (COPPA) che regola la raccolta online di informazioni di identificazione personale da bambini di età inferiore a tredici anni. L' Health Insurance Portability and Accountability Act (HIPAA) include standard federali per la protezione della privacy e della sicurezza dei dati sanitari personali archiviati elettronicamente. Il Family Educational and Rights Privacy Act (FERPA) disciplina l'accesso e la divulgazione dei documenti educativi degli studenti . Mentre la legislazione statale varia nella forza delle loro protezioni, il California Consumer Privacy Act (CCPA) del 2018 fornisce ai consumatori della California il diritto di accedere ai dati, conoscere ed eliminare le informazioni personali raccolte dalle aziende, rinunciare alla vendita di queste informazioni, e il diritto alla non discriminazione per l'esercizio di tali diritti.

Principi etici e basati sui diritti per l'IA

Intelligenza artificiale e autodeterminazione digitale

La proliferazione dell'intelligenza artificiale (AI), come non una singola tecnologia ma piuttosto un insieme di tecnologie, sta plasmando sempre più gli spazi tecnologicamente mediati in cui gli individui e le comunità possono condurre le loro vite. Dalla raccomandazione algoritmica nelle piattaforme di e-commerce e social media , alla sorveglianza intelligente nelle forze dell'ordine, all'allocazione automatizzata delle risorse nei servizi pubblici, l'estensione delle possibili applicazioni dell'IA che possono influenzare l'autonomia di un individuo è continuamente contestata, considerando la diffusa dataficazione della vita delle persone in tutto il socio-economico e politico di oggi.

Ad esempio, l'apprendimento automatico , un sottocampo dell'intelligenza artificiale, "ci consente di estrarre informazioni dai dati e scoprire nuovi modelli, ed è in grado di trasformare dati apparentemente innocui in dati sensibili e personali", il che significa che la privacy e l'anonimato di un individuo possono essere inclini a vulnerabilità al di fuori del dominio dei dati originali, come la raccolta dei dati sui social media per la propaganda computazionale nelle elezioni basata sul micro-targeting .

Un'altra sfera in cui i sistemi di intelligenza artificiale possono influenzare l'esercizio dell'autodeterminazione è quando i set di dati su cui vengono addestrati gli algoritmi rispecchiano le strutture esistenti di disuguaglianza , rafforzando così la discriminazione strutturale che limita l'accesso di determinati gruppi a un trattamento equo e alle opportunità. Negli Stati Uniti , uno strumento di reclutamento basato sull'intelligenza artificiale utilizzato da Amazon ha dimostrato di discriminare le donne in cerca di lavoro, mentre uno strumento di modellazione basato sull'intelligenza artificiale utilizzato dal Dipartimento dei servizi umani nella contea di Allegheny, in Pennsylvania , per segnalare potenziali abusi sui minori ha dimostrato di essere sproporzionato profilare la minoranza povera e razziale, sollevando interrogativi su come le variabili predittive negli algoritmi possano spesso essere "astrazioni" che "riflettono priorità e preoccupazioni".

Panorama attuale dei principi dell'IA rilevanti per l'autodeterminazione digitale

Il modo in cui gli stati tentano di governare l'industria dell'IA può modellare il modo in cui le applicazioni dell'IA vengono sviluppate, testate e gestite e in quali quadri etici rilevanti per molte forme di interessi umani, influenzando così il grado di autodeterminazione digitale esercitato da individui e comunità.

Negli ultimi anni si è assistito a una proliferazione di principi e documenti di indirizzo di alto livello, che forniscono suggerimenti per le politiche del settore pubblico e il codice di condotta del settore privato in modo non vincolante. Rispetto alle leggi vincolanti emanate dagli stati, il panorama dei principi etici dell'IA dipinge un quadro più diversificato, con organizzazioni governative e non governative tra cui aziende private, istituzioni accademiche e società civile che sviluppano attivamente l'ecosistema. Un rapporto del 2020 delle Nazioni Unite ha identificato "oltre 160 insiemi organizzativi, nazionali e internazionali di principi etici e di governance dell'IA in tutto il mondo, sebbene non esista una piattaforma comune per riunire queste iniziative separate".

Con lo sviluppo degli sforzi di ricerca sono emersi temi comuni ai principi dell'IA, molti dei quali strettamente legati alle varie condizioni dell'autodeterminazione digitale, come il controllo sui propri dati, la protezione da trattamenti di parte e la parità di accesso ai benefici offerti dall'IA. Una pubblicazione 2020 dal Berkman Center for Internet Klein e Società presso l'Università di Harvard ha studiato trentasei “particolarmente visibili o influenti” AI principi documenti scritti da governativi e non governativi attori provenienti da più regioni geografiche, e ha identificato otto temi chiave:

  • Privacy
  • Responsabilità
  • Sicurezza e protezione
  • Trasparenza e Spiegabilità
  • Equità e non discriminazione
  • Controllo umano della tecnologia
  • Responsabilità Professionale
  • Promozione dei Valori Umani

Tuttavia, il rapporto rileva anche “un divario ampio e spinoso tra l'articolazione di questi concetti di alto livello e la loro effettiva realizzazione nel mondo reale”.

Esempi di principi di IA intergovernativa e governativa

Attualmente, pochi principi di governance dell'IA sono riconosciuti a livello internazionale. I " Principi dell'OCSE sull'IA", adottati dagli Stati membri dell'OCSE e da altri nove paesi non OCSE nel maggio 2019, integrano elementi rilevanti per l'autodeterminazione digitale come "crescita inclusiva", "benessere", "valori incentrati sull'uomo". ed equità", sottolineando la capacità di un individuo di fare appello e "sfidare l'esito del sistema di IA" e l'aderenza dello sviluppo dell'IA ai "diritti del lavoro riconosciuti a livello internazionale".

A livello nazionale, numerose politiche statali sull'IA fanno riferimento ai principi etici dell'IA, anche se in modo irregolare. Tali riferimenti possono essere documenti autonomi. Ad esempio, il governo giapponese ha stabilito i suoi "Principi sociali dell'IA incentrata sull'uomo", strettamente collegati alla sua "Strategia AI 2019: AI per tutti: persone, industrie, regioni e governi", e un insieme separato di utilizzo dell'IA Linee guida che incoraggiano l'adesione volontaria e sottolineano che l'IA deve essere utilizzata per "espandere le capacità e la creatività umane", non deve "violare la libertà, la dignità o l'uguaglianza individuali di una persona" e aderire al "principio della dignità umana e dell'autonomia individuale".

I principi dell'IA possono anche essere incorporati in una strategia nazionale per l'IA, che si concentra principalmente sugli strumenti politici che promuovono l'IA, come gli investimenti nell'istruzione STEM e i partenariati pubblico-privato. Ad esempio, la strategia per l'intelligenza artificiale dell'India , "Strategia nazionale per l'intelligenza artificiale", pubblicata nel giugno 2018, identifica le aree chiave di alta priorità nazionale per lo sviluppo dell'intelligenza artificiale (assistenza sanitaria, agricoltura, istruzione, infrastrutture urbane/intelligenti, trasporti e mobilità). , con temi etici come la privacy e la correttezza integrati come una sezione lungimirante.

Opportunità e sfide per i principi dell'IA per affrontare l'autodeterminazione

I principi dell'IA non vincolanti suggeriti da attori interni o esterni al governo potrebbero talvolta essere ulteriormente concretizzati in politiche o regolamenti specifici. Nel 2020, l' organo consultivo del governo del Regno Unito sull'uso responsabile dell'intelligenza artificiale, il Centro per l'etica e l'innovazione dei dati, ha proposto misure specifiche per il governo, le autorità di regolamentazione e l'industria per affrontare il pregiudizio algoritmico nei settori dei servizi finanziari, del governo locale, della polizia e reclutamento, con ogni area rilevante per il modo in cui gli individui conducono i loro modi di vita e accedono alle opportunità socio-economiche senza essere sottoposti a un trattamento iniquo.

La rappresentazione culturale e geografica è stata evidenziata come una sfida nel garantire che le fiorenti norme dell'IA considerino sufficientemente le opportunità e i rischi unici affrontati dalla popolazione globale, che esercita la propria autonomia e libertà in regimi politici molto diversi con vari gradi di stato di diritto. Nel 2020, un rapporto pubblicato dal Consiglio d'Europa ha esaminato 116 documenti sui principi dell'IA e ha rilevato che "questi documenti di soft law vengono sviluppati principalmente in Europa, Nord America e Asia", mentre "il sud globale è attualmente sottorappresentato nel panorama delle organizzazioni proponendo linee guida etiche per l'IA”.

Guarda anche

Riferimenti