Dal 22 al 24 gennaio si è svolta a Bruxelles la tredicesima Conferenza Internazionale CPDP (Computer, Privacy and Data Protection), quest’anno incentrata sulle Intelligenze Artificiali.
CPDP è una piattaforma no-profit fondata alla metà dello scorso decennio come ente di ricerca congiunta di due università belghe e una olandese: Vrije Universiteit Brussel, Université de Namur e Tilburg University. Negli anni, la crescente qualità della ricerca portata avanti in ambito di privacy e diritti digitali ha fatto crescere il numero di enti partecipanti, fino agli attuali 20 istituti di ricerca Europei ed extra-Europei. Ogni anno, questa conferenza rappresenta il massimo evento continentale sui temi della privacy digitale e della cybersecurity, ponendosi come riferimento per lo stato dell’arte della ricerca accademica e del policy making su questi ambiti.
La decisione di porre il focus di questa edizione sull’Intelligenza Artificiale è particolarmente appropriata: il dibattito scientifico e economico sulle AI ha sempre dovuto tenere conto delle riflessioni etiche, morali e filosofiche sull’utilizzo di queste tecnologie, già a partire dai suoi primordi.
In particolare, il sentire comune sui meccanismi di Intelligenza Artificiale si compone di due schieramenti principali: gli entusiasti che vedono l’AI come uno strumento benevolo che aiuterà il passaggio verso un futuro luminoso per l’umanità, e gli scettici che leggono il suo avvento come l’inizio di un’era catastrofica di dominio delle macchine. Per spiegare questa dicotomia mi avvarrò di una delle più seminali e visionarie opere di fiction italiane degli ultimi 20 anni:
Nella serie di fumetti PKNA – Paperinik New Adventures, Paperino si ritrova a diventare custode della ipertecnologica Ducklair Tower, facendo la conoscenza di Uno, l’intelligenza artificiale a guardia del palazzo, che gli farà da guida e aiutante, mettendo la sua infinita capacità di calcolo e le tecnologie del palazzo a disposizione di Paperinik e della sua lotta per il futuro della Terra. Gli farà da contraltare Due, l’AI di backup, mossa da sentimenti di puro odio nei confronti dell’umanità e della sua scarsa capacità computazionale.
Ovviamente esistono un numero immenso di sfumature che, nel mondo reale, si pongono tra Uno e Due e rendono il dibattito serrato.
La conferenza è un’occasione importante per avere testimonianze da parte di tutti gli attori coinvolti: tra gli sponsor e gli organizzatori di panel figurano ogni anno giganti dell’industria (Google, Microsoft, Intel, Facebook, Mozilla), startup (Uber), ma anche gruppi di ricerca accademici, organismi di garanzia ed agenzie europee (European Data Protection Supervisor, European Union Agency for Fundamental Rights). I panel diventano quindi occasione per confrontare le diverse visioni ed interpretazioni delle tematiche in analisi.
Capita quindi che il panel di Google sul potenziale sociale delle Intelligenze Artificiali diventi occasione di confronto tra la visione di utopia macchinica del gigante di Mountain View e le necessità di regolamentazione dell’AI che arrivano dagli organismi di controllo dell’UE. In questo senso Bojana Bellamy del CIPL ha ribadito con forza come, in un mondo proiettato verso l’automazione e con un mercato che spinge per accelerare, sia necessario rendere trasparenti i processi e i meccanismi di data protection realizzati per ogni applicazione della tecnologia.
Il GDPR – testo del regolamento garante della privacy – può essere una base di partenza e funzionare come abilitatore normativo e tecnologico per lo sviluppo delle AI, ma bisogna considerare che la sensibilità nei confronti di questo tema dovrà essere duplice: non basta una attenzione del mondo industriale forzata dalle normative se manca la consapevolezza dei rischi e delle possibilità da parte degli utenti finali.
Alla luce di queste considerazioni, il prof. Luciano Floridi dell’Università di Oxford ha ribadito come, finora, il tema delle Intelligenze Artificiali sia stato osservato da 3 punti di vista differenti: il mondo ingegneristico che si occupa di sviluppare le innovazioni, gli utenti che ne percepiscono vantaggi o svantaggi e la società.
Per fare sì che tutti gli attori riescano a ottenere benefici effettivi dalla tecnologia, è necessario pensare e razionalizzare la figura di un quarto player, interessato alla protezione delle altre figure in gioco, che con la sua presenza riesca a equilibrare la distribuzione dei vantaggi legati all’AI.
Da chi dovrebbe essere incarnata una figura di questo tipo? La risposta più intuitiva ci porterebbe ad identificarla con le autorità garanti; tuttavia perché non incaricare un algoritmo? È quello che si sono chiesti all’Università di Amsterdam, sviluppando il progetto ALEX (Algorithms Exposed. Investigating Automated Personalization and Filtering for Research and Activism). Si tratta di un algoritmo di accountability, tramite il quale portare avanti istanze di attivismo digitale. Quello che ALEX si prefigura di fare è testare il funzionamento dei meccanismi di personalizzazione delle piattaforme social, mettendo a nudo gli algoritmi di profilazione.
E’ importante per tutti gli attori coinvolti: se da una parte gli sviluppatori possono dimostrare la loro attenzione by design alla privacy (come previsto dal GDPR), la società civile e gli utilizzatori possono essere soddisfatti della salvaguardia della propria identità digitale, senza il rischio di ritrovarsi all’interno della cosiddetta filter bubble.
Il tema della dimostrabilità algoritmica si è ripetuto come leitmotiv durante i tre giorni: facendo riferimento a casi più o meno recenti si è spesso parlato di come la salvaguardia dei diritti fondamentali possa essere messa in discussione dall’utilizzo di tecnologie di AI: con riferimento alle recenti campagne elettorali è emerso come sia pericoloso e di difficile monitoraggio permettere che la gara elettorale sia governata dai dati, pur se essi fossero stati ottenuti con il pieno consenso degli interessati.
La scarsa protezione offerta da una privacy basata sul consenso quindi porta a chiedersi se, in futuro, non possa essere il caso di basare i meccanismi di protezione su una privacy basata invece sull’utilizzo. Il concetto sarebbe, in questo caso, quello di creare degli strumenti che annullino la disparità tra l’utente e le entità che ne collezionano i dati: con l’attuale meccanismo del consenso, nonostante le protezioni offerte dai regolamenti, i dati immessi sulla rete sono passibili di infiniti riutilizzi, che dal secondo ciclo in poi non avrebbero più niente a che vedere con lo scopo per il quale si era acconsentito al loro utilizzo. L’intelligenza artificiale potrebbe essere una tecnologia abilitante per sovvertire questo paradigma, utilizzando dei tool che possano essere utilizzati per una gestione della privacy attiva: hai preso i miei dati e li vorresti usare per profilare le mie attività? Se l’azione non è gradita, un algoritmo schermerà le mie informazioni e ti impedirà di farlo.
Come abbiamo visto da questi esempi, quindi, nonostante il pericolo sia sempre dietro l’angolo, la speranza di costruire un mondo in cui le AI possano essere più simili alla bonaria facciona verde di Uno piuttosto che alla pericolosa mania di controllo di Due passa da un grande lavoro di informazione e educazione ai propri diritti digitali che dovrebbe coinvolgere tutti coloro che fanno uso di questi strumenti.
Per chi volesse approfondire, qui c’è l’account Youtube ufficiale di CPDP con i video di tutti i panel andati in scena.