Letizia Maria Ferraris: “Diritti umani tra privacy e AI: il difficile equilibrio tra opportunità e rischi. Implicazioni etiche e pratiche”
La società tecnologica evolve e le leggi la rincorrono, senza riuscire a imbrigliarla, perché i dati (quelli riferiti alle persone) corrono sempre più veloci e la mutevolezza dei trattamenti a essi relativi impediscono alle regole di fornire indicazioni specifiche su come tutelare i diritti umani.
È quello che capita nell’era digitale, ove le forme già esistenti di intelligenza artificiale (AI) sono sempre più rapide a trasformare il modo in cui viviamo, lavoriamo e interagiamo, al punto da sollevare questioni complesse e urgenti per il loro impatto sulla tutela dei nostri dati.
Riflettendo sulle potenzialità dell’AI e sui suoi automatismi algoritmici, è indubbio riconoscerne il valore, laddove esse permettono di intercettare e prevenire malattie e garantirne diagnosi sempre più corrette e cure sempre più adeguate; raccogliere, analizzare e archiviare dati necessari all’espletamento del lavoro; garantire, facilitare e velocizzare i rapporti commerciali o la gestione delle risorse, dall’ente pubblico all’impresa privata.
È bene tuttavia essere consapevoli che predizione e previsione potranno avere un impatto sull’uso dei dati personali non esente da rischi, conseguenti proprio alla raccolta e al trattamento.
Senza arrivare alle forme più evolute di abuso di informazioni sensibili, i dati potrebbero essere utilizzati per creare profili non graditi per scopi commerciali o per controllo fisico sulle persone; la stessa profilazione potrebbe essere finalizzata a scopi di sorveglianza o di manipolazione del comportamento dei consumatori. L’assenza di trasparenza dei processi algoritmici potrebbe infine creare anche discriminazione tra gli esseri umani o rendere difficile per i singoli la comprensione dell’utilizzo illecito delle nostre abitudini e comportamenti, con l’intento da parte di aziende o governi di sorvegliare o utilizzare le informazioni per influenzare le nostre decisioni.
Come sappiamo, i dati personali possono includere elementi sensibili, abitudini di navigazione, preferenze di acquisto, comunicazioni private e persino la posizione geografica.
Ragione per cui ancora una volta la norma insegue la tecnica e l’innovazione e prova a mettere i propri paletti, nel tentativo (che speriamo riuscito) di bilanciare le esigenze di progresso con quelle di protezione dei diritti individuali.
Aziende e istituzioni dovranno cioè agire in modo responsabile, garantendo che i dati personali siano raccolti e utilizzati in modo lecito. E non sarà sufficiente il consenso informato degli interessati se non saranno implementate idonee e rigorose misure di sicurezza per assicurare la trasparenza nei processi decisionali dell’AI.
Non è un caso che per affrontare le sfide legate alla privacy e all’IA, a partire dal Regolamento Generale sulla Protezione dei Dati (GDPR) dell’Unione Europea si è recentemente aggiunta l’approvazione di altro regolamento, l’AI Act (AIA), il primo quadro giuridico sull’intelligenza artificiale, che ne affronta i rischi e consente all’Europa di svolgere un ruolo di primo piano a livello mondiale.
L’AI Act si inserisce in un pacchetto più ampio di misure politiche a supporto dello sviluppo di un’AI affidabile, che include anche l’ AI Innovation Package e il Coordinated Plan on AI.
Nel tentativo di fornire norme armonizzate sull’intelligenza artificiale, l’ AI Act (Regolamento UE 2024/1689) fornisce agli sviluppatori e ai distributori requisiti e obblighi chiari in merito agli usi specifici dell’IA medesima.
Allo stesso tempo, il regolamento cerca di ridurre gli oneri amministrativi e finanziari per le aziende, in particolare per le piccole e medie imprese (PMI).
E anche se lo scopo precipuo è garantire che gli investimenti vadano al passo dell’innovazione, la normativa si propone di garantire la sicurezza e i diritti fondamentali delle persone.
Per essere efficace, il regolamento europeo si è basato su alcuni principi chiave:
- proporzionalità, perché le norme siano proporzionate ai rischi posti dalle diverse applicazioni di AI, evitando regole troppo restrittive che potrebbero soffocare l’innovazione;
- flessibilità, per garantire il veloce adattamento ai rapidi cambiamenti tecnologici;
- collaborazione internazionale, per armonizzare le norme e prevenire frammentazioni regolamentari;
- coinvolgimento delle parti interessate, per corresponsabilizzare sviluppatori, utenti, attori socio-economici nel processo di elaborazione delle normative.
Lo Stato italiano, dal canto suo, si è mosso primo tra tutti nel creare un quadro normativo che garantisse un uso responsabile e sicuro dell’evoluzione tecnologia, proteggendo al contempo i diritti fondamentali dei cittadini.
Tra gli obiettivi strategici del disegno di legge, oltre alla tutela dei dati personali in osservanza e in conformità al Regolamento Generale sulla Protezione dei Dati (GDPR), trasparenza, affidabilità, responsabilità e consapevolezza rendono la normativa italiana attenta ad assumere una tecnologia trasparente nel funzionamento, cosicché le decisioni vengano assunte da sistemi spiegabili e verificabili.
Finalità per eccellenza rimane quella di definire chiaramente le (co)responsabilità dei produttori e degli utilizzatori di sistemi di IA per prevenire l’uso improprio della tecnologia e promuovere condotte (modelli etici) che assicurino che la tecnologia non violi i diritti umani e che sia utilizzata in modo equo e non discriminatorio.
I governi, insomma, appaiono aver ben compreso che per garantire i benefici della AI ed evitarne i rischi, adeguati modelli comportamentali e la collaborazione tra istituzioni e cittadini faranno la differenza.
Perché, se privacy e intelligenza artificiale saranno sempre più intrecciate, non potremo sottovalutare le sfide legate alla protezione dei diritti individuali.
Un’ultima considerazione.
L’ampia diffusione della tecnologia digitale ha generato una crescente dipendenza dalla rete e dagli strumenti tecnologici, modificando profondamente il modo in cui agiamo, pensiamo, ci relazioniamo.
Persiste tuttavia un forte desiderio di conservare un legame autentico con il mondo fisico e con le relazioni umane dirette.
In questo contesto, il diritto a rimanere “analogici” assume un valore cruciale: rappresenta la libertà di scegliere il livello di partecipazione al mondo digitale, permettendo a ciascun individuo di definire il proprio rapporto con la tecnologia, senza temere discriminazioni o forme di esclusione sociale.
© 2024 CIVICO20NEWS – riproduzione riservata
Scarica in PDF