Martedì 5 ottobre, la Casa Bianca ha pubblicato la bozza dell’AI Bill of Rights, un insieme di cinque principi cardine e relative pratiche che andranno a guidare la progettazione, l’utilizzo e lo sviluppo di quegli algoritmi di intelligenza artificiale che operano attraverso i dati biometrici, come il riconoscimento facciale, le impronte digitali, lo screening della retina e il DNA. L’obiettivo è ridurre il più possibile le discriminazioni, tutelare i cittadini e definire i passi concreti che le aziende e i governi dovranno compiere per costruire algoritmi che portino al progresso economico e sociale, senza però mettere a rischio i diritti civili e i valori democratici. Perché la bozza dell’AI Bill of Rights è molto importante? In cosa consiste? Quale monito per le aziende?
Algorithmic bias
Quando si parla di algoritmi e intelligenza artificiale, spesso si entra nel campo della raccolta e analisi di dati biometrici. I sistemi biometrici di intelligenza artificiale svolgono infatti un ruolo chiave per il governo, in quanto vengono utilizzati per riorganizzare le forze di polizia, per implementare i controlli alle frontiere, e per gestire e monitorare i flussi migratori. Questi sistemi di intelligenza artificiale sono categorizzati come ad alto rischio, ovvero ad alta probabilità di violare i diritti umani fondamentali, come la libertà, l’eguaglianza di fronte alla legge e la non discriminazione.
Tra le maggiori sfide che i governi devono affrontare, l’utilizzo dei sistemi di riconoscimento facciale e di analisi di dati biometrici in generale occupa una posizione di rilievo. Gli algoritmi utilizzati per prevedere i tassi di criminalità in alcuni quartieri geografici hanno dimostrato di rinforzare la discriminazione di coloro che sono già discriminati dalla società e posti ai margini. Gli algoritmi utilizzati per predire la recidività criminale hanno finito per discriminare le minoranze etniche. Mentre gli algoritmi utilizzati nelle assunzioni lavorative sono stati oggetto di indagini per discriminazione di genere.
L’Unione Europea aveva già proposto nell’aprile 2021 l’AI Act, un regolamento che assicurasse l’armonizzazione della normativa europea in materia di intelligenza artificiale e promuovesse eccellenza e affidabilità degli algoritmi. Il regolamento enfatizzava la necessità di trasparenza legata ai sistemi di intelligenza artificiale considerati ad alto rischio, riconoscendo lo stretto legame tra algoritmi e dati biometrici e la loro potenziale minaccia ai diritti umani fondamentali. L’AI Act proponeva meccanismi che assicurassero la conformità dei sistemi di intelligenza artificiale e ne delineassero un’analisi degli impatti, suggerendo sia controlli interni sistematici da parte dei fornitori dei sistemi di intelligenza artificiale ma anche, e soprattutto, controlli svolti da terze parti.
Nonostante l’utilizzo dei sistemi biometrici di intelligenza artificiale abbia permeato diversi ambiti del governo americano, gli Stati Uniti però sono ancora alle fasi iniziali della regolamentazione di questi strumenti. Restano molte domande riguardo le circostanze e la responsabilità di utilizzo dei software biometrici.
Nel 2020 l’Amministrazione Trump aveva autorizzato l’utilizzo di dati biometrici per il controllo e tracciamento dei migranti lungo le loro rotte migratorie. Un utilizzo non esattamente in linea con la tutela dei diritti umani, in quanto i migranti non erano in una posizione tale da monitorare o avere il controllo sull’utilizzo di questi dati. Ciò che più allontana i sistemi di intelligenza artificiale utilizzati per monitorare le migrazioni dalla tutela dei diritti fondamentali (su cui si basa la costituzione americana) è, infatti, l’evidenza che durante lo sviluppo di questi sistemi, i migranti sono solitamente presentati come una minaccia alla sicurezza nazionale, piuttosto che come esseri umani in possesso di diritti e libertà fondamentali.
Quale fosse lo stato delle politiche per l’utilizzo dei dati biometrici nell’attuale Amministrazione Biden era un punto interrogativo, a cui la Casa Bianca ha risposto recentemente pubblicando appunto la bozza dell’AI Bill of Rights.
Il provvedimento USA
La bozza dell’AI Bill of Rights comprende cinque punti cardine che devono guidare la progettazione, l’utilizzo e lo sviluppo dei sistemi di intelligenza artificiale, con l’obiettivo di tutelare i diritti dei cittadini americani. Un regolamento che va quindi nella stessa direzione della normativa Europea (AI Act).
Il primo punto sottolinea come i sistemi di intelligenza artificiale debbano essere sviluppati dopo attente consultazioni con esperti e auditors per identificarne i rischi e i potenziali impatti. Ogni sistema di intelligenza artificiale dovrebbe essere soggetto a test in fase di sviluppo, identificazione e mitigazione dei rischi e monitoraggio continuo che ne dimostri sicurezza ed efficienza. Se i sistemi testati dovessero rivelare risultati pericolosi per i cittadini o non conformi agli standard imposti dal governo, i sistemi non dovrebbero essere utilizzati.
Il secondo punto è fondamentale, in quanto si sviluppa specificatamente intorno alla discriminazione, definita come un trattamento che ingiustificatamente sfavorisce alcuni individui in base a etnia, genere, orientamento sessuale, età, disabilità, o ogni altra categoria protetta dalla legge. Gli sviluppatori dei sistemi di intelligenza artificiale dovrebbero assumere misure continue e proattive per tutelare gli individui e la comunità dalla discriminazione da parte degli algoritmi. Queste misure dovrebbero includere valutazioni di equità, utilizzo di dati rappresentativi della società nel suo complesso e valutazione pubblica dell’impatto che gli algoritmi hanno sulla società.
Segue poi un punto chiave riguardo la data privacy. I dati raccolti e utilizzati dagli algoritmi devono sempre includere il consenso dei cittadini. La sorveglianza digitale non dovrebbe essere utilizzata nelle scuole, sul posto di lavoro, nelle case o in altri contesti in cui l’utilizzo dei sistemi di sorveglianza possa limitare i diritti e le libertà individuali.
Quarto punto: gli sviluppatori dei sistemi di intelligenza artificiale devono fornire una documentazione chiara che includa la descrizione del funzionamento generale di questi sistemi e le circostanze in cui questi vengono utilizzati.
Quinto: quei sistemi di intelligenza artificiale legati a domini sensibili (come la giustizia, il lavoro, l’educazione e la salute) dovrebbero essere costruiti su misura in base all’utilizzo e la valutazione riguardo la loro affidabilità dovrebbe essere costantemente resa pubblica.
Auditing nelle aziende
La bozza pubblicata dalla Casa Bianca sottolinea quanto sia fondamentale l’attività di auditing. Il concetto di auditing dei sistemi di intelligenza artificiale non è nuovo, ma è uno degli approcci più diffusi all’interno delle aziende per garantire l’affidabilità degli algoritmi utilizzati. Questa attività aiuta, infatti, le aziende a identificare i punti di forza e di debolezza dei propri algoritmi in ambito di discriminazione, efficienza, trasparenza, impatto sulla società, sicurezza e conformità alle normative vigenti.
L’attività di auditing può essere suddivisa in tre categorie principali: di prima, seconda o terza parte, a seconda che l’attività venga svolta rispettivamente all’interno dell’azienda stessa, da aziende partner o da soggetti terzi. Esempi di attività di auditing svolti all’interno dell’azienda sono il gruppo Responsible AI di Facebook, Fairness di Microsoft, Machine Learning Ethics di Twitter, o Ethical AI di Google. Questa tipologia di auditing consente di avere accesso libero e illimitato agli algoritmi da valutare e controllo riguardo l’implementazione delle strategie di risoluzione dei problemi. Un esempio di auditing interno efficiente è quello di Amazon, i cui auditors nel 2018 identificarono l’algoritmo utilizzato per le assunzioni come discriminatorio nei confronti delle donne. Mentre l’auditing per mezzo di aziende partner lascia dei dubbi per quanto riguarda l’efficienza e le pratiche utilizzate. Ma un esempio di auditing efficace svolto da terze parti è quello di ProPublica. Nel 2016, infatti, ProPublica dimostrò che il sistema di predizione di recidività dei criminali, implementato da alcune corti statunitensi, identificava erroneamente i criminali afroamericani come più a rischio di recidiva rispetto alla media.
Nell’ottica di potenziamento dell’auditing enfatizzato non solo nella bozza statunitense dell’AI Bill of Rights, ma anche nell’AI Act europeo, è bene che le aziende siano informate sulle best practices attualmente in uso e su come prepararsi al futuro.
Uno studio recente di ricercatrici di Harvard, Berkeley e MIT, affiliate all’organizzazione Algorithmic Justice League, ha evidenziato come il 77% delle aziende americane verifichi in modo statistico l’accuratezza, equità e robustezza degli algoritmi utilizzati e la qualità dei dati immessi negli algoritmi stessi. La maggior parte delle attività di auditing (93%), indipendentemente dalla tipologia, vengono svolte ad hoc a seconda dell’utilizzo specifico per cui gli algoritmi vengono sviluppati. La maggioranza delle aziende (95%) è concorde nel rendere le attività di auditing obbligatorie. Tra queste, resta però un margine di disaccordo tra le aziende che supportano un auditing obbligatorio generalizzato (42%) o circoscritto a quei sistemi di intelligenza artificiale categorizzati ad alto rischio (53%).
Nell’ottica della direzione di salvaguardia dei diritti umani che Bruxelles e Washington stanno intraprendendo, ciò che sembra essere chiaro è la necessità che le aziende riconoscano i poteri e l’autorità degli auditors, soprattutto nell’implementazione dei cambiamenti suggeriti, rendendo i propri algoritmi conformi alle normative stabilite dal governo.
Per quanto riguarda gli auditors, siano essi aziende o professionisti, è necessaria trasparenza nel rendere pubblici i risultati dell’attività di auditing svolta. Il rendere pubblici i risultati della propria attività di auditing non riduce, infatti, la reputazione degli auditors, ma al contrario ne rafforza la fiducia da parte delle aziende.
Un primo passo nella giusta direzione
In sintesi, l’annuncio da parte della Casa Bianca della bozza dell’AI Bill of Rights è un passo incoraggiante nella direzione giusta per contrastare la discriminazione da parte degli algoritmi. Questa bozza sicuramente delinea le direttive necessarie per educare le aziende a un utilizzo responsabile e trasparente degli algoritmi. Il punto successivo sarà la messa in legge di questo progetto ambizioso. Aziende e auditors devono quindi essere pronti a collaborare, riconoscendo il valore e l’imprescindibilità di un costante e rigoroso monitoraggio non solo degli algoritmi considerati ad alto rischio ma di tutti i sistemi di intelligenza artificiale in produzione e uso.