Progetto per una Carta dei Diritti dell'intelligenza artificiale

La Casa Bianca ha realizzato un progetto finalizzato alla creazione di una Carta dei Diritti dell’intelligenza artificiale.

Artificial_intelligence_2

Alcuni dei servizi finanziari presenti su Fintastico ci sono stati segnalati dai nostri partner che ci compensano.

La valutazione di Fintastico deriva dalla media ponderata delle valutazioni provenienti da Trustpilot, App Store, Google Play store

La Casa Bianca ha realizzato un progetto finalizzato alla creazione di una Carta dei Diritti dell’IA.

L’obiettivo di questo progetto, guidato dall'Office of Science and Technology Policy della White House, è stato identificare cinque principi, che descriveremo di seguito, diretti a guidare la progettazione, l'uso e l'implementazione di sistemi automatizzati per proteggere il pubblico americano nell'era dell'intelligenza artificiale.

A sostegno di questo progetto è stato redatto anche un manuale (From Principles to Practice), per coloro i quali intendano fare propri questi principi nell’applicazione pratica. Scopriamone gli aspetti principali.

Sistemi sicuri ed efficaci (Safe and effective systems)

Il primo principio enunciato riguarda la protezione da sistemi automatizzati pericolosi o inefficaci. Si legge infatti che tali sistemi dovrebbero essere sviluppati consultando preventivamente differenti community, stakeholders ed esperti di dominio per identificare preoccupazioni, rischi e potenziali impatti del sistema.

In particolare, i sistemi automatizzati dovrebbero essere sottoposti a dei test preliminari all’implementazione per identificare e mitigare i possibili rischi. Il monitoraggio continuo dovrebbe poi dimostrare che siano sicuri ed efficaci in relazione all'uso previsto.

I risultati di queste misure di salvaguardia dovrebbero prevedere anche la possibilità di non implementare il sistema o impedirne l’uso. Infine, i risultati dovrebbero essere resi pubblici ogniqualvolta possibile.

Protezione dalla discriminazione algoritmica (Algorithmic discrimination protections)

algoritmo

Altro principio cardine stabilito all’interno del progetto riguarda la necessità di non subire discriminazioni da parte dei sistemi algoritmici, i quali dovrebbero essere utilizzati e progettati in modo equo*.

La c.d. discriminazione algoritmica si verifica quando i sistemi automatizzati contribuiscono a un trattamento differenziato e ingiustificato teso a sfavorire le persone in base a paramenti come, ad esempio, l’etnia, l’appartenenza religiosa, l’età, il sesso o comunque a svantaggio delle categorie protette.

Pertanto, progettisti e sviluppatori dovrebbero adottare misure adeguate a proteggere gli individui e le comunità dalla discriminazione algoritmica, disegnando i sistemi automatizzati in modo equo. In particolare, tali misure dovrebbero essere tali anche da garantire l'accessibilità alle persone con disabilità.

Infine, dovrebbe essere resa pubblica una valutazione d'impatto algoritmica che comprenda i risultati dei test contro la discriminazione al fine di accertare l’adozione di misure adeguate.

*Si ritiene utile richiamare il fatto che già l’art. 22 del GPDR, in generale, prescrive che “L’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona”, consentendo, tuttavia, alcune ipotesi in deroga. In particolare, il comma 3 del predetto articolo, stabilisce che sia riconosciuto all’interessato anche il diritto di contestare la decisione presa attraverso il trattamento automatizzato.

Privacy dei dati (Data privacy)

data privacy

Tra i principi di cui sopra, come si è detto, si annovera anche quello della privacy dei dati.

L'utente deve avere la possibilità di decidere come vengono utilizzati i dati che lo riguardano ottenendo anche la garanzia che questi vengano raccolti solo se strettamente necessari rispetto al contesto specifico del trattamento e questi deve essere anche protetto da pratiche abusive di trattamento dei dati.

L’obbligo di richiedere l’autorizzazione dell’utente e rispettare le sue decisioni in merito alla raccolta, all'uso, all'accesso, al trasferimento e alla cancellazione dei suoi dati deve diventare un obbligo per i progettisti, gli sviluppatori e i distributori di sistemi automatizzati.

Inoltre il consenso così richiesto deve essere utilizzato per giustificare la raccolta dei dati solo nei casi in cui può essere dato in modo appropriato.

Le richieste di consenso devono essere rese in un linguaggio semplice, devono essere brevi e comprensibili, e devono dare all'utente la possibilità di decidere in merito alla raccolta o meno dei suoi dati.

Nei settori sensibili (tra cui la salute, il lavoro, l'istruzione, la giustizia penale e la finanza nonché in quelli relativi ai giovani), i dati dell’utente dovrebbero essere utilizzati solo per le funzioni necessarie.

Le maggiori protezioni e restrizioni dovrebbero essere instaurate proprio in tali settori. I dati sensibili infatti devono essere utilizzati solo per le funzioni strettamente necessarie per l'ambito in questione o per le funzioni richieste per motivi amministrativi (ad esempio, i registri delle presenze scolastiche), a meno che non venga acquisito il consenso

Un esempio di tale uso improprio è il seguente: i sistemi di sorveglianza audio delle scuole monitorano le conversazioni degli studenti per rilevare potenziali "indicatori di stress" come avvertimento di potenziale violenza.

I sistemi di correzione online pretendono di rilevare se uno studente sta tendando di aggirare le misure di sicurezza approntate in un esame per il quale sono previsti marcatori biometrici.

Questi sistemi sono potenzialmente in grado di limitare la libertà degli studenti di esprimere una serie di emozioni a scuola e possono inopportunamente segnalare come imbroglioni gli studenti con disabilità che necessitano di sistemazioni o che utilizzano screen reader o software di dettatura.

Altro caso è quello in cui alcuni datori di lavoro trasferiscono i dati dei dipendenti a servizi di verifica del lavoro di terzi. Queste informazioni vengono poi utilizzate da potenziali futuri datori di lavoro, banche o locatori.

In un caso, ad un'ex dipendente è capitato che un'azienda abbia fornito dati falsi sulla sua qualifica lavorativa, con conseguente revoca dell'offerta di lavoro.

Pertanto, quando possibile, l’utente dovrebbe avere accesso a relazioni che confermino che le sue decisioni sui dati sono state rispettate e forniscano una valutazione del potenziale impatto delle tecnologie di sorveglianza sui suoi diritti.

Avviso e spiegazione (Notice & explanation)

Altro principio enunciato è quello dell’avviso e spiegazione che prevede che quando un sistema automatizzato è in uso, l’utente lo debba venire a sapere e possa capire come e perché tale sistema contribuisce ai risultati che lo riguardano.

Le informazioni che i progettisti, gli sviluppatori e i distributori di sistemi automatizzati devono fornire sono le seguenti:

  • descrizioni chiare sul funzionamento generale del sistema e del ruolo svolto dall'automazione;
  • l'avviso che tali sistemi sono in uso;
  • la persona o l'organizzazione responsabile del sistema;
  • la spiegazione dei risultati tempestiva, chiara e accessibile ed il fatto che è obbligatorio il loro periodico aggiornamento.

Tali informazioni devono essere fornite in un linguaggio semplice e generalmente accessibile. Anche quando il sistema automatico non è l'unico elemento che decide l'esito, l'utente deve sapere come e perché un esito che lo riguarda è stato determinato da un sistema automatizzato.

Ogni volta che è possibile, devono essere resi pubblici rapporti che includano informazioni sintetiche sui sistemi automatizzati in un linguaggio semplice.

Sebbene i requisiti di notifica e spiegazione siano già in vigore negli Stati Uniti in alcuni settori o per determinate situazioni, l’obiettivo del Bill of Rights è quello di consentire alla popolazione di sapere in modo coerente e trasversale se un sistema automatizzato viene utilizzato in un modo che influisce sui suoi diritti e/o opportunità.

Questa conoscenza dovrebbe garantire la fiducia nel modo in cui la popolazione viene trattata.

Gli esempi che seguono servono a chiarire questi concetti. Un avvocato che rappresentava un cliente anziano con disabilità a cui era stata tolta l'assistenza sanitaria domiciliare gratuita non riusciva a capirne il motivo, soprattutto perché la decisione era contraria a quanto avvenuto in passato.

In un'udienza in tribunale, l'avvocato apprendeva che lo Stato in cui viveva l’anziano cliente aveva recentemente adottato un nuovo algoritmo per determinare l'idoneità all’assistenza. La mancanza di una informativa tempestiva aveva però reso più difficile comprendere e contestare la decisione.

Come descrive il documento citato le ricadute del principio di “avviso e spiegazione” sono notevoli: “un candidato potrebbe non sapere se una persona ha rifiutato il suo curriculum o se un algoritmo di assunzione lo ha spostato in fondo alla lista.

Un imputato in tribunale potrebbe non sapere se il giudice che gli nega la cauzione è stato informato da un sistema automatico che lo ha etichettato come "ad alto rischio". Dalla correzione degli errori alla contestazione delle decisioni, alle persone viene spesso negata la conoscenza necessaria per affrontare l'impatto dei sistemi automatici sulle loro vite.”.

Altra osservazione significativa è quella che “il pubblico americano merita di sapere in modo coerente e trasversale se un sistema automatizzato viene utilizzato in un modo che influisce sui suoi diritti, opportunità o accesso”.

Alternative umane, considerazioni e ripieghi (Human alternatives, consideration and fallback)

artificial

Ultimo principio, ma non meno importante, è quello delle alternative umane, considerazioni e ripieghi.

Dovrebbe sempre essere messa a disposizione dell’utente un’alternativa umana di modo che quest’ultimo sia sempre in grado di rifiutare i sistemi automatizzati.

In alcuni casi, un'alternativa umana o di altro tipo può essere richiesta dalla legge.

Qualora un sistema automatizzato fallisca, produca un errore o se l’utente desidera appellarsi o contestarne il suo impatto sulla sua persona, un esame umano deve sempre essere accessibile.

L’esame umano e il “ripiego” su di esso devono essere accessibili, equi, efficaci, accompagnati da un'adeguata formazione degli operatori e non devono imporre un onere eccessivamente gravoso agli utenti.

I sistemi automatizzati, qualora riguardino un utilizzo in ambiti sensibili (ad esempio la giustizia penale, l'occupazione, l'istruzione e la salute), devono inoltre essere adattati allo scopo, fornire un accesso significativo per la supervisione, includere la formazione di tutte le persone che interagiscono con il sistema e comprendere la valutazione umana per le decisioni avverse o ad alto rischio.

Ogniqualvolta ci si confronti con rapporti che includono una descrizione di questi processi che prevedono l’intervento umano e una valutazione della loro tempestività, accessibilità, risultati ed efficacia questi dovrebbero essere resi pubblici ogni volta che è possibile.

Di seguito alcuni esempi in cui concretamente è mancata l’alternativa umana.

Un sistema di sussidi di disoccupazione in Colorado richiedeva, come condizione per accedere ai sussidi stessi, che i richiedenti avessero uno smartphone per verificare la loro identità. Non era disponibile alcuna opzione che coinvolgesse un operatore umano, il che ha negato a molte persone l'accesso ai sussidi.

È dunque importante tenere presente che negli ambiti sensibili, quali tra gli altri il sistema giudiziario penale, l'occupazione, l'istruzione e l'assistenza sanitaria, l’uso di sistemi automatizzati può creare risultati ingiusti, imprecisi o pericolosi; per questo è necessario in questi ambiti che vi sia un’ampia supervisione umana.

Infatti, ad esempio, quando per imbarcarsi su un aereo o per entrare negli Stati Uniti sono in atto controlli automatizzati sull'identità, c'è una persona che supervisiona i sistemi a cui ci si può rivolgere per chiedere aiuto o per fare ricorso in caso di errata identificazione.

Per comprendere invece i limiti del sistema quando non è prevista la supervisione umana si pensi al caso di una paziente alla quale è stato erroneamente negato l'accesso agli antidolorifici quando il software dell'ospedale ha confuso la sua anamnesi con quella del suo cane.

Anche dopo aver rintracciato una spiegazione per il problema, i medici hanno avuto paura di bypassare il sistema e la paziente è stata costretta a non ricevere alcun antidolorifico a causa dell'errore del sistema stesso.

***

Evidenziati i principi di cui sopra e sottolineato comunque l’impegno del governo degli Stati Uniti d’America nella tutela dei diritti degli interessati negli impatti con l’Intelligenza Artificiale, ci si chiede se a livello pratico sarà possibile applicare nel concreto i principi sopra descritti tenuto conto del fatto che le conoscenze tecnico-scientifiche e l’evoluzione dei sistemi di IA corrono velocemente e perciò è difficile prevedere i potenziali danni del loro uso nella vita quotidiana.

Coautori:

  • Dott. Gian Marco Iulietto
  • Avv. Tiziana Soru
Alessandro Negri della Torre avatar
Alessandro Negri della Torre

Fintech Attorney