Per un uso affidabile dell’Intelligenza Artificiale: ALTAI, le raccomandazioni dell’Unione europea

L’Unione Europea si dota di criteri di valutazione per l’affidabilità dei prodotti dell’Intelligenza Artificiale.

Nel 2020, l’High Level Advisory Group sull’intelligenza artificiale (AI HLEG), nominato dalla Commissione Europea, ha presentato un rapporto che contiene la lista di criteri per autovalutare l’affidabilità dei prodotti dell’Intelligenza Artificiale (IA): The Assessment List For Trustworthy Artificial Intelligence (ALTAI) for self assessment.

Secondo le linee guida di ALTAI, l’IA affidabile dovrebbe essere:

  • legale – rispettando tutte le leggi e i regolamenti applicabili
  • etica – rispettando i principi e i valori etici
  • robusta – sia da un punto di vista tecnico sia dell’impatto sociale.

Per essere affidabile, un prodotto di IA deve adeguarsi ai seguenti requisiti:

  • Human Agency (intervento umano) e supervisione umana: I sistemi di IA dovrebbero responsabilizzare gli  umani, permettendo loro di prendere decisioni informate e promuovendo i loro diritti fondamentali. Allo stesso tempo, devono essere garantiti adeguati meccanismi di supervisione da parte dell’umano, che possono essere ottenuti attraverso approcci human-in-the-loop, human-on-the-loop e human-in-command.
  • Robustezza tecnica e sicurezza: I sistemi di IA devono essere resilienti e sicuri. Devono garantire un piano di riserva, essere accurati, affidabili e riproducibili. Questo è l’unico modo per assicurare che anche i danni involontari possano essere minimizzati e prevenuti.
  • Privacy e Data Governance: Oltre a garantire il pieno rispetto della privacy e della protezione dei dati, devono essere assicurati anche adeguati meccanismi di governance dei dati, tenendo conto della qualità e dell’integrità dei dati, e garantendone un accesso legittimato.
  • Trasparenza: i dati, il sistema e i modelli di business AI dovrebbero essere trasparenti. I meccanismi di tracciabilità possono aiutare a raggiungere questo obiettivo. Inoltre, i sistemi di IA  dovrebbero essere resi trasparenti per gli utenti in modo che siano sempre consapevoli che stanno interagendo con un sistema di IA, delle capacità e dei limiti del sistema.
  • Diversità, non discriminazione ed equità: i pregiudizi  devono essere evitati, poiché potrebbero avere molteplici implicazioni negative, dall’emarginazione dei gruppi vulnerabili, all’esacerbazione del pregiudizio e della discriminazione. Promuovendo la diversità, i sistemi di IA dovrebbero essere accessibili a tutti, aperti all’impiego da parte di utenti disabili, e coinvolgere le parti interessate in ogni fase di sviluppo.
  • Benessere sociale e ambientale: i sistemi di IA dovrebbero andare a beneficio di tutti, comprese le generazioni future. Si deve quindi garantire che siano sostenibili e rispettosi dell’ambiente.
  • Attribuzione della responsabilità: dovrebbero essere messi in atto meccanismi per garantire l’attribuzione della responsabilità e l’affidabilità dei sistemi di IA e dei loro prodotti. La verificabilità, che permette la valutazione degli algoritmi, dei dati e dei processi di progettazione, gioca un ruolo chiave, specialmente nelle applicazioni critiche.

Valutare l’impatto dell’IA sui Diritti fondamentali

Il criterio fondamentale sottolineato dal Rapporto è che prima di autovalutare un sistema di IA con la lista di autovalutazione, il responsabile del prodotto di IA dovrà valutare l’impatto dello stesso sui diritti fondamentali (fundamental rights impact assessment, FRIA), attingendo agli specifici articoli della Carta e della
Convenzione europea dei diritti umani (CEDU), i suoi protocolli e la Carta sociale europea. I diritti fondamentali comprendono, tra l’altro, la dignità umana e la non discriminazione, e  i diritti in relazione alla protezione dei dati e alla privacy.

Chi progetta, produce, distribuisce e utilizza prodotti di AI dovrebbe analizzare – e rispondere alle –  le seguenti domande le cui risposte forniscono una valutazione dell’impatto dei prodotti di IA sui diritti fondamentali della persona.

1. Il sistema di AI potenzialmente discrimina negativamente le persone sulla base di uno dei seguenti motivi (in modo non esaustivo): sesso, razza, colore, origine etnica o sociale, caratteristiche genetiche, lingua, religione o credo, opinione politica o di altro tipo, appartenenza a una minoranza nazionale, proprietà,
nascita, disabilità, età o orientamento sessuale? Sono stati attuati processi per testare e monitorare la potenziale discriminazione negativa (bias) durante
le fasi di sviluppo, implementazione e utilizzo del sistema AI? Sono stati introdotti processi per affrontare e correggere potenziali discriminazioni negative (bias) nel sistema di IA.

2. Il sistema di IA rispetta i diritti del bambino, per esempio per quanto riguarda la protezione del bambino e tenendo conto dell’interesse  del bambino? Sono stati introdotti processi per affrontare e correggere i potenziali danni ai bambini da parte del sistema di IA? Sono stati introdotti processi per testare e monitorare i potenziali danni ai bambini durante le fasi di sviluppo e l’utilizzo del sistema di IA?

3. Il sistema AI protegge i dati personali relativi agli individui in linea con il GDPR?
Sono stati introdotti processi per valutare in dettaglio la necessità di una valutazione d’impatto sulla protezione dei dati, compresa una valutazione della necessità e della proporzionalità dell’uso dei dati personali in relazione al loro finalità,  alle fasi di sviluppo, implementazione e utilizzo del sistema di IA?
4. Il sistema di IA rispetta la libertà di espressione e di informazione e/o la libertà di riunione e di associazione? Sono stati introdotti processi per testare e monitorare la potenziale violazione della libertà di espressione e informazione e/o la libertà di riunione e di associazione durante le fasi di sviluppo, spiegamento e utilizzo del sistema di IA? Sono stati introdotti processi per affrontare e correggere potenziali violazioni della libertà di espressione e di informazione e/o la libertà di riunione e di associazione nel sistema di IA?

ALTAI ha lo scopo di aiutare chiunque progetti e usi prodotti di IA a diventare consapevoli dei rischi che un sistema di AI potrebbe generare e di come questi rischi possono essere minimizzati massimizzando il beneficio dell’AI.

Per scaricare l’intero documento: https://wayback.archive-it.org/12090/20210728013426/https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai

 

 

 

Articoli correlati

news
Fiorella Operto

PCTO con e.Do Cup

PCTO con e.Do Cup e.DO Cup è un’opportunità che permette di muovere i primi passi nel mondo della programmazione e della robotica industriale in chiave

Leggi Tutto »
news
Fiorella Operto

CodyRoby compie 10 anni!

    Nel 1014, in  un brain storming, una riunione per inventare idee, tra Alessandro Bogliolo di EU CODE WEEK (la settimana europea di promozione

Leggi Tutto »

OPS...
CI MANCANO ALCUNI TUOI DATI

Completa il tuo profilo prima di continuare