TrustWorthy AI, quando anche l’etica è artificiale

Leggi fondamentali

La fantascienza letteraria ha contribuito, negli anni, a delineare ciò che le Intelligenze Artificiali avrebbero portato a questo mondo. Sin dalla sua ideazione, che trova le basi nelle famose tre leggi della robotica di Isaac Asimov, l’idea che una forma di vita intelligente a base di silicio potesse in qualche modo scavalcare quei “muri etici” che contraddistinguono la natura umana è, adesso, più che mai attuale. In un mondo dove la corsa all’evoluzione cibernetica compie giornalmente passi da gigante, creando reti neurali artificiale complesse, l’idea di una qualche forma di etica che regolamenti le macchine appare, se non fondamentale, quantomeno necessaria. Ovviamente, quello a cui si pensa non è una fine del mondo in stile Terminator, ma la possibilità che, qualora qualcosa sfugga al nostro controllo, possano esserci dei confini ben definiti e in qualche modo invalicabili dalle macchine stesse, ma anche da chi le crea: proprio come le leggi di Asimov, ma più tangibili e reali.

Trustwothy AI, un’etica condivisa

È da questa idea che, da circa un anno, l’Unione Europea sta attuando politiche di “alfabetizzazione digitale” pubblicando diverse linee guida, volte ad un uso corretto ed etico delle Intelligenze Artificiali. Il tutto si colloca nel più ampio quadro delle Trustwothy AI, una pubblicazione datata 8 aprile 2019, in cui la UE mette nero su bianco dati, progressi, sviluppi e punti fermi relativi all’uso di tali tecnologie. Un passo interessante e quello riguardante i finanziamenti stanziati per lo sviluppo di queste tecnologie: all’interno del progetto Horizon 2020, l’UE aumenterà le sovvenzioni del 70%, investendo circa 1,5 miliardi di euro per il biennio 2018-2020. Non solo: il progetto avrà il potere di connettere e potenziare i laboratori di ricerca in tutta l’UE. Avrà anche il compito di supportare lo sviluppo di una piattaforma condivisa quale Ai-on-demand, che permetterà a tutti gli utenti di accedere ad un pool di dati aggiornati continuamente. Infine, affiancherà lo sviluppo delle AI in tutti i “settori chiave” della sua crescita, andando così a chiudere quel gap fra chi sviluppa e chi ne fruisce.

I sette princìpi fondamentali

È uno però il punto focale sul quale si costruisce tutto il resto: e cioè i requisiti fondamentali per un’Intelligenza Artificiale etica. Proprio come degli assiomi matematici, queste “leggi” propongono di gettare le basi per un modello socialmente condiviso di “etica artificiale”, se così si può chiamare. Sette princìpi imprescindibili, sul quale costruire tutto.

  1. Supervisione umana: I sistemi di intelligenza artificiale dovrebbero favorire lo sviluppo dell’equità sociale, sostenendo i diritti fondamentali, senza diminuire, limitare o fuorviare l’autonomia umana.
  2. Robustezza e sicurezza: La Trustworthy AI richiede algoritmi sicuri e sufficientemente robusti da contrastare gli errori e le inconsistenze durante l’intero ciclo di vita dei sistemi di Intelligenza Artificiale.
  3. Privacy e data governance: I cittadini dovrebbero avere pieno controllo sui propri dati, nella sicurezza che i dati che li riguardano non possano essere utilizzati a loro danno o a fini discriminatori.
  4. Trasparenza: Deve essere garantita la tracciabilità dei sistemi di Intelligenza Artificiale in tutti i suoi layers.
  5. Diversity, correttezza, assenza di discriminazione: I sistemi di Intelligenza Artificiale dovrebbero prendere in considerazione tutte le capacità e gli skill umani, garantendo a tutti l’accessibilità.
  6. Benessere sociale e ambientale: I sistemi di Intelligenza Artificiale dovrebbero essere utilizzati per sostenere cambiamenti positivi, migliorare la sostenibilità ambientale e la responsabilità ecologica.
  7. Responsabilità: Devono essere adottati meccanismi che garantiscano la responsabilità sui sistemi di Intelligenza Artificiale e sui loro risultati.

 

La strada da percorrere

La Commissione Europea non si è limitata solo a condividere i sette princìpi fondamentali: ha anche creato una interessante Road Map per accompagnare lo sviluppo e il recepimento di tali indicazioni. Entro l’estate, infatti, si darà il via a una fase pilota, nella quale verranno coinvolti diversi stakeholder. Chi è interessato ha la possibilità di iscriversi fin da subito alla European AI Alliance per prendere parte al progetto al momento del suo varo ufficiale, mentre chi già fa parte del gruppo di esperti che vi hanno contribuito finora aiuterà a presentare le linee guida agli stakeholder di tutti gli Stati Membri. Esattamente un anno fa infatti, la Commissione Europea aveva costituito un High-Level Expert Group on AI, del quale fanno parte 52 esperti ed accademici, e tra i quali figurano diversi italiani. Inoltre, dalla mappa si evince l’intenzione dell’UE di giocare un ruolo attivo al G20 in Giappone, al fine di attrare consensi anche dagli Stati non membri.

La parola dell’esperto

La dimensione etica dell’Intelligenza artificiale non né un lusso né un accessorio”. Chiarissime le parole di Andrus Ansip, Vicepresidente del Mercato Unico Digitale Europeo. “Solo con la fiducia che la nostra società può godere appieno dei benefici che derivano dalle tecnologie”. Non si tratta dunque di una questione puramente accademica, ma tangibile, reale, pericolosamente attuale. Andis sottolinea come ad oggi, a livello europeo, troppi pochi beneficino del potere di queste tecnologie: “Questa situazione ricade su più livelli, sia in termini sociali che economici. Ci sono troppe barriere che precludono i cittadini dal poter estrapolare il massimo che queste tecnologie hanno da offrire in termini di opportunità, di lavoro, di innovazione. Barriere che tengono l’Europa fuori dalla competizione. […] Abbiamo varato 28 dei 30 disegni di legge proposti per costruire un’economia e una società digitali pienamente funzionanti” – chiosa Ansip -. “Lentamente ma inesorabilmente, il mercato unico digitale, così come le AI, stanno diventando realtà”.