IA: l’approccio europeo è basato sull’eccellenza e la fiducia

di Fabrizio Corona e Alessia Del Pizzo -

Il 19 febbraio 2020, la Commissione Europea ha pubblicato la Comunicazione “A European Strategy for Data”, che delinea una strategia per le misure politiche e gli investimenti a sostegno dell’economia dei dati per i prossimi cinque anni. Questo documento, inoltre, si affianca alla Comunicazione della Commissione “Plasmare il futuro digitale dell’Europa” ed a un libro bianco sull’intelligenza artificiale, che illustra le modalità tramite cui la Commissione sosterrà e promuoverà lo sviluppo e l’adozione dell’intelligenza artificiale nell’UE.
La strategia europea dei dati contribuisce a realizzare la visione di un autentico mercato unico dei dati e si basa su quattro pilastri: 1) la creazione di un quadro di governance intersettoriale per l’accesso ai dati ed al loro utilizzo; 2) la realizzazione di investimenti nei dati e rafforzamento delle infrastrutture e delle capacità europee per l’hosting, l’elaborazione dei dati e l’interoperabilità; 3) la fornitura di strumenti alle persone per ottenere un maggiore controllo sui propri dati personali; 4) la promozione di spazi comuni europei in settori strategici.
Lo scopo perseguito è la creazione di una “economia agile basata sui dati più attrattiva, sicura e dinamica al mondo, fornendo all’Europa i dati necessari a migliorare le decisioni e la vita di tutti i cittadini”.
La costruzione di questo ecosistema di eccellenza passa necessariamente dallo sviluppo e dall’adozione dell’IA nell’economia e nella pubblica amministrazione dell’UE. A tal riguardo, il citato libro bianco sull’intelligenza artificiale presenta opzioni strategiche che consentono uno sviluppo sicuro ed affidabile dell’IA in Europa, nel pieno rispetto dei valori e dei diritti dei cittadini dell’UE.
In particolare, la Commissione, tenendo conto dei risultati della consultazione pubblica sul libro bianco, proporrà agli Stati membri una revisione del piano coordinato da adottare entro la fine del 2020, istituendo e sostenendo la creazione di reti atte a collegare le università e gli istituti di istruzione superiore principali, al fine di attrarre i migliori professori e scienziati e di offrire corsi di laurea magistrale di eccellenza a livello mondiale nel campo dell’IA. Inoltre, la Commissione collaborerà con gli Stati membri per garantire che almeno un polo dell’innovazione digitale per Stato membro sia altamente specializzato in IA. Infine, saranno avviati dialoghi settoriali aperti tesi, innanzitutto, all’elaborazione di uno specifico “Programma di adozione dell’IA”, che sosterrà gli appalti pubblici di sistemi di IA e contribuirà a trasformare le procedure stesse degli appalti pubblici.
L’uso dell’IA, come di qualunque nuova tecnologia, comporta sia opportunità che rischi. Questa, ad esempio, può contribuire a proteggere la sicurezza dei cittadini può rendere prodotti e processi più sicuri, ma può, allo stesso tempo, risultare dannosa. Tale danno può essere di natura sia materiale (quando incide sulla salute e sulla sicurezza delle persone, provocando perdite di vite umane o danni patrimoniali) sia immateriale (quando causa una perdita della privacy, restrizioni alla libertà di espressione, pregiudizi alla dignità umana o discriminazioni, ad esempio nell’accesso all’occupazione), e può riguardare un’ampia gamma di rischi. Il quadro normativo, secondo la Commissione, dovrebbe concentrarsi su come ridurre al minimo i diversi rischi di danno potenziale, soprattutto quelli più significativi, o meglio quelli legati alla violazione dei diritti fondamentali. Tali rischi potrebbero derivare da difetti nella progettazione complessiva dei sistemi di IA (anche per quanto riguarda la sorveglianza umana) o dall’uso di dati senza che ne siano state corrette le eventuali distorsioni (ad esempio se un sistema è addestrato utilizzando solo o principalmente dati riguardanti gli uomini, ciò comporterà risultati non ottimali per quanto concerne le donne).
Le distorsioni e le discriminazioni rappresentano un rischio intrinseco di qualunque attività sociale od economica. Il processo decisionale umano non è immune da errori e distorsioni. Queste stesse distorsioni, se presenti nell’IA, potrebbero tuttavia avere effetti molto maggiori e colpire o discriminare numerose persone in assenza dei meccanismi di controllo sociale che disciplinano il comportamento umano. Ciò può accadere anche quando il sistema di IA “apprende” nel corso del suo funzionamento. In tali casi, in cui i risultati non potevano essere evitati o anticipati in fase di progettazione, i rischi deriveranno non da difetti nella progettazione originale del sistema, bensì dagli effetti pratici delle correlazioni o dei modelli che il sistema individua all’interno di un ampio set di dati.
Le caratteristiche specifiche di molte tecnologie di IA, tra cui l’opacità (effetto “scatola nera”), la complessità, l’imprevedibilità e un comportamento parzialmente autonomo, possono rendere difficile verificare il rispetto delle normative dell’UE in vigore volte a proteggere i diritti fondamentali e possono ostacolarne l’applicazione effettiva. Le autorità preposte all’applicazione della legge e le persone interessate potrebbero non disporre dei mezzi per verificare come sia stata presa una determinata decisione con il coinvolgimento di sistemi di IA e, di conseguenza, se sia stata rispettata la normativa pertinente. Le persone fisiche e giuridiche possono incontrare difficoltà nell’accesso effettivo alla giustizia in situazioni in cui tali decisioni possono avere ripercussioni negative su di loro.
È evidente che le caratteristiche principali dell’IA rendono difficile garantire la corretta applicazione e il rispetto della normativa nazionale e dell’UE, a tal riguardo la Commissione ritiene utile intervenire a chiarire la legislazione in vigore in determinati settori. Ad esempio, in materia di responsabilità la legislazione dell’UE in materia di sicurezza dei prodotti attribuisce al fabbricante la responsabilità del prodotto immesso sul mercato e di tutti i suoi componenti, ad esempio i sistemi di IA. In alcuni casi le norme possono però divenire poco chiare, ad esempio se l’IA è integrata nel prodotto dopo che quest’ultimo è stato immesso sul mercato da un soggetto diverso dal produttore. Inoltre, la legislazione dell’UE, in materia di responsabilità per danno da prodotti difettosi, prevede la responsabilità dei produttori e lascia alle disposizioni nazionali in materia il compito di disciplinare la responsabilità di altri soggetti nella catena di approvvigionamento.
Invero, l’uso dell’IA nei prodotti e nei servizi può dar luogo a rischi che la legislazione dell’UE attualmente non affronta in modo esplicito. Tali rischi possono essere collegati alle minacce informatiche, possono riguardare la sicurezza personale (ad esempio i rischi collegati a nuove applicazioni dell’IA, come nel caso dell’IA applicata agli elettrodomestici), o ancora possono derivare dalla perdita di connettività, ecc. Tali rischi possono essere presenti al momento dell’immissione dei prodotti sul mercato, o derivare da aggiornamenti del software o dall’apprendimento automatico durante l’uso del prodotto. L’UE dovrebbe avvalersi appieno degli strumenti a sua disposizione per rafforzare la base di conoscenze scientifiche di cui dispone sui potenziali rischi connessi alle applicazioni di IA, sfruttando anche l’esperienza dell’Agenzia dell’Unione europea per la cybersicurezza (ENISA) al fine di valutare il panorama delle minacce dell’IA.
In conclusione, la strategia europea per i dati, come il libro bianco sull’intelligenza artificiale, rappresentano strumenti che potrebbero offrire benefici a cittadini, imprese e società, a condizione che seguano un approccio antropocentrico, etico, sostenibile e rispettoso dei diritti fondamentali. Con questi strumenti, la Commissione avvia un’ampia consultazione della società civile, dell’industria e del mondo accademico negli Stati Membri in merito a proposte concrete su temi che fino a pochi anni fa erano di carattere prettamente teorico ma che, nei prossimi anni innoveranno profondamente la società.