Riflessioni per un corretto e proficuo utilizzo della profilazione

di  Vincenzo Colarocco e Marcello Ferraresi -

Abstract: il presente contributo si propone di delineare, senza pretesa di esaustività ma con l’intento di evidenziare sia gli snodi fondamentali che i punti critici, gli accorgimenti e le misure tecniche ed organizzative che risultano necessarie per un corretto ed etico utilizzo dell’intelligenza artificiale nell’ambito della profilazione.

Introduzione

Dalla lettura dei precedenti approfondimenti di questo percorso sono emersi chiaramente gli enormi vantaggi – in numerosi quanto differenti campi dell’attività umana – e le promettenti potenzialità che l’intelligenza artificiale, connessa con la profilazione, possono apportare in molteplici settori della vita sociale.

Allo stesso tempo, occorre riconoscere che gli algoritmi di profilazione possano essere fallaci o imprecisi, e di conseguenza, se preposti a prendere decisioni in grado di produrre degli effetti sulla sfera giuridica del singolo, possano generare gravi iniquità ed ingiustizie sociali

Lungi dal voler sminuire i potenziali pericoli indissolubilmente intrecciati alla profilazione tramite machine learning, è però necessario individuare l’approccio corretto al tema non in un rifiuto – per così dire – “luddista” della nuova tecnologia, bensì in un ragionato e cauto utilizzo della stessa.

Per dirla con gli antichi greci, abbiamo a che fare con un dispositivo che ha la natura del pharmakon, ossia di ciò che ha in sé la valenza di un potente rimedio e insieme di veleno, a seconda delle diverse modalità d’uso.

  1. Linee guida per un’ Intelligenza Artificiale etica e affidabile

Il documento Ethics guidelines for trustworthy, già menzionato nel corso di questa serie di approfondimenti, presenta un interessante quadro per un utilizzo responsabile dell’intelligenza artificiale, più interconnessa con la profilazione.

L’elaborazione di un algoritmo di machine learning, in quanto volto a migliorare il benessere individuale e collettivo, dovrebbe essere basata su dei principi che essi hanno definito “imperativi etici”, i quali sono stati estrapolati da alcuni dei diritti sanciti nella Carta dei diritti fondamentali dell’Unione europea. In particolare, essi sono:

  1. Principio del rispetto dell’autonomia umana. I sistemi di intelligenza artificiale non devono “subordinare, costringere, ingannare, manipolare, condizionare o aggregare in modo ingiustificato gli esseri umani”, al contrario essi devono essere progettati in una prospettiva antropocentrata.
  2. Principio della prevenzione dei danni. L’intelligenza artificiale non deve causare danni, i dati e la struttura in cui vengono immessi devono essere tecnicamente solidi e protetti, garantendo un sufficiente grado di riservatezza e governance dei dati.
  3. Principio di equità. Equità intesa nella sua “dimensione sostanziale che implica un impegno a garantire una distribuzione giusta ed equa di costi e di benefici” e nelladimensione procedurale dell’equità che implica la capacità di impugnare le decisioni elaborate dai sistemi di IA e dagli esseri umani che li gestiscono e la possibilità di presentare un ricorso efficace contro di esse.”
  4. Principio di esplicabilità. Tale principio obbliga ad una trasparenza nei processi operativi e delle logiche decisionali dell’intelligenza artificiale, le quali devono poter essere illustrate a coloro che lo richiedono. Infatti, senza tali informazioni, nemmeno si potrebbe debitamente e coscientemente impugnare una decisione automatizzata.
  5. Attuazione di una profilazione etica

Un’azienda che volesse sviluppare ed utilizzare un algoritmo ai fini di una profilazione che incida sulla sfera di un soggetto, dovrebbe dunque avere ben chiari in mente gli imperativi etici sopra illustrati. Infatti, oltre alla conformità al GDPR, è necessario adottare ulteriori precauzioni quando si opera in questo ambito.

È auspicabile, quindi, che vi sia una chiara informativa predisposta ad hoc in caso di profilazione, nella quale venga espressamente comunicato, tramite una clausola di esclusione della responsabilità o altri mezzi, che gli utenti stanno interagendo con un sistema di IA e non con un altro essere umano. Deve essere descritto altresì qual è lo scopo del sistema di IA e chi o cosa può trarre vantaggio dal prodotto/servizio, nonché comunicati anche i rischi potenziali o percepiti, come le distorsioni (bias).

  1. Conclusione

In quanto tecnologia dalla spiccata indole proteiforme, diviene principale compito del Legislatore regolamentarla e indirizzarla verso un utilizzo etico e accorto.

A questo proposito, appare encomiabile lo sforzo profuso dall’Unione Europea in questo ambito. Il legislatore europeo, infatti, da sempre attento all’ambito delle nuove tecnologie, ha presentato vari documenti programmatici (Ethics guidelines for trustworthy AI menzionato sopra, ma anche il White Paper on Artificial Intelligence) volti a porre le fondamenta di un ambizioso sistema europeo che favorisca una costruzione equa ed antropocentrica dell’intelligenza artificiale, intesa nelle sue molteplici sfaccettature, tra le quali la profilazione ricopre certamente un importante ruolo.