Quando al confine metti l’intelligenza artificiale

Fabio Chiusi racconta l’uso delle tecnologie di intelligenza artificiale e automazione per il controllo delle migrazioni

Oscar D'Agostino
App che controllano e raccolgono i nostri dati: un’immagine realizzata con l’intelligenza artificiale
App che controllano e raccolgono i nostri dati: un’immagine realizzata con l’intelligenza artificiale

Provate a immaginare di voler fare un viaggio all’estero. Prima di partire dovete però scaricare una app tramite la quale un avatar vi interrogherà per capire le ragioni del vostro viaggio e quali rischi potrebbe correre il Paese che vi ospiterà.

Poi immaginate di arrivare al confine dove non ci saranno addetti ma soltanto telecamere puntate sul vostro volto per valutare le vostre emozioni e capire, tramite un software, se costituite un pericolo.

Fantascienza? Realtà, purtroppo. Già sperimentata o in fase di introduzione come ci ricorda il giornalista Fabio Chiusi: ricercatore e docente universitario all’Università di San Marino per i corsi di Giornalismo e nuovi media ed Editoria e media digitali, Chiusi si occupa da anni delle conseguenze sociali delle nuove tecnologie, dell’automazione e dell’Intelligenza artificiale.

Da ieri è nelle librerie il suo ultimo saggio, La fortezza automatica. Se l'IA decide chi può varcare i confini (Bollati Boringhieri) in cui Chiusi analizza l’uso crescente delle tecnologie di intelligenza artificiale e automazione per il controllo delle migrazioni e dei confini, evidenziando le implicazioni etiche, politiche e sociali di questa tendenza. E lanciando un messaggio: la tecnologia non risolverà il problema delle migrazioni e non ci garantirà la sicurezza assoluta.

Soluzioni che promettono di risolvere problemi complessi come la mobilità umana attraverso soluzioni tecnologiche, ma che spesso si traduce in discriminazione, violenza e opacità...

«È così. Un aspetto di cui si parla poco e soltanto tra addetti ai lavori quello dei controlli automatizzati ai confini, che si applicano a popolazioni già terrorizzate».

Ma quali sono le tecnologie utilizzare?

«Sono di vario tipo. Ci sono quelle per trasformare in automatici i controlli di confine. Da ottobre anche l’Unione Europea adotterà un sistema di riconoscimento facciale, per una valutazione immediata. Questo con la scusa ufficiale di diminuire le code. Poi ci sono le infrastrutture di sorveglianza lungo i confini, dai droni ai sensori, dalle torri di sorveglianza alle fototrappole. E infine le applicazioni procedurali, per valutare le richieste di asilo (sistemi che fanno uno screening automatico) o per predire, tramite algoritmi, i flussi dell’emigrazione».

Ma quali sono allora i rischi dell’utilizzo dell’intelligenza artificiale applicata ai confini?

«Sono tanti. A partire dalla protezione dei dati personali che vengono raccolti per un fine e non per altri. E poi c’è il discorso della discriminazione automatica: i pregiudizi che hanno le persone e le società e che vengono incorporati negli algoritmi, i quali dovrebbero essere invece oggettivi e neutri. Grande parte di queste tecnologie si basa su sistemi di riconoscimento biometrico. Tutte cose che, è dimostrato, tendono a funzionare male verso popolazioni già discriminate».

Nel libro lei parla di comunità empatiche del coraggio...

«Sono l’antitesi di quello che associamo all’automatizzazione. Le Ai non fanno comunità, non sono empatiche fra di loro, non hanno nulla di coraggioso. Tendono a ripetere sempre le stesse cose. Una visione paradossalmente conservatrice della realtà. Con l’introduzione di tutte queste tecnologie, non stiamo progredendo: è un regresso, stiamo costruendo nuovi muri, non solo fisici ma ora anche virtuali. Stiamo per dimenticare Schengen».

Ma a che punto siamo con l’introduzione di queste tecnologie?

«Sta crescendo vertiginosamente, principalmente negli Stati Uniti di Trump. Ma anche in altre zone del mondo, dalla Nigeria all’Australia, dal Canada alla Cina e al confine tra India e Pakistan. Abbiamo sempre più terrore dell’altro e quindi ci saranno sempre più controlli automatici e la situazione andrà peggiorando. Da ottobre ai confini dell’Unione Europea si dovrà lasciare un’immagine facciale. Se un algoritmo ti identifica come una persona “problematica”, questa cosa ti può rovinare la vita per sempre».

Riproduzione riservata © Messaggero Veneto