L'Ucraina usa il riconoscimento facciale per trovare spie, morti e nemici sui social

Il controverso software che estrae immagini da social e altre piattaforme la scorsa settimana è stato multato dal Garante privacy italiano per 20 milioni

Sistema di riconoscimento facciale (Archivio)

Sistema di riconoscimento facciale (Archivio)

Kiev - L'Ucraina ha iniziato a utilizzare il riconoscimento facciale di Clearview AI durante la guerra. Il controverso software che estrae immagini da social media e altre piattaforme, la scorsa settimana è stato multato dal Garante privacy italiano. La notizia è riportata da Reuters online e rilanciata da altri media americani. Il ministero della Difesa ucraino ha avuto libero accesso a Clearview AI, dopo che la società ha inviato una lettera all'Ucraina offrendo i suoi servizi per aiutare a «scoprire assassini russi, combattere la disinformazione e identificare i morti» una volta iniziata l'invasione.

Non è chiaro per cosa il ministero della Difesa stia utilizzando il software, ma l'amministratore delegato di Clearview ha affermato di aspettarsi che altre agenzie ucraine inizino a utilizzare il servizio nei prossimi giorni. Clearview AI è stata criticata per violazioni della privacy dei dati in tutto il mondo. La scorsa settimana l'Italia ha multato la società per 20 milioni di euro per aver violato le leggi sulla privacy dei consumatori Ue e ha ordinato di cancellare tutti i suoi dati sui residenti in Italia.

L'Ufficio del Commissario per le informazioni del Regno Unito ha inoltre ordinato alla società di interrompere l'elaborazione di tutti i dati degli utenti a novembre, la Francia ha emesso un ordine simile a dicembre. Una maxi-multa da 20 milioni era stata comminata menodi una settimana fa dal Garante per la Privacy a Clearview AI, società americana specializzata in riconoscimento facciale che acquisisce dati sul web.

L’accusa in seguito alla quale è scattata la sanzione, è quella di “aver messo in atto un vero e proprio monitoraggio biometrico anche di persone che si trovano nel territorio italiano”. Dall’istruttoria svolta dal Garante è emerso che “i dati personali detenuti dalla società, inclusi quelli biometrici e di geolocalizzazione, sono trattati illecitamente, senza un’adeguata base giuridica”. Inoltre sono stati violati principi come “la tutela della riservatezza e il diritto a non essere discriminati”.

La società - che dichiara di possedere un database di oltre 10 miliardi di immagini di volti di persone di tutto il mondo, estratte da fonti web pubbliche tramite web scraping (come siti di informazione, social media e video online) - offre un servizio di ricerca altamente qualificata che, grazie a sistemi di intelligenza artificiale, consente la creazione di profili basati sui dati biometrici estratti dalle immagini, eventualmente arricchiti da altre informazioni ad esse correlate, come titolo e geolocalizzazione della foto, pagina web di pubblicazione. “Dall’istruttoria del Garante attivata anche a seguito di reclami e segnalazioni, è emerso che Clearview AI, diversamente da quanto affermato dalla società, consente il tracciamento anche di cittadini italiani e di persone collocate in Italia. Le risultanze hanno rivelato che i dati personali detenuti dalla società, inclusi quelli biometrici e di geolocalizzazione, sono trattati illecitamente, senza un’adeguata base giuridica, che non può sicuramente essere il legittimo interesse della società americana”.

La società secondo l’Authority, “ha violato altri principi base del Gdpr, come quelli relativi agli obblighi di trasparenza, non avendo adeguatamente informato gli utenti, di limitazione delle finalità del trattamento, avendo utilizzato i dati degli utenti per scopi diversi rispetto a quelli per i quali erano stati pubblicati online e di limitazione della conservazione, non avendo stabilito tempi di conservazione dei dati”.

L’attività di Clearview AI, pertanto, “si pone in violazione delle libertà degli interessati, tra cui la tutela della riservatezza e il diritto a non essere discriminati. Alla luce delle violazioni riscontrate, il Garante ha comminato a Clearview AI una sanzione amministrativa di 20 milioni di euro. L’Autorità ha, inoltre, ordinato alla società di cancellare i dati relativi a persone che si trovano in Italia e ne ha vietato l’ulteriore raccolta e trattamento attraverso il suo sistema di riconoscimento facciale”.

Il Garante - conclude la nota - ha infine imposto a Clearview AI “di designare un rappresentante nel territorio dell’Unione europea che funga da interlocutore, in aggiunta o in sostituzione del titolare del trattamento dei dati con sede negli Stati Uniti, al fine di agevolare l’esercizio dei diritti degli interessati”. 

«L'uso sul campo del sistema di riconoscimento facciale Clearview AI apre scenari inquietanti, diversi studi hanno dimostrato che i sistemi di intelligenza artificiale forniscono a volte indicazioni errate, 'falsi positivì, circostanza preoccupante se accade in un contesto di guerra e di confusione»: è il parere all'Ansa di Pierluigi Paganini, esperto di cybersecurity e intelligence, sulla notizia che l'Ucraina sta collaborando con la controversa azienda americana, su cui hanno acceso un faro l'Italia e altri paesi europei. Questo tipo di strumento - spiega - può portare benefici se usato a scopi umanitari come il ricongiungimento agevolato delle famiglie o il riconoscimento più veloce delle vittime, ma comporta rischi se applicato in altre situazioni".

"Questi sistemi non hanno una precisione assoluta e possono essere indotti in errore, questo apre a rischi immensi in caso di applicazioni militari o di sicurezza. Potrebbero far prendere delle decisioni sbagliate in un terreno di guerra in cui bisogna agire velocemente». È chiaro che Clearview AI, conclude l'esperto, «veda quello militare come mercato potenziale per espandere il sui business».