Nella guerra in Ucraina, anche la biometria e il riconoscimento facciale hanno svolto un ruolo. In una lunga intervista con Techcrunch, il ministro della Trasformazione digitale ucraino Mykhailo Fedorov ha dichiarato che la tecnologia di riconoscimento facciale prodotta dall’azienda Clearview AI sia utilizzata per identificare i soldati russi che, non di rado, vengono inviati sul campo di battaglia senza portare con sé alcun documento identificativo. Questo veniva confermato successivamente sia alla BBC che all’agenzia di stampa Reuters dal Ceo dell’azienda stessa, Hoan Ton-Hat, il quale aggiungeva che, in pancia, Clearview AI avrebbe ben due milioni di foto provenienti da Vkontakte – il social network altrimenti noto come il “Facebook russo” – e che avrebbe potuto essere utile anche allo scopo di riunire i rifugiati ucraini separati dalle loro famiglie. Nell’intervista si aggiungeva un altro dettaglio: l’utilizzo dell’applicazione veniva fornito da Clearview in modalità gratuita alle forze armate ucraine.
In un video pubblicato da “IT Army of Ukraine”, un gruppo di attivisti hacker promosso direttamente dal governo ucraino, si vede proprio Clearview AI in azione, utilizzata per identificare e notificare la morte dei soldati russi alle relative famiglie. Secondo la BBC, la stessa azienda avrebbe confermato che Kiev utilizzerebbe la sua tecnologia anche ai checkpoint per individuare sospetti. Clearview AI non è la prima società che sviluppa un’applicazione di questo genere: molto popolari sono infatti sia PimEyes che FindClone. La seconda elencata, in particolare, ha la capacità di scandagliare il web alla ricerca di immagini anche senza che, necessariamente, il soggetto in questione abbia un account social. Oltre a questo, include nel suo database anche i risultati provenienti da VKontakte.
L’uso del riconoscimento facciale in guerra ha allarmato diversi esperti, sia per il rischio di errori che, in quel contesto, possono avere conseguenze fatali, sia per la possibilità di sdoganare anche in tempo di pace una tecnologia molto controversa. Ad esempio, l’offerta di ClearView AI al governo ucraino è stata fortemente criticata dall’ong per i diritti digitali Privacy International, secondo la quale “le aziende della sorveglianza stanno sfruttando la guerra” e in questo modo cercano di “ripulire la propria immagine”.
Per quanto riguarda specificatamente Clearview AI, conosciamo il suo funzionamento grazie a un’importante falla di sicurezza scoperta dall’ingegnere Mossab Hussein, a capo del team di cybersecurity di SpiderSilk. Hussein, nell’aprile del 2020, ebbe accesso a tutto il repository che includeva il codice sorgente delle applicazioni sviluppate per Windows, Mac, iOs e Android, cosa che gli permise di registrarsi come utente pur non avendo una licenza d’uso. Qualcosa di simile veniva anticipato qualche mese prima grazie al team di Gizmodo che, nelle sue ricerche, aveva trovato addirittura dei bucket S3 – memorie esterne gestite dal sistema cloud di Amazon – pubblicamente accessibili dall’esterno che contenevano sia il codice sorgente, sia le applicazioni compilate.
Il punto principale è però la pratica di scansionare il web e i social network alla ricerca d’immagini di profili degli utenti, che ha portato alle reazioni e sanzioni di diverse autorità nazionali, come in Francia, Italia e Regno Unito.
In particolare il Garante italiano per la privacy ha multato ClearView AI con una sanzione da 20 milioni di euro, oltre al divieto di raccogliere foto di italiani e alla richiesta di cancellare le immagini già raccolte. Per il Garante, Clearview AI “non raccoglie solamente immagini per renderle accessibili ai propri clienti, ma tratta le immagini raccolte mediante web scraping attraverso un algoritmo proprietario di matching facciale, al fine di fornire un servizio di ricerca biometrica altamente qualificata”. Come scrive Wired Italia, “le fotografie vengono elaborate con tecniche biometriche per estrarre i caratteri identificativi e associare 512 vettori che ricalcano le fattezze del volto (…). Tutti elementi che portano Piazza Venezia a concludere che le similitudini che Clearview AI associa al suo servizio con Google Search sono “del tutto destituite di fondamento”. Peraltro, il fatto che quelle foto siano disponibili in rete non autorizza la società a poterne fare uso per i suoi interessi”.
Continua su Guerre di Rete