Riconoscimento facciale, l’UE è preoccupata e pensa a uno stop di 5 anni

La Commissione UE vuole prima nuove regole sulla privacy, ma delle eccezioni potrebbero arrivare per l’uso legato a sicurezza, ricerca e sviluppo.

Secondo quanto riportato in una bozza di documento della Commissione UE visionato da OverTheCloud.news, l’UE starebbe valutando la messa al bando dei sistemi riconoscimento facciale nei luoghi pubblici per un massimo di 5 anni, finché non arriveranno nuove regole sulla privacy. Il piano UE, incluso in un documento di 18 pagine dedicato al tema dell’Intellihenza Artificiale, che prevede anche che gli Stati membri costituiscano autorità ad hoc col compito di monitorare l’applicazione di queste nuove tecnologie.

Nel documento, la Commissione afferma la necessità di emanare nuove regole per sostenere quelle attuali che riguardano la privacy e la protezione dei dati personali: “Le regole future devono andare oltre quelle attuali e includere un bando limitato nel tempo per il riconoscimento facciale nei luoghi pubblici“.

Bildergebnis für face recognition police

Cinque opzioni normative per l’IA

Più in generale, il progetto di Libro bianco presenta cinque opzioni normative per l’intelligenza artificiale, che sono:

  • Etichettatura volontaria
  • Requisiti settoriali per la pubblica amministrazione e il riconoscimento facciale
  • Requisiti obbligatori basati sul rischio per applicazioni ad alto rischio
  • Sicurezza e responsabilità
  • Governance

Un quadro volontario etichettatura potrebbe consistere di uno strumento giuridico cui gli sviluppatori possono “scegliere di rispettare le regole su base volontaria, rispettando criteri di etica e affidabilità dei sistemi di AI”. In questo caso ricereverebbero un’etichetta di riconoscimento.

L’opzione due si concentra su un’area specifica di interesse pubblico – l’uso dell’intelligenza artificiale da parte delle autorità pubbliche – nonché sull’impiego delle tecnologie di riconoscimento facciale in generale. Nella prima area, il documento afferma che l’UE potrebbe adottare un approccio simile alla posizione assunta dal Canada nella sua direttiva sul processo decisionale automatizzato, che stabilisce norme minime per i dipartimenti governativi che desiderano utilizzare un sistema decisionale automatizzato.

Per quanto riguarda il riconoscimento facciale, il documento della Commissione evidenzia le disposizioni del regolamento generale sulla protezione dei dati dell’UE (GDPR), che danno ai cittadini “il diritto di non essere oggetto di una decisione basata esclusivamente sul trattamento automatizzato, compresa la profilazione“.

Al terzo punto, la Commissione descrive i settori a rischio, quali l’assistenza sanitaria, i trasporti, la polizia e la magistratura. La Commissione aggiunge che, affinché una domanda di uso di sistemi AI sia considerata “ad alto rischio”, dovrebbe soddisfare uno di due criteri: rientrare nell’ambito di un settore ad alto rischio o presentare potenziali ramificazioni legali e presentare “il rischio di lesioni” , morte o  danni materiali significativi all’individuo”.

L’opzione quattro copre le questioni di sicurezza e responsabilità che potrebbero sorgere nell’ambito del futuro sviluppo dell’intelligenza artificiale e suggerisce che debbano essere apportate “modifiche mirate” alla legislazione dell’UE in materia di sicurezza e responsabilità , tra cui la direttiva sulla sicurezza generale dei prodotti, la direttiva macchine, la Direttiva sulle apparecchiature radio e la direttiva sulla responsabilità del prodotto. Tutti rischi attualmente non coperti dalla legislazione vigente, dice il documento.

Sul fronte della responsabilità, servono regole “per chiarire la responsabilità degli sviluppatori di artificiale intelligenza e per distinguere la responsabilità del produttore”.

Per quanto riguarda il punto 5, “Governance”, la Commissione afferma che è essenziale un efficace sistema di controllo pubblico con il coinvolgimento delle autorità nazionali, stimolate a cooperare.

Bildergebnis für canada automated decision making

Il dibattito

La divulgazione del progetto di libro bianco della Commissione fa seguito a un periodo di discussione pubblica su come affrontare le sfide future dell’intelligenza artificiale.   

Un rapporto pubblicato lo scorso giugno dal gruppo ad alto livello della Commissione sull’intelligenza artificiale ha suggerito che l’UE dovrebbe considerare la necessità di un nuovo regolamento per “garantire un’adeguata protezione dagli impatti negativi”, che potrebbe includere questioni derivanti dal riconoscimento biometrico, l’uso di armi autonome letali sistemi (LEGGI), sistemi di intelligenza artificiale basati sui profili dei bambini e l’impatto che l’IA può avere sui diritti fondamentali. 

In termini di riconoscimento facciale, lo scorso anno abbondavano i timori sull’applicazione della tecnologia in Europa, con l’ autorità svedese per la protezione dei dati che multava un  comune di € 20.000 per l’utilizzo della tecnologia di riconoscimento facciale nel monitoraggio della frequenza scolastica degli studenti, mentre il regolatore dei dati francese, il CNIL, afferma che la tecnologia viola le regole di consenso del GDPR.

In ogni caso, il documento deve essere sottoposto ad un vaglio prima della decisione finale. Il commissario europeo per l’Antitrust Margrethe Vestager dovrebbe presentare la proposta il prossimo mese.