IA e la regolamentazione di precisione di Ibm

L’intelligenza artificiale è sistemica nella nostra vita quotidiana, scrivono in un report Christina Montgomery, Chief Privacy Officer di IBM e Ryan Hagemann, co-Director, IBM Policy Lab (qui il pdf). Ricordando che i sistemi di intelligenza artificiale prevedono quando la tua auto avrà bisogno di manutenzione, aiutano a fornire energia in modo efficiente alle nostre case e uffici. E innovazioni come le applicazioni dell’IA nell’assistenza sanitaria e in agricoltura stanno migliorando la vita delle persone in tutto il mondo. Tuttavia, allo stesso tempo, le persone pongono domande molto importanti sugli impatti potenzialmente negativi della tecnologia.

IBM ha costantemente avanzato il principio della regolamentazione di precisione. Un approccio che potrebbe aiutare i legislatori a risolvere i problemi di privacy e diritti civili sollevati intorno all’intelligenza artificiale. L’esempio citato nel report riguarda il riconoscimento facciale.

“Il nostro viso è l’espressione più intima e personale della nostra identità. È quello che siamo. Pertanto, è perfettamente ragionevole per la società avere un po ‘di disagio per qualsiasi tecnologia in grado di catturare, archiviare e analizzare immagini facciali o potenzialmente usarle come mezzo di identificazione. Tuttavia, i divieti generali sulla tecnologia non sono la risposta alle preoccupazioni”, scrivono Montgomery e Hagemann. Sottolineando che non tutta la tecnologia raggruppata sotto l’egida del “riconoscimento facciale” è la stessa. Questi sistemi rientrano in tre categorie di base e distinte:

Face Detection: questi sistemi sono in grado di rilevare che un oggetto in una foto o in un video è, in effetti, un viso e di distinguerlo dagli altri oggetti presenti. È importante sottolineare che lo fa senza identificare un volto come appartenente a un individuo particolare. Perché è utile? Nelle aree urbane, può aiutare a contare e analizzare i flussi di persone, biciclette e automobili per ridurre la congestione o aumentare la sicurezza. Potrebbe anche essere usato per stimare la dimensione della folla, per esempio, in un grande evento sportivo.

Autenticazione facciale: questa applicazione è familiare a molti utenti di smartphone, che la usano decine di volte al giorno per sbloccare il proprio dispositivo o accedere alle app. Funziona confrontando le caratteristiche di un’immagine del volto con quelle memorizzate in un singolo profilo precedentemente memorizzato. La tecnologia mappa le caratteristiche del volto di un individuo secondo una logica “1 a 1” e viene sempre più impiegata negli aeroporti per accelerare l’imbarco per i viaggiatori.

Corrispondenza facciale: questi sistemi tentano di abbinare una faccia utilizzando le caratteristiche di un’immagine del volto con quelle memorizzate in un database. La corrispondenza facciale è spesso associata a applicazioni di pubblica sicurezza e applicazione della legge, dove può essere utilizzata per aiutare la ricerca di bambini scomparsi o aiutare gli investigatori a individuare più rapidamente i sospetti. A differenza dei sistemi di autenticazione facciale, la corrispondenza facciale si basa sulla corrispondenza “1 a molti”.

Nel valutare se e come regolare al meglio qualsiasi tecnologia, dall’energia nucleare a Internet, è indispensabile considerare sia l’uso che l’utente finale. I responsabili politici dovrebbero quindi applicare una regolamentazione di precisione che applica restrizioni e supervisione a casi d’uso specifici e utenti finali in cui esiste un rischio maggiore di danno alla società .  Non ha senso sottoporre uno smartphone e una telecamera di un corpo di polizia allo stesso trattamento regolamentare. La stessa tecnologia utilizzata in diverse situazioni da utenti diversi dovrebbe essere regolata da regole diverse.

Esistono anche casi d’uso chiari che devono essere vietati. Ad esempio, qualsiasi uso del riconoscimento facciale per la sorveglianza di massa o la profilazione razziale è una chiara violazione dei diritti umani e della libertà di base e nessuna società dovrebbe tollerare l’uso della tecnologia per favorire tali ingiustizie. E i principi e le leggi che si applicano al mondo degli atomi dovrebbero applicarsi anche al mondo dei bit.

Tra le disposizioni specifiche che IBM ritiene opportuno regolare c’è l’”avviso e consenso”. Come regola generale, le organizzazioni dovrebbero essere tenute ad ottenere il consenso di una persona prima di utilizzare il riconoscimento facciale per autenticare la propria identità. In pratica, ottenere questo consenso apparirà diverso in base al contesto in cui viene implementata la tecnologia, ma la responsabilità ultima per ottenere quel consenso dovrebbe spettare all’organizzazione che sta effettivamente implementando il sistema di riconoscimento facciale. Per esempio: le piattaforme di social media che scansionano le foto caricate per le immagini del volto di un utente dovrebbero essere necessarie per ottenere il consenso esplicito di opt-in di quell’utente prima che la funzione venga attivata. Le persone meritano una chiara comprensione iniziale di come verrà utilizzata la loro immagine e la possibilità di evitarlo se non si sentono a proprio agio con i dettagli. I segni pubblici che rilevano il genere, l’età o l’espressione di una persona al fine di offrire un’esperienza più personalizzata in un negozio al dettaglio o fornire un’esperienza pubblicitaria più mirata dovrebbero anche essere richiesti per fornire una chiara notifica che viene utilizzata l’analisi dei volti in modo che una persona possa decidere se partecipare o semplicemente andarsene.

Un’attenzione particolare va poi riservata all’esportazione all’estero dei cosiddetti prodotti “a duplice uso” che hanno applicazioni sia commerciali che militari e sono quindi strettamente controllati o vietati per l’esportazione in determinati paesi a seconda di come verranno utilizzati. Quella duplice considerazione – dove sta andando la tecnologia e come verrà utilizzata – è già utilizzata per limitare l’esportazione di scanner di identificazione e analisi di impronte digitali e impronte digitali e altri dispositivi in ​​grado di identificazione biometrica. Il riconoscimento facciale non è incluso in questo elenco di controllo, ma dovrebbe essere modificato, in particolare per i prodotti in grado di abbinare “1 a molti”.

Quanto all’applicazione della legge, esistono anche approcci ragionevoli che possono bilanciare la necessità dell’accesso delle forze dell’ordine a strumenti in grado di proteggere le persone nel rispetto della privacy e delle libertà civili degli americani. Per raggiungere questo equilibrio, le persone devono fidarsi di questa tecnologia; e la trasparenza genera fiducia. Pertanto, l’uso del riconoscimento facciale da parte delle forze dell’ordine dovrebbe essere divulgato in rapporti pubblicati periodicamente su mandato del Dipartimento di Giustizia o dei procuratori generali dello Stato. E poiché le intuizioni prodotte da questa tecnologia necessitano di un contesto che può essere fornito in modo significativo solo dagli esseri umani, le forze dell’ordine dovrebbero richiedere il coinvolgimento e la convalida umana nei punti appropriati nei processi investigativi che utilizzano il riconoscimento facciale.