L’intelligenza artificiale ha bisogno di regole globali [FT]

È più facile stabilire dei limiti quando solo pochi attori possono permettersi la necessaria tecnologia

L’autrice è Diane Coyle, la Bennett Professor di Public Policy all’Università di Cambridge

Nel 1986, il nanotecnologo Eric Drexler inventò il concetto di “poltiglia grigia”. L’idea era che un nano replicatore, una macchina minuscola, potesse creare un numero infinito di copie di se stesso a ritmo esponenziale, coprendo la terra e cancellando la vita. “Questi pericolosi replicatori potrebbero dimostrarsi facilmente troppo tosti, piccoli e di rapida diffusione per fermarli“, ha scritto.

Lo scenario di fuga tecnologica è stato aggiornato all’arrivo dell’’intelligenza artificiale nel 2003 dal filosofo di Oxford Nick Bostrom. Questa volta lo scenario era quello di un’intelligenza artificiale superintelligente programmata per creare graffette, programmata per usare da sola tutte le risorse disponibili sulla terra per farlo: l’AI supererà qualsiasi tentativo umano di ostacolare il suo obiettivo di massimizzare la produzione di graffette.

Image result for nick bostrom ai"

Il mondo non ha maggiori probabilità di essere coperto di graffette ora di quanto non le avesse con la poltiglia grigia negli anni ’80. Il punto di tali esperimenti di pensiero è focalizzare l’attenzione su come usare e controllare potenti nuove tecnologie, sottolineando allo stesso tempo le paure che evocano generalmente.

Nel caso dell’AI, la paura ha un angolazione geopolitica, grazie alla scomoda relazione tra le due superpotenze dell’AI, gli Stati Uniti e la Cina. Pechino ha lavorato attraverso l’Unione internazionale delle telecomunicazioni delle Nazioni Unite per stabilire standard per la tecnologia di riconoscimento facciale che avvantaggiano i gruppi cinesi e sollevano preoccupazioni sull’utilizzo di queste tecnologie.

Lo stabilire standard regolamentari attraverso organismi internazionali avviene in tutti i settori e le “guerre degli standard” non sono rare: la battaglia sui formati VHS contro Betamax per le videocassette (chi si ricorda quelle?) è un esempio ben conosciuto. In generale, i competitors e i regolatori del settore si scontrano con gli standard internazionali fino a quando non emerge un vincitore e i dettagli tecnici vengono codificati. A volte, come con i sistemi operativi per smartphone iOS e Android, questi standard diversi coesistono per lunghi periodi.

Image result for itu international china"

Ma gli scenari di politiglia grigia/graffette riguardano l’utilizzo e l’uso improprio di potenti nuove tecnologie, piuttosto che regole comuni su come funzionano. Gli Stati Uniti potrebbero non voler acquistare la tecnologia di riconoscimento facciale cinese per motivi commerciali o economici. Ma se l’America lo facesse, potrebbe in linea di principio stabilire i propri termini per l’uso della tecnologia. Sebbene si teme che la bozza ITU vada oltre i dettagli tecnici dei singoli casi d’utilizzo, sembra improbabile che uno standard internazionale costringa qualsiasi governo a consentire quelle che considera gravi violazioni dei diritti dei cittadini.

Tuttavia, la controversia sulla tecnologia di riconoscimento facciale sottolinea la necessità di sviluppare regole comuni per gli usi futuri dell’AI. Esistono già diverse dichiarazioni di principi generali, tra cui una dall’OCSE e dal G20. Ciò solleva la questione della necessità di un’ulteriore regolamentazione internazionale e se questa possa mai essere concordata, viste le divergenze di Cina e Stati Uniti su un set di casi d’utilizzo accettabili.

Ci sono almeno due ragioni per avere del cauto ottimismo. La prima è che lo spiegamento generale dell’intelligenza artificiale non è realmente – come viene spesso descritto – una “corsa agli armamenti” (sebbene il suo uso nel settore delle armi sia effettivamente un nottolino nella corsa agli armamenti globale). Nel contesto commerciale, la metafora non andrebbe presa alla lettera. In effetti, gli economisti generalmente pensano che la concorrenza – un termine meno intenso per indicare una corsa alla armi – sia una buona cosa poichè stimola innovazione e prodotti migliori.

L’altra ragione per pensare che un certo consenso sulla limitazione degli usi avversi dell’AI possa essere possibile è che ci sono relativamente poche parti in qualsiasi discussione, almeno per ora.

Image result for ai aws google"

Al momento, solo le grandi aziende e i governi possono permettersi la potenza hardware e informatica necessaria per utilizzare applicazioni AI all’avanguardia; altri stanno “noleggiando” l’accesso a queste applicazioni tramite servizi cloud. Questa barriera quantitativa potrebbe rendere più semplice stabilire alcune regole di base prima che la tecnologia diventi più accessibile.

Anche in quel caso, i precedenti spaventi si spera offrano una lezione: le paure del bioterrorismo o del nano-terrorismo – etichettate come “armi di distruzione di massa permesse dalla conoscenza” in un articolo di Wired di Bill Joy del 2000 – sembrano aver trascurato il fatto che l’utilizzo di tecnologia avanzata dipende da complesse strutture organizzative e da un tacito know-how, nonché da coding.

Vi sono altri motivi per cui una maggiore regolamentazione dell’IAI è auspicabile. Le aziende vogliono chiarezza sulle regole di utilizzo. Ricerche recenti suggeriscono che più i manager apprendono della complessità del panorama normativo emergente, meno vogliono impegnarsi ad usare l’IA. Per alleviare le paure e consentire alle aziende di implementare l’AI per usi benefici, dobbiamo cambiare il tono della conversazione normativa globale in modo da andare al di là di affermazioni di principi di alto livello e lotte serrate sugli standard. È tempo di fare alcune conversazioni serie su questa nuova potente tecnologia.