Intelligenza artificiale, l’Ocse detta i 5 comandamenti

Un documento fissa i principi fondamentali anche se al tavolo della firma mancava la Cina che si avvia a diventare la prima potenza in questo settore. È però l’inizio di un percorso

L’ Intelligenza artificiale corre e ha convinto i Paesi più avanzati a condividere per la prima volta un documento di principi che ha l’ambizione di regolare questo percorso. È un documento non privo di compromessi, ma dimostra la volontà della mano pubblica di fissare un punto, degli standard, invece di attendere passivamente la diffusione della tecnologia. Per la firma dei principi Ocse ha riunito i 36 Paesi membri, tra cui ci sono le grandi economie del mondo, e sei non membri come Argentina, Brasile, Colombia, Costa Rica, Perù e Romania. Non c’è, però la Cina: la seconda economia del mondo ha una imponente strategia sull’Intelligenza Artificiale per diventare leader globale entro il 2030, e punta già quest’anno a superare gli Stati Uniti nella ricerca accademica sulla materia.

I cinque principi dell’Ocse partono dal ricordare che “l’Intelligenza Artificiale deve portare benefici ai popoli e al pianeta portando crescita inclusiva, sviluppo sostenibile e welfare“. Il secondo punto chiarisce che “i sistemi di Intelligenza Artificiale devono essere disegnati rispettando la legge, i diritti umani, i valori democratici e le diversità. Devono includere delle salvaguardie che permettano l’intervento umano“. Ancora, “devono essere trasparenti e ci deve essere una chiara comprensione del loro funzionamento“, “devono funzionare in modo stabile e sicuro per tutta la loro esistenza” e i loro “rischi potenziali rischi devono essere costantemente valutati“. Infine, “le organizzazioni e i singoli che sviluppano, distribuiscono o gestiscono sistemi di Intelligenza Artificiale sono responsabili del corretto funzionamento in linea con questi principi“.

Image result for oecd ai

Le parole adottate dai 42 governi svelano alcune incoerenze. Uno dei nodi più dibattuti, per esempio, è quello della responsabilità degli algoritmi. I sistemi che davvero utilizzano l’Intelligenza Artificiale sono software in grado di imparare autonomamente o prendere una decisione senza alcun intervento umano. Spesso aprire la “scatola nera” di un software di deep learning e capire il motivo ultimo di una decisione può essere molto complicato. Il principio Ocse sulla trasparenza si potrebbe così tradurre in un obbligo, che gli Stati potrebbero recepire nelle legislazioni del futuro, di disegnare un software autonomo che però sia sempre comprensibile dall’umano. È una via ibrida che in effetti riguarda gran parte delle applicazioni già esistenti della tecnologia: il robot o il software non decide davvero, ma arriva a proporre una decisione, al chirurgo, al trader, all’ingegnere meccanico, che poi sceglie e se ne assume la responsabilità.

Il settore dell’intelligenza artificiale – trasversale per definizione – è tra quelli che ricevono più attenzione dagli investitori. PwC stima che nel 2018 oltre 9 miliardi di dollari, il 10% dei fondi investiti dal venture capital negli Stati Uniti, sia andato a startup dell’area. C’è sicuramente anche un rischio bolla: uno studio di Mmc Ventures fa notare che il 40% delle startup europee che si fanno chiamare startup dell’intelligenza artificiale non usa in realtà alcuna intelligenza artificiale.

Più che dell’appetito degli investitori, però, i principi dell’Ocse provano a ragionare sulle conseguenze della diffusione della tecnologia secondo le linee di frattura della geopolitica. Gli Stati Uniti conducono una partita a sé grazie alle risorse di Wall Street e della Silicon Valley. La Cina non era presenta al tavolo. In Europa si scrivono regole e principi, negli Stati Uniti si lascia fare. In Cina, invece, le sperimentazioni corrono su un tappeto rosso (quello statale), la privacy dei cittadini non è un problema. Questa è una delle ragioni per cui Kai-Fu Lee, investitore autore del best seller “AI Superpowers”, pensa che sarà Pechino a vincere la sfida con gli Stati Uniti.

L’Ocse è consapevole della sfida e il vicedirettore dell’area Scienza, Tecnologia e Innovazione, Dirk Pilat, dice a Repubblica che «la priorità ora è portare i principi dal livello di policy al business. Stiamo lavorando per offrire una guida pratica a legislatori e ingegneri e mettere in pratica i principi». Il sito dell’Ocse ospiterà dall’autunno 2019 un osservatorio di buone pratiche e soluzioni. Le aziende che scommettono su quest’area sembrano attraversate da una tensione: da un lato riconoscono che un set di regole è una garanzia anche per il business. “È necessario adottare un’etica dell’innovazione – conferma la presidente della Fondazione Ibm Italia, Alessandra Santacroce – che renda l’Ai trasparente e responsabile. Il funzionamento degli algoritmi deve essere spiegabile. Dobbiamo evitare che l’artificial intelligence sia influenzata dai nostri preconcetti: una Ai laica e democratica non può avere preferenze di genere o orientamento politico“.

D’altra parte, per alcuni è troppo presto per parlare di regole. Da Boston lo spiega Massimiliano Versace, fondatore e Ceo di Neurala, piattaforma che offre soluzioni di intelligenza artificiale on demand per il commercio o l’industria: «Le regole sembrano vaghe perché sono premature. È difficile immaginare le applicazioni dell’intelligenza artificiale e le sue ripercussioni prima che avvengano. L’atteggiamento giusto è monitorare attentamente l’uso dell’intelligenza artificiale, e creare regole velocemente quando questi software appaiono sul mercato e sono in violazione di leggi e regole. In fondo è un software: ci sono regole e punizioni per gli hacker. La stessa cosa dovrà essere applicata a chi usa intelligenza artificiale per scopi illegali. Considerando sempre che ‘il cattivo’ non è mai la tecnologia, ma l’essere umano che la crea».

Fonte: Repubblica.it