In Uk multe per le aziende che non sanno spiegare le decisioni dei loro sistemi di IA

Le aziende o altre tipi di organizzazioni potrebbero rischiare multe da svariati milioni di sterline nel caso non fossero in grado di spiegare le decisioni prese dai loro sistemi di intelligenza artificiale. Questi sono i piani presentati oggi dall’istituto che regolamenta l’uso dei dati del Regno Unito.

L’istituto ha affermato che le sue nuove linee guida sono fondamentali perché il Regno Unito è in un punto di non ritorno in cui molte aziende utilizzano l’IA in modo sconsiderato.

Ciò potrebbe includere i dipartimenti delle risorse umane che utilizzano l’apprendimento automatico per selezionare i candidati in base all’analisi dei loro CV. Il regolatore afferma che è il primo al mondo a proporre regole per spiegare le scelte prese dall’IA.

Circa due terzi delle società di servizi finanziari del Regno Unito utilizzano l’IA per prendere decisioni, comprese le compagnie di assicurazione per gestire i sinistri, e un sondaggio mostra che circa la metà del pubblico britannico è preoccupato per gli algoritmi che prendono le decisioni che gli umani spiegherebbero con più raziocigno.

I ricercatori dell’IA sono già chiamati a fare di più per spiegare la natura della “scatola nera” di come l’apprendimento automatico arriva ai risultati.

Simon McDougall dell’ICO afferma: “Si tratta puramente di spiegare. Ma come si fa a spiegare una decisione in merito all’IA trasparente, equa, comprensibile e responsabile nei confronti dell’individuo? “

La guida, che oggi è in consultazione, spiega alle organizzazioni come comunicare alle persone in una forma che potranno capire. In caso contrario, ciò potrebbe comportare una sanzione pecuniaria fino al 4% del fatturato globale di una società, ai sensi della legge dell’UE sulla protezione dei dati.
Non avere abbastanza tempo o denaro per spiegare le decisioni dell’IA non sarà una scusa accettabile, afferma McDougall. “Devono essere responsabili delle loro azioni. Se non hanno le risorse per riflettere correttamente su come useranno l’IA per prendere decisioni, allora dovrebbero riflettere”.

Prodotta in collaborazione con l’Istituto Alan Turing, la guida dovrebbe entrare in vigore nel 2020.