Come scalare AI nella vostra azienda?

da Mag 21, 2020Definire AI0 commenti

QUALI SONO I RISCHI?

L’applicazione dell’Intelligenza artificiale richiede una visione chiara dei possibili rischi. Le aree cruciali sono le seguenti

FIDUCIA

Come dimostriamo al pubblico che l’IA è sicura? Come facciamo ad evitare i pregiudizi, inconsci o meno, che ci sono stati fin dall’inizio?

RESPONSABILITÀ

Cosa succede quando una IA commette un errore oppure infrange la legge? Chi è legalmente responsabile?

SICUREZZA

Come possiamo prevenire la manipolazione non autorizzata o dolosa di una IA?

CONTROLLO

Cosa avviene quando una macchina assume il controllo di un processo? Come fa l’uomo a riprenderne possesso, se ne ha bisogno?

IA responsabile

Per trovare le risposte, le aziende devono adottare un approccio responsabile e ‘human first’ al pensiero profuso IA oriented.. È possibile mitigare il rischio legato all’utilizzo dell’IA seguendo quattro imperativi:

GOVERNARE.

 

Creare il quadro di governance adatto allo sviluppo dell’intelligenza artificiale. Allinearlo ai valori core aziendali, agli sbarramenti etici e ai framework di responsabilità.

PROGETTARE.

 

Creare da subito fiducia nella IA, tenendo conto di privacy, trasparenza e sicurezza sin dalle prime fasi della progettazione.

MONITORARE.

 

Controllare le prestazioni della IA in rapporto a un set di parametri chiave. Assicurarsi che siano inclusi i parametri di responsabilità algoritmica, prevenzione e sicurezza.

RIQUALIFICARE.

 

Democratizzare la comprensione dell’IA in tutta l’organizzazione per abbattere le barriere in coloro che hanno subito l’impatto della tecnologia.

La necessità di spiegare

L’apprendimento automatico è spesso, per sua stessa natura, un esercizio non comprensibile in prima battuta, nel senso che opera in modi che possono rendere molto difficile spiegare come sia arrivato ai risultati che ha prodotto.