BusinessCommunity.it settimanale per imprenditori e manager
BusinessCommunity.it

04/05/2022

idee

AI ed etica: scelte e responsabilità devono coinvolgere tutti i leader aziendali

Jesus Mantas (IBM): la creazione di un'Intelligenza Artificiale affidabile è un imperativo di business e un'aspettativa da parte della società, non solo un problema di conformità

Quando si parla intelligenza artificiale il discorso finisce sempre per virare verso l'etica.
Quest'ultima è realmente imprescindibile e non può esser solo di competenza della funzione IT.
A questo proposito, un nuovo studio dell'IBM Institute for Business Value (IBV) ha messo in luce un cambiamento radicale nei ruoli responsabili di guidare e sostenere l'etica AI in azienda.

AI ed etica: scelte e responsabilit devono coinvolgere tutti i leader aziendali

Quando è stato chiesto quale sia la funzione principalmente responsabile per l'etica AI, l'80% degli intervistati ha indicato una figura apicale non tecnica, come può essere un CEO, come il "campione" per l'etica dell'AI, in forte aumento rispetto al 15% individuato nel 2018.
Lo studio globale indica anche che, nonostante sia forte l'imperativo per un avanzamento verso un'AI affidabile, che includa migliori prestazioni relative alla sostenibilità, alla responsabilità sociale e alla diversità e inclusione, rimane un divario tra le intenzioni dei leader e le azioni intraprese.

I dirigenti sono ora visti come la forza trainante relativamente all'etica dell'AI

I CEO (28%), ma anche i membri del Consiglio di Amministrazione (10%), il team legale (10%), i responsabili della privacy (8%) e del Risk & Compliance (6%) sono considerati dagli intervistati come i più responsabili relativamente all'etica dell'AI.

AI ed etica: scelte e responsabilit devono coinvolgere tutti i leader aziendali

Mentre il 66% degli intervistati cita il CEO o altri membri della Direzione Generale come coloro che hanno forte influenza sulla strategia etica della loro organizzazione, più della metà cita le direttive del consiglio (58%) e la comunità degli azionisti (53%).

Un valore strategico differenziante

Costruire un'AI degna di fiducia è percepito come un valore strategico differenziante e le organizzazioni stanno iniziando a mettere in atto attività relative all'etica dell'AI.

Seguici: 

Più di tre quarti dei leader aziendali intervistati quest'anno concordano sul fatto che l'etica dell'AI è importante per le loro organizzazioni, in aumento rispetto al 50% circa del 2018.
Allo stesso tempo, il 75% degli intervistati ritiene che l'etica sia un valore differenziate di competitività, e più del 67% degli intervistati che vedono l'AI e l'etica dell'AI come importanti indicano come le loro organizzazioni superino le aziende loro pari in sostenibilità, responsabilità sociale e diversità e inclusione.
Molte aziende hanno iniziato a fare passi avanti.
Infatti, più della metà degli intervistati afferma che le loro organizzazioni stanno lavorando per incorporare l'etica dell'AI nel loro attuale approccio all'etica aziendale.
Più del 45% degli intervistati afferma che le loro organizzazioni hanno creato attività specifiche per l'etica dell'AI, come un quadro di valutazione del rischio dei progetti di AI e un processo di revisione e controllo.

Un lento progresso

Assicurare che i principi etici siano inclusi nelle soluzioni di AI è un'urgente necessità, ma il progresso è ancora troppo lento.

Più Amministratori Delegati tra gli intervistati (79%) sono ora pronti a incorporare l'etica dell'AI nelle loro attività relative all'AI - in aumento rispetto al 20% del 2018 - e più della metà delle organizzazioni che hanno risposto hanno pubblicamente approvato principi comuni relativi all'etica dell'AI.
Eppure, meno di un quarto delle organizzazioni intervistate ha già reso operativa l'etica dell'AI, e meno del 20% degli intervistati concorda sul fatto che le pratiche e le azioni della loro organizzazione corrispondano (o superino) i loro principi e valori dichiarati.
Il 68% delle organizzazioni intervistate riconosce che comprendere nei team di sviluppo persone dalle diverse caratteristiche sia importante per mitigare i bias nell'AI, ma i risultati indicano che i team di AI sono ancora sostanzialmente meno diversificati nelle loro aziende: 5,5 volte meno inclusivi delle donne, 4 volte meno inclusivi degli individui LGBT+ e 1,7 volte meno inclusivi dal punto di vista razziale.

"Dal momento che molte aziende oggi utilizzano algoritmi di AI per gestire il loro business, affrontano potenzialmente numerose richieste interne ed esterne affinché questi algoritmi vengano progettati in modo etico, sicuro e che ispiri fiducia; al momento però ci sono stati pochi progressi per incorporare l'etica dell'AI nelle loro attività", ha affermato Jesus Mantas, Global Managing Partner, IBM Consulting.
"I risultati dello studio IBV dimostrano che la creazione di un'AI affidabile è un imperativo di business e un'aspettativa da parte della società, non solo un problema di conformità.
Le aziende quindi possono implementare un modello di governance e incorporare principi etici attraverso l'intero ciclo di vita dell'AI
".

Il momento per agire è ora

I dati dello studio suggeriscono che le organizzazioni che implementano un'ampia strategia basata sull'etica dell'AI e connessa a tutte le unità di business potranno avere un vantaggio competitivo in futuro.

la copertina di BusinessCommunity.it

Lo studio fornisce alcune indicazioni per i leader aziendali, tra cui:
- Adottare un approccio cross funzionale e collaborativo - L'etica dell'AI richiede un approccio olistico e un insieme di competenze che riguardano tutti gli stakeholder coinvolti nel processo di sviluppo.
I membri della direzione generale, i designer, gli scienziati e gli ingegneri dell'AI hanno ciascuno un ruolo distinto da svolgere nel percorso verso l'AI affidabile.
- Stabilire una governance sia organizzativa che del ciclo di vita dell'AI per rendere operativa la disciplina dell'etica dell'AI - occorre adottare un approccio olistico per incentivare e gestire le soluzioni di AI durante l'intero ciclo di vita, dalla creazione della giusta cultura per un'AI responsabile, alle pratiche e alle politiche fino ai prodotti.
- Andare oltre la propria organizzazione creando partnership - espandere l'approccio identificando e coinvolgendo partner tecnologici focalizzati sull'AI, accademici, startup e altri partner dell'ecosistema per stabilire una "interoperabilità etica" (ethical interoperability).



Se l'articolo ti è piaciuto, condividilo con gli amici e colleghi


ARGOMENTI: marketing - retail - ecommerce - digital transformation - pmi - high yield - bitcoin - bond - startup - pagamenti - formazione - internazionalizzazione - hr - m&a - smartworking - security - immobiliare - obbligazioni - commodity - petrolio - brexit - manifatturiero - sport business - sponsor - lavoro - dipendenti - benefit - innovazione - b-corp - supply chain - export - - punto e a capo -

> Vai al sommario < - > Guarda tutti gli arretrati < - > Leggi le ultime news <

Copyright © 2009-2022 BusinessCommunity.it.
Reg. Trib. Milano n. 431 del 19/7/97
Tutti i Diritti Riservati. P.I 10498360154
Politica della Privacy e cookie

BusinessCommunity.it - Supplemento a G.C. e t. - Reg. Trib. Milano n. 431 del 19/7/97
Dir. Responsabile Gigi Beltrame - Dir. Editoriale Claudio Gandolfo


Copertina BusinessCommunity.it