BusinessCommunity.it

24/04/2024

idee

AI: quando è buona, quando è cattiva

Novak (Spitch): sicurezza, privacy e innovazione nell'era dell'intelligenza artificiale generativa

Nel panorama in rapida evoluzione dell'Intelligenza Artificiale (AI), la distinzione tra "AI buona" e "AI cattiva" diventa sempre più critica, non solo su un piano tecnologico, ma anche e soprattutto su quello etico e legale. La recente approvazione della legge sull'intelligenza artificiale dell'Unione europea (EU AI Act) è destinata a stabilire un nuovo standard globale per l'adozione responsabile dell'AI e sta sfidando le aziende e le organizzazioni di tutto il mondo a distinguere tra "Good AI" - dando priorità alla privacy e alla sicurezza - e "Bad AI" - focalizzata sullo sfruttamento dei dati-, e a trovare un equilibrio tra innovazione ed etica del progresso. L'atto mira a proteggere i diritti dei cittadini, la democrazia e la sostenibilità ambientale dai pericoli derivanti da applicazioni errate di AI e stabilisce obblighi adeguati al livello di rischio e di impatto dei sistemi di IA, con l'obiettivo di posizionare l'Europa come leader mondiale nell'innovazione responsabile in tema di intelligenza artificiale.

La legislazione introduce divieti severi sulle applicazioni di AI ritenute dannose, come i sistemi di categorizzazione biometrica, lo scraping non mirato di immagini facciali, il riconoscimento delle emozioni nei luoghi di lavoro e nelle scuole, il social scoring e la polizia predittiva basata esclusivamente sulla profilazione. Il documento delinea inoltre condizioni specifiche per l'uso dell'identificazione biometrica nelle forze dell'ordine e richiede trasparenza e accuratezza per i sistemi di AI ad alto rischio. Ma quali sono i canoni da adottare nel processo di costruzione di una "buona AI"?



Le linee guida per un'AI buona: praticità e pragmatismo


La sfida della corretta implementazione dell'AI non riguarda solo il campo legislativo, ma anche i principali sviluppatori di questa tecnologia, le aziende, che si impegnano a definire roadmap aziendali di ricerca e sviluppo complete per costruire sistemi di AI in modo responsabile, affrontando i potenziali rischi in cogenza con i futuri sviluppi normativi.

È ora fondamentale che le organizzazioni considerino il ruolo della responsabilità e della governance nell'uso dei sistemi di IA, in particolare nel contesto della rapida evoluzione e adozione dell'AI generativa e dei Large Language Models (LLM), che presentano rischi specifici quali tossicitàpolaritàdiscriminazione, eccessivo affidamento all'AIdisinformazioneprivacy dei dati, sicurezza dei modelli e violazioni del copyright. Questi rischi possono manifestarsi in diversi tipi di tecnologie di AI e variare a seconda dei casi d'uso. Ad esempio, quando si integrano strumenti di AI nelle soluzioni per i contact center, come per la gestione della qualità, l'attenzione deve essere rivolta a migliorare responsabilmente l'esperienza degli agenti, a ridurre lo stress e a semplificare le interazioni con i clienti, e non all'intelligenza artificiale fine a sé stessa.

Gli esseri umani devono rimanere "al primo posto".




Nell'adottare un approccio responsabile all'AI, le organizzazioni devono considerare il rispetto di criteri di implementazione chiave che promuovano gli obiettivi di affidabilità e trasparenza: l'obiettivo è costruire una "buona AI". Gli impatti potenziali dei sistemi di AI devono essere valutati in base ai loro effetti diretti e indiretti su individui e gruppi, considerando anche che tali effetti possono essere immediati o manifestarsi nel tempo; la responsabilità è di tutti. Nel momento in cui le organizzazioni si muovono verso l'adozione responsabile dell'AI, devono considerare i destinatari dei modelli di AI - utenti aziendali, consumatori o individui - e soddisfare i criteri chiave di implementazione che supportano gli obiettivi di responsabilità e trasparenza. Gli impatti potenziali dei sistemi di AI devono essere valutati in base ai loro effetti diretti e indiretti su individui e gruppi e se questi impatti sono immediati o si sviluppano nel tempo. Dobbiamo assicurarci che le nostre soluzioni non producano intenzionalmente o indirettamente risultati che raccolgano sistematicamente dati o introducano pregiudizi, inutili polarità o disinformazione nelle interazioni personali o nei discorsi pubblici.


È dovere di tutti noi costruire una buona AI.

La sfida del tempo


Oggi siamo ancora nelle fasi iniziali di comprensione dei potenziali rischi dell'AI generativa; le organizzazioni dovranno sviluppare capacità di adattamento e perfezionamento continuo delle pratiche di AI responsabile, considerando gli impatti ambientali e affrontando i modelli di terze parti. Dovremo impegnarci a dare priorità alla privacy, alla sicurezza, alla conformità e alle pratiche di sviluppo responsabile, adottando o sviluppando il quadro più lungimirante per raggiungere questi obiettivi. Ciò che è chiaro è che ogni azienda avrà una duplice responsabilità: sfruttare la potenza dell'AI generativa e le molte nuove opportunità che continuerà a fornire, mitigando al contempo i rischi associati alla "AI cattiva" e allineandosi agli standard globali emergenti per l'innovazione responsabile.


ARGOMENTI: marketing - retail - ecommerce - intelligenza artificiale - AI - IA - digital transformation - pmi - high yield - bitcoin - bond - startup - pagamenti - formazione - internazionalizzazione - hr - m&a - smartworking - security - immobiliare - obbligazioni - commodity - petrolio - brexit - manifatturiero - sport business - sponsor - lavoro - dipendenti - benefit - innovazione - b-corp - supply chain - export - - punto e a capo -

> Vai al sommario < - > Guarda tutti gli arretrati < - > Leggi le ultime news <

Copyright © 2009-2024 BusinessCommunity.it.
Reg. Trib. Milano n. 431 del 19/7/97
Tutti i Diritti Riservati. P.I 10498360154
Politica della Privacy e cookie

BusinessCommunity.it - Supplemento a G.C. e t. - Reg. Trib. Milano n. 431 del 19/7/97
Dir. Responsabile Gigi Beltrame - Dir. Editoriale Claudio Gandolfo


Copertina BusinessCommunity.it