AI: quando è buona, quando è cattiva
Novak (Spitch): sicurezza, privacy e innovazione nell'era dell'intelligenza artificiale generativa
Nel panorama in rapida evoluzione dell'Intelligenza Artificiale (AI), la distinzione tra "AI buona" e "AI cattiva" diventa sempre più critica, non solo su un piano tecnologico, ma anche e soprattutto su quello etico e legale. La recente approvazione della legge sull'intelligenza artificiale dell'Unione europea (EU AI Act) è destinata a stabilire un nuovo standard globale per l'adozione responsabile dell'AI e sta sfidando le aziende e le organizzazioni di tutto il mondo a distinguere tra "Good AI" - dando priorità alla privacy e alla sicurezza - e "Bad AI" - focalizzata sullo sfruttamento dei dati-, e a trovare un equilibrio tra innovazione ed etica del progresso.
L'atto mira a proteggere i diritti dei cittadini, la democrazia e la sostenibilità ambientale dai pericoli derivanti da applicazioni errate di AI e stabilisce obblighi adeguati al livello di rischio e di impatto dei sistemi di IA, con l'obiettivo di posizionare l'Europa come leader mondiale nell'innovazione responsabile in tema di intelligenza artificiale.
![](/m/20240424/idee//ai-quando-e-buona-quando-e-cattiva.jpg)
La legislazione introduce divieti severi sulle applicazioni di AI ritenute dannose, come i sistemi di categorizzazione biometrica, lo scraping non mirato di immagini facciali, il riconoscimento delle emozioni nei luoghi di lavoro e nelle scuole, il social scoring e la polizia predittiva basata esclusivamente sulla profilazione. Il documento delinea inoltre condizioni specifiche per l'uso dell'identificazione biometrica nelle forze dell'ordine e richiede trasparenza e accuratezza per i sistemi di AI ad alto rischio.
Ma quali sono i canoni da adottare nel processo di costruzione di una "buona AI"?
Le linee guida per un'AI buona: praticità e pragmatismo
La sfida della corretta implementazione dell'AI non riguarda solo il campo legislativo, ma anche i principali sviluppatori di questa tecnologia, le aziende, che si impegnano a definire roadmap aziendali di ricerca e sviluppo complete per costruire sistemi di AI in modo responsabile, affrontando i potenziali rischi in cogenza con i futuri sviluppi normativi.
È ora fondamentale che le organizzazioni considerino il ruolo della responsabilità e della governance nell'uso dei sistemi di IA, in particolare nel contesto della rapida evoluzione e adozione dell'AI generativa e dei Large Language Models (LLM), che presentano rischi specifici quali tossicità, polarità, discriminazione, eccessivo affidamento all'AI, disinformazione, privacy dei dati, sicurezza dei modelli e violazioni del copyright. Questi rischi possono manifestarsi in diversi tipi di tecnologie di AI e variare a seconda dei casi d'uso.
Ad esempio, quando si integrano strumenti di AI nelle soluzioni per i contact center, come per la gestione della qualità, l'attenzione deve essere rivolta a migliorare responsabilmente l'esperienza degli agenti, a ridurre lo stress e a semplificare le interazioni con i clienti, e non all'intelligenza artificiale fine a sé stessa.
Gli esseri umani devono rimanere "al primo posto".
Nell'adottare un approccio responsabile all'AI, le organizzazioni devono considerare il rispetto di criteri di implementazione chiave che promuovano gli obiettivi di affidabilità e trasparenza: l'obiettivo è costruire una "buona AI". Gli impatti potenziali dei sistemi di AI devono essere valutati in base ai loro effetti diretti e indiretti su individui e gruppi, considerando anche che tali effetti possono essere immediati o manifestarsi nel tempo; la responsabilità è di tutti.
Nel momento in cui le organizzazioni si muovono verso l'adozione responsabile dell'AI, devono considerare i destinatari dei modelli di AI - utenti aziendali, consumatori o individui - e soddisfare i criteri chiave di implementazione che supportano gli obiettivi di responsabilità e trasparenza. Gli impatti potenziali dei sistemi di AI devono essere valutati in base ai loro effetti diretti e indiretti su individui e gruppi e se questi impatti sono immediati o si sviluppano nel tempo. Dobbiamo assicurarci che le nostre soluzioni non producano intenzionalmente o indirettamente risultati che raccolgano sistematicamente dati o introducano pregiudizi, inutili polarità o disinformazione nelle interazioni personali o nei discorsi pubblici.
È dovere di tutti noi costruire una buona AI.
La sfida del tempo
Oggi siamo ancora nelle fasi iniziali di comprensione dei potenziali rischi dell'AI generativa; le organizzazioni dovranno sviluppare capacità di adattamento e perfezionamento continuo delle pratiche di AI responsabile, considerando gli impatti ambientali e affrontando i modelli di terze parti. Dovremo impegnarci a dare priorità alla privacy, alla sicurezza, alla conformità e alle pratiche di sviluppo responsabile, adottando o sviluppando il quadro più lungimirante per raggiungere questi obiettivi.
Ciò che è chiaro è che ogni azienda avrà una duplice responsabilità: sfruttare la potenza dell'AI generativa e le molte nuove opportunità che continuerà a fornire, mitigando al contempo i rischi associati alla "AI cattiva" e allineandosi agli standard globali emergenti per l'innovazione responsabile.