L'impatto dell'Intelligenza Artificiale sulla sicurezza informatica: nuove minacce e opportunità
Lossa (CyberArk): la sfida tra tecnologie è evidente, attacco e difesa hanno le stesse armi
L'avanzamento dell'intelligenza artificiale (IA) si configura come un'arma a doppio taglio per i team di sicurezza, come rivela uno studio condotto da CyberArk. Nonostante l'ampio utilizzo dell'IA per potenziare le difese aziendali, emerge una crescente minaccia derivante dall'adozione diffusa degli strumenti di GenAI.
Il report evidenzia che il 43% delle aziende italiane ha implementato l'IA per il rilevamento e la prevenzione delle violazioni, il 53% per incrementare flessibilità e automazione, e il 27% per colmare le lacune di talento nella cybersecurity.
Le sfide emergenti dall'utilizzo della GenAI
Tuttavia, l'ampliamento dell'adozione degli strumenti di GenAI apre una nuova dimensione di vulnerabilità, suscitando preoccupazioni tra i responsabili della sicurezza. Secondo la ricerca di CyberArk, il 62% prevede che le minacce abilitate dall'IA avranno un impatto negativo sulle aziende, con malware (44%), phishing e codice generato dall'IA (41%), e poisoning del set di dati alimentato da intelligenza artificiale/effetto avversario.
Allo stesso tempo, deve responsabilizzare i dipendenti con una formazione continua e un potenziamento positivo che dia fiducia, modifichi atteggiamenti e abitudini e contribuisca a creare aziende più resilienti.
I malintenzionati sfruttano l'IA
Attualmente, i cybercriminali utilizzano la GenAI per creare email apparentemente legittime da impiegare nelle campagne di phishing, e persino per generare malware in grado di eludere l'autenticazione del riconoscimento facciale o sfuggire al rilevamento. È noto che ChatGPT può essere impiegato per generare codice pericoloso e creare malware polimorfo altamente elusivo.
Paolo Lossa, Country Sales Director di CyberArk Italia, sottolinea la necessità di agire con cautela nell'adozione dell'IA nel contesto della sicurezza. "La sicurezza IT deve concentrarsi sempre più sulle persone e non solo sulla tecnologia, anche se entrambi gli elementi restano necessari," afferma Lossa.
"I team che si occupano di sicurezza devono agire con estrema cautela nei confronti dell'AI, e bilanciare i suoi indubbi vantaggi con i notevoli rischi a essa collegati non è un compito semplice. Promuovere una forte cultura della cybersecurity richiede uno sforzo da parte di tutti. Il management ha la responsabilità di definire tono, pratiche e processi che aiutino a identificare e affrontare i comportamenti a rischio e guidare la collaborazione.