In un nuovo report, le due società sottolineano di aver rilevato manovre da parte di collettivi collegati a Russia, Cina, Corea del Nord e Iran nell’uso di strumenti come ChatGPT per affinare gli script e sviluppare tecniche più avanzate. Proprio come ChatGPT può essere usato per supportare gli sviluppatori a scrivere codici, può anche essere utilizzato da hacker criminali per scopi malevoli.
La crescente minaccia rappresentata dall’utilizzo di ChatGPT nei cyberattacchi è stata evidenziata dalle aziende Microsoft e OpenAI in un recente rapporto congiunto. Le due società hanno individuato l’utilizzo dei collettivi associati ai paesi sopra citati nel miglioramento delle abilità tecniche attraverso l’impiego degli strumenti forniti da ChatGPT.
Questa tecnologia è stata originariamente progettata per agevolare lo sviluppo software consentendo ai programmatori di comunicare con il “modello linguaggio” dell’intelligenza artificiale (IA) al fine di creare codice più efficiente ed efficace. Tuttavia, i criminal hacker hanno adattato questa tecnologia all’interno delle loro operazioni offensive.
ChatGPT si basa su modelli neurali che vengono addestrati utilizzando un’enorme quantità di dati testuali preesistenti provenienti da internet. I suoi algoritmi possono generare automaticamente risposte scritte coerenti sulla base del contesto presentato dal testo iniziale dell’utente o dalle domande poste dagli utenti stessi.
L’uso di ChatGPT da parte dei criminal hacker rappresenta una minaccia poiché consente loro di automatizzare le attività legate agli attacchi informatici, potenziando la loro efficienza e aumentando il numero e l’impatto delle azioni malevole. L’intelligenza artificiale risponde alle domande suggerendo soluzioni per bypassare i più recenti sistemi di sicurezza o individuando vulnerabilità nei network o nelle infrastrutture digitali.
La preoccupazione principale è che l’utilizzo sempre più diffuso di ChatGPT da parte degli hacker possa portare a un aumento significativo degli attacchi informatici sofisticati. Le aziende devono essere consapevoli della crescente minaccia e adottare misure preventive efficaci per proteggere i propri asset digitali.
Microsoft e OpenAI stanno già collaborando per indirizzare questa problematica. Stanno lavorando su nuovi algoritmi in grado di rilevare potenziali utilizzi maliziosi di tecnologie AI come ChatGPT. Inoltre, stanno promuovendo la condivisione responsabile dell’IA attraverso programmi educativi mirati a sensibilizzare l’opinione pubblica sulla necessità di utilizzare queste tecnologie in modo etico e sicuro.
Dagli esempi individuati nel report emerge chiaramente il ruolo centrale giocato dai collettivi associati ai paesi sopracitati nel utilizzare le ultime innovazioni tecnologiche a scopo offensivo nell’ambito della cybersecurity. È quindi fondamentale che autorità, industria, organizzazioni non governative (ONG) e gli esperti di sicurezza informatica lavorino insieme per monitorare e contrastare queste minacce emergenti.
In conclusione, il crescente utilizzo da parte dei criminal hacker di strumenti come ChatGPT rappresenta una seria minaccia per la cybersecurity. Le aziende devono essere consapevoli di questa situazione e prendere le misure necessarie per proteggere i propri asset digitali. Allo stesso tempo, è fondamentale che i responsabili delle politiche tecniche e le istituzioni competenti avviino un dialogo internazionale al fine di affrontare efficacemente questo problema globale. Solo attraverso uno sforzo collettivo possiamo garantire la sicurezza nella società digitale in continua evoluzione.
Lascia un commento