OpenAI ha ammesso che ChatGPT è stato utilizzato per realizzare malware. Nel suo ultimo rapporto sulla sicurezza, l’azienda guidata da Sam Altman ha spiegato che il software di intelligenza artificiale è stato impiegato da diversi gruppi di cybercriminali.
Attività illegali dei gruppi di cybercriminali
Tra i gruppi coinvolti c’è il gruppo cinese SweetSpecter, che ha inviato email di phishing al personale di OpenAI. Il piano prevedeva di nascondere file malevoli all’interno di finte richieste di supporto. Gli allegati portavano all’installazione del malware SugarGh0st, in grado di intrufolarsi nei sistemi informatici e rubare dati.
Inoltre, il gruppo iraniano Storm-0817 ha utilizzato ChatGPT per creare un software in grado di raccogliere dati a strascico da Instagram e LinkedIn. Anche il malware per Android è stato creato grazie all’IA, permettendo di rubare informazioni come contatti, cronologia delle chiamate, file e posizione dell’utente.
Le misure di sicurezza di OpenAI
OpenAI ha comunicato di aver già bannato permanentemente tutti gli account utilizzati dagli hacker, condividendo i dati raccolti con autorità, analisti e ricercatori nel campo della sicurezza informatica. Le fragilità sul fronte sicurezza di ChatGPT non sono una novità: la prima allerta da parte degli esperti è scattata a gennaio dell’anno scorso.
Recentemente, è stato dimostrato che le misure di sicurezza del chatbot possono essere aggirate per ottenere guide su come fabbricare esplosivi.
© RIPRODUZIONE RISERVATA