Intelligenza artificiale generativa scoperto Fraud GPT per creare software dannoso

L’intelligenza artificiale segna un prima e un dopo nello sviluppo tecnologico globale. In effetti, c’è già chi suggerisce che rappresenterà una sorta di “quarta rivoluzione industriale”. Anche Sam Altman ha osato sottolineare quali settori avranno la maggiore influenza nel prossimo futuro. Tra questi ha menzionato la programmazione informatica, che ha un lato oscuro.

Il miglior esempio è offerto da FraudGPT. FraudGPT è una piattaforma di intelligenza artificiale generativa appositamente progettata per creare software dannoso. Cioè, per rendere la vita più semplice ai criminali informatici quando si tratta di infettare computer, rubare informazioni personali o sferrare qualsiasi altro tipo di attacco. Ciò si riflette in un articolo di ricerca disponibile su arXiv e pubblicato sull’International Journal of Scientific Research in Computer Science, Engineering and Information Technology (IJSR-CSEIT).

Nello specifico, FraudGPT è una replica praticamente esatta di ChatGPT, l’IA più popolare di OpenAI. Almeno, esteticamente. È stato scoperto da Netenrich a metà del 2023 ed è molto efficace nella creazione di pagine Web false ed e-mail di phishing. È stato sviluppato sulla base del modello di linguaggio di grandi dimensioni open source GPT-J di EleutherAI, che a sua volta presenta molte somiglianze con GPT-3.

Secondo i ricercatori, FraudGPT è disponibile con un modello di abbonamento il cui prezzo è di 200 dollari al mese (circa 184 euro). Tuttavia, i criminali informatici che lo assumono possono risparmiare denaro pagando una rendita forfettaria, che costa 1700 dollari (poco più di 1560 euro). Ciò è confermato dagli esperti di Trustwave che hanno svolto ricerche sull’argomento.

Potrebbe sembrare un prezzo abbastanza alto, soprattutto se teniamo conto che ChatGPT Plus, la versione a pagamento dell’IA di OpenAI che dà accesso a GPT-4, ha un prezzo di 20 euro al mese. Tuttavia, FraudGPT ha un enorme potenziale per generare profitti illeciti senza che i criminali informatici debbano impegnarsi. Non dimentichiamo che tutte le intelligenze artificiali “commerciali” sono limitate per impedire loro di produrre contenuti dannosi.

FraudGPT non è l’unico “gemello cattivo” di ChatGPT. Esiste un’altra alternativa più economica e meno aggiornata chiamata WormGPT. Il suo prezzo è di 100 euro al mese o 550 euro all’anno. Naturalmente i suoi creatori offrono la possibilità di personalizzarlo secondo i gusti dell’hacker in cambio di un notevole supplemento. Entrambi i sistemi sono in vendita nel dark web, ma sono stati rilevati anche su alcuni canali Telegram.

Federica SantoniTechTopChatGPT,criminali informatici,Errori di ortografia,FraudGPT,Intelligenza artificiale,Sicurezza Informatica,software dannoso
L’intelligenza artificiale segna un prima e un dopo nello sviluppo tecnologico globale. In effetti, c’è già chi suggerisce che rappresenterà una sorta di “quarta rivoluzione industriale”. Anche Sam Altman ha osato sottolineare quali settori avranno la maggiore influenza nel prossimo futuro. Tra questi ha menzionato la programmazione informatica, che...