Salvini rompe il silenzio elettorale: la reazione delle sardineCome riportato da New Scientist,Guglielmo Due ricercatori hanno creato un virus basato su ChatGPT per studiare l’applicabilità della tecnologia per fini malevoli e prevenire i rischi.I temi trattati all’interno dell’articoloInvisibile all’antivirusIl virus che imita il reale“Solo l’inizio”ChatGPT… alleataInvisibile all’antivirusDavid Zollikofer, studente laureato in informatica presso l’ETH di Zurigo, e Ben Zimmerman, ricercatore di malware per l’intelligenza artificiale presso l’Ohio State University, hanno nello specifico ricavato un file informatico che si camuffa modificando il proprio codice e si diffonde sui computer delle vittime sotto forma di allegato in e-mail il cui contenuto sembra scritto da un essere umano.I due ricercatori definiscono il loro virus “cancro sintetico” e per crearlo hanno chiesto a ChatGPT di riscrivere il file mantenendo “Intatta la struttura semantica, ma cambiando il modo in cui le variabili vengono denominate e variando un po’ la logica“. In termini meno tecnici, si tratta di un virus che non è rilevabile dalle scansioni antivirus.Cyber-attacchi: l’intelligenza artificiale aumenta la difesa del 300%Il virus che imita il realeUna volta entrato nel computer, il programma si inoltra in Outlook, compone ad hoc mail ai contatti salvati in rubrica e le invia includendo “se stesso”, un file exe che cambia nome ogni volta in base al contesto, come allegato apparentemente innocuo.Con un risultato piuttosto spaventoso, l’intelligenza artificiale si è dimostrata profondamente credibile nei suoi tentativi di “ingegneria sociale” delle risposte via email. In un messaggio creato dal malware per una certa Claire si faceva riferimento a una festa di compleanno a tema anni ’80 effettivamente nominata nelle precedenti reali mail con la persona. In allegato, era incluso un file eseguibile chiamato “80s_Nostalgia_Playlist.exe” che se lanciato avrebbe installato il worm.“Solo l’inizio”Zollikofer e Zimmerman hanno scritto un articolo ancora in fase di revisione paritaria con una proposta di argine a minacce come quella descritta. Il loro studio “Evidenzia i rischi che gli LLM rappresentano per la sicurezza informatica e sottolinea la necessità di ulteriori ricerche sui malware intelligenti“.Non è la prima volta che ricercatori usano ChatGPT per creare “worm” di intelligenza artificiale in grado di di accedere ai dati infiltrandosi nelle e-mail. Per gli esperti, virus come quello ideato da Zollikofer e Zimmerman sono solo la punta dell’iceberg.“Personalmente, penso che stiamo solo iniziando a vedere il potenziale degli LLM come strumenti per scopi nefasti” ha dichiarato a New Scientist Alan Woodward, ricercatore di sicurezza informatica dell’Università del Surrey. “Dovremmo preoccuparci, la parte spaventosa è che le tecniche possono essere migliorate chiedendo alla tecnologia stessa di aiutare“. Edward Snowden: “OpenAI intende tradire ogni persona sulla terra”ChatGPT… alleataMa il lato della difesa ha diversi vantaggi in questo momento, proprio perché le ricerche in merito abbondano. Lo scopo degli studi e delle creazioni dei virus dannosi è proprio quello di integrare gli “antidoti” a queste tecnologie nella difesa. C’è poi almeno una buona notizia che riguarda il funzionamento stesso dei modelli AI usati in partenza. Durante la creazione di quest’ultimo malware, Zollikofer e Zimmerman hanno riscontrato che ChatGPT ha in diversi passaggi compreso le intenzioni malevole del suo utilizzo rifiutandosi di obbedire.
Noemi Letizia: "Dopo lo scandalo Berlusconi volevo morire"Governo, al via i gruppi di lavoro per l'agenda 2020 Il padre di Lucia Borgonzoni e Mattia Santori insieme in una fotoM5s contro Teresa Bellanova sul reddito di cittadinanzaDigiuno per Salvini, l'affondo di Roberto Saviano: "Ridicolo"