Salta al contenuto

Temi di tendenza

Attacchi basati su Intelligenza Artificiale

Marzia Romeo

23.07.19 5 minuti di lettura

Un nuovo studio di SHERPA – un progetto finanziato dall’UE che ricerca le implicazioni etiche e sui diritti umani dell’IA e dei big data – sottolinea che le capacità dell’IA si stanno diffondendo. E non sono solo le organizzazioni che la usano. La ricerca sull’Intelligenza Artificiale è disponibile gratuitamente online, il che significa che può essere facilmente utilizzata per scopi benigni e malevoli.

Ma mentre ci sono chiari segnali che gli attori delle minacce stiano sviluppando queste capacità e potrebbero usarle negli attacchi informatici, Andy Patel di F-Secure afferma che sono probabilmente utilizzate per l’analisi dei dati e non come arma diretta contro obiettivi. Almeno per il momento.

“Se le tecniche di machine learning vengono utilizzate da organizzazioni criminali o nazioni per scopi malevoli, sono probabilmente utilizzate principalmente per l’analisi dei dati”, afferma Andy, ricercatore presso l’Artificial Intelligence Center of Excellence di F-Secure. “Nell’ultimo anno sono emersi alcuni interessanti proof-of-concept che illustrano come le tecniche di machine learning possono essere utilizzate per eseguire penetration test o fornire funzionalità anti-reverse-engineering aggiuntive a un eseguibile malevolo. Si potrebbe immaginare che proof-of-concept come queste possano essere migliorate, innovate e, eventualmente, farsi strada nei toolkit degli attaccanti. ”

Lo studio identifica diversi percorsi per lo sviluppo di attacchi basati sull’Intelligenza Artificiale. Molti di questi sono basati su ricerche e tecnologie esistenti. Alcuni sono già in uso, sebbene gli scopi restino in gran parte sconosciuti.

Contenuto falso

Alcune persone potrebbero essere sorprese a sentire che la minaccia più pressante posta dagli aggressori che lavorano con l’IA è la produzione di contenuti falsi. L’argomento “Notizie false” è da anni in prima pagina (maggiori informazioni sotto). Ma ci sono molte più applicazioni per contenuti falsi. E l’Intelligenza Artificiale è inequivocabilmente in grado di produrre contenuti falsi che possono ingannare sia l’uomo che la macchina.

“Al momento, la nostra capacità di creare contenuti falsi convincenti è molto più sofisticata e avanzata della nostra capacità di rilevarli. E l’IA ci sta aiutando a migliorare la produzione di audio, video e immagini, rendendo la disinformazione e il contenuto falso più sofisticati e difficili da rilevare “, afferma Andy. “E ci sono molte applicazioni diverse per contenuti convincenti e falsi, quindi mi aspetto che finisca per diventare problematico.”

Non mancano esempi di contenuti realistici, creati dall’IA. Diversi sono discussi nello studio. Lyrebird.ai, DeepFakes, pix2pix, CycleGan e GPT-2 di OpenAI, sono tutte tecniche e servizi di IA notevoli per la generazione di contenuti falsi. Un caso interessante citato nello studio era un falso profilo Twitter (nella foto sotto) che i ricercatori credono sia stato creato usando l’Intelligenza Artificiale.

https://twitter.com/sokane1/status/1111023838467362816

Questo tipo di contenuti falsi ha applicazioni che vanno oltre la disinformazione (sebbene si tratti di un caso d’uso quasi certo). Secondo lo studio, i ricercatori di cyber security hanno già sviluppato una proof-of-concept per l’Intelligenza Artificiale in grado di creare autonomamente messaggi di phishing. Non è adatto per l’uso in attacchi reali, ma rappresenta più di un primo passo verso il phishing completamente automatizzato, end-to-end, basato sull’Intelligenza Artificiale. Lo studio ipotizza che capacità simili potrebbero essere sviluppate per campagne di spam.

Automazione intelligente

Uno dei maggiori punti di forza dell’IA è l’esecuzione automatica delle attività. L’elaborazione dei dati ne è un ottimo esempio. Mettere insieme grandi quantità di dati è noioso. Fortunatamente, l’Intelligenza Artificiale non si è evoluta abbastanza per sperimentare la noia, rendendola perfetta per un lavoro tedioso e attento ai dettagli.

Secondo lo studio, l’automazione intelligente aumenterà le capacità attuali degli attaccanti. Aumenterà sostanzialmente il loro gioco a nuovi livelli dando loro il vantaggio dei “big data”. Le potenziali applicazioni future dell’automazione intelligente identificate nello studio includono:

  • Botnet che identificano automaticamente nuovi target per campagne di spam o attacchi DDoS
  • Malware “intelligente” che crea payload personalizzati dopo aver infettato ed eseguito la ricognizione sul bersaglio
  • Utilizzo dell’IA nei backend per fornire payload destinati a eludere i meccanismi di rilevamento dell’obiettivo (alcuni dicono che questo è già in atto)
  • Campagne finte e disinformazione end-to-end in cui un modello di IA malevolo crea un’intera strategia per manipolare un sistema AI esistente

Disinformazione e fake news

Le notizie false sono già una realtà. Lo studio cita numerosi esempi di campagne di disinformazione in tutto il mondo. È un tema ricorrente nella ricerca di F-Secure (puoi leggere numerose storie sulla ricerca su Twitter sul blog News form the Labs di F-Secure).

Tuttavia, lo studio sottolinea che mentre l’IA avanza, queste campagne di disinformazione diventeranno molto più sofisticate e dannose:

“… se per guidare questi sistemi dovessero essere usati algoritmi più complessi (ad esempio, basati sull’apprendimento rinforzato), questi potrebbero finire a creare loop di ottimizzazione per il comportamento umano, in cui il recommender osserva lo stato corrente di ciascun target e continua a sintonizzare informazioni che vengono fornite, fino a quando l’algoritmo inizia ad osservare le opinioni e i comportamenti che vuole vedere. In sostanza, il sistema tenterà di ottimizzare i suoi utenti.

Ecco alcune modalità specifiche in cui l’Intelligenza Artificiale può ingegnerizzare socialmente i gusti, le convinzioni e i comportamenti degli utenti, tra cui:

  • Limitare ciò che un utente vede sulla base di una valutazione dell’identità, delle preferenze, ecc. dell’utente (già presente in una certa misura)
  • Scoraggiare gli utenti dal pubblicare/condividere contenuti esponendo solo tali contenuti agli utenti che esprimeranno disapprovazione
  • Allo stesso modo, l’algoritmo può condividere contenuti solo con quelli che ne esprimono l’approvazione, incoraggiando l’utente a condividere contenuti simili più spesso
  • Intrappolare gli utenti in una bolla impedendo loro di ottenere esposizione a punti di vista divergenti o contraddittori
  • Poter tenere traccia delle modifiche nelle viste in base alle interazioni e iniziare a promuovere o persino produrre contenuti verso tali fini

Dove sono dirette le minacce basate su IA?

Nessuno può predire il futuro. Non c’è Intelligenza Artificiale o intelligenza umana per quello. Ma un filo conduttore tra tutti questi potenziali percorsi che gli attacchi basati su IA possono sviluppare è l’idea che l’IA assumerà la maggior parte del lavoro attualmente svolto dagli attaccanti umani. Potremmo infine vedere modelli di apprendimento automatico sviluppati e poi monetizzati da criminali informatici sotto forma di aziende “cyber crime as a service”.

Ma solo il tempo lo dirà.

Marzia Romeo

23.07.19 5 minuti di lettura

Categorie

Articolo in primo piano

Post correlati

Newsletter modal

Grazie del tuo interesse per la newsletter di F-Secure. Riceverai a breve un email per confermare la sottoscrizione.

Gated Content modal

Congratulazioni – ora puoi accedere al contenuto cliccando sul bottone sottostante.