Attacchi basati su Intelligenza Artificiale
Un nuovo studio di SHERPA – un progetto finanziato dall’UE che ricerca le implicazioni etiche e sui diritti umani dell’IA e dei big data – sottolinea che le capacità dell’IA si stanno diffondendo. E non sono solo le organizzazioni che la usano. La ricerca sull’Intelligenza Artificiale è disponibile gratuitamente online, il che significa che può essere facilmente utilizzata per scopi benigni e malevoli.
Ma mentre ci sono chiari segnali che gli attori delle minacce stiano sviluppando queste capacità e potrebbero usarle negli attacchi informatici, Andy Patel di F-Secure afferma che sono probabilmente utilizzate per l’analisi dei dati e non come arma diretta contro obiettivi. Almeno per il momento.
“Se le tecniche di machine learning vengono utilizzate da organizzazioni criminali o nazioni per scopi malevoli, sono probabilmente utilizzate principalmente per l’analisi dei dati”, afferma Andy, ricercatore presso l’Artificial Intelligence Center of Excellence di F-Secure. “Nell’ultimo anno sono emersi alcuni interessanti proof-of-concept che illustrano come le tecniche di machine learning possono essere utilizzate per eseguire penetration test o fornire funzionalità anti-reverse-engineering aggiuntive a un eseguibile malevolo. Si potrebbe immaginare che proof-of-concept come queste possano essere migliorate, innovate e, eventualmente, farsi strada nei toolkit degli attaccanti. ”
Lo studio identifica diversi percorsi per lo sviluppo di attacchi basati sull’Intelligenza Artificiale. Molti di questi sono basati su ricerche e tecnologie esistenti. Alcuni sono già in uso, sebbene gli scopi restino in gran parte sconosciuti.
Contenuto falso
Alcune persone potrebbero essere sorprese a sentire che la minaccia più pressante posta dagli aggressori che lavorano con l’IA è la produzione di contenuti falsi. L’argomento “Notizie false” è da anni in prima pagina (maggiori informazioni sotto). Ma ci sono molte più applicazioni per contenuti falsi. E l’Intelligenza Artificiale è inequivocabilmente in grado di produrre contenuti falsi che possono ingannare sia l’uomo che la macchina.
“Al momento, la nostra capacità di creare contenuti falsi convincenti è molto più sofisticata e avanzata della nostra capacità di rilevarli. E l’IA ci sta aiutando a migliorare la produzione di audio, video e immagini, rendendo la disinformazione e il contenuto falso più sofisticati e difficili da rilevare “, afferma Andy. “E ci sono molte applicazioni diverse per contenuti convincenti e falsi, quindi mi aspetto che finisca per diventare problematico.”
Non mancano esempi di contenuti realistici, creati dall’IA. Diversi sono discussi nello studio. Lyrebird.ai, DeepFakes, pix2pix, CycleGan e GPT-2 di OpenAI, sono tutte tecniche e servizi di IA notevoli per la generazione di contenuti falsi. Un caso interessante citato nello studio era un falso profilo Twitter (nella foto sotto) che i ricercatori credono sia stato creato usando l’Intelligenza Artificiale.
Questo tipo di contenuti falsi ha applicazioni che vanno oltre la disinformazione (sebbene si tratti di un caso d’uso quasi certo). Secondo lo studio, i ricercatori di cyber security hanno già sviluppato una proof-of-concept per l’Intelligenza Artificiale in grado di creare autonomamente messaggi di phishing. Non è adatto per l’uso in attacchi reali, ma rappresenta più di un primo passo verso il phishing completamente automatizzato, end-to-end, basato sull’Intelligenza Artificiale. Lo studio ipotizza che capacità simili potrebbero essere sviluppate per campagne di spam.
Automazione intelligente
Uno dei maggiori punti di forza dell’IA è l’esecuzione automatica delle attività. L’elaborazione dei dati ne è un ottimo esempio. Mettere insieme grandi quantità di dati è noioso. Fortunatamente, l’Intelligenza Artificiale non si è evoluta abbastanza per sperimentare la noia, rendendola perfetta per un lavoro tedioso e attento ai dettagli.
Secondo lo studio, l’automazione intelligente aumenterà le capacità attuali degli attaccanti. Aumenterà sostanzialmente il loro gioco a nuovi livelli dando loro il vantaggio dei “big data”. Le potenziali applicazioni future dell’automazione intelligente identificate nello studio includono:
- Botnet che identificano automaticamente nuovi target per campagne di spam o attacchi DDoS
- Malware “intelligente” che crea payload personalizzati dopo aver infettato ed eseguito la ricognizione sul bersaglio
- Utilizzo dell’IA nei backend per fornire payload destinati a eludere i meccanismi di rilevamento dell’obiettivo (alcuni dicono che questo è già in atto)
- Campagne finte e disinformazione end-to-end in cui un modello di IA malevolo crea un’intera strategia per manipolare un sistema AI esistente
Disinformazione e fake news
Le notizie false sono già una realtà. Lo studio cita numerosi esempi di campagne di disinformazione in tutto il mondo. È un tema ricorrente nella ricerca di F-Secure (puoi leggere numerose storie sulla ricerca su Twitter sul blog News form the Labs di F-Secure).
Tuttavia, lo studio sottolinea che mentre l’IA avanza, queste campagne di disinformazione diventeranno molto più sofisticate e dannose:
“… se per guidare questi sistemi dovessero essere usati algoritmi più complessi (ad esempio, basati sull’apprendimento rinforzato), questi potrebbero finire a creare loop di ottimizzazione per il comportamento umano, in cui il recommender osserva lo stato corrente di ciascun target e continua a sintonizzare informazioni che vengono fornite, fino a quando l’algoritmo inizia ad osservare le opinioni e i comportamenti che vuole vedere. In sostanza, il sistema tenterà di ottimizzare i suoi utenti. “
Ecco alcune modalità specifiche in cui l’Intelligenza Artificiale può ingegnerizzare socialmente i gusti, le convinzioni e i comportamenti degli utenti, tra cui:
- Limitare ciò che un utente vede sulla base di una valutazione dell’identità, delle preferenze, ecc. dell’utente (già presente in una certa misura)
- Scoraggiare gli utenti dal pubblicare/condividere contenuti esponendo solo tali contenuti agli utenti che esprimeranno disapprovazione
- Allo stesso modo, l’algoritmo può condividere contenuti solo con quelli che ne esprimono l’approvazione, incoraggiando l’utente a condividere contenuti simili più spesso
- Intrappolare gli utenti in una bolla impedendo loro di ottenere esposizione a punti di vista divergenti o contraddittori
- Poter tenere traccia delle modifiche nelle viste in base alle interazioni e iniziare a promuovere o persino produrre contenuti verso tali fini
Dove sono dirette le minacce basate su IA?
Nessuno può predire il futuro. Non c’è Intelligenza Artificiale o intelligenza umana per quello. Ma un filo conduttore tra tutti questi potenziali percorsi che gli attacchi basati su IA possono sviluppare è l’idea che l’IA assumerà la maggior parte del lavoro attualmente svolto dagli attaccanti umani. Potremmo infine vedere modelli di apprendimento automatico sviluppati e poi monetizzati da criminali informatici sotto forma di aziende “cyber crime as a service”.
Ma solo il tempo lo dirà.
Categorie