Salta al contenuto

Temi di tendenza

Perchè la buona Intelligenza Artificiale diventa cattiva

Marzia Romeo

16.07.19 4 minuti di lettura

Le paure riguardo robot che camminano e parlano e distruggono l’umanità sono divertenti, ma non molto realistiche al momento. Comunque, questo non significa che le persone non dovrebbero avere altre preoccupazioni relative all’Intelligenza Artificiale (IA). L’IA è un dato di fatto. Ed è normale sentirsi un po’ a disagio riguardo le tensioni tra la tecnologia e i modi in cui sta cominciando a cambiare la società. Un progetto di ricerca finanziato dall’UE, denominato SHERPA, è stato avviato nel 2018 per capire le conseguenze dell’IA e dell’analisi dei big data sull’etica e sui diritti umani, e per supportare lo sviluppo di modi di rispondere a queste tensioni. F-Secure, uno dei partner in SHERPA, ha contribuito con il suo punto di vista su cyber security e IA come parte di un nuovo studio di SHERPA intitolato “Security Issues, Dangers and Implications of Smart Information Systems.”

Un punto importante discusso nel documento è perché l’IA a volte può diventare “cattiva”. E una risposta è… beh, qualche tipo di IA non è così buono. Non buono nel senso etico del termine ma come qualità della soluzione. La forte domanda di IA è cresciuta rapidamente. Amazon, Microsoft e Google hanno lanciato offerte di machine learning-as-a-service per aiutare più organizzazioni a trarre profitto dal potenziale dell’IA.

Secondo lo studio, questo ha consentito di portare la potenza dell’IA a molte organizzazioni che non necessariamente capiscono le sottigliezze della tecnologia, generando implementazioni imperfette che non funzionano come dovrebbero.

“La maggior parte dell’attuale IA non è così smart. Fa esattamente quello che le è stato insegnato di fare – a prescindere che sia buono o cattivo,” afferma Matti Aksela, F-Secure Vice President and head of F-Secure’s Artificial Intelligence Center of Excellence. “Le ragioni più comuni dell’IA ‘cattiva’ sono dovute a vizi o errori nei dati e nei modelli applicativi su situazioni per cui non erano progettati o intesi – per esempio, se alleni i tuoi sistemi di IA con dati viziati, non dovresti aspettarti che i vizi scompaiano – la soluzione replicherà di default gli stessi vizi, di cui vediamo molti esempi oggigiorno.”

Lo studio sottolinea tre tipi principali di problematiche che si verificano quando si progetta, si allena e si sviluppano sistemi di IA.

Decisioni di progetto scorrette

Tipicamente, gli esseri umani (al posto delle macchine) creano i modelli di IA odierni. Prendono decisioni su cosa dovrebbero fare gli algoritmi, e come dovrebbero farlo. E gli esseri umani fanno errori, quindi anche i sistemi di IA che creano possono fare errori.

Alcuni errori comuni evidenziati nello studio riguardano la scelta di feature sbagliate di un set di dati da analizzare per un’attività specifica, o la scelta di architetture e parametri inappropriati per un dato modello.

Ironicamente, lo studio indica i servizi che dichiarano di rilevare account fake e bot su Twitter come esempi di IA progettata impropriamente.

Mancanze nei dati per il training

Nonostante il vasto apparato di sorveglianza integrato nella moderna tecnologia, set di dati incompleti/limitati rimangono una sfida per l’IA. C’è un mucchio di problematiche di qualità che riguardano l’allenamento di un modello di IA. Dati raccolti o processati in maniera impropria spesso possono essere utilizzati come set di training per un modello. Dopo tutto, fare queste cose in modo adeguato può costare tempo e soldi che alcune aziende non intendono investire. L’IA impara squilibri, vizi, e supposizioni insieme a tutto il resto in un set di dati, il che genera problemi nelle decisioni dell’IA.

Ci sono stati diversi esempi lampanti che porterebbero facilmente a dedurre che se alcuni di questi modelli di IA fossero stati esseri umani, sarebbero stati un bel gruppo di idioti razzisti e sessisti. Ma questo è esattamente il tipo di problema che SHERPA sta tentando di affrontare.

Scelte di utilizzo scorrette

I modelli di IA sono fantastici per certe attività. Ma questo non vuol dire che sono la formula magica per qualsiasi problema. In altre parole, un modello di IA progettato per giocare a Go – come il programma AlphaGo che ha fatto notizia nel 2017 – non può guidare una macchina, né giocare a dama. L’input fornito all’IA durante queste attività è completamente differente. E così è l’output.

Come gli esseri umani possono aiutare l’IA

Per il momento, l’IA ha bisogno dell’aiuto delle persone se vuole evitare errori imbarazzanti o terrificanti. Parte del lavoro di SHERPA consiste nel condurre ricerche per l’utilizzo da parte di responsabili politici, programmatori e imprese.

Sebbene lo studio non offra risposte semplici, dà alcuni consigli per chi lavora con i modelli di Intelligenza Artificiale. E inizia ripartendo il problema in 4 aree diverse: comprendere il dominio del problema, preparare i dati di allenamento, progettare il modello e implementare i processi di produzione.

Abbiamo lavorato con i nostri partner in SHERPA per preparare suggerimenti per ciascuna fase. Puoi trovare alcune annotazioni seguendo i link.

“Mentre l’Intelligenza Artificiale può fare alcune cose meglio degli umani, l’IA che usiamo ora è molto ristretta, e quindi l’IA attuale può anche portare a cose che in realtà non hanno alcun senso”, dice Aksela. “Quindi, applicare un po’ di intelligenza umana al compito di progettare la tua Intelligenza Artificiale e assicurarti che la tua IA faccia effettivamente quello che ti aspetti, di solito è una buona idea.”

Marzia Romeo

16.07.19 4 minuti di lettura

Categorie

Articolo in primo piano

Post correlati

Newsletter modal

Grazie del tuo interesse per la newsletter di F-Secure. Riceverai a breve un email per confermare la sottoscrizione.

Gated Content modal

Congratulazioni – ora puoi accedere al contenuto cliccando sul bottone sottostante.