L’intelligenza artificiale che al giorno d’oggi avanza in maniera sempre più spedita presenta strumenti come il machine learning e il deep learning che sono delle tecnologie utilizzate ormai in tutti i settori professionali.
Il primo, anche definito come “apprendimento automatico“, è un algoritmo che insegna ai computer e ai robot ad eseguire azioni ed attività in modo naturale come gli esseri umani o gli animali: ossia imparando dall’esperienza. In sostanza, questo approccio usa metodi matematico-computazionali per apprendere informazioni direttamente dai dati, senza modelli matematici ed equazioni predeterminate
Invece, il deep learning, la cui traduzione letterale significa “apprendimento profondo“, è una sottocategoria del machine learning e si basa sull’intelligenza artificiale facendo riferimento agli algoritmi ispirati alla struttura e alla funzione del cervello. Concretamente questo strumento assimila delle rappresentazioni di dati. Questo avviene, ad esempio, per il riconoscimento della lingua parlata, per l’elaborazione del linguaggio naturale o nella bioinformatica.
Nel settore della sicurezza informatica, tuttavia, sta avvenendo qualcosa che non si vede altrove, in quanto queste tipologie di intelligenze artificiali vengono costantemente impiegate sia dai “buoni” e sia dai cyber criminali, nella loro eterna lotta per aver la meglio gli uni sugli altri.
Ognuno potrebbe chiedersi se abbiamo già raggiunto gli scenari descritti in “Neuromante”, la più importante opera dell’autore fantascientifico William Gibson, nella quale sono rappresentate delle menti artificiali che difendono i dati e gli accessi delle corporazioni.
Per darsi una risposta e comprendere meglio la situazione è necessario considerare il punto di vista degli addetti ai lavori che operano proprio su questi temi per capire dove e come queste tecnologie all’avanguardia siano usate al giorno d’oggi. Da questa posizione la prima cosa che appare evidente è che, in realtà, si è molto lontani da quello che si legge e vede nella fantascienza. Difatti, le macchine sono al momento molto performanti nel compiere alcuni compiti prettamente specifici, ma allo stesso tempo non godono ancora dell’autonomia necessaria per difendere dinamicamente un perimetro da un attacco hacker.
Questo può essere ritenuto come un punto di partenza importante, nonostante non costituisca del tutto una novità in quanto i deep e machine learning si usano già da anni per la rilevazione dei malware con l’analisi comportamentale delle minacce.
Ci sono soluzioni di sicurezza, quindi, che tengono sempre sotto controllo i computer collegati alla rete aziendale o domestica e ne verificano l’attività. Perciò, se rilevano programmi che iniziano a comportarsi in maniera sospetta, cioè fanno cose che sono simili a quelle che hanno imparato a riconoscere come tipiche azioni da malware, allora intervengono per bloccare la minaccia.
Accanto a questa soluzione ormai consolidata, l’IA si inizia ad usare anche su temi più “globali”. Per esempio, la società McAfee, che si occupa di sicurezza informatica, ha elaborato una soluzione chiamata “McAfee Investigator” che raccoglie gli alert che giungono dai vari programmi di sicurezza installati in un’azienda e li incrocia per capire se avvisi poco significativi e apparentemente slegati tra loro siano in realtà già stati visti in occasione di attacchi avvenuti in passato o se possano generare situazioni di potenziale pericolo che necessitano dell’intervento umano. I cervelli artificiali, quindi, fanno un primo lavoro di sgrossatura e rifinitura dei dati in arrivo dai sistemi di controllo, per poi chiedere il parere finale e più coscienzioso di un essere umano.
I cybercriminali e l’IA
All’interno di questo contesto una domanda può sorgere spontanea: “Ma ai “cattivi” cosa importa delle intelligenze artificiali?”. La risposta è semplice: anche i criminali utilizzano strumenti e processi di supporto come il deep e il machine learning per rifinire i loro attacchi di phishing e targettizzarli meglio.
Le macchine, infatti, esaminano i risultati delle campagne di phishing, categorizzano le vittime per settori e identificano quali sono gli elementi che meglio inducono in errore chi le riceve.
Nello specifico, diversi esperti sono riusciti a mettere le mani su alcuni server sfruttati dai cybercriminali, comprendendo come questi abbiano installato soluzioni di machine learning simili a quelle più oneste per studiarne il comportamento e per capire come poterne “avvelenare” la base dati in modo da rendere i loro attacchi invisibili.
Un esempio tipico di questo comportamento lo si vede continuamente su VirusTotal, un popolare sito web che analizza file e indirizzi web alla ricerca di minacce informatiche, al quale
chiunque può inviare dati e perciò può alterare la base dati su cui molti antivirus agiscono in modo da rendere invisibili i malware.
In conclusione, si può affermare che siamo sicuramente ancora lontani dai tempi in cui avverranno battaglie tra IA, perciò non bisogna aver paura dell’intelligenza artificiale ma di chi la usa. Ciò che vediamo adesso è un panorama in cui dietro ogni attacco informatico ci sono degli uomini che usano le tecnologie di analisi più avanzate per portare a termine i loro soliti, biechi, scopi.
E tu cosa ne pensi? Credi che l’IA costituisca un pericolo o un beneficio per l’ambito informatico? Ritieni che debba essere limitato il suo sviluppo?
Commenta ed esprimi la tua opinione, continuando a seguirci sul blog di Ethical Hacking!
Vuoi approfondire le tematiche di sicurezza informatica e di Ethical Hacking?
Scopri il corso di Ethical Hacker & Security Manager targato Musa Formazione.
Clicca qui e dai un’occhiata al corso!