Pierfrancesco Lijoi
4 min
Molto spesso il potenziale dell’intelligenza artificiale non viene completamente
compreso. Infatti, si è abituati ad associare l’intelligenza artificiale - in breve “A.I.” -
solo a programmi software che agevolano la nostra quotidianità, come ad esempio
Cortana e Siri.
In realtà, il potenziale che possiede questa tecnologia è enormemente più ampio, a
tal punto da interessare vari settori, soprattutto nell’ambito della protezione dei dati,
che rappresenta uno dei principali obiettivi delle nuove proposte dei ricercatori di
questo settore. A tal proposito, la Cyber Security e l’intelligenza artificiale (AI) stanno
diventando compagni indissolubili nella lotta agli attacchi informatici ma, al
contempo, sono anche avversari poiché gli hacker, si servono della stessa tecnologia
per rendere i loro attacchi sempre più complessi e sofisticati.
Fino a non molto tempo fa, ricorrere all’AI significava porre del margine di distanza tra
le tecniche di difesa e quelle di attacco, assicurando un certo vantaggio rispetto
l’attaccante. Oggi questo margine si è andato sempre più ad assottigliare, permettendo
così che il distacco tra il “bene” (la giusta applicazione delle AI nella Cyberg Security)
ed il “male” (l’AI utilizzata come mezzo per attaccare i sistemi di sicurezza) sia,
mediamente, in equilibro.
Infatti, esiste il rischio che i pirati informatici possano usare per i loro attacchi gli
stessi sistemi usati dalla “difesa”, servendosi di algoritmi di Machine learning e dei kit
basati sull’intelligenza artificiale facilmente reperibili nel dark web.
Ad esempio, l’utilizzo di tecniche di penetrazione, analisi e mimetismo
comportamentale, permette di condurre attacchi molto più veloci, coordinati ed
efficienti su migliaia di obiettivi contemporaneamente.
Questi sistemi dotati di intelligenza artificiale sono in grado di saper distinguere se
hanno la possibilità di compiere un attacco alla vulnerabilità dell’utente capace di
paralizzare integralmente il sistema oppure se più semplicemente possono innestare
un malware (un qualsiasi codice dannoso per il sistema operativo che lo ospita).
Alcuni esempi di sistemi dotati di AI per attacchi informatici, anche presenti sul deep
web, sono:
Consiste in un software “preimpostato” che hacker “criminali” mettono a disposizione
di qualunque utente sia disposto a comprarlo. Questo “servizio” consente anche a
coloro che non possiedono nel loro background un’approfondita conoscenza
dell’intelligenza artificiale, di provare a violare dei sistemi di sicurezza.
Ciò rende qualunque persona un potenziale aggressore informatico e permette alle
piccole organizzazioni di hacker di essere più efficienti. Questo ha contribuito
sicuramente all’ aumento degli attacchi informatici denunciati nel 2021, i quali sono
stati in crescita del +9,3% rispetto al 2020;
Sono dei software che permettono di imitare il comportamento dell’utente.
Solitamente sono applicati nell’ invio di e-mail di phishing. In questo caso
l’intelligenza artificiale creerà dei testi di una qualità semantica identica a quella degli
operatori umani, a tal punto che i destinatari non saranno in grado di distinguerli
dalle vere e-mail.
Ciò che rende difficile contrastare e bloccare definitamente ogni singola AI applicata
per attacchi, è il fatto che questi sistemi utilizzano gli errori pregressi per migliorare
le loro tattiche e capacità per insediarsi nel sistema di sicurezza della “vittima”.
Per contrastare questi tentativi della cyber criminalità, è possibile servirsi della stessa AI. In questa maniera l’intelligenza artificiale possiederà due ruoli distinti e contrapposti
nella stessa partita: attaccante e difensore.
Questi sistemi, nel ruolo di difensori, allo stesso modo, grazie alla loro capacità di
apprendimento, saranno in grado di riconoscere i modelli comportamentali degli
aggressori e dei loro programmi così da intraprendere azioni mirate per neutralizzarli.
Poiché le applicazioni AI sono particolarmente affidabili nel riconoscere e confrontare i
modelli (per via della loro abilità nel filtraggio ed elaborazione di grandi quantità di
dati), ciò rende possibile - molto più velocemente di quanto potrebbero fare gli analisti
umani- il riconoscimento dei canali nascosti attraverso i quali i dati vengono dirottati
e/o manomessi.
Quanto appena detto, ad esempio, viene applicato tradizionalmente per identificare
e memorizzare modelli e strutture complesse delle e-mail di spam, servendosi anche
di modelli statistici, black-list o soluzioni di database, al fine di poterli riconoscere e
bloccare. Ma questi sistemi “intelligenti” sono applicati anche nel rilevamento
convenzionale del malware, come ad esempio i ransomware. Questi ultimi sono
utilizzati al fine di limitare l'accesso del dispositivo infettato e richiedere un riscatto per
la sua rimozione. Il rilevamento dei malware si basa principalmente sull’analisi del
comportamento anomalo e/o sospetto del file/programma appena scaricato. L’AI
confronterà le informazioni raccolte sul file/programma imputato con i dati presenti
nel suo database e sarà in grado di decidere se il software è dannoso o meno.
Essendo questa una tecnologia che permette ai sistemi su cui è applicata di poter apprendere ed interagire con il mondo circostante, in un futuro non troppo lontano, essi potrebbero presto scoprire anche l’identità dei pirati informatici, poiché gli hacker (seppur in quantità minime) lasciano tracce nel codice intento a “bucare” il sistema di sicurezza selezionato. Molto spesso, infatti, gli hacker vanno a porre una vera e propria firma nel codice, così da poterlo rivendicare. Grazie a questi algoritmi di apprendimento si potrà estrarre queste firme, associando loro una caratteristica unica presente nel codice, così da poter ricostruire un profilo virtuale dell’hacker.
In virtù di quanto è stato detto in precedenza, solo una collaborazione continuativa
tra uomini e macchine può avere successo contro la Cyberg criminalità. Poiché i
nuovi metodi di attacco, le nuove vulnerabilità e i ripetuti errori umani portano a una
combinazione di eventualità per cui un sistema di sicurezza, puramente basato sull’AI, non potrà mai essere preparato.