“Algoritmi e sicurezza: un’analisi di intelligence” è il tema della lezione che Gian Luca Forest, direttore del Master in Intelligence e ICT dell’Università di Udine, ha tenuto al Master in Intelligence dell’Università della Calabria, diretto da Mario Caligiuri.
Foresti ha esordito illustrando il parallelismo tra l’intelligenza artificiale e l’intelligenza umana. In particolare, ha sottolineato che l’attuale scenario cyber era già stato ipotizzato millenni fa proprio in
a Crotone da Pitagora, che intendeva spiegare il funzionamento dell’universo attraverso i numeri.
Bisognerà però attendere la metà degli anni ’80 per un rilancio dell’Intelligenza Artificiale con le scoperte di David Rumelhart che definì una generalizzazione dell’algoritmo di apprendimento per il processore, riuscendo a risolvere problemi non lineari.
Lo studioso americano ha sottolineato l’importanza dell’uso dei dispositivi per garantire la sicurezza dei sistemi informatici.
La continua specializzazione per rendere sempre più competitiva l’intelligenza artificiale per la risoluzione non solo dei problemi definiti semplici ma anche, appunto, di quelli complessi.
Foresti ha ricordato le attività del laboratorio di Artificial Vision and Real-Time Systems, quale unità di ricerca avanzata all’interno del Dipartimento di Matematica dell’Università di Udine.
Nell’occasione ha ribadito che il continuo sviluppo e la crescita dei microprocessori hanno contribuito negli ultimi anni all’avvicinamento dell’intelligenza artificiale a quella naturale.
Ha quindi ricordato il test di Alan Turing volto a verificare se una macchina abbia un comportamento intelligente, sempre più simile a quello dell’intelligenza umana. Successivamente sono continuate le ricerche, affrontando e risolvendo problemi sempre più complessi.
Solo negli ultimi anni l’aumento delle capacità di calcolo ha permesso di raggiungere in molti contesti applicativi risultati sconvolgenti: dalla fisica alla matematica, dalla sociologia alla medicina, dall’etica al campo giuridico.
La nuova sfida oggi è creare sistemi con capacità di riconoscere i suoni, le figure, l’interpretazione di lingue estremamente complessi e difficili da tradurre anche per un umano. Addestrando un algoritmo con grandissime quantità di dati si può constatare come l’intelligenza artificiale provi a risolvere problemi così come fa la mente umana. Più numerosi sono i dati, maggiore è la capacità decisionale dell’algoritmo.
Proseguendo sul parallelismo tra Intelligenza umana e Intelligenza artificiale, il docente ha spiegato brevemente il funzionamento del cervello umano, che va verso la soluzione di problemi sfruttando le sue capacità cognitive, poichè il cervello è l’organo che regola numerose funzioni dell’essere umano.
Ne ha quindi spiegato la composizione e le connessioni tra i neuroni, denominate sinapsi. Il cervello modifica le connessioni dei neuroni in base all’esperienza acquisita.
Le connessioni hanno una lunghezza di circa 160 chilometri e consentono al cervello effettuare operazioni che vengono svolte contemporaneamente e parallelamente.
La capacità di apprendere e immagazzinare dati cresce con l’aumentare del numero di neuroni e di sinapsi, determinando un minimo dispendio di energie.
La velocità degli impulsi nelle connessioni è di 130 metri al secondo, pari a circa 468 chilometri all’ora. Il calcolatore, invece, è contraddistinto da un numero più limitato di interconnessioni con consumi energetici notevoli, ma con velocità di calcolo estremamente più elevate rispetto al cervello.
Sfruttando tale vantaggio si vuol far avvicinare l’intelligenza unana a quella artificiale, anche se non si è ancora arrivati al punto di contatto tra le due intelligenze. Gli studi proseguono, e si è stimato che nel 2040 avremo tale perpendicolarità: il reinforcement learning, in cui gli algoritmi vengono aggiornati dinamicamente con l’acquisizione di nuovi dati; la traduzione dei dati in termini numerici, in quanto gli algoritmi lavorano con numeri binari.
Foresti ha quindi illustrato vari esempi di applicazioni
dell’intelligenza artificiale: Amazon; la guida elettronica; il foodrecognition, i settori della robotica industriale e delle telecomunicazioni, il volo autonomo dei droni.
Ed ancora: la crittografia e il trend relativo all’approccio quantistico, in cui si passa dalle leggi della fisica tradizionale a quelle della fisica quantistica. Nello specifico, la crittografia quantistica si basa sul principio di indeterminazione di Heisenberg, secondo cui non è possibile conoscere contemporaneamente la posizione e la quantità di moto di una particella. Grazie a questa legge, la cifratura quantistica stravolgerà quella tradizionale. Ciò avrà un impatto estremamente rilevante sia per gli attacchi attivi che per quelli passivi, tipici dell’intelligence, in cui si cerca di intercettare le informazioni su una rete dati senza essere scoperti.
Foresti ha concluso affermando che “la realtà aumentata è contemporaneamente anche quella diminuita, poichè puó determinare l’eliminazione di informazioni esistenti con la manipolazione di video e immagini per mezzo di algoritmi con il fine di fare scomparire alcune informazioni”.