Intelligenza Artificiale: dalla sua nascita al deep learning

Le prime pietre
Il WWW

Era il lontano 1991 quando la European Organization for Nuclear Research – o CERN – decise di rendere pubblico quel sistema di comunicazione tra computer, fino a quel momento appannaggio di pochi, che sarebbe poi diventato il World Wide Web. Con quei piccoli modem a 56k, gli scienziati del CERN lanciarono nel mondo una tecnologia che di lì a poco avrebbe rivoluzionato tutto ciò che conoscevamo, senza quasi saperlo.

La ANN

Diversi anni prima, nel 1958, Frank Rosenblatt sviluppò il primissimo algoritmo capace di imparare da solo. La sua artificial neural network (ANN) diede il via all’idea di una macchina capace di imparare da sé. Solo alcuni anni dopo Arthur Samuel, un analista di computer americano, coniò il termine machine learning per identificare questo tipo di self-learning models, capaci non solo di imparare da soli, ma anche di comprendere e rimediare ai propri errori.

Deep Blue

Nel 1996 un “robot intelligente”, chiamato Deep Blue, vinse la primissima partita a scacchi contro il Campione del Mondo in carica Garry Kasparov. Per la prima volta nella storia, il mondo si fermò a realizzare la tremenda potenza calcolatrice che le macchine erano in grado di raggiungere. Se fino a quel momento difatti erano relegati a semplici risorse di calcolo, adesso IBM, che lo aveva progettato appositamente per giocare a scacchi, aveva realizzato l’impensabile: creare una macchina in grado di sconfiggere la mente umana in compiti di alta complessità.

Intelligenza Artificiale: di cosa si compone

Questi tre avvenimenti, seppur distanti tra loro nel tempo, pongono le primissime basi per quella che oggi viene definita Intelligenza Artificiale. Essa consiste infatti di tre punti focali che, combinandosi insieme, generano le condizioni ideali per la sua nascita. In particolare, un IA per sussistere ha bisogno:

  • Di una proliferazione di dati, ossia della possibilità di interconnessione con altre macchine – attraverso il web – in modo da garantire un panorama di calcolo sempre più ampio, sempre meno controllato, e conseguenzialmente ricchissimo di opportunità per una macchina che ne ha l’accesso. In un mondo in cui tutto è sempre più a portata di mano, le possibilità sono praticamente infinite.
  • Di algoritmi avanzati, capaci di dare alla macchina una comprensione più profonda dei problemi a lei sottoposti. Si pensi ai software di riconoscimento tramite immagini – CNN, o convolutional neural network -, capaci di uno sforzo computazionale elevato con tempi ristretti, oppure agli algoritmi relativi al linguaggio parlato – SVMs, o Support Vector Machines – in grado di classificare la lingua e financo i sentimenti relativi all’inflessione della voce.
  • Di un esponenziale crescita della potenza di calcolo esercitata dalle macchine, dello spazio disponibile e del ridursi conseguenziale delle dimensioni dei computer. Basti pensare che se nel 1995 un gigabyte di spazio costava 277 dollari, nel 2005 – dieci anni più tardi – appena 0.79 centesimi di dollaro. Il gap generazionale tra tecnologie appare raddoppiare anno dopo anno.
Machine learning: come funziona?

È innegabile che il machine learning abbia giocato una parte fondamentale nella creazione delle AI. L’idea di fondo su cui si basa è quella di un algoritmo adattivo: esso infatti individua dei pattern di informazioni, comprendendo e imparando come creare delle previsioni attraverso l’analisi di questa grande quantità di dati. Invece di aspettare sempre e solo un input da parte dell’utente, questa tecnologia processa dati ed esperienze compiute rimodellandole nel tempo, potenziando la sua efficacia a mano a mano e imparando dagli errori. Esistono dunque tre tipi di analisi “machine learning”:

  • Quello descrittivo, in cui la macchina processa i dati e fornisce un output in risposta. Descrive cioè quello che succede: è largamente impiegato in qualsiasi produzione.
  • Quello predittivo, in cui la IA predice ciò che potrebbe succedere – ovviamente in maniera probabilistica -. Impiegato in organizzazioni data-based che usano gli stessi dati come principale fonte di insights.
  • Quello prescrittivo, che spiega quali mosse compiere per raggiungere un determinato obbiettivo. Usato soprattutto dalle società di big data e da quelle fortemente presenti su Internet.

Questi tre tipi di analisi formano la base sulla quale si muove il machine learning moderno. Al giorno d’oggi esistono già diversi sviluppi avanzati per questo tipo di tecnologie, che si basano sulla supervisione o meno dell’essere umano nel loro apprendimento.

ML: i modelli avanzati

All’interno del mondo del machine learning, esistono dunque diverse declinazioni entro la quale circoscrivere la sua applicabilità. In particolare:

  • Il Supervised Learning, ossia quanto un algoritmo riceve degli input dagli umani per comprendere la relazione tra i dati fornitigli, restituendo in output l’analisi desiderata. Esso consta di un input di dati e di un output alla quale si vuole arrivare – fase 1 -, le cui variabili vengono analizzate – fase 2 – e infine restituite ed applicate ad un nuovo pacchetto di dati – fase 3 -.
  • L’ Unsupervised Learning, in cui all’algoritmo viene dato un input di dati ma non un output, consentendo alla macchina di calcolare infinite variabili possibili. Esso riceve dei dati “non etichettati” in alcun modo, ad esempio un insieme di dati che descrivono i viaggi dei clienti su un sito Web – fase 1-. Deduce quindi una struttura specifica per i dati stessi – fase 2 – secondo quale catalogarli. Infine, accorpa tutti i dati con delle specifiche simili in dei cluster. In questo caso, tutti i clienti che hanno acquistato soluzioni di viaggio simili tra loro – fase 3.
  • Il Reinforcement learning, dove l’algoritmo impara a eseguire un’attività semplicemente cercando di massimizzare i premi che riceve per le sue azioni – ad esempio, massimizza i punti che riceve per aumentare i rendimenti di un portafoglio di investimenti -. Esso attua innanzitutto un’azione sull’ambiente in cui tratta – compiendo per esempio un investimento da un portafogli finanziario, fase 1 -. Riceve dunque una ricompensa per essersi portato più vicino al massimizzare le ricompense disponibili – es. il ritorno più alto nel portafogli stesso, fase 2 -. Infine, ottimizza sé stesso – fase 3 – per compiere la suddetta azione sempre meglio, correggendosi nel tempo.
Deep Learning: una formula alternativa

Sullo stesso piano, solo a livello più profondo, troviamo – appunto – il deep learning, ossia una forma di ML più stratificata, complessa e soprattutto più autosufficiente rispetto al machine learning “classico”. Tre punti di forza lo rendono capace di compiere vere meraviglie computazionali: innanzitutto, è in grado di analizzare molti più dati rispetto alla sua controparte, in meno tempo. Richiede poi molto meno effort umano nell’input di dati in generale, e di solito produce risultati migliori rispetto al machine learning tradizionale – pur richiedendo una maggiore quantità di dati per arrivare a traguardo -.  Nel deep learning, le stratificazioni dei data formano tra loro una vera e propria rete neurale: essa può “ingerire” grandi quantità di informazioni in input ed elaborarli attraverso più livelli, apprendendone le caratteristiche più complesse livello per livello. La rete può quindi determinare il valore dei dati, imparare se lo stesso valore sia corretto o meno e successivamente applicarlo a nuovi pacchetti di dati. Ad esempio, una volta appreso l’aspetto di un oggetto, può riconoscere l’oggetto stesso in un’immagine differente.

DL: le tecnologie più avanzate

Esistono poi diverse tipologie avanzate di deep learning, particolarmente efficaci e di grande applicazione in svariati campi, da quello medico, alla produzione di massa e alla customer brand perception. Due in particolare di grande rilievo al giorno d’oggi, ossia:

  • La Convolutional Neural Network – CNN -, una rete neurale con un’ossatura specializzata nell’estrarre dati sempre più complessi, livello dopo livello. Utilissima quando si hanno dei set non strutturati di dati da cui vanno estratte delle informazioni. La rete riceve un’immagine che cataloga pixel per pixel – ad esempio, l’immagine della lettera A, fase 1 -. Individua poi nel sostrato di dati cosa la compone – quante linee compongono la lettera A, fase 2 -. Infine, se in un’altra immagine saranno presente le stesse componenti – appunto, la lettera A -, potrà classificarla secondo le caratteristiche dedotte precedentemente – fase 3 -.
  • La Recurrent Neural Network – RNN -, una rete multistrato in grado di archiviare le informazioni in dei “nodi di contesto”, consentendo l’apprendimento delle sequenze di dati e ridando in output un’altra sequenza differente. Utile per le classificazioni dei dati in sequenze ben strutturate: per la generazione di didascalie di immagini ad esempio, o per le traduzioni simultanee su internet. Molti algoritmi danno per assodato che gli input assegnati siano indipendenti gli uni dagli altri. Nella RNN funziona in maniera differente. Prendiamo per esempio un programma che completi le frasi per noi. Se scrivessimo “Domani è un altro …, il software riconoscerebbe dapprima i termini singolarmente. Sulla base delle esperienze acquisite poi, estrapolerebbe dal dizionario italiano tutte quelle parole che – in percentuale probabilistica – andrebbero meglio a comporre la frase finale. Se il programma è abbastanza percettivo, quasi sicuramente sceglierebbe “giorno” per completare la frase.
NIKE e AI: una sfida da scoprire

Anche NIKE Group ha posto la sua attenzione su come e dove l’Intelligenza Artificiale possa trovare spazio, all’interno del mondo Finance. Al momento, l’intelligenza artificiale è maggiormente utilizzata nel settore dei servizi finanziari, in particolare per la gestione degli investimenti, ed in quello bancario, a causa dell’enorme quantità di transazioni giornaliere che devono essere controllate al fine di mitigare il riciclaggio di denaro, la manipolazione del mercato, l’insider trading, il rischio di terzi, ecc. Ma dato l’avanzamento tecnologico dell’intelligenza artificiale, che diventa sempre più qualitativa nei suoi risultati, potrebbe essere esportata praticamente in qualsiasi settore che deve far fronte ai requisiti di conformità che coinvolgono grandi quantità di dati. Con l’avvicendarsi dei processi finanziari automatizzati, dunque, l’effort umano potrà spostarsi sull’analisi delle irregolarità più sofisticate, e su problemi di conformità strategica di alto livello, lasciando alle macchine il compito di calcolare a livello “subatomico” i rischi relativi.
Noi di NIKE siamo pronti: scopri le infinite applicazioni dell’Intelligenza Artificiale e rimani sempre aggiornato con noi sui temi più attuali in materia di tecnologia finanziaria!

– DISCOVER THE REGTECH COMPANY –