Blog Image

L’artificial intelligence è da tempo oggetto di numerose pubblicazioni e articoli di divulgazione, spesso dai toni contrapposti. Si tratta di una tecnologia che funziona, con evidenze empiriche che hanno anticipato la scienza. Come il volo del calabrone.

Miti

Da una parte, i sostenitori dell'Artificial Intelligence ("AI") si sono prodigati nell’enfatizzarne doti quasi taumaturgiche, quasi fosse una panacea che risolve tutti i mali dell’umanità. Alcuni hanno addirittura parlato di tramonto del metodo scientifico in favore delle evidenze dedotte con rapidità dagli algoritmi di AI.

Dall’altra parte, personalità di spicco come Stephen Hawking ed Elon Musk hanno posto l’accento su rischi di natura esistenziale per la nostra intera specie, che potrebbe essere soppiantata da questa sorta di nuova “forma di vita inorganica”.

Due punti di vista radicalmente opposti.

Realtà

Il concetto di AI esiste da oltre 70 anni, ma negli ultimi 8-10 anni tale tecnologia è stata fortemente migliorata, grazie ad alcuni fattori tra cui la crescita esponenziale della capacità di calcolo, la disponibilità di enormi quantità di dati e lo sviluppo di nuovi strumenti e tecniche digitali. Tale mix ha posto le basi della rivoluzione tecnologica a cui assistiamo oggi.

L’ambito in cui i progressi dell’AI sono stati più significativi è senza dubbio l’analisi delle immagini, intesa come ad esempio classificazione, individuazione di volti, segmentazione. Mentre fino al 2011 i programmi di riclassificazione delle immagini tendevano a produrre percentuali di errore tra il 50% e il 25%, l’utilizzo del deep learning a partire dal 2012 ha consentito di abbattere l’errore al di sotto del 15%, una misura che oggi si è ridotta a una frazione di un singolo punto percentuale – in definitiva il software svolge oggi il lavoro in modo sostanzialmente esatto.

Un altro ambito su cui oggi la tecnologia funziona è quello della segmentazione dell’immagine: data un’immagine, individua automobili, pedoni, palazzi, segnaletica stradale, ecc.. La rilevanza di tale tecnologia è chiara se pensiamo ad applicazioni quali i veicoli a guida autonoma, che si basano anche su tale sistema tecnologico.

Altro ambito che sarà influenzato positivamente dall’elaborazione delle immagini tramite AI è quello medicale: gli algoritmi di AI sono infatti uno strumento molto potente per accrescere rapidità e precisione nella diagnosi tramite immagini – tra qualche tempo potremmo trovarci a fare un controllo nei con il nostro smartphone, direttamente a casa, mentre il nostro medico potrà fare ulteriori valutazioni da remoto. Ma le applicazioni si estendono anche all’analisi di radiografie, ecografie e altre tecnologie di diagnosi tramite immagini.

Ma c’è altro che funziona. Un esempio è il riconoscimento e la comprensione del linguaggio (traduzione automatica, classificazione degli argomenti, elaborazione di risposte a una domanda, ecc.). Un altro esempio è quello del gaming: sappiamo da anni dello sviluppo di supercomputer in grado di evolvere anno dopo anno straordinarie capacità negli scacchi, così come in altri giochi “uno contro uno” (pensiamo alla clamorosa sconfitta di Lee Sedol, campione coreano di Alpha Go ad opera di un algoritmo di AI, dopo 18 titoli mondiali). La novità più recente sono i progressi in giochi “molti contro molti”, diversamente complessi rispetto ai primi.

Machine learning: come funziona?

Rimanendo vicini al significato letterale, parliamo di una “macchina” che “impara”. Una macchina riceve un input e ritorna un output. Nel riconoscimento di immagini, immaginiamo che la macchina abbia innumerevoli parametri, le cui combinazioni di valore sono testate innumerevoli volte in modo da identificare tutte quelle che consentono di ottenere un risultato corretto – ad esempio che l’immagine proposta contenga un gatto.

Ma come fa l’algoritmo a imparare? Impara durante il “training”: l’allenamento in cui alla macchina è presentata una grande quantità di dati (es. immagini) la cui classificazione è già nota e viene indicata alla macchina. Ecco perché la grande disponibilità di dati che abbiamo oggi cambia le regole del gioco facendo da propellente per lo sviluppo dell’AI. Un ottimo algoritmo di AI senza dati per il training, rimane tale solo sulla carta.

L’algoritmo così “allenato” sarà pronto per confrontarsi con nuovi dati (es. immagini in cui riconoscere un gatto), e potrà apprendere dai propri errori, il che presuppone un agente esterno che scarta l’errore che diventa un nuovo input per l’algoritmo. Anzi, saranno proprio le eccezioni a rendere nel tempo l’algoritmo più e più affidabile.

Ora, il punto è che sotto l’aspetto architetturale è possibile legare tra di loro i vari parametri, in qualche modo stratificarli anche con legami e dipendenze a cascata e non solo, e questo consente di modellizzare sistemi anche molto complessi, ottenendo le così dette “reti neurali”, con innumerevoli livelli di stratificazione di nodi (da cui il concetto di profondità che genera l’idea del “deep network”). Per intenderci, i parametri possono essere milioni. Questa caratteristica consente di gestire grandi complessità, risolvendo anche problemi informatici altrimenti non risolvibili.

Un elemento degno di interesse è notare che motivo e modalità per cui tutto ciò possa funzionare è, da un punto di vista scientifico, ancora oggi oggetto di dibattito e ricerca (ricordiamo che scienza e tecnologia non sono la stessa cosa). Altro aspetto non chiaro è perché quanto descritto non generi overfitting, ossia un deterioramento delle performance dell’algoritmo in presenza di un numero eccessivo di parametri rispetto ai dati osservati – un fenomeno ben noto in statistica.

Perché l’AI non è (ancora) una panacea?

Ad oggi l’AI presenta diversi aspetti rispetto a cui può ancora definirsi una tecnologia non matura.

Primo. L’AI necessita di grandi quantità di dati, pre-processati e “categorizzati”. Come detto, ciò è necessario per il training degli algoritmi. Ma preparare tali dati, ex ante, è dispendioso in termini economici e di tempo. Inoltre, tale aspetto è interessante per comprendere quanto gli algoritmi di AI siano lontani dall’imitare il cervello umano: a differenza di un algoritmo di AI, recenti ricerche scientifiche hanno dimostrato che a noi umani sono sufficienti anche solo un paio di foto di un gatto per riconoscerne uno in una terza o una quarta, diverse da quelle su cui ci siamo “allenati”. Una bella differenza.

Secondo. Non c’è ancora una generalizzazione e spiegazione scientifica esaustiva. Si sa tutto dal punto di vista tecnologico, ogni singolo dettaglio. Ma, come detto, l’AI è una tecnologia “fuggita in avanti” rispetto alla scienza, elemento che non consente di fornire garanzie di risultato in tutte le situazioni, come è invece possibile per altre tecnologie che dispongono di solide fondamenta scientifiche. Facciamo un esempio. Alcuni ricercatori (Ian J. Goodfellow et al. 2015) hanno dimostrato che è possibile modificare certe caratteristiche della struttura digitale di un’immagine senza provocare variazioni apprezzabili per l’occhio umano, ma con il risultato di provocare un errore certo e macroscopico (se giudicato da un umano) da parte di un algoritmo di riconoscimento di immagini (in dettaglio, i ricercatori sono riusciti a fare scambiare un panda per un gibbone). Un’altra prova che, in ogni modo, l’algoritmo applica regole diverse rispetto al nostro organismo, e in certe situazioni per noi ovvie può ancora sbagliarsi.

Terzo. Il termine “intelligenza” è forse abusato. In effetti, gli algoritmi in questione non presentano alcuna caratteristica di una intelligenza generale: non c’è ragionamento, rappresentazione del mondo, coscienza o attenzione. All’atto dei fatti, si tratta di tecniche che funzionano molto bene per individuare certe correlazioni complesse e magari non immediate per l’osservatore umano (in questo senso potremmo definirli “intelligenti”).

Conclusioni

L’AI è una delle tecnologie più innovative e promettenti dell’ultimo decennio. Abiliterà nuove applicazioni e darà spazio a interi nuovi segmenti di business.

Riconoscimento delle immagini e dei testi sono due esempi di ambiti in cui l’AI è più matura. Le ricadute possibili sono notevoli e probabilmente è difficile dire quanto lontano si possa arrivare. Veicoli senza pilota sono già un primo, rilevantissimo esempio.

La scienza dovrà recuperare con le dovute generalizzazioni: elemento che auspicabilmente ci consentirà di avere il pieno dominio di questa tecnologia, migliorandola al punto che oggi non immaginiamo. Perché tutto ciò si avveri, bisogna investire nella ricerca, in modi e tempi adeguati.

Un po’ come il calabrone vola, l’AI oggi funziona, forse oggi in modo primitivo come a suo tempo l’aereo dei fratelli Wright. Il meglio deve ancora venire.


Clevera - Corporate Finance Solutions

Vuoi saperne di più? Clicca qui e contattaci.