Intelligenza artificiale, chatbot, computer visione, robotica…. tutte parole che sino a qualche anno ci sarebbero sembrate uscite fuori da un qualche colossal di fantascienza.

Invece, in realtà l’intelligenza artificiale è già oggi parte integrante della nostra vita privata e lavorativa, anche se probabilmente in maniera meno appariscente rispetto a quanto avevano previsto i registi cinematografici degli scorsi decenni.

Infatti, oggi, l’intelligenza artificiale lavora soprattutto a supporto di tutta una serie di attività e processi, piuttosto che palesarsi a tutti quanti noi con voci robotiche e computer di ciclopiche dimensioni.

Ma, dopo le guide esclusive al cloud computing e all’IOT,   partiamo dal principio, ovvero da che cosa sia realmente l’Intelligenza artificiale (Artificial Intelligence in inglese, AI).

 

Che cos’è l’intelligenza artificiale

Esistono naturalmente moltissime definizioni sull’Intelligenza artificiale, una particolarmente chiara (tanto da essere stata ripresa anche dall’Agid) è quella dell’Università di Stanford, che la identifica come “una scienza e un insieme di tecniche computazionali che vengono ispirate – pur operando tipicamente in maniera diversa – dal modo in cui gli esseri umani utilizzano il proprio sistema nervoso e il proprio corpo per sentire, imparare, ragionare e agire”. 

Questo insieme di tecniche, per quello che ci interessa, consente la progettazione di sistemi hardware e software capaci di fornire prestazioni spesso migliori e più rapide della mente umana, limitatamente a segmenti d’azione specifici. Dietro all’Intelligenza artificiale non c’è dunque un’unica tecnologia, ma diverse declinazioni: l’AI ricomprende infatti soluzioni estremamente diverse tra di loro, come gli assistenti digitali delle nostre smart home, i sistemi di guida assistita delle automobili, i chatbot dei servizi clienti dei nostri fornitori, i robot intelligenti delle fabbriche 4.0, ma anche tutti gli algoritmi che on line ci raccomandano e segnalano prodotti e servizi di nostro gradimento. Le tecniche computazionali a cui fa riferimento la definizione sono in primo luogo gli algoritmi, ovvero le sequenze ordinate e finite di istruzioni matematiche che permettono alle soluzioni AI di risolvere determinati problemi.

 Il machine learning come fondamento dell’Intelligenza artificiale

La grande differenza rispetto al passato, in cui già si parlava di intelligenza artificiale e in cui ovviamente già esistevano gli algoritmi, è l’enorme quantità di dati che oggi abbiamo a disposizione- provenienti anche dall’on line e dall’Internet of Things- che permettono di alimentare i software di intelligenza artificiale. Parlando di dati e AI, occorre fare un passo indietro e parlare di un ambito molto importante, vale a dire quello del machine learning: si tratta di quell’insieme di metodi che consentono ai software di AI di adattarsi agli input esterni. Attraverso questi metodi si permette alle macchine di apprendere in modo che possano poi svolgere un compito o una attività senza che siano preventivamente programmati. Messa in altri termini, il machine learning permette alle soluzioni di AI di allenarsi, imparando da fatti (dati) nuovi e anche da errori, in modo che queste ultime possano svolgere autonomamente un determinato compito/attività, in maniera più rapida e spesso migliore degli esseri umani.

Un ulteriore avanzamento del machine learning è il cosiddetto Deep Learning.  A differenza delle tecniche tradizionali di Machine Learning, il sistema è in grado di apprendere la rappresentazione corretta e risolvere problemi di apprendimento automatico senza la necessità di un pre-processamento dei dati. Grazie alle reti neurali artificiali del Deeep Learning le soluzioni di intelligenza artificiale diventano in grado di analizzare automaticamente dati quali immagini, video, audio o serie temporali.

Le prospettive della AI

Le fondamenta delle moderne soluzioni di intelligenza artificiale sono dunque set di dati “annotati” da esseri umani (supervised learning) o quantomeno da essi selezionati e preparati (unsupervised learning). Non è casuale che uno dei dibattiti intorno alla AI riguardi il pericolo di immettere nei software dataset sbilanciati, che sovrastimano o sottostimano il peso di alcune variabili, persino immettendo errori o  pregiudizi (bias).  Al netto di tutto questo, è indubbio che la AI sia in grado di migliorare la produttività delle organizzazioni di tutti i settori e le dimensioni in due modi: da una parte, automatizzando alcune attività precedentemente svolte da persone; dall’altra, portando i sistemi a funzionare e ad adattarsi alle circostanze con un controllo umano sempre più ridotto se non assente.

Il rischio paventato da molti è che la piena affermazione della AI porti alla cancellazione di milioni di posti di lavoro e, dunque, a problemi per l’intera economia globale. Nonostante i rischi insiti in questa trasformazione, le opportunità appaiono superiori: uno studio di Accenture del 2016 su dodici economie sviluppate ha stimato che l’AI potrebbe raddoppiare il tasso annuo di crescita economica e aumentare la produttività del lavoro fino al 40% entro il 2035 rispetto ai livelli di base previsti.

 

L’intelligenza artificiale contro il Coronavirus

Ma le ricadute dell’intelligenza artificiale vanno oltre gli aspetti economici, per coinvolgere l’intera società, come sta dimostrando in questi giorni l’emergenza Coronavirus. Il settore sanitario, infatti, è destinato ad essere sempre più rivoluzionato dalle soluzioni AI, che stanno già oggi rivoluzionando il mondo della diagnostica.  Proprio in questo ambito alcune società cinesi hanno sviluppato un nuovo sistema di diagnosi basata sull’intelligenza artificiale che promette di rilevare – tramite scansioni tomografiche computerizzate (cioè TAC) – nuovi casi di coronavirus con un tasso di accuratezza fino al 96%, in maniera nettamente più rapida rispetto ai tradizionali tamponi.

Come abbiamo descritto in precedenza, il software per la diagnosi sul Coronavirus è stato addestrato con i dati campione provenienti da oltre 5.000 casi confermati di infezione. Sempre a proposito di intelligenza artificiale e Coronavirus, è da segnalare l’iniziativa dell’Oak Ridge National Laboratory del Dipartimento di Energia degli Stati Uniti, che ha utilizzato il supercomputer Summit di IBM, con una potenza computazionale pari a 200 milioni di miliardi di calcoli al secondo, per le sue ricerche. In particolare, in pochi giorni sono stati identificati ben composti farmacologici che potrebbero compromettere la capacità del COVID-19 di attaccare e infettare le cellule ospiti.

Le diverse declinazioni dell’intelligenza artificiale

Una classificazione delle diverse soluzioni tecnologiche che fanno riferimento all’intelligenza artificiale è stata effettuata dall’apposito Osservatorio del Politecnico di Milano. Che, dunque, distingue tra:

 

Autonomous Robot:

si tratta di robot, dalle sembianze più o meno antropomorfi, in grado di muoversi, manipolare oggetti ed eseguire azioni senza intervento umano, traendo informazioni dall’ambiente circostante e adattandosi a eventi non previsti o codificati.

Intelligent Object:

dietro questa sigla ci sono tutti quelli oggetti in grado di eseguire azioni e prendere decisioni senza necessità di un intervento diretto umano, grazie a con l’ambiente circostante tramite sensori (termometri, videocamere…) e attuatori, con la capacità di apprendere dalle azioni delle persone con cui interagiscono:

Virtual Assistant e Chatbot:

Si tratta di particolari programmi che interagiscono con le persone simulando una conversazione umana attraverso l’Intelligenza Artificiale. Utilizzati sempre di più in ambito Customer care, i sistemi più evoluti sono capaci di comprendere tono e contesto del dialogo, memorizzare e riutilizzare le informazioni raccolte e dimostrare intraprendenza nel corso della conversazione.

Recommendation:

L’Osservatorio del Politecnico si riferisce a tutte quelle soluzioni orientate a indirizzare le preferenze, gli interessi, le decisioni dell’utente, basandosi su informazioni da esso fornite, in maniera indiretta o diretta.  Si tratta, in buona sostanza, di tutti quei suggerimenti che vediamo nei servizi on line che utilizziamo quotidianamente, come Amazon, Netflix e YouTube

Image Processing:

Si tratta dei sistemi in grado di effettuare analisi di immagini o video per il riconoscimento di persone, animali e cose presenti nell’immagine, il riconoscimento biometrico e, in generale, l’estrazione di informazioni dall’immagine/video. L’Image processing, ad esempio, consente di riconoscere i volti delle persone con un’accuratezza decisamente superiore rispetto al tradizionale controllo visivo.

Language Processing:

Sotto questo cappello ci sono i software che possiedono capacità di elaborazione del linguaggio e comprensione del contenuto, fino ad arrivare alla produzione di testi in modo autonomo, a partire da dati o documenti forniti in input.

Intelligent Data Processing:

In questo caso gli algoritmi di intelligenza artificiale vengono direttamente applicati su dati strutturati e non per estrarre informazioni rilevanti: ne sono esempio i sistemi per la rilevazione delle frodi finanziarie, la ricerca di pattern, i sistemi di monitoring e controllo, l’analisi predittiva (Predictive Analysis).

 

Il ritardo di Italia ed Europa nel mercato globale dell’intelligenza artificiale

 

Il recentissimo rapporto 2020 dell’Osservatorio Intelligenza artificiale del Politecnico di Milano permette di comprendere come nel nostro Paese l’AI si trovi ancora tutto sommato in una fase embrionale, nonostante la tendenza alla crescita.

Il volume d’affari dell’intero mercato – tra software, hardware e servizi – nel 2019 ha raggiunto il valore 200 milioni di euro, di cui il 78% commissionato da imprese italiane e il 22% come export. Tra i diversi settori, l’AI è diffusa in particolare nelle banche e finanza (25% del mercato), nella manifattura (13%), nelle utility (13%) e assicurazioni (12%). La quota principale della spesa (il 33%) è dedicata a progetti di Intelligent Data Processing, algoritmi per analizzare ed estrarre informazioni dai dati seguiti da quelli di Natural Language Processing e di Chatbot/Virtual Assistant (28%) in grado di comprendere il linguaggio naturale ed eventualmente fornire risposte a un interlocutore.

Tra le diverse soluzioni di AI, Chatbot/Virtual Assistant sono le più diffuse in Italia: il 12% delle aziende ha già progetti a regime, che spesso non si limitano al solo servizio di assistenza ai clienti, ma sono utilizzati in ambito HR per la selezione dei candidati o per migliorare l’interazione con comandi vocali. Per diffusione poi si trovano soluzioni di Intelligent Data Processing con il 10% di progetti operativi.

Le applicazioni di Natural Language Processing sono invece ancora poco mature: solo l’8% delle iniziative è a regime, ma presentano un alto potenziale in particolare per automatizzare la ricerca di documenti, tradurre o riassumere testi o valutare il sentiment di recensioni di prodotti. Nella Computer Vision appena il 3% dei progetti è a regime, anche se l’aspettativa è quella di un grande sviluppo nel prossimo futuro. Il ritardo dell’Italia è collocabile nel contesto europeo: il Vecchio Continente è in ritardo sulla AI rispetto ai Paesi leader, vale a dire Cina e Usa. Un ritardo che la Ue sta cercando di colmare: la Commissione europea ha previsto investimenti dedicati alla AI fino a 1,5 miliardi per il periodo 2018-2020 nel quadro del programma di ricerca e innovazione Horizon 2020, il 70% in più rispetto al periodo 2014-2017. Secondo Aspenia per il prossimo bilancio UE a lungo termine (2021-2027), l’idea è di portare l’investimento a 7 miliardi di euro. Questo ammontare dovrebbe servire a mobilitare altri 2,5 miliardi dei partenariati pubblico-privato esistenti, fornendo sostegno allo sviluppo dell’intelligenza artificiale nei settori principali, dai trasporti alla sanità, mettendo in contatto i centri di ricerca europei e incentivando la sperimentazione.

 

Comments are closed.