L’IA si sta avvicinando al picco della curva dell’hype?

Come ogni tecnologia avanzata, l'intelligenza artificiale (AI) è difficile da capire per gli esterni. Ma questo non la rende ancora una stregoneria - e non la rende nemmeno un'artefice di tutto. I sistemi di autoapprendimento possono aumentare enormemente la precisione delle analisi e delle previsioni, ma hanno i loro limiti. Questa è stata la conclusione di un gruppo di esperti invitati da Teradata alla conferenza TDWI a Monaco.

Che cos'è l'intelligenza? Gli studiosi hanno discusso di questo per secoli. Certamente esiste indipendentemente dall'educazione, dai sentimenti e dalla coscienza. Ma d'altra parte, esiste un'intelligenza puramente razionale, prevedibile e quindi non creativa in senso proprio? La scienza non conosce la risposta a queste domande.

Professor Danko Nicolić

Professor Danko Nicolić

"Non abbiamo una teoria matematica per l'intelligenza", afferma il ricercatore del cervello ed esperto di data science Danko Nicolić, professore all'Università di Zagabria, collaboratore del Max Planck Institute for Brain Research e di altri istituti scientifici, nonché consulente e data scientist di Teradata.

Buona intelligenza artificiale vecchio stile

L'intelligenza artificiale come la conosciamo ha proceduto finora in due fasi: Nel primo, che ha visto la sua prima fioritura alla fine del secolo scorso, le regole per il trattamento "intelligente" dei dati erano programmate direttamente nel computer. Nicolić usa il termine "GOFAI" (Good old-fashioned Artificial Intelligence) per questo.

Nella seconda fase, che è diventata pubblica solo pochi anni fa, al computer vengono date solo alcune regole di base - più la capacità di confrontare un gran numero di modelli e trarre le proprie conclusioni. "Tuttavia, non esistono sistemi puri di autoapprendimento", chiarisce lo scienziato. Si tratta sempre di combinare i sistemi di autoapprendimento con GOFAI.

Ricercato: Piccoli dati - Grande applicabilità

Il difetto dei sistemi di autoapprendimento è che hanno bisogno di enormi quantità di dati per poter imparare qualcosa. Questo li rende inutili per certi compiti. Se, per esempio, la manutenzione predittiva è possibile solo se il "caso di un caso" da evitare si è già verificato molte volte, il principio si riduce all'assurdo.

Inoltre, il Deep Learning scala male, aggiunge Nicolić. Per ottenere risultati solo leggermente migliori, sono necessari molti più dati, il che prima o poi rende antieconomico lo sforzo di miglioramento. Ci sono molte aree in cui le macchine "intelligenti" sono decisamente superiori agli esseri umani, per esempio nel rilevamento di carcinomi su immagini MRI. Altrove, è vero il contrario: "Un bambino ha bisogno di una sola macchina per riconoscere il principio."

"Oggi, abbiamo soprattutto Big Data e Small Applicability", riassume Nicolić: "Ma abbiamo bisogno del contrario. Abbiamo bisogno di Small Data AI". Infatti, la ricerca di un metodo per creare sistemi di autoapprendimento da piccole quantità di dati è considerata un megatrend nel campo dell'analitica. Come sarà questo in termini concreti è ancora un segreto commerciale. Tuttavia, si dice che Google sia molto attivo in questo campo.

Deep Learning è un "riconoscitore di somiglianze"

Dieter Jakob

Dieter Jakob

Dieter Jakob, che lavora presso Teradata come architetto di soluzioni per i temi dell'intelligenza artificiale e l'Internet delle cose, si occupa dell'implementazione concreta dell'AI nelle aziende. L'intelligenza artificiale serve alle aziende per prendere la decisione giusta il più rapidamente possibile in ogni situazione, dice, in altre parole per automatizzare virtualmente il processo decisionale. L'architetto della soluzione ha trovato una classificazione degli strumenti di AI secondo questo nella guida BITKOM "Understanding Artificial Intelligence as Automation of Decision-making" [PDF].

Come sottolinea Jakob, le reti neurali che sono alla base dei sistemi di autoapprendimento accanto ai dati si basano sul semplice riconoscimento di somiglianze. Il Deep Learning è di fatto incapace di astrarre e trasferire i risultati in un altro contesto. Alla faccia dell'AI che sostituisce l'intelligenza umana!

Tre tipi di progetti AI

Le aziende che vogliono entrare nel Deep Learning dovrebbero farlo con un'alta tolleranza alla frustrazione, consiglia Jakob: "Innovazione significa rischio. Dovete assolutamente definire una strategia di uscita: Quando si esce e come si esce?". Quando si tratta di implementazione, un progetto di innovazione segue anche regole diverse da un normale progetto IT.

Frank Säuberlich

Frank Säuberlich

Secondo Frank Säuberlich, Director Data Science & Data Innovation presso Teradata Deutschland GmbH, ogni progetto di AI deve iniziare con una domanda di business. Almeno, è così che si comporta con i suoi clienti. Dal punto di vista dell'esperto di analytics e AI, ci sono tre diversi tipi di progetti che portano l'etichetta "intelligenza artificiale":

  • Da un lato, ci sono i classici progetti di analytics da aree di applicazione come la manutenzione predittiva o la previsione del churn, che hanno recentemente subito un rebranding, per così dire. I modelli di predizione sono diventati molto più precisi grazie al miglioramento della tecnologia, anche se gli algoritmi non sono cambiati così tanto.
  • Poi ci sono forme ibride che si basano su applicazioni esistenti ma che hanno fatto un salto di qualità grazie a nuovi dati, per esempio da immagini o dati audio, così come algoritmi di deep learning.
  • Applicazioni veramente nuove come chatbot, auto a guida autonoma, riconoscimento vocale e storico sono piuttosto rare finora.

Ma non importa quale forma il cliente sceglie: "Gli consigliamo non solo di perseguire uno scopo commerciale, ma anche di quantificare il valore mirato in una fase iniziale", rivela Säuberlich. È importante pensare a cosa significa il progetto per gli utenti alla fine: "Come vuole l'azienda con i risultati? Questa è la domanda decisiva. È qui che diventa chiaro se è pronto per l'implementazione"

Rinascimento del data modelling

Oliver Ratzesberger

Oliver Ratzesberger

A questo punto, anche il Chief Operating Officer Oliver Ratzesberger è entrato nella discussione. A suo parere, i responsabili devono chiedersi seriamente:

  • Vogliamo davvero conoscere le risposte a queste domande?
  • Cosa faremo di diverso quando le conosceremo?
  • E quali dati ci mancano ancora per ottenere risposte significative?

Negli ultimi anni, nessuno voleva sentire parlare di modellazione e governance dei dati, ricorda Ratzesberger: "Tutto doveva essere agile e spontaneo". Ma ora l'industria sta vivendo qualcosa come una rinascita della modellazione dei dati. L'intelligenza artificiale ha sicuramente bisogno di dati di alta qualità e di modelli coerenti che reggeranno ancora l'anno prossimo. Quindi ci deve essere di nuovo più struttura nei dati aziendali.

AI manca di intuizione

Christoph Holz

Christoph Holz

Christoph Holz ha concluso mettendo in chiaro che questa battaglia è stata persa da tempo a livello globale: "Raccogliamo più dati di quanti ne possiamo trasmettere, trasmettiamo più di quanti ne possiamo memorizzare, memorizziamo più di quanto possiamo elaborare. Quindi si potrebbe dire: la nostra conoscenza relativa del mondo è in costante diminuzione". Così il docente universitario, autore e consulente in vari campi della tecnologia avanzata.

Ma questo non deve significare la fine del mondo, ha chiarito Holz. E per quanto riguarda la paura della gente dell'intelligenza artificiale, finora è almeno irrazionale: i sistemi di IA possono fare molte cose, ma una cosa che non possono fare è imitare le tipiche prestazioni umane, come riconoscere i modelli comportamentali o anche l'intuizione.


Pagine utili:

Informazioni sul formato .av
Informazioni sul formato .do

Lascia un commento