Intelligenza artificiale: cos’è, a cosa serve, esempi di applicazione

Senza alcuna pretesa di onniscienza, vediamo cosa si intende per intelligenza artificiale, quale è stata finora la sua storia e la sua presenza nell’immaginario collettivo. Vedremo inoltre come l’intelligenza artificiale raccolga, in un’unica definizione, approcci radicalmente differenti tra loro, quali sono i suoi livelli funzionali e, ancora, quali sono le principali tecniche di intelligenza artificiale attualmente in uso nei vari ambiti applicativi che la contraddistinguono.

L’intelligenza artificiale è da sempre molto più di una tecnologia, è una disciplina che coniuga il contributo di molte scienze, con l’irresistibile fascino derivante dalla sua analogia con l’intelligenza umana. Se da un lato si è istintivamente trascinati in maniera positiva dalle sue potenzialità, il rovescio della medaglia prevede il timore causato dal fatto che una AI possa sostituirsi all’uomo, soprattutto in termini occupazionali, rendendo obsolete quelle mansioni che attualmente vedono impegnati gli esseri umani nel mercato del lavoro.

Questa visione di futuro, capace di proiettare al tempo stesso luci e ombre, dovrà essere regolamentata prima che la AI evolva esclusivamente verso una direzione speculativa, che ben difficilmente coinciderebbe con il benessere e lo sviluppo della nostra società, finendo piuttosto per accentuare quegli squilibri sempre più frequenti nei nostri giorni, basti pensare alle conseguenze della pandemia Covid-19.

L’intelligenza artificiale rappresenta qualcosa di utile, di necessario, di già ampiamente in uso e al tempo stesso ancora tutta da scoprire e da applicare, con tutti i pro e i contro del caso, che derivano dal modo con cui decideremo di implementare le sue tecnologie. I tempi per la considerazione dell’intelligenza artificiale non possono essere ulteriormente differiti. È necessario prendere atto dei suoi sviluppi, per renderci conto di come il suo crescente ruolo nell’innovazione stia già contribuendo a cambiare per sempre il nostro modo di comunicare, di lavorare, di vivere.

Cos’è l’intelligenza artificiale

Il termine “artificiale” è comparso per la prima volta nel 1955, in particolare il 31 agosto di quell’anno, quando John McCarthy e un gruppo di altri celebri pionieri dell’informatica presentarono alla Fondazione Rockefeller una richiesta di finanziamento per “una proposta di progetto per una ricerca estiva a Darmouth sull’Intelligenza Artificiale”.

I 13.500 dell’epoca rappresentavano senza dubbio un importo di tutto rispetto e sono stati soltanto il primo atto di una ricerca incessante, che di dollari ne ha impiegati miliardi per arrivare fino ai giorni nostri, dove l’intelligenza artificiale per molti versi è ancora considerata una tecnologia emergente, eternamente destinata ad inseguire quella potenza di calcolo capace di far funzionare una serie di algoritmi scritti in molti casi diversi decenni fa.

Come è lecito attendersi, esistono innumerevoli definizioni e classificazioni per cercare di spiegarci cosa sia l’intelligenza artificiale, in parte per la straordinaria popolarità di cui gode, in parte per via di un approccio multidisciplinare, che in un contesto di sintesi, tende a far prevalere il punto di vista o l’aspetto su cui rileva il maggior interesse. Qualsiasi tentativo di definizione onnisciente è dunque da considerarsi un’impresa persa in partenza.

Volendo adottare una definizione completa e di recente pubblicazione, prendiamo spunto dal lavoro svolto dalla Commissione Europea che, nel 2018, ha nominato un gruppo di ricerca indipendente che ha individuato alcuni punti fondamentali per definire l’intelligenza artificiale:

• ricadono nell’ambito dell’intelligenza artificiale questi sistemi progettati dall’uomo in forma di software (ed eventualmente hardware) che agiscono nella dimensione fisica o digitale e che dato un obiettivo complesso, percepiscono il proprio ambiente attraverso l’acquisizione dei dati, strutturati o meno, interpretandoli e ragionando sulla conoscenza o elaborando le informazioni derivate da questi, decidendo le migliori azioni da intraprendere per raggiungere l’obiettivo dato

• i sistemi di intelligenza artificiale possono usare regole logiche o apprendere un modello numerico, e possono anche adattare il loro comportamento analizzando gli effetti che le loro azioni precedenti hanno avuto sull’ambiente

• come disciplina scientifica, l’intelligenza artificiale comprende diversi approcci e tecniche, come l’apprendimento automatico (di cui l’apprendimento profondo e l’apprendimento per rinforzo sono esempi specifici), il ragionamento meccanico (che include la pianificazione, la programmazione, la rappresentazione delle conoscenze e il ragionamento, la ricerca e l’ottimizzazione) e la robotica (che comprende il controllo, la percezione, i sensori e gli attuatori e l’integrazione di tutte le altre tecniche nei sistemi ciberfisici)

Per quanto rigoroso, non si può negare che un testo di derivazione scientifica come quello appena esposto possa apparire in prima battuta un po’ contorto nella forma, ma nella sostanza esprime l’intelligenza artificiale quale un insieme estremamente vario di sistemi tecnologici in grado di agire in autonomia per soddisfare un determinato obiettivo.

Facciamo ora un passo indietro, cercando di capire da cosa derivi tutto questo interesse attorno all’intelligenza artificiale, a cominciare dalla sua nascita e alla sua diffusione percettiva, ancor prima che tecnologica.

intelligenza artificiale machine learning
Come disciplina scientifica, l’intelligenza artificiale comprende diversi approcci e tecniche, come l’apprendimento automatico – o machine learning – di cui l’apprendimento profondo e l’apprendimento per rinforzo sono esempi specifici.

Come nasce: la storia dell’intelligenza artificiale

La frequente associazione dell’intelligenza artificiale con l’intelligenza umana e la robotica ha creato un fenomeno che va ben al di là della sua manifestazione tecnologica e delle sue applicazioni concrete, influenzando a vari livelli l’immaginario collettivo.

Ben prima di emergere quale tecnologia pratica, a partire dagli anni ‘50 del Novecento, l’intelligenza artificiale è stata infatti protagonista della narrazione e del dibattito letterario, con una presenza mediatica costante. Lo testimoniano, tra l’altro, le numerose esperienze cinematografiche che l’hanno vista attrice protagonista di fronte ad un pubblico di milioni di spettatori, appartenenti a varie generazioni.

L’intelligenza artificiale è di per sé qualcosa di intangibile, dei bit che hanno bisogno di essere rappresentati attraverso una manifestazione fisica. Questo spiegherebbe la frequente associazione tra AI e macchine, in particolare robot o automi umanoidi animati da una misteriosa quanto affascinante coscienza sintetica.

Il rapporto tra uomo e macchina è una costante nella nostra storia. Nel terzo secolo avanti Cristo, Filone di Bisanzio, scienziato e scrittore greco, inventò il servo automatico di Philon, un robot umanoide che, attraverso un meccanismo per l’epoca incredibilmente complesso, versava il vino in una coppa.

Funzionava attraverso tubi e molle, assolutamente ignaro di cosa fossero elettronica e informatica, ma esauriva già uno scopo pratico. La filosofia non è stata da meno, nell’iniziare ad interrogarsi sulla possibilità di una vita artificiale.

Nel Seicento, le pagine del Leviatano di Thomas Hobbes prospettavano l’analogia tra la vita umana e la vita artificiale delle macchine, paragonando gli organi ai marchingegni in grado di donare il movimento agli automi. Nel Settecento, il saggio l’Homme Machine, di Julien Offray de La Mettrie, definiva l’uomo come un meccanismo, soltanto più complesso degli altri, con un’anima determinata dal corpo stesso, anch’essa un meccanismo la cui complessità sarebbe stata spiegata con l’avanzare degli studi scientifici.

È la visione che assimila l’intelligenza umana all’intelligenza artificiale, con la possibilità di replicare il meccanismo del cervello umano in una macchina, cui si ispirano ad esempio la cibernetica e l’immaginario della fantascienza. Il dibattito è arrivato ai giorni nostri con il susseguirsi di suggestive ispirazioni.

Nell’arte e nella cultura, il rapporto tra intelligenza artificiale e il genere di fantascienza è da sempre molto intenso, sia nella letteratura che dai film che hanno spesso adattato le sceneggiature di autori come Philip K. Dick o Isaac Asimov, che ha ispirato l’iconico Io, Robot, intrepretato da uno dei migliori Will Smith della sua carriera.

Le pellicole ispirate dalla AI si contano ormai a centinaia, con pietre miliari del calibro di Metropolis (1927), 2001. Odissea nello spazio (1968), Tron (1982), Blade Runner (1982), Terminator (1984), Matrix (1999), AI Intelligenza artificiale (2001), Minority Report (2002), Her (2013) ed il sorprendente Ex Machina (2015).

Dal punto di vista tecnologico, le prime volontà di quella che sarebbe diventata l’intelligenza artificiale le ritroviamo nell’Ottocento, quando la matematica britannica Ada Lovelace ha iniziato a studiare le macchine programmabili di Charles Babbage. Nulla di paragonabile ai computer come li intendiamo adesso, ma dispositivi meccanici che intendevano elaborare degli algoritmi scritti su schede perforate, lette quali istruzioni eseguibili.

Lo stesso Babbage rivelò come “[…] nel lavoro del programma per la macchina, volto a calcolare i numeri di Bernoulli, dove la Lovelace riuscì anche ad individuare un gravissimo errore compiuto da me”. Il senso di quest’affermazione avrebbe trovato riscontro e maggior chiarezza soltanto cento anni più tardi, nel 1953, quando vennero pubblicate le note di Ada Lovelace sulla macchina analitica di Babbage, in cui si descrive l’algoritmo per calcolare i numeri di Bernoulli, che viene tuttora considerato come il primo programma informatico della storia.

Per via di questo algoritmo, la Lovelace, nota anche per essere la figlia di Lord Byron, viene riconosciuta come la prima programmatrice nella storia dei computer. E non si tratta di una specifica di genere, nessuno prima di lei aveva mai scritto nulla di simile.

intelligenza artificiale Alan Turing
Alan Turing è considerato il padre della scienza informatica e dell’intelligenza artificiale, oltre ad essere l’autore dell’omonimo test, pubblicato su Mind nel 1950, basato sul dialogo tra una essere umano e un computer.

Altrettanto affascinante è la vicenda di “The Imitation Game”, capace di ispirare l’omonimo film, candidato a otto premi Oscar, che ha visto Benedict Cumberbatch interpretare il matematico Alan Turing, impegnato a decrittare Enigma, la diabolica macchina utilizzata dai nazisti per generare i loro messaggi segreti. Per compiere questa prodigiosa impresa, Turing utilizzò alcune macchine, da lui stesso ideate già nel 1936, e che avrebbero preso il suo nome prima di evolvere in quelli che oggi consideriamo come computer.

Turing è da molti considerato il padre della scienza informatica e dell’intelligenza artificiale, oltre ad essere l’autore dell’omonimo test, pubblicato su Mind nel 1950, basato sul dialogo tra una persona e un computer. Quando l’uomo non è in grado di determinare con successo se il suo interlocutore sia un uomo o un computer, secondo Turing siamo al cospetto di una macchina dal comportamento intelligente.

Accomunati da una vita privata molto sfortunata, al punto da condizionare per entrambi la morte in giovane età, Lovelace e Turing sono stati tra i principali iniziatori di quel percorso informatico che nella seconda metà del Novecento avrebbe dato luogo all’intelligenza artificiale come la intendiamo tuttora.

Il percorso evolutivo dell’intelligenza artificiale come lo intendiamo tuttora ha trovato il suo fondamento nel 1943, quando McCulloch e Pitts sostennero che il funzionamento dei neuroni fosse in grado di riprodurre gli elementi di base della logica del primo ordine (AND e OR) che ritroviamo anche nei computer, arrivando a teorizzare un modello di neurone artificiale.

Le analogie tra computer e cervello umano vennero rimarcate nel 1949, quando Donald Hebb scoprì come i neuroni comunicassero attraverso reciproche scariche elettriche, da cui derivavano l’apprendimento e la memoria. Uomo e macchina non erano mai stati così vicini.

Nel 1958 assistiamo ad un’altra pietra miliare della storia della AI, quando Frank Rosenblatt propose il percettrone, di fatto il primo esempio di rete neurale, dove l’output viene generato attraverso la ponderazione degli input.

Ben presto oggetto di critiche e proposte evolutive da parte di altri ricercatori, tra cui Marvin Minsky, il percettrone ebbe soprattutto il grande merito di ispirare e dare fermento alle ricerche per quelle che sarebbero diventate le vere e proprie reti neurali, oltre a generare una forte eco mediatica, capace di attirare l’interesse globale sull’intelligenza artificiale.

I giornali dell’epoca gridarono alla meraviglia, prospettando come il percettrone un giorno avrebbe potuto parlare, vedere e scrivere, fin qui tutto normale, ma addirittura riprodursi ed essere assolutamente cosciente del proprio comportamento. Si correva un po’ troppo, ma l’aspettativa creata sull’intelligenza artificiale è stata la base per iniziare a dirottare sul suo conto quei finanziamenti indispensabili per evolvere verso i successivi stadi di sviluppo.

Il 1958 è stato l’anno magico della AI anche per quanto riguarda il linguaggio di programmazione, indispensabile per sviluppare le applicazioni. Il già citato John McCarthy scrisse il Lisp, lo standard di programmazione per la AI con approccio logico. L’anno successivo è la volta del Machine Learning, proposto da Arthur Samuel in una pubblicazione relativa all’apprendimento automatico del gioco della dama. Per la prima volta si parlava di alimentare un algoritmo con dati grazie ai quali potesse apprendere ed eseguire automaticamente una precisa operazione.

Dagli anni cinquanta si sono susseguite fasi di alterne fortune, definite estati e inverni dell’intelligenza artificiale, in virtù del fatto che a grandi scoperte sono seguite rallentamenti e disillusioni causate dai limiti computazionali, di una tecnologia non pronta per dare corpo alla genialità della matematica degli algoritmi.

In particolare, ciò avvenne perché le aspettative erano spesso incentrate sullo sviluppo di un’intelligenza artificiale capace di imitare e replicare l’intelligenza umana. Vedremo come questo obiettivo sia tuttora incredibilmente esoso di risorse e ben lungi da una soluzione definitiva, non prima di aver ricordato come nel 1969 è stato costruito Shakey, il primo robot capace di muoversi in autonomia grazie ad un programma in Lisp che gli consentiva di svolgere banali, per quanto complesse informaticamente, operazioni domestiche.

Fu l’alba dei meravigliosi anni ’70, quando Robert Kowalski, Marten Van Emdem e Alain Colmerauer (che lo implementò) crearono Prolog (contrazione del francese PROgrammation en LOGique) un nuovo linguaggio di programmazione per AI ad approccio logico, capace di dare una notevole spinta alla ricerca informatica, con l’illusione che un sistema di intelligenza artificiale capace di imitare il ragionamento dell’uomo fosse ormai vicino, che una nuova era fosse finalmente alle porte.

Nonostante l’impegno e la scrittura di moltissimi algoritmi tuttora utilizzati, le cose andarono diversamente rispetto alle aspettative, provocando una disillusione che diede luogo ad un lungo inverno, durato almeno fino ai primi anni duemila, quando l’evoluzione dei sistemi computazionali ha iniziato a rendere possibili quelle intuizioni che cinquant’anni fa erano destinate a rimanere tali. Il resto è storia recente.

Classificazioni: intelligenza artificiale debole, intelligenza artificiale forte

Sebbene l’impulso alla ricerca dell’intelligenza artificiale sia partita dalla volontà di imitare l’intelligenza umana, nel tempo si sono formati due approcci e filoni applicativi ben distinti, pur partendo da presupposti comuni. È il caso dell’intelligenza artificiale debole (o AI ristretta) e dell’intelligenza artificiale forte (o AI generale).

Per cogliere le differenze tra AI forte e AI debole, è opportuna una rapida premessa, relativa alle funzioni dell’intelligenza umana che l’intelligenza artificiale dovrebbe essere in grado di compiere, in particolare:

  • agire umanamente, in analogia con quanto farebbe nella stessa situazione un essere umano
  • pensare umanamente, risolvendo un problema con funzioni cognitive
  • pensare razionalmente, in maniera logica, come l’uomo fa nei suoi ragionamenti
  • agire razionalmente, per cercare di ottenere il miglior risultato possibile sulla base delle informazioni disponibili

Questa varietà ci descrive come imitare l’uomo non sia un’operazione univoca ma sia declinabile verso vari approcci, che sono appunto quelli che danno luogo ai filoni di ricerca e applicazione della AI debole e della AI forte, oltre a farci capire perché la prima sia ormai ampiamente diffusa, mentre la seconda costituisca un obiettivo ben più difficile da raggiungere.

Cos’è l’intelligenza artificiale debole

Per intelligenza artificiale debole (o ristretta) si fa riferimento ai sistemi progettati per risolvere problemi specifici, di varia complessità. Il suo paradigma è il problem solving, in quanto vengono simulate alcune capacità risolutive della cognizione umana, senza tuttavia avere la pretesa di comprendere e replicare il funzionamento di tutto ciò che il cervello umano è capace di fare.

Le applicazioni basate sulla AI debole si basano sull’apprendimento automatico per creare sistemi in grado di simulare in autonomia scenari ed assistere le decisioni dell’uomo nello svolgere determinate operazioni.

Che si tratti di capire quanta merce ordinare in un supermercato, piuttosto che di pianificare la manutenzione di un impianto o di suggerire un acquisto su un portale e-commerce, l’obiettivo è sempre quello di dare una risposta ad un’esigenza pratica nel miglior modo possibile, che non coincide sempre con quello che l’uomo avrebbe fatto nella stessa situazione.

In quest’ottica, le applicazioni basate sull’intelligenza artificiale debole sono perfette per suggerire all’uomo quali decisioni prendere, offrendogli più informazioni per supportare la propria scelta.

Intelligenza artificiale forte, di cosa si tratta?

Per intelligenza artificiale forte (o generale) si fa riferimento a sistemi capaci di comportarsi in maniera del tutto autonoma a prescindere dal contesto e dal compito che gli viene assegnato. Questo approccio è radicalmente differente da quello prospettato per la AI debole, in quando non c’è un nesso diretto tra il problema e la soluzione.

Non è il problem solving il nocciolo della questione, quanto sviluppare una coscienza autonoma che non pretende di volta in volta di emulare dei processi di pensiero simili a quelli dell’uomo, mirando piuttosto a sviluppare un’intelligenza generale, svincolata da esigenze specifiche, e dunque efficace in qualsiasi situazione. 

Se la AI debole mira ad agire razionalmente e pensare umanamente, la AI forte è piuttosto incentrata sull’agire umanamente e pensare razionalmente. Se la AI debole ha un problem, cerca di prevedere in modo razionale quale scelta avrebbe fatto l’uomo in quel determinato contesto, mentre la AI forte si basa sul ragionamento logico e utilizza i dati a disposizione per generare la conoscenza del contesto da cui derivano le azioni da intraprendere.

La AI debole agisce caso per caso, risolvendo soltanto il problema che ne deriva. La AI forte agisce in termini generali, a partire dalle regole del gioco, per cercare di risolvere tutti i problemi che ne derivano.

Per fare un esempio pratico, immaginiamo il gioco degli scacchi. La AI debole si concentrerebbe nel battere uno specifico avversario, trovando le contromisure al suo gioco analizzando più mosse possibili, esaminando tutte le partite che ha giocato fino ad allora, mentre la AI forte non si porrebbe il problema di un rivale specifico, ponendosi l’obiettivo di diventare il giocatore di scacchi più forte possibile.

Partirebbe dalla comprensione delle regole del gioco e si allenerebbe assiduamente per diventare sempre più abile, per battere qualsiasi avversario. Per quanto elementare, questa differenza di prospettiva ci fa intuire come la AI forte presenti un approccio molto più ambizioso rispetto alla AI debole e nelle sue applicazioni concrete questo comporta un dispendio di risorse estremamente più elevato.

Anche se il suo potenziale è ancora in gran parte soltanto immaginabile, la AI forte ha già prodotto risultati tangibili. I suoi principali fautori sono i cosiddetti AI Lab finanziati dai big one della tecnologia per raggiungere scoperte di ampia portata, capaci di rivoluzionare l’ambito cui riferiscono.

È il caso di Deepmind (Google), autore tra l’altro di AlphaFold, un sistema capace di risolvere il calcolo del protein folding, una scoperta capace di aprire una nuova era nell’ambito della biologia molecolare, con ripercussioni enormi sulla medicina e sulla farmacologia.

Un altro AI Lab di riferimento è OpenAI (Microsoft), noto per aver sviluppato GPT-3 (Generative Pre-trained Transformer 3), un modello di linguaggio basato sull’intelligenza artificiale, capace di elaborare testi e immagini in maniera formalmente indistinguibile rispetto a quanto farebbe un essere umano.

Il New York Times ha pubblicato un articolo scritto per metà da un giornalista vero e per metà da un bot basato su GPT-3. Il risultato non consentiva alcuna distinzione tra le due autori. Impossibile stabilire chi avesse scritto certi paragrafi piuttosto che altri. Il test di Turing può dirsi superato alla perfezione.

intelligenza artificiale problem solving
Con l’espressione “intelligenza artificiale debole” (o ristretta) si fa riferimento ai sistemi progettati per risolvere problemi specifici, di varia complessità. Il suo paradigma è il problem solving, in quanto vengono simulate alcune capacità risolutive della cognizione umana.

Come funziona

Dopo aver provato a comprendere cosa pensa un’intelligenza artificiale, è arrivato il momento di comprenderne il funzionamento, in modo da avere una visione più completa delle sue potenzialità e procedere con le tecniche alla base della sua attività.

Il funzionamento dell’intelligenza artificiale viene definito grazie a quattro differenti livelli funzionali, in grado di esaurire le operazioni che è chiamata ad effettuare:

  • comprensione: è data dalla capacità di apprendere e simulare la correlazione tra i dati e gli eventi, attraverso cui la AI può ad esempio riconoscere testi, immagini, video, audio e voce per elaborare informazioni specifiche sulla base di una specifica richiesta
  • ragionamento: è data dalla capacità dei sistemi AI di collegare in maniera logica e in totale autonomia i dati raccolti, grazie all’impiego di una serie di algoritmi matematici opportunamente programmati
  • apprendimento: è data da sistemi AI in grado di analizzare l’input dei dati per restituire un output corretto. È il caso dei sistemi di apprendimento automatico (Machine Learning) che utilizzano tecniche specifiche per apprendere da un determinato contesto informativo, ai finiti di svolgere determinate funzioni
  • interazione: è data dai sistemi HMI (human machine interaction) dove la AI esercita un ruolo fondamentale nella sua interazione con l’uomo. Uno degli esempi più ricorrenti di questo livello funzionale è dato dal NLP (Natural Language Processing), il parco di tecnologie basate sull’intelligenza artificiale che consente di creare una relazione verbale tra l’uomo e la macchina, sfruttando il linguaggio naturale, come avviene nel caso dei chatbot più evoluti

Tecniche di intelligenza artificiale

La distinzione tra AI debole e AI forte si rivela fondamentale per connotare in maniera corretta le principali tecniche di intelligenza artificiale. Come abbiamo avuto modo di osservare nella premessa storica, si tratta di argomenti di cui si è iniziato a parlare tra gli anni Cinquanta e gli anni Settanta del Novecento, anche se per avere una diffusione significativa si è dovuto attendere molti decenni, in attesa che la Legge di Moore facesse il proprio corso, fino a produrre sistemi computazionali capaci di fornire la potenza richiesta per eseguire i calcoli necessari.

In attesa che il Quantum Computing diventi realtà anche per le applicazioni commerciali, il principale salto tecnologico è derivato dall’introduzione sul mercato delle GPU (Graphic Processing Unit), processori inizialmente concepiti per il rendering grafico, la cui natura di calcolo parallelo risulta congeniale anche ad altri ambiti applicativi, tra cui i sistemi di intelligenza artificiale e il mining delle crypto valute.

Vediamo dunque una rapida rassegna di alcune tra le principali tecniche di intelligenza artificiale attualmente disponibili, a partire dalla sostanziale differenza tra Machine Learning e Deep Learning e in particolare dei modelli di apprendimento su cui sono basate.

Machine Learning

Per Machine Learning si intende un sistema di apprendimento automatico basato sull’intelligenza artificiale, capace di acquisire una varietà di dati (input) per allenare una macchina che diventa progressivamente sempre più abile nello svolgere un compito (output) in autonomia, ossia senza essere stata preventivamente programmata per eseguirlo. Un sistema di ML si distingue per la sua capacità di apprendere, sbagliare e migliorarsi progressivamente dai propri errori, fino a diventare sempre più preciso nelle simulazioni che è in grado di produrre in totale autonomia.

Il modello di apprendimento di un sistema di ML è piuttosto vario e si basa su tre principali classi di algoritmi:

  • con supervisione didattica: in cui il sistema apprende mediante una correlazione tra input e output da cui impara come prendere una decisione
  • senza supervisione didattica: l’apprendimento avviene mediante l’analisi dei risultati, senza una relazione diretta tra input e output, ma soffermandosi soltanto sulla base di output che consentono di mappare i risultati di determinate decisioni, nello stesso contesto in cui i sistemi di ML sono chiamati ad offrire soluzioni
  • con rinforzo: il reinforcement learning è un metodo di apprendimento basato sul merito, in quanto la AI viene premiata soltanto quando nelle sue valutazioni ottiene un risultato in linea con le aspettative. Il reinforcement learning consente di affinare l’allenamento di un sistema ML grazie alla sua capacità di insegnare fondamentalmente a distinguere una decisione corretta da una errata

Deep Learning e Reti Neurali

Se il Machine Learning è uno strumento tipico della cosiddetta AI debole, il Deep Learning è la tecnica di apprendimento di riferimento per la AI forte. In linea con la premessa teorico-concettuale precedentemente descritta, il Deep Learning consiste in modelli di apprendimento ispirati al funzionamento del cervello umano.

Non si tratta di un metodo di allenamento strettamente basato sulla relazione tra un input e un output, come nel caso del ML, quanto di un sistema che utilizza gli input per arrivare ad emulare il comportamento del cervello umano.

Ciò non sorprende in alcun modo, se pensiamo come molte tecniche informatiche sono dichiaratamente ispirate alla struttura di alcuni modelli biologici realmente esistenti in natura. Il modo con cui un algoritmo riesce a replicare un meccanismo cooperativo, come il volo degli uccelli, costituisce qualcosa di estremamente affascinante.

Le reti neurali sono reti strutturate di neuroni artificiali che consentono di implementare azioni complesse tipiche della cognizione umana, come vedere, parlare, sentire e pensare. Si tratta di concetti ormai perfettamente storicizzati nell’informatica, dal momento che i neuroni artificiali sono stati teorizzati da McCulloch e Pitts nel 1943, mentre le reti neurali da Rosenblatt nel 1958. 

Il Deep Learning si basa sulle cosiddette reti neurali profonde, caratterizzate da moltissimi strati di calcolo, basati su un numero elevatissimo di livelli, tale da richiedere uno sforzo computazionale enorme, per ottenere uno scenario simile alle connessioni neurali del cervello umano, peraltro in gran parte ancora ignote.

Dal momento che si pone molto spesso l’accento sull’evoluzione delle capacità computazionali per garantire l’output, va corrisposta un’adeguata enfasi anche al momento di creazione dell’input, grazie alla capacità di raccogliere un’enorme quantità di dati dai dispositivi mobile e in generale da tutti i dispositivi interconnessi con cui interagiamo quotidianamente, anche in maniera del tutto inconsapevole, grazie alla facilità con cui accettiamo le policy d’uso delle app presenti sui vari device.

Una realtà sempre più digitalizzata si traduce in un potenziale enorme di dati da raccogliere, archiviare, analizzare e elaborare. Mai come oggi la scienza dei dati è chiamata ad assumere un ruolo essenziale nelle applicazioni basate sull’intelligenza artificiale.

intelligenza artificiale reti neurali
Il Deep Learning si basa sulle cosiddette “reti neurali profonde”, caratterizzate da moltissimi strati di calcolo, basati su un numero elevatissimo di livelli, tale da richiedere uno sforzo computazionale enorme, per ottenere uno scenario simile alle connessioni neurali del cervello umano.

NLP – Natural Language Processing (riconoscimento ed elaborazione del linguaggio naturale)

L’elaborazione del linguaggio naturale rappresenta un’applicazione complessa, basata sull’AI, ma anche sull’informatica e sulla linguistica. È una delle espressioni più diffuse della cosiddetta AI forte, che esemplifica alla perfezione, grazie al fatto di non essere concepita per risolvere un aspetto specifico, ma per apprendere in senso ampio la comunicazione verbale dell’uomo, con cui le applicazioni basate sulla AI sono chiamate ad interagire.

Comprendere un linguaggio è qualcosa di decisamente complesso perché non si tratta soltanto di saper gestire un vocabolario, una grammatica e delle regole di sintassi, quanto di saper contestualizzare in maniera corretta un discorso, ai fini di comprendere realmente il significato di un’affermazione.

Il metodo di apprendimento del NLP è ovviamente basato su sistemi di Deep Learning, costruiti per cercare di simulare il modo con cui le persone comprendono il contenuto di una conversazione.

Un sistema NLP è basato su una serie di fasi che tentano di identificare e risolvere tutte le ambiguità del linguaggio umano. La divisione in fasi risulta fondamentale per ridurre il rischio di errori nei dati di input. Tra le principali fasi di un metodo di apprendimento NLP ritroviamo la tokenizzazione (separazione testo in spazi, parole, punteggiatura, frasi, ecc.), l’analisi morfologica e lessicale, l’analisi sintattica, la NER (Named Entity Recognition), l’analisi sematica e l’analisi del discorso.

La ricerca sul NLP è attiva dai primi anni 2000 ma ha saputo raggiungere livelli di maturità apprezzabili a partire dal 2013, quando si sono diffuse le reti neurali con l’approfondimento delle tecniche relative alla rappresentazione del linguaggio naturale in maniera numerica, dove ogni parola viene “convertita” in un vettore di numeri reali gestiti dai modelli spaziali vettoriali, architetture di reti neurali appositamente progettate per risolvere il riconoscimento e l’elaborazione del linguaggio naturale.

Il NLP è ormai parte integrante di moltissime applicazioni che vanno dalla traduzione automatica, al riconoscimento automatico (OCR), ai chatbot/assistenti virtuali, alla generazione automatica di testi complessi per le pubblicazioni, fino agli strumenti utilizzati nel marketing per analizzare il cosiddetto sentiment degli utenti (sentiment analysis).

Dal punto di vista della comprensione ed elaborazione del testo i sistemi NLP sono già sorprendentemente maturi, mentre c’è ancora molto da fare per quanto riguarda la creazione dei sistemi intelligenti in grado esprimere pienamente il potenziale dell’intelligenza artificiale generale.

Finora ce l’hanno mostrato alcuni film di fantascienza. Si pensi ad Her, dove Joaquin Phoenix stabilisce una vera e propria relazione sentimentale con un computer, il cui sistema operativo è capace di comprendere alla perfezione la comunicazione verbale, oltre ad esprimersi con la sensualissima voce di Scarlett Johannson.

Computer vision e riconoscimento delle immagini

Uno degli aspetti più affascinanti della visione artificiale è basato sul riconoscimento delle immagini, ossia sull’emulazione di come il cervello umano elabora le informazioni ricevute dagli occhi, piuttosto che sul funzionamento dell’occhio stesso.

L’obiettivo è capire cosa si sta vedendo. Per raggiungere questo risultato sono necessari dei metodi di apprendimento capaci di elaborare i singoli pixel di un’immagine, in altri termini, di tradurle in numeri.

La computer vision utilizza tecniche di Deep Learning basate sulle reti neurali convolutive, capaci di emulare il comportamento della corteccia visiva del cervello per elaborare immensi dataset di immagini, ai fini di riconoscere e contestualizzare in maniera precisa l’immagine che viene riconosciuta in tempo reale dall’applicazione.

Esistono moltissimi esempi basati sulla computer vision. I più popolari riguardano le tecnologie di riconoscimento facciale, utilizzate da moltissime applicazioni, tra cui la procedura di sblocco dei device mobile, piuttosto che l’autorizzazione agli accessi.

In ambito industriale la computer vision è ad esempio utilizzata nel controllo della qualità, mentre la guida autonoma la utilizza ad esempio per riconoscere la segnaletica, gli altri veicoli, i pedoni e tutti i potenziali ostacoli che una vettura può incontrare lungo il proprio percorso. Moltissime anche le applicazioni marketing B2C, anche in collaborazione con le tecnologie di realtà aumentata.

intelligenza facciale riconoscimento facciale
Tra le applicazioni della computer vision, anche le tecnologie di riconoscimento facciale, utilizzate, ad esempio, nelle procedure di sblocco dei device mobile, piuttosto che nell’autorizzazione agli accessi.

Esempi e applicazioni dell’intelligenza artificiale

La sua capacità di analizzare il dato per offrire indicazioni utili fa dell’intelligenza artificiale una preziosa alleata di tantissimi ambiti di business, con grandi investimenti sia nei contesti industriali che a livello domestico, si pensi soltanto alle applicazioni legate alla domotica.

Per orientarci con successo in questo mare di possibilità, è utile far riferimento alla classificazione delle soluzioni messa a punto dall’Osservatorio Digital Innovation sull’intelligenza artificiale del Politecnico di Milano, che ha individuato otto differenti tipologie di applicazioni, distinte in base alle finalità di utilizzo:

  • Intelligent Data Processing: caratterizzata da algoritmi in grado di analizzare dati specifici per estrapolare informazioni e compiere azioni in conseguenza. Vengono ad esempio utilizzati per l’analisi predittiva (analisi dei dati per fornire previsioni sugli andamenti futuri) e il rilevamento di frodi (identificazione di elementi non conformi rispetto ad un modello previsto)
  • Virtual Assistant/Chatbot: i chatbot utilizzano tecnologie NLP per eseguire azioni ed erogare servizi per gli utenti, sulla base di un’interazione vocale o testuale. Il loro utilizzo è molto ampio e va dai sistemi di customer care, agli assistenti virtuali dei portali e-ecommerce. Le tecnologie NLP consentono alle applicazioni chatbot più evolute di comprendere anche il tono della conversazione, oltre a memorizzare le informazioni raccolte, implementando ad esempio i dataset dei sistemi CRM a loro connessi
  • Recommendation: sulla base del comportamento degli utenti, acquisite in forma di informazioni dirette o indirette, le applicazioni AI sono in grado di integrare i sistemi di vendita con applicazioni che suggeriscono il consumatore per guidarlo verso la finalizzazione di un acquisto. Consentono pertanto di aumentare le conversioni e ottimizzare l’efficienza del customer journey, influenzando il processo decisionale del cliente
  • Image Processing: le tecnologie di computer vision basate sul riconoscimento delle immagini consentono di riconoscere in maniera automatica oggetti, persone e animali, per supportare moltissime applicazioni, che vanno dalla videosorveglianza al rilevamento dei pattern anomali nel controllo qualità industriale
  • Autonomous Vehicle: le AI consentono di supportare i sistemi di guida autonoma dei veicoli. La guida autonoma è diventata molto popolare in ambito automotive, ma riguarda anche altri mezzi di trasporto autoguidati, supportando la navigazione marittima, fluviale e aerea
  • Intelligent Object: o Smart Object, gli oggetti intelligenti classificano i dispositivi in grado di effettuare operazioni senza l’input diretto dell’utente umano. I sistemi AI integrati, generalmente associati a sensori intelligenti, consentono agli oggetti intelligenti di prendere decisioni sulla base delle condizioni dell’ambiente circostante, attraverso reazioni ad un determinato evento
  • Language Processing: comprende tutte le applicazioni basate sulla comprensione del testo e della comunicazione verbale, attraverso le tecnologie di elaborazione del linguaggio naturale (NLP)
  • Autonomous Robot: grazie alle istruzioni di sistemi basati su tecnologie AI, i robot possono muoversi ed agire senza che vi sia un utente ad impartirgli un comando diretto, grazie alla sua capacità di riconoscere ed interagire con l’ambiente circostante. La robotica autonoma è sempre più diffusa sia nei contesti di manifattura industriale, nella logistica e nelle applicazioni civili/domestiche

Di seguito, le delle principali industrie e applicazioni in cui, oggi, l’intelligenza artificiale viene già impiegata con successo.

Intelligenza artificiale per l’industria manifatturiera

Il paradigma dell’Industria 4.0 fa largo impiego delle tecnologie AI, sia mediante le applicazioni legate alla robotica autonoma e collaborativa, che grazie alle funzioni integrate nelle applicazioni delle altre tecnologie abilitanti, e sta diventando una costante sempre più diffusa nella fabbrica digitale.

I sistemi di analisi predittiva consentono ad esempio di ridefinire la pipeline dei processi di manutenzione, passando da una programmazione preventiva alla ben più efficiente manutenzione predittiva.

Se nei processi tradizionali, agire in maniera preventiva comportava costi ingiustificati, con interventi non necessari, così come l’impossibilità di anticipare in maniera certa un guasto sulle linee, l’approccio predittivo, basato su tecnologie di machine learning, consente di analizzare praticamente in tempo reale il flusso di dati raccolti dai sensori installati sugli impianti, per rilevare eventuali anomalie rispetto ai modelli di corretto funzionamento.

L’azione combinata dei sensori intelligenti per il rilevamento e delle applicazioni AI per l’analisi dei dati consente quindi alle aziende di intervenire soltanto quando realmente necessario.

Una grande risorsa offerta dall’analisi predittiva basata su tecnologie AI è quella di saper analizzare ed elaborare un’enorme quantità di dati, creando delle relazioni la cui portata computazionale va ben oltre le possibilità dell’uomo.

Questi sistemi non si sostituiscono direttamente alla decisione dei responsabili della manutenzione, ma li supportano con informazioni mirate, grazie ad una reportistica automatica in grado di rilevare in tempo reale qualsiasi criticità.

intelligenza artificiale analisi predittiva
La grande risorsa offerta dall’analisi predittiva basata su tecnologie di intelligenza artificiale è data dal saper analizzare ed elaborare un’enorme quantità di dati, creando delle relazioni la cui portata computazionale va ben oltre le possibilità dell’uomo.

Intelligenza artificiale per la GDO (grande distribuzione organizzata)

Tra le applicazioni di analisi predittiva più diffuse troviamo le previsioni degli acquisti, che consentono di regolare il sistema automatico degli ordini della GDO. È il caso dei supermercati, che hanno a scaffale migliaia di prodotti differenti, molti dei quali facilmente deperibili (nel caso degli alimentari freschi).

Un ordine basato sulla stima del responsabile del punto vendita, per quanto attendibile, produce inevitabilmente una sovrastima (sprechi e diseconomie) o una sottostima (delusione aspettativa del cliente e mancati introiti).

L’analisi dei dati di consumo consente invece ai sistemi di machine learning di tracciare delle stime sulla base dei fattori endogeni (dati di consumo reali prodotto per prodotto) ed esogeni (periodo dell’anno, meteo, orari della giornata, incidenza eventi occasionali, ecc.) per suggerire sia i quantitativi da ordinare che quando effettuare l’ordine, ai fini di limitare la costosa permanenza in magazzino delle merci.

Intelligenza artificiale per la sanità e la salute

L’ambito medico sanitario è da sempre terreno fertile delle tecnologie emergenti e le AI non fanno certo eccezione, con una varietà incredibile di applicazioni. Un caso molto evidente è relativo al supporto di persone con disabilità

 sistemi vocali sono in grado di elaborare i segnali in maniera selettiva, per consentire ad esempio alle persone con limiti nella comunicazione di potersi esprimere in maniera comprensibile, facilitando il processo di integrazione sociale, con evidenti vantaggi dal punto di vista psicologico.

Le AI consentono inoltre di ottimizzare in maniera evidente l’assistenza sanitaria, ad esempio mediante l’introduzione di sistemi robotici a supporto di tutte le fasi cliniche. Si pensi all’assistenza chirurgica, piuttosto che alla capacità di sgravare il lavoro del personale medico ed infermieristico nei reparti Covid-19, senza costringere un operatore ad un lungo processo di vestizione e svestizione, magari per ritirare un semplice oggetto in ambiente infetto.

Il fatto di poter conoscere ed analizzare una grande quantità di dati e variabili consente di ottimizzare la routine, prendendo decisioni più consapevoli ai fini di ridurre ricoveri superflui ed i relativi costi di trattamento, per via di un miglioramento generale nell’approccio terapeutico.

Nell’ambito della ricerca medica, l’analisi e l’elaborazione dei dati è inoltre fondamentale per favorire nuove scoperte e sperimentare nuove terapie.

Intelligenza artificiale per la diagnostica medica

I sistemi di riconoscimento delle immagini consentono di analizzare i dati acquisiti mediante la diagnostica per identificare delle informazioni che l’occhio umano non sarebbe mai in grado di rilevare, a prescindere dalla capacità analitica del cervello umano, che non potrà mai vantare le potenzialità computazionali di una macchina.

Questo approccio consente un notevole ausilio soprattutto nell’ambito della diagnosi precoce, identificando l’insorgenza di molte patologie – tra cui i tumori – ben prima che si manifestino in maniera evidente, macroscopica o sintomatica.

Anche in questo caso risulta decisiva la capacità di mettere in relazione informazioni relative a più variabili, simulando scenari che vanno oltre la comprensione analitica del medico, in modo da supportarlo nelle sue decisioni.

Sulla base degli stessi concetti, un altro ambito in cui le AI stanno diventando sempre più rilevanti è relativo alla ricerca delle malattie rare. L’analisi dei dati mediante machine learning consente ai medici di essere più precisi nella diagnosi, nella prognosi e nel trattamento, individuando le terapie necessarie per risolvere determinante patologie, in maniera specifica rispetto alla storia clinica di ogni paziente.

Un punto di forza dell’adozione di sistemi AI in ambito medico è quello di costituire delle banche dati generali, che vanno ben oltre la conoscenza della singola struttura sanitaria. Questo consente ad esempio di avere suggerimenti in tempo reale sulle decisioni prese da altri medici in circostanze analoghe, senza dover per attivare una corrispondenza diretta.

L’interdisciplinarità e la collaborazione automatica presentano naturalmente tutti i pro e i contro del caso, relative soprattutto alle normative sulla privacy, particolarmente stringenti nei casi del trattamento dei dati personali, oltre alla possibilità di incorrere in dati e decisioni sbagliate, qualora il sistema non sia stato allenato in maniera corretta per apprendere le soluzioni corrette. Nella maggior parte dei casi il problema non è imputabile all’analisi del dato, ma alla qualità del dato acquisito dal sistema.

Intelligenza artificiale per l’automotive

Abbiamo visto come le AI risultino decisive per supportare i sistemi di guida autonoma, capaci di regolare la navigazione e riconoscere tutte le situazioni di pericolo presenti sul percorso per assisterci e prevenire incidenti.

Ma le auto di ultima generazione sono molto di più. Sono un concentrato di tecnologia interconnessa, capace di raccogliere a bordo decine di processori di calcolo capaci di elaborare anche in locale quelle informazioni che i servizi centralizzati mettono a disposizione dei sistemi operativi.

Il continuo interscambio di dati dei sistemi interconnessi consente ad esempio di portare a bordo del veicolo quelle tecnologie nate in altri contesti, come le comunicazioni vocali e l’interazione con gli assistenti virtuali. Grazie a queste applicazioni, il momento del trasporto non è più autoreferenziato, ma si integra perfettamente con i flussi della giornata di ogni utente.

Intelligenza artificiale per i sistemi di navigazione (GPS)

Un esempio specifico dell’intelligenza artificiale applicata ai trasporti è dato dalle applicazioni di navigazione basate sul GPS, che consentono ai sistemi AI di rilevare la presenza dei device mobile in una determinata posizione.

Questa feature, capillarmente diffusa, rende possibile ai servizi di navigazione offrire in tempo reale le condizioni relative al traffico, suggerendo eventuali itinerari alternativi nel caso in cui si formino delle condizioni di criticità in prossimità di un determinato luogo.

Si tratta di informazioni estremamente utili non soltanto per pianificare un percorso di viaggio, ma anche per organizzare la propria giornata, anticipando eventuali altri impegni per mettersi in strada in un secondo momento, quando le condizioni di traffico saranno migliorate. Del resto le condizioni possiamo verificarle in qualsiasi momento, sul nostro smartphone, grazie agli aggiornamenti in tempo reale dei sistemi di navigazione basati sul GPS.

Intelligenza artificiale per la domotica

L’automazione domestica rappresenta una delle applicazioni in maggior crescita nell’ambito dell’industria delle costruzioni (AEC). La domotica intelligente comprende i sistemi interconnessi che consentono di gestire gli ambienti della casa attraverso un unico software gestionale, capace di controllare la sorveglianza, la temperatura, l’illuminazione e le sonorità, grazie all’interazione con i dispositivi IoT locali (videocamere, termostati, lampade, sistemi audio, ecc.).

Grazie alla rete internet, l’utente può agire manualmente per regolare i sistemi interconnessi, anche senza trovarsi fisicamente nella propria abitazione, ma i sistemi di domotica intelligente sono anche in grado di automatizzare le impostazioni sulla base del comportamento dell’utente stesso. 

 il caso di sistemi in grado di chiudere le tapparelle quando usciamo di casa, piuttosto che prese elettriche in grado di ottimizzare in consumi sulla base dell’effettivo impiego e delle condizioni relative alle tariffe elettriche.

Allo stesso modo, il frigorifero può configurarsi quale una dispensa intelligente, configurando automaticamente gli ordini per i prodotti in esaurimento. I potenziali esempi nell’ambito della domotica sono pressoché infiniti.

intelligenza artificiale domotica
La domotica intelligente comprende sistemi interconnessi che consentono di gestire gli ambienti della casa attraverso un unico software gestionale.

Intelligenza artificiale per i videogame

Le AI sono da sempre una parte strutturante dei videogiochi, in quanto regolano il comportamento dei NPC (personaggi non giocatori) con cui siamo chiamati ad interagire con il nostro avatar.

La crescente capacità elaborativa di computer e console consentono agli sviluppatori di programmare interazioni sempre più credibili e realistiche. Le tecnologie AI garantiscono ampio supporto anche durante la fase di sviluppo, andando dunque ben oltre le facoltà applicative del gioco finale.

È il caso dei sistemi che consentono di gestire enormi quantità di asset 3D per generare automaticamente ed in maniera procedurale gli ambienti di gioco open world, senza doverli modellare integralmente.

Intelligenza artificiale per l’e-commerce (e le vendite)

I sistemi di raccomandazione basati sulle tecnologie AI consentono di implementare applicazioni e-commerce sempre più coinvolgenti per l’utente, che grazie ai suggerimenti di vendita può acquisire maggior fiducia e finalizzare il processo di acquisto.

In termini più generali, l’automazione dei processi di vendita consente ai brand di adottare strategie commerciali molto più efficaci sia per convertire i potenziali clienti che per fidelizzare quelli acquisiti, rendendoli sempre più profittevoli.

Intelligenza artificiale per il marketing (e le vendite)

Le AI consentono di supportare moltissime operazioni di marketing, a cominciare dalla definizione delle strategie e dalla progettazione delle campagne, grazie al sentiment analysis, ossia la capacità di intercettare i trend e le aspettative dei consumatori, grazie all’analisi dei dati comportamentali acquisiti mediante le interazioni tracciate sul web e sulle app mobile.

A livello operativo una delle principali funzioni che la AI è in grado di supportare è relativa ai configuratori di prodotto, che possono essere assistiti virtuali da sistemi di machine learning, capaci di analizzare il comportamento dell’utente mediante i dati acquisiti dall’applicazione, per suggerire configurazioni in linea con le sue aspettative. 

Si tratta di un ambito estremamente cross tecnologico, dove ritroviamo sempre più frequentemente rendering 3D real time interattivo, raccomandatori, chatbot e realtà aumentata.

Intelligenza artificiale per l’assistenza dei clienti

Il customer care è il campo d’azione privilegiato dei chatbot, in grado di esaurire la gestione dei ticket e la risposta alle domande più frequenti (FAQ) senza fare necessariamente ricorso all’operatore umano.

I sistemi AI sono in grado di sfruttare le funzioni vocali e testuali per interagire con i clienti e grazie all’integrazione con i CRM aziendali contribuiscono alla formazione di uno storico personalizzato per ogni cliente, che comprende tutte le sue richieste di assistenza e l’iter seguito per raggiungere la risoluzione dei problemi.

Questi dati risultano molto utili per le analisi e le operazioni di altri reparti aziendali, che interagiscono attraverso lo stesso CRM. Il reparto vendite potrà contattare personalmente il cliente per assicurarsi che il servizio ricevuto sia stato soddisfacente, mentre il reparto progettazione può acquisire una serie di feedback per migliorare costantemente il prodotto e i servizi offerti dal brand.

Intelligenza artificiale per la videosorveglianza e la pubblica sicurezza

La capacità di riconoscere le immagini dei sistemi AI consente di sviluppare applicazioni di videosorveglianza intelligenti sotto vari punti di vista. Ciò avviene ad esempio identificando la presenza di figure sospette nei pressi di posizioni sensibili (es. banche, uffici pubblici).

Le immagini dei pregiudicati sono inserite nei database delle forze dell’ordine e vengono utilizzate per costituire i dataset delle applicazioni di machine learning chiamate ad identificarli attraverso il riconoscimento automatico delle immagini provenienti in tempo reale dalle videocamere di sorveglianza.

Un altro sistema di prevenzione è dato dal riconoscimento dei movimenti in un determinato luogo, derivabile attraverso l’analisi dei flussi di spostamento. Se in luogo le persone tendono a spostarsi in un determinato modo, il rilevamento di una anomalia potrebbe infatti coincidere con la presenza di un sospetto, che si aggira nei pressi per pianificare un’attività criminale.

Lo scopo di queste applicazioni è quello di creare degli allarmi motivati, per consentire al personale addetto alla sicurezza di intervenire qualora ve ne sia l’effettiva necessità. Tali sistemi vengono adottati anche per la prevenzione e la gestione delle crisi nei casi delle calamità naturali, come i terremoti, gli uragani e le inondazioni.

intelligenza artificiale telecamere videosorveglianza
Le telecamere di videosorveglianza con algoritmi di intelligenza artificiale a bordo hanno molteplici applicazioni, tra cui l’analisi dei movimenti all’interno delle scena inquadrata.

Intelligenza artificiale per i sistemi antifrode

Il rilevamento di pattern anomali consente ai sistemi antifrode basati sulla AI di prevenire situazioni indesiderate, ed un esempio ricorrente deriva dalla sicurezza delle transazioni bancarie, mediante i processi di pagamento elettronico.

Se l’operazione di routine effettuata con una carta di credito comporta una sequenza informatica ben precisa, il discostamento da questa normalità operativa è possibile indice di un tentativo di truffa. Se il sistema di sicurezza rileva tali anomalie può pertanto attivare delle procedure di blocco preventivo, o, nei casi meno rilevanti, avvisare l’utente che potrebbe esserci un accesso non autorizzato ai suoi servizi, in modo che possa verificare che l’operazione citata sia stata in effetti svolta da lui.

Ciò accade di frequente quando un servizio di autorizzazione rileva impostazioni di accesso corrette, ma proveniente da posizioni o dispositivi differenti rispetto a quelli utilizzati di frequente.

Intelligenza artificiale per l’informazione e il giornalismo

I giornalisti digitali sono già realtà, grazie a sistemi AI in grado di elaborare un linguaggio assolutamente indistinguibile rispetto a quello elaborato da uno scrittore in carne ed ossa.

Diversi network dell’informazione utilizzano correntemente questi software soprattutto quando si tratta di elaborare notizie semplici sulla base di dati oggettivi, come i risultati dello sport, piuttosto che i report della giornata in borsa nel caso dell’informazione finanziaria.

Ad oggi i sistemi AI sono in grado di operare in maniera molto efficiente in questo ambito, molto legato alla routine, mentre non sarebbero ancora in grado di offrire un apporto critico nella redazione della notizia. In altri termini, scrivono benissimo ed associano alla perfezione i contenuti descritti ma non conoscono il senso logico di quello che stanno scrivendo.

Questo li rende estremamente efficaci nella selezione e nell’analisi di una grande quantità di dati, come la redazione di un report, ma piuttosto problematici nel caso in cui l’obiettivo corrisponda con la scrittura di articoli di approfondimento o di cronaca, dove il lavoro critico sulla notizia è essenziale soprattutto a monte della fase di scrittura.

Almeno da questo punto di vista i giornalisti e gli analisti, almeno per ora, possono avere al sicuro il loro posto di lavoro. Vista in chiave positiva, la presenza di sistemi AI nell’analisi dei dati e nella scrittura potrebbe in realtà ottimizzare l’operato di queste professioni.

Un giornalista che si avvale di tali strumenti può dedicare all’analisi critica la maggior parte del suo tempo, lasciando al software le operazioni automatizzabili e tremendamente dispendiose in termini di tempo, come la lettura e la scrittura di lunghi testi.

Default image
Francesco La Trofa
Da vent’anni attivo nella ricerca relativa alle tecnologie 3D, divulgatore sul tema delle applicazioni enterprise di tali tecnologie e autore di “VR Developer. Il creatore di contenuti in realtà virtuale ed aumentata” (2018), edito da Franco Angeli (vrdeveloper.info). Scrive di IT anche per il portale https://www.sergentelorusso.it/
Articles: 33