Intelligenza artificiale e inclusione nei social network e nel metaverso

Le tecniche cognitive dell’intelligenza artificiale consentono di supportare lo sviluppo di interfacce sempre più efficaci nell’abbattere le barriere fisiche e culturali nell’esperienza sociale, dalla traduzione simultanea alla democratizzazione delle procedure digitali.

TAKEAWAY

  • L’intelligenza artificiale consente di sviluppare interfacce sempre più semplici da usare anche per i soggetti più svantaggiati, grazie ad assistenti virtuali dotati di funzioni cognitive evolute.
  • I sistemi di traduzione simultanea AI based consentiranno presto di superare le barriere linguistiche, con applicazioni in grado di connettere direttamente oltre 100 lingue.
  • In un futuro più remoto vedremo diffondersi sistemi HMI sempre più evoluti, basati sulla proficua sinergia tra realtà virtuale, robotica e intelligenza artificiale, per superare le barriere all’inclusione sia nel mondo fisico che nel metaverso.

Intelligenza artificiale e inclusione, questo è il problema, ma a che punto è la soluzione? Le tecniche AI possono offrire un contributo enorme per contenere le discriminazioni dei soggetti più svantaggiati. Molto è già stato fatto, ma sarà soprattutto nel medio e lungo termine che vedremo applicazioni in grado di abbattere per sempre quelle barriere che oggi paiono addirittura insormontabili, soprattutto se pensiamo alle relazioni sociali sul Web. Vediamo pertanto come intelligenza artificiale e inclusione siano destinate a cementare una sinergia indissolubile nell’esperienza sui social network e nel metaverso prossimo venturo.

Intelligenza artificiale e inclusione: le interfacce del metaverso

In tema di intelligenza artificiale e inclusione, grazie alla combinazione della grande varietà di tecniche riconducibili all’AI è possibile ridurre le distanze nella comunicazione sul web, agevolando sia i disabili che coloro che non riescono a fruire appieno delle esperienze sociali a causa di una scarsa cultura digitale, spesso derivante dal contesto geografico.

Tale prospettiva emerge soprattutto quando si parla di applicazioni social nella prospettiva del metaverso, una next gen di fatto ancora tutta da inventare, in cui la componente immersiva dell’esperienza risulterà più umano-centrica rispetto alle attuali applicazioni flat, coinvolgendo in maniera molto più intensa tutti i sensi di cui disponiamo.

Negli ultimi anni, abbiamo assistito alla crescente diffusione del cognitive computing, attraverso tecniche come il Natural Language Processing (NLP) che, come il nome stesso suggerisce, consentono alla macchina di comprendere in maniera naturale il linguaggio umano e di elaborare una forma di interazione molto più spontanea ed efficiente rispetto ai sistemi conversazionali di precedente generazione.

Il cognitive computing consente, infatti, alle macchine di interagire con l’uomo imitando il modo in cui una persona pensa, ossia come prenderebbe una decisione sulla base dei suoi percorsi logici. Gli assistenti virtuali di prossima generazione saranno quindi in grado di compensare nativamente i gap nella comunicazione, ad esempio descrivendo verbalmente un contenuto visuale a un soggetto ipovedente o sottotitolando in tempo reale le conversazioni audio per renderle accessibili al pubblico non udente.

Si tratta di funzioni attualmente già oggetto di molte sperimentazioni concluse con successo, che vanno ora interfacciate in maniera più efficace, anche in funzione delle varie differenze linguistiche. La sensazione è di poterne disporre in maniera diffusa a breve termine.

Sempre grazie all’intelligenza artificiale, i computer stanno sensibilmente migliorando le interfacce touchless e la gesture recognition, per comunicare con l’utente senza la necessità di un’interazione con un dispositivo fisico. A livello hardware si erano viste buone cose fin dai tempi del famigerato Microsoft Kinect. Mancava soprattutto una controparte software in grado di recepire al meglio l’operato dei sensori.

In merito alle applicazioni, rimane da sciogliere l’ingarbugliatissimo nodo relativo alla privacy, ma questa è tutta un’altra storia. Torneremo presto sull’argomento. Ora invece ci preoccuperemo di capire come la AI supererà le barriere linguistiche.

Intelligenza artificiale per la traduzione simultanea multilingua

Sin dai tempi antichi, le differenze linguistiche hanno comportato una delle principali barriere nella comunicazione scritta e verbale tra i popoli. Gli ambienti virtuali dei social network e del metaverso superano per definizione i confini fisici, prospettando miliardi di persone in un unico ambiente digitale, attraverso la rete internet.

Si tratta di un’opportunità unica, senza precedenti nella storia delle comunità, che sta cambiando per sempre il nostro modo di vivere e lavorare. Tuttavia, le criticità non mancano. Per democratizzare la comunicazione sociale è fondamentale consentire a ognuno di scrivere e parlare nella propria lingua e di comprendere senza sforzi i contenuti provenienti dagli altri utenti.

Il fatto che si debba per forza conoscere l’inglese per non fare la figura dell’analfabeta in una call di lavoro non è naturale, costituisce di fatto una discriminazione culturale che spesso prescinde dalle competenze che sarebbero sufficienti per svolgere con successo la propria professione. Tale convenzione si traduce inoltre in un elemento di oggettiva difficoltà per chi è soggetto ad alcune disabilità a livello sensoriale. Per fortuna, tutto questo starebbe finalmente per finire e, tanto per cambiare, c’è sotto lo zampino dell’intelligenza artificiale.

In tema di intelligenza artificiale e inclusione, grazie a tecniche come il Natural Language Processing (NLP) e ad applicazioni text-to-speech e voice-to-text, è possibile sviluppare sistemi di trascrizione efficaci, ma non siamo ancora in grado di garantire una traduzione simultanea multilingua in tempo reale.

Il recente evento “Meta Inside the Lab: costruire il metaverso con l’AI” ci ha mostrato i progressi che il reparto di ricerca e sviluppo dell’azienda di Mark Zuckerberg ha implementato nel suo traduttore multilingua AI based. Il suo esordio su larga scala, secondo le attuali indicazioni, avverrà soltanto quando il sistema sarà in grado di garantire una traduzione simultanea su circa 100 lingue, in modo da garantire in termini pratici l’inclusione di tutti i paesi del mondo.

Attualmente i traduttori più evoluti in circolazione operano comunque traducendo una sola lingua alla volta, usando l’inglese come lingua ponte. Questo vuol dire che se dobbiamo tradurre dal tedesco al cinese, un attuale traduttore multilingua tende a tradurre dal tedesco all’inglese e dall’inglese al cinese. Tale procedimento, oltre a risultare oltremodo lento e dispendioso, offrirà sempre un risultato forzato, almeno formalmente distante dall’intenzione originale. I traduttori AI based di prossima generazione lavoreranno con un approccio many-to-many, che consiste in una vera traduzione simultanea in tutte le lingue implementate nell’applicazione.

Una successiva evoluzione, presentata ancora una volta da Meta AI tra le applicazioni in fase di sviluppo per l’ecosistema del metaverso, consisterà nell’eliminazione della componente testuale, bypassando il processo voice-to-text e text-to-speech, per effettuare una traduzione voice-to-voice nativa, senza la necessità di alcun processo intermedio. Siamo sulla buona strada.

Intelligenza artificiale e inclusione: AI e blockchain, gli smart contract per un Web più democratico

In rete esistono molte situazioni apparentemente democratiche che in realtà finiscono per accentuare le differenze, favorendo in maniera evidente chi dispone di avanzate competenze digitali, anche in un contesto in cui si ricerca una condizione di assoluta equità, con tutte le buone intenzioni del caso.

Un caso ricorrente è dato dalla vendita degli NFT (Not Fungible Tokens). Di recente Adidas ha organizzato un evento online per vendere una collezione in serie limitata di un prodotto digitale, limitando la disponibilità a due pezzi per ogni acquirente. Per dovere di cronaca, la procedura è durata circa un secondo e un singolo utente, grazie a una serie di bot molto ben orchestrati, è riuscito ad aggiudicarsi ben 330 NFT, ridicolizzando il limite imposto per ogni account.

Tali circostanze sono oggetto di fortissime speculazioni che finiscono per avvantaggiare sempre i soliti noti, senza garantire a tutti le stesse possibilità. Tuttavia, con modalità tuttavia già molto diffuse nei sistemi anti-frode, l’AI potrebbe garantire soluzioni efficaci anche nel contesto della blockchain, dove la decentralizzazione rende più complesso il controllo di certe operazioni, che non possono tuttavia sfuggire alla sua tracciabilità.

Intelligenza artificiale e inclusione possono andare ancora una volta a braccetto, in quanto grazie alle tecniche di Machine Learning e Computer Vision è possibile sviluppare, ormai con una certa facilità, delle applicazioni in grado di rilevare i comportamenti anomali facilmente riconducibili all’azione di un bot, impedendogli di completare una delle condizioni previste dallo smart contract che regola la transazione del NFT.

Eye tracking, esoscheletri intelligenti e Brain-Computer Interface (BCI)

Per assicurare esperienze sempre più immersive, sono in atto grandi sforzi di ricerca e sviluppo sulle interfacce uomo-macchina, altrimenti note come Human-Machine Interface (HMI). Tale approccio mira a costruire interfacce multisensoriali in grado coinvolgere tutti i sensi, soprattutto attraverso le connessioni neurali.

Le tecnologie di tracciamento oculare consentono sin d’ora di interagire con gli utenti senza la necessità di controlli touch manuali. In tema di intelligenza artificiale e inclusione, la combinazione tra le interfacce dotate di un sistema eye tracking e AI consente di implementare degli assistenti in grado di facilitare l’utente grazie alle capacità predittive del Machine Learning, che anticipano di fatto l’occhio umano, predisponendo le condizioni più efficaci per l’esperienza visiva.

Simili applicazioni sono già implementate per il foveated rendering dei visori di realtà virtuale, che scala la risoluzione dell’immagine in funzione del punto di osservazione per ottimizzare la potenza di calcolo, destinando maggiori risorse laddove si direziona effettivamente l’attenzione dell’utente.

Un altro fronte aperto della ricerca è relativo agli esoscheletri, di cui abbiamo già diverse applicazioni molto promettenti, tuttavia difficilmente spendibili su larga scala per via del costo molto elevato. Oltre a potenziare l’uomo, sollevandolo dagli sforzi più intensi, ad esempio nelle attività militari o di logistica, gli esoscheletri consentono di recuperare la mobilità articolare a chi è stato ad esempio vittima di gravi lesioni alla colonna vertebrale. L’integrazione dell’AI nei sistemi di controllo risulterà fondamentale nell’ottimizzare certe situazioni e rendere molto più sicuro l’impiego di tali dispositivi robotici.

Esempi di dispositivi che consentono di assistere l’uomo nell’esecuzione di task specifici, migliorando la postura e riducendo notevolmente lo sforzo muscolo-scheletrico nello svolgimento di azioni ripetitive, nonché il rischio di infortuni.

Gli esoscheletri e moltissime altre interfacce saranno sempre più utili all’uomo quando verranno combinate con le connessioni neurali. In attesa di capire ciò che vorrà fare Elon Musk con la sua Neuralink oltre a far giocare le scimmie a Pong, negli ultimi anni sono nate molte start-up attive nella ricerca e sviluppo di soluzioni BCI concepite per superare una condizione di disabilità motoria o sensoriale. È il caso di Cognixion, che integra BCI e realtà virtuale per supportare esperienze in grado di migliorare la qualità della vita delle persone soggette a varie tipologie di disabilità.

Le connessioni neurali costituiscono uno degli ambiti più sfidanti dell’interazione tra uomo e macchina e l’intelligenza artificiale, grazie alle sue funzioni cognitive, potrà contribuire in modo significativo al funzionamento delle interfacce.

Lo sviluppo procederà almeno su due fronti. Quello delle interfacce neurali wireless non invasive, supportate dalle nanotecnologie, e quello che prevede una connessione diretta e cablata tra il nostro sistema nervoso e quello artificiale dei sistemi cibernetici, simili a quelli che molte volte abbiamo visto all’opera nell’immaginario sci-fi cyberpunk.

Realtà virtuale, robotica, intelligenza artificiale e inclusione costituiranno temi destinati a dialogare costruttivamente, per dare voce a un futuro in cui la tecnologia potrà finalmente consentire all’uomo di superare quelle barriere cognitive, sensoriali e motorie che tuttora limitano e condizionano in negativo l’interazione sociale e la vita di troppe persone.

Default image
Francesco La Trofa

Da vent’anni attivo nella ricerca relativa alle tecnologie 3D, divulgatore sul tema delle applicazioni enterprise di tali tecnologie e autore di “VR Developer. Il creatore di contenuti in realtà virtuale ed aumentata” (2018), edito da Franco Angeli (vrdeveloper.info). Scrive di IT anche per il portale https://www.sergentelorusso.it/

Articles: 70

Newsletter Updates

Inserisci il tuo indirizzo email qui sotto per iscriverti alla nostra newsletter