Le nuove tecnologie, l’uomo e quel passaggio che conduce dalla “digital innovation” alla “governance” del digital

“Non è più l’innovazione tecnologica in sé ciò che fa la differenza, ma è che cosa ne facciamo di questa innovazione”: ha origine da questo assunto la riflessione che il filosofo Luciano Floridi ha condiviso con noi e che abbraccia il concetto di “gestione” della trasformazione digitale che ci ha investito.

Il rapporto tra le nuove tecnologie e colui che le pensa, le sviluppa, le mette al mondo – ovvero l’uomo – non è affatto limpido e lineare.

Vittima e, insieme, carnefice di se stesso, impaurito dai cambiamenti profondi e rapidi del digitale e, allo stesso tempo, avido nel farne un uso e consumo per fini propri, l’uomo, all’interno di tale rapporto, fa mostra di comportamenti, di modi e di scopi, divenuti, in questi ultimi anni, oggetto di una riflessione dal respiro ampio, il cui nocciolo è “che cosa” vogliamo farne di quello che abbiamo creato e “come” intendiamo farlo.

In questa fase – osserva Luciano Floridi, filosofo, professore di filosofia ed etica dell’informazione all’Università di Oxford, nonché direttore del Digital Ethics Lab presso l’Oxford Internet Institute dello stesso Ateneo – non è più l’innovazione tecnologica in sé ciò che fa la differenza, ma è che cosa ne facciamo di questa innovazione. Non è alla digital innovation, ma è alla governance, alla “gestione” del digital, che ora dobbiamo guardare. E sottolinea:

Arriva il quantum computing. Bene. Ma che vogliamo farci con questa potenza di calcolo dalle capacità straordinarie? È questa la domanda da porci nel XXI secolo di fronte alle tecnologie emergenti e alla loro forza. Perché, se fino a ieri, ne siamo rimasti affascinati, oggi ci sono tutta una serie di questioni aperte da affrontare, che riguardano gli impatti della trasformazione digitale sulla società, sulla politica, l’educazione, l’informazione, il lavoro, l’ambiente

A lui la parola.

Professore, che tipo di rapporto esiste, in questo momento, tra le nuove tecnologie e l’uomo? Ritiene che l’uomo, oggi, sia al centro di tali tecnologie?

Luciano Floridi, filosofo, professore di filosofia ed etica dell’informazione all’Università di Oxford, nonché direttore del Digital Ethics Lab presso l’Oxford Internet Institute
Luciano Floridi, filosofo, professore di filosofia ed etica dell’informazione all’Università di Oxford, nonché direttore del Digital Ethics Lab presso l’Oxford Internet Institute dello dello stesso Ateneo

Personalmente, sono sempre stato piuttosto critico nei confronti di questa “centralità” da parte dell’uomo. Mettendo “noi” al centro, abbiamo distrutto questo pianeta. E, in epoche storiche differenti, a seconda di chi si poneva al centro, abbiamo distrutto minoranze, culture diverse. Certo, la domanda fa riferimento a un altro genere di centralità, ma è importante, a mio avviso, partire da una distinzione. Esiste una centralità “buona”, che noi tutti abbiamo a cuore e che, in un’ipotetica scelta assoluta tra tecnologia da un lato e umanità dall’altro, predilige la seconda, togliendo il primato alla tecnologia. Ma se, invece, la centralità rimanda a un utilizzo non equilibrato della tecnologia da parte dell’uomo, a un suo uso e consumo del tutto arbitrario, allora dovremmo fermarci a riflettere e cambiare indirizzo. Non lasceremo a nessuna generazione futura alcun pianeta se continuiamo a metterci esageratamente al centro. Dunque, la centralità “cattiva” dell’uomo deve essere rimossa, mentre la centralità buona deve potersi moltiplicare attraverso una maggiore attenzione all’uomo da parte della tecnologia.

Maggiore attenzione all’uomo da parte della tecnologia: che cosa significa nel concreto?

Porre la tecnologia al servizio dell’umanità. In questo modo, raggiungeremmo un obiettivo duplice, ovvero avremo sradicato la centralità “cattiva” dell’uomo e avremo dato a questo il compito di utilizzare la tecnologia mettendola al servizio di tutti, di tutte le culture, di tutti i ceti sociali, al servizio del pianeta, dell’ambiente, delle generazioni presenti e future.

Perché abbiamo paura dei cambiamenti che le trasformazioni tecnologiche, inevitabilmente, implicano?

Le innovazioni, i cambiamenti importanti, spaventano da sempre. Fin dai tempi della scoperta del fuoco e della ruota. Ma oggi la questione che si pone è diversa. Il tempo di trasformazione tecnologica si è compresso di tanti di quegli ordini di grandezza, che quella paura che, in passato, si estendeva su un periodo di tempo molto dilatato, oggi è, anch’essa, compressa. Decuplicando la velocità di trasformazione, abbiamo, proporzionalmente, decuplicato anche la paura. E, aggiungo, che la paura che oggi proviamo è ragionevole. La compressione temporale, unita alla straordinaria potenza di trasformazione delle tecnologie attuali, hanno contribuito a rendere la rivoluzione digitale qualcosa per la quale “si deve” avere ragionevole preoccupazione. Stiamo trasformando quello che ci circonda così velocemente e in maniera talmente radicale che, se non agiamo con equilibrio e non rimuoviamo quella centralità cattiva alla quale ho accennato, corriamo il rischio di andare incontro a problemi molto seri. Per semplificare molto, la rivoluzione agricola ha impiegato millenni per far sentire tutti i suoi effetti, quella industriale secoli, ma quella digitale solo decenni. Non sentirsi un po’ confusi, un po’ preoccupati, un po’ in apprensione sarebbe innaturale. Ma la paura deve trasformarsi in uno sprone a capire meglio le attuali trasformazioni e a fare meglio con le straordinarie tecnologie a nostra disposizione. Non deve essere l’anticamera di qualche forma di luddismo o di rassegnazione deterministica.

Esiste, a suo avviso, una mala informazione riguardo alle nuove tecnologie?

Esiste e di questo do grandi responsabilità ai giornalisti e a chi lavora, ad esempio, nelle Università, nei centri di ricerca e nelle divisioni R&D delle grandi aziende. Purtroppo, spesso, l’atteggiamento di studiosi, ricercatori e sviluppatori tende a porre l’accento su alcuni aspetti, piuttosto che su altri, delle scoperte realizzate, delle nuove tecnologie messe a punto. E le ragioni sono diverse. Può trattarsi semplicemente in un esagerato entusiasmo, oppure del desiderio di fare carriera o di ottenere finanziamenti. Sul versante della comunicazione, c’è, invece, l’inseguire la notizia da prima pagina, il “l’ho detto prima io”, spesso senza analizzare, verificare e chiedersi se quella notizia è oggettiva oppure se è solo il risultato di un’enfatizzazione da parte del ricercatore di turno. Queste sono le due forze principali che alimentano la mala informazione. Poi c’è un altro fenomeno, che vede la cattiva informazione autoalimentarsi e avvitarsi in un circolo vizioso, in base al quale tanta più cattiva informazione c’è, tanto peggio è l’informazione successiva.

Cosa si può fare per disinnescare questo circolo vizioso?

Bisogna innescare il circolo “virtuoso” opposto, non basato sul “tanto male tanto peggio”, ma sul “tanto bene, tanto meglio”. E questo lo si ottiene con tanto lavoro e tanta buona volontà e inserendo buona informazione che scaccia quella cattiva. Riguardo a quest’ultimo punto, trovo, però, che manchino quei meccanismi in grado di facilitare tali processi. E mi riferisco, in particolare, a quei Business Model che, oggi, sul Web sembrano attrarre cattiva informazione, in un ingranaggio che premia chi fa mala informazione e punisce chi, al contrario, è autore di una buona informazione. Ecco, bisognerebbe agire su questo ingranaggio, il che significa anche intervenire sulla pubblicità presente sui media, regolamentandone la quantità e creando equilibrio, armonia, tra informazione con la “i” maiuscola – che deve prevalere – e contenuti a pagamento.

Quali sono i filoni più urgenti sui quali intervenire affinché le nuove tecnologie abbiano un esito positivo? E qual è il ruolo della politica in merito?

Tutte le questioni inerenti alla riservatezza e alla protezione dei dati personali, allo sfruttamento di tali dati da parte di terzi e all’impatto che questo fenomeno ha sulla libertà, l’autonomia e la dignità dell’individuo, rappresentano tematiche importanti, che dobbiamo costantemente presidiare. A queste aggiungo un altro argomento, a mio parere, altrettanto urgente, legato alla mancanza di competizione tra le grandi aziende del mondo digitale. Non esiste, ad oggi, un reale competitor di Google come motore di ricerca, né un vero competitor di Facebook come social newtwork. Che cosa significa questo? Che stiamo assistendo a un appiattimento dell’offerta, all’assenza di una pluralità di contenuti validi. La sana competizione, la concorrenza leale tra più offerte, ci permette di scegliere. E non esiste più libertà di scelta, quando non esiste più un menu. C’è, poi, un altro tema sul quale mi piacerebbe fare luce e che ha a che vedere col ritorno sociale di questi grandi colossi del digital. Mi domando: come utilizzano le straordinarie tecnologie che sviluppano e i loro importanti introiti per fare del bene? Fino a che punto hanno un ruolo di buona cittadinanza? E, in tutto questo, la politica con la P maiuscola può fare molto. Può trasformare queste straordinarie forze di mercato in forze buone per la società, per le persone, per l’umanità tutta.

Capitalismo di sorveglianza e perdita di libertà: corriamo realmente dei rischi? E quali?

Trovo che il problema non sia il capitalismo che ci carpisce dati e informazioni personali. Il rischio più grande che potremmo correre, stando a questo schema, è che, per mezzo dei nostri dati, ci raggiungano per proporci più t-shirt, più merendine oppure per venderci prodotti che non ci interessano affatto. Pensi che trent’anni fa, la nostra preoccupazione, il nostro vero problema, non era il capitalismo di sorveglianza, ma la sorveglianza da parte dello Stato. A quel tempo, era ancora viva la percezione di essere oggetto di un controllo politico. Ecco, quel tipo di preoccupazione era forte. Oggi, invece, il vero pericolo potrebbe derivare da una saldatura tra questi due tipi di controllo, ossia tra sorveglianza politica – come quella che esiste in Cina – e sorveglianza da capitalismo statale. Finché la sorveglianza è fatta di un capitalismo che mi deve vendere il nuovo modello di frigorifero, resto tranquillo. È la “saldatura” che mi allarma. Cambridge Analytica – società di consulenza britannica che ha utilizzato a scopi elettorali i dati social di milioni di americani – ci ha inquietato perché è stata l’esempio concreto di saldatura tra capitalismo di sorveglianza e controllo politico.

Default image
Paola Cozzi
Giornalista dal solido background acquisito lavorando presso i più prestigiosi Editori italiani | Ventidue anni di esperienza nello sviluppo di prodotti editoriali b2b, cartacei e digitali | Vent'anni alla direzione di una testata b2b in tema di Sicurezza anticrimine di tipo fisico | Attualmente mi dedico al Giornalismo Digitale ed esploro nuove tecniche e nuovi stili di comunicazione

Newsletter Updates

Enter your email address below to subscribe to our newsletter