Facebook nuoce, indirettamente, alla salute?

Il concetto di “nuoce gravemente alla salute”, riferito a Facebook, può apparire esagerato: una chat o un post non hanno mai ucciso direttamente nessuno. Possiamo pensare che Facebook, indirettamente al pari del fumo, causi danno agli umani? Vediamolo.

In “Thank you for smoking”, un senatore democratico mostrava un pacchetto di sigarette alla stampa; sul pacchetto era disegnato un teschio. Sotto al teschio la parola “nuoce gravemente alla salute”. Il film è un must per chiunque abbia ironia e fumi.

Il concetto di “nuoce gravemente alla salute”, riferito a Facebook, può apparire esagerato: una chat o un post non hanno mai ucciso direttamente nessuno.

In verità, nemmeno il fumo ha mai ucciso direttamente nessuno (come eran soliti sostenere i lobbysti del fumo nel film): è il fumo indiretto che ti nuoce, così viene spiegato sul Lung.org.

Possiamo pensare che Facebook, indirettamente al pari del fumo, causi danno agli umani? Vediamolo.

Facebook come le Big Tobacco

Se il paragone tra tabacco e Facebook può sembrare eccessivo, persino offensivo, è bene comprendere che non è “farina del mio sacco”.

Dobbiamo introdurre il signor Tim Kendall. Per molti anni Tim è stato il responsabile della monetizzazione di Facebook. Il suo lavoro consisteva nel trovare soluzioni e strategie per valorizzare la piattaforma, detto in modo semplice, tirarci fuori soldi.

Negli ultimi mesi il signor Kendall, ora ex dipendente del signor Zuckerberg, ha rilasciato una testimonianza presso il comitato della camera per Commercio e Energia del congresso americano. Tema della testimonianza il modus operandi di Facebook: la strategia che la piattaforma ha implementato per aumentare il tempo e il numero di utenti della piattaforma. Vale la pena tradurre letteralmente le parti più importanti, pur suggerendo di leggere l’intero documento.

“I servizi di social media che io e altri abbiamo contribuito a costruire negli ultimi 15 anni sono serviti per fare a pezzi le persone ad un allarmante velocità e intensità. (…) Abbiamo cercato di minare (tradotto da Mine, intesa come estrazione mineraria Nda) quanta più attenzione umanamente possibile e convertirla in profitti storici senza precedenti. (…). Abbiamo preso una pagina del Playbook (“libro dei giochi” letteralmente, liberamente testo informale di strategie di un’azienda, Nda) delle Big Tobacco (le grandi multinazionali del fumo, Nda) lavorando per far si che la nostra offerta creasse dipendenza dall’inizio. (…) Le aziende di tabacco all’inizio cercarono di rendere la nicotina più potente. Ma compresero che non era abbastanza per crescere il business velocemente come volevano. Così decisero di aggiungere zucchero e mentolo alle sigarette così potevi trattenere il fumo nei tuoi polmoni per periodi più lunghi. A Facebook abbiamo aggiunto aggiornamenti di status, la possibilità di etichettare le foto e i like che hanno reso lo status e la reputazione primari e hanno aperto il terreno per un (qualunque Nda) giovane con crisi adolescenziali. Permettere a disinformazione, teorie cospirazioniste e fake news di fiorire era come per le Big Tobacco i bronco dilatatori, che permettevano al fumo delle sigarette di coprire una maggior superfice dei polmoni. I contenuti incendiari da soli non erano abbastanza. Per continuare a crescere la base utenti e in particolare la quantità di tempo e attenzione che gli utenti donavano a Facebook, loro necessitavano di più. Le aziende del tabacco aggiunsero ammoniaca alle sigarette per aumentare la velocità con la quale la nicotina arrivava al cervello. Contenuti estremi, incendiari, immagini scioccanti, titoli che incitavano all’indignazione… questo seminava divisione e tribalismi (la frammentazione sociale di un gruppo in sottogruppi più chiusi e settari, Nda). Questi contenuti portarono un livello di ingaggio (degli utenti Nda) e profitti senza precedenti. La capacità di Facebook di consegnare questo contenuto incendiario alla giusta persona, nel giusto momento, nel giusto modo… questo era l’ammoniaca.”

Cosa dicono gli esperti

Sul merito di come i social network influenzino (spesso negativamente) la mente degli umani vi sono numerosi studi. Uno degli ultimi progetti di analisi più interessanti è un progetto di ricerca e mappatura aperto, che raccoglie una lista dei danni cagionati dai social network (non si fa riferimento diretto a Facebook, ma molti degli intervistati e citati fan riferimento ad esso).

Tra i danni di maggior rilievo si possono riassumere brevemente.

  1. Errata percezione del mondo: proliferazione di fake news, teorie cospirazioniste, disinformazione
  2. Problemi di attenzione e comprensione: decrescita di capacità di memoria, difficoltà a focalizzarsi su elementi specifici etc..
  3. Problemi mentali o fisici: stress, solitudine, dipendenza mentale dai social network, aumentato rischio di comportamenti poco salutari
  4. Relazioni sociali: meno empatia, maggior confusione, errata comprensione degli atteggiamenti altrui
  5. Vita politica ed elezioni: processo politico distorto, percorso democratico danneggiato, eventi di propaganda violenti ed estremi
  6. Oppressione sistematica: amplificazione del razzismo, intolleranza religiosa, sessismo, omofobia
  7. Impatti sulle future generazioni (in crescita ora con i social): accresciuta tendenza a sviluppare forme di autolesionismo (nei casi più gravi suicidio), accresciute sfide mentali, sociali fisiche per i giovani, estremizzazione di bullismo digitale
  8. Sindrome del “Non nel mio giardino”: i maggiori Ceo e impiegati delle big tech riducono sensibilmente l’accesso dei loro figli alle tecnologie delle aziende di cui essi sono dipendenti (ci sarà un perché?).

Parlando di dipendenti ed ex dipendenti di Facebook…

Ma cosa dicono le persone che in Facebook ci han lavorato o ci lavorano?

Sean Parker, uno dei primi soci del signor Zuckerberg, già nel 2017 diceva che “Dio solo sa cosa Facebook farà ai nostri figli”.

Si potrebbe dire che prima il signor Parker ha fatto i soldi (e tanti) con Facebook e poi lo scarica nella toilette. Forse un poco ipocrita? Perchè no. Meglio allora prendere in considerazione dipendenti più normali, rispetto a lui.

Parakilas non è un fondatore. Ma un semplice manager di prodotto. Il suo nome emerge in merito allo scandalo di Cambridge analytica. Un evento che, per primo, ha cominciato a inclinare, a livello mondiale, il brand di Facebook. Il danno causato da questo scandalo alla piattaforma è stato importante. Ancor più importante il danno cagionato alle elezioni che sono state, indirettamente, influenzate dai dati estratti, a loro insaputa, dai cittadini (tramite app 3° non proprietà di Facebok).

Si potrebbe ipotizzare, comunque, che Facebook fosse attento a non lasciare che preziosi dati fossero cosi facilmente estrapolabili, a potenziale danno dei suoi utilizzatori. E invece, come spiega Parakilas “ uno dei modi migliori per far si che gli sviluppatori (terzi Nda) fossero interessati alla piattaforma e ci sviluppassero delle App era dare loro accesso a questi dati.” Come ha spiegato al Guardian Parakilas, appena giunto alla sede di Facebook gli venne detto che la decisione di vietare a qualche app 3° l’accesso a Facebook doveva richiedere l’autorizzazione di Zuckerberg. Questo sistema di comando fa pensare che l’importanza delle App 3° fosse particolarmente rilevante.

Come in seguito spiegò al governo inglese “C’era un livello molto basso di controllo; durante i miei 16 mesi a Facebook non ricordo un singolo audit di uno sviluppatore che stava acquisendo dati dal social network

Inseguito scrisse una open letter sul New York Times spiegando che “è un mix molto pericoloso: una azienda che raggiunge la maggior parte delle nazioni del mondo ogni giorno e ha il più dettagliato pacchetto di dati personali mai assemblato prima, ma non ha nessun incentivo a prevenirne l’abuso. Facebook deve essere regolamentata in modo più stretto o spezzettata, in modo che nessuna singola entità possegga tutti questi dati. La compagnia non ci proteggera da sola, e la nostra democrazia è a rischio”.

Considerando i fatti di Washington, parole profetiche.

Ultimo, ma non meno importante tra gli ex dipendenti che hanno avuto il coraggio di parlare ai media, c’è Chamath Palihapitiya. Uno dei primi manager di Facebook che, parlando di democrazia e della piattaforma dichiarò che  “abbiamo ottimizzato (Facebook Nda) per una profittabilità a breve termine, a costo della nostra democrazia”: we optimized for short-term profitability at the sake of our democracy”.

È obbligatorio ricordarci che tutte queste testimonianze provengono da ex dipendenti o ex soci. È plausibile pensare che, nelle interviste, pur se date nella massima onestà, si siano voluti togliere qualche “sassolino “ nella scarpa.

Vale la pena quindi andare alla fonte e analizzare alcune delle affermazione del signor Zuckerberg, in tempi non sospetti.

Parlando di algoritmi e piattaforme è lo stesso fondatore a spiegare, in un post del 2018, come i discorsi in Facebook tendono sempre di più ad estremizzarsi. “uno dei problemi maggiori dei social network, quando lasciati senza controlli, è che le persone partecipano in modo sproporzionato in contenuti provocatori.”

Stante le dichiarazioni di Kendal poco sopra, pare che questi contenuti infiammatori non siano cosi casuali né “malvisti” in Facebook.

È lo stesso Facebook a confermare che 1 view ogni 1000 è su contenuti di odio.

Un numero apparentemente irrisorio, ma se consideriamo che ci sono 2,7 miliardi di utilizzatori di Facebook, e i contenuti della piattaforma riceve 500 milioni di view al giorno. Fatti due conti semplici milioni di view di contenuti di odio.  

Con queste riflessioni, colte in differenti anni, giusto per mostrare che il tema Facebook & popolazione non è una cosa nata con l’incidente di Washington  (che approfondiremo tra poco), riflettiamo insieme come la piattaforma può aver influenzato, indirettamente, la vita degli umani. Un’influenza non proprio positiva e salutare, a quanto pare.

Purghe etniche e massacri ispirate dai pettegolezzi

Osserviamo come i social network, in particolare Facebook, hanno influenzato, indirettamente, la vita di milioni di non occidentali.

Facebook è usato da miliardi di persone. Nel resto del mondo l’algoritmo di Facebook è plausibile che, come è desiderio del suo fondatore, abbia la capacità di condividere, riunire e connettere le persone.

Forse in Myanmar non la vedono cosi. Il caso storico di come la purga e i massacri della minoranza mussulmana dei Rohingya sia stata pesantemente influenzata, indirettamente, da Facebook è cosa nota. Lo spiegano nero su bianco le Nazioni unite: il rapporto è chiaro e difficile da contestare. Alla base del coinvolgimento, indiretto, di Facebook la mole di “voci” che erano presenti sui gruppi di discussione della piattaforma, in merito ai Rohingya. In una nazione “vergine”, dal punto di vista dei social, queste voci si trasformarono presto in azioni fisiche: la tragedia dei Rohingya è sotto gli occhi di tutti. Lo stesso Facebook ha ammesso di essere stato deficiente, nel gestire il Myanmar. Si potrebbe suggerire che sia un caso isolato.

In Bangladesh le “voci” su Facebook hanno aumentato le violenza. Tanto che lo stato ha cercato di mettere un blocco alla diffusione della piattaforma sul dispositivi mobili. Anche in Sri Lanka hanno avuto qualche problema, indirettamente, a causa di Facebook. Lo spiega bene, a partire dal titolo, il New York times che titolava “dove le nazioni sono una scatola infiammabile Facebook è la scatola di fiammiferi”. Nell’analisi si spiegava che gli scontri civili, che dilaniano lo Sri Lanka, sono stati causati da false voci hanno messo i buddisti contro i mussulmani.

Anche la grande India è stata colpita, indirettamente, dall’influenza di Facebook. Le voci che sono girate sulla piattaforma hanno dato luogo a folle di violenti che hanno scatenato odio e morte nella nazione del Gange.  

Se i non occidentali sono facilmente influenzabili da Facebook forse noi occidentali, più maturi, siamo differenti.

Facebook e gli americani

Se osserviamo i fatti di Washington, nessuno potrebbe contestare una singola parola alla testimonianza di Kendall e degli altri ex dipendenti e fondatori (Zuckerberg incluso).

Per assurdo l’algoritmo di Facebook ha fatto (lo diciamo come se fosse una sua scelta, non è una sua libera iniziativa) molto di più.

Molti in TV avranno visto, in questi giorni, i video di protestatori che indossavano corpetti anti proiettili, caschi tattici (di quelli utilizzati da mercenari o soldati nelle aree di guerra) e altri abbigliamenti di militari. Questi tipi di prodotti sono in vendita ovunque in America e si possono ordinare on line. Ovviamente i siti e-commerce che vendono queste attrezzature paramilitari fanno pubblicità in rete. Viene da domandarsi… “indirettamente” Facebook potrebbe aver contribuito ad equipaggiare questi protestatori. Quando dico “indirettamente” intendo che Facebook in se non ha fatto nulla ma, indirettamente si intende, il suo algoritmo (questa entità senza padroni ne genitori, a quanto pare di capire spesso dalle dichiarazioni del fondatore) potrebbe aver inviato pubblicità mirate ai protestatori.

Sembrerebbe improbabile, scioccante e anche preoccupante se i gruppi di protestatori, i più violenti in particolare, oltre ad avere i loro luoghi di confronto virtuale in Facebook, avessero anche ricevuto la pubblicità giusta nel momento giusto… e invece ecco qui. Sembra quasi che l’algoritmo di Facebook abbia pensato “tu protestatore non vuoi indossare una bella armatura protettiva… quando fai le tue cose etc..”. I bellissimi post pubblicitari nei gruppi di Facebook, cortesemente inviati li dall’algoritmo di Facebook, come riporta Buzzfeed in una lunga e dettagliata analisi. Nelle pubblicità superbamente indirizzate ai protestatori (futuri soggetti di Washington forse) c’erano belle foto di fucili semi automatici (che si dice fossero presenti tra la folla), caschi, corpetti anti proiettili. In pratica il kit del bravo protestatore, tutto disponibile on-line e cortesemente condiviso ai singoli facinorosi dall’algoritmo della piattaforma.

E non è solo Washington. Le “voci” su Facebook sono ormai pandemiche in tutta l’America: St. George per il black lives matter, Minneapolis, Louisville, Idaho, Englewood etc..   

Ovviamente Facebook non ha fatto direttamente nulla. Non vende armi, non incita alla violenza, ma indirettamente, sono in molti a riconoscere che la piattaforma debba essere seriamente sistemata.

Lo stesso Zuckerberg ha invitato i legislatori a moderare Facebook. Legislatori che, in alcuni casi come si riporta dal 2019, hanno ricevuto donazioni da Facebook. Viene da domandarsi se il suo invito sia sincero oppure, come sembrano riportare le varie indagini aperte nei confronti di questa piattaforma (la 230, monopolio etc..), le affermazioni del signor Zuckerberg possano essere riassunte in un “predicare bene, razzolare male”.

Default image
Enrico Verga
Analista ed editorialista | Nasce comasco e diviene milanese, si laurea in Scienze politiche internazionali alla Università Cattolica del Sacro Cuore. Segue la sua ispirazione business e diventa consulente strategico e istituzionale per aziende italiane che vogliono innovarsi e accrescere il proprio business. Pubblica le sue analisi e osservazioni anche su il Sole 24 ore, Fortune, Forbes, Agi, Fomiche, Linkiesta, Manager Italia, Longitude.
Articles: 10