L'arrivo in Italia della nuova modalità di ricerca basata sull'intelligenza artificiale Gemini 2.5 segna una svolta epocale per l'accesso all'informazione online. Si passa da una logica di "keyword" a un'interazione dialogica, con impatti profondi per editori, aziende e utenti. Mentre Google promette una ricerca più intuitiva e potente, l'ecosistema digitale si interroga sulle conseguenze: dalla drastica riduzione del traffico ai siti esterni alla necessità di ripensare da zero le strategie di visibilità.

Quando un gigante tecnologico che per vent’anni ha organizzato il sapere del web introduce una modalità di ricerca “costruita sui modelli di intelligenza artificiale“, non stiamo assistendo a un semplice aggiornamento di prodotto. Stiamo attraversando una transizione epocale nel modo in cui le informazioni circolano, vengono scoperte e vengono monetizzate. L’arrivo di Google AI Mode in oltre quaranta paesi, tra cui l’Italia, Germania, Spagna e Polonia, rappresenta molto più di un cambio di interfaccia: è il passaggio dalla ricerca come accesso ai dati alla ricerca come forma di ragionamento. E questo passaggio sta ridisegnando profondamente gli equilibri dell’ecosistema digitale.


La ricerca diventa conversazione. Con AI Mode, Google passa da un modello basato su parole chiave a un’interazione dialogica fondata sull’intelligenza artificiale generativa (Gemini 2.5). Le risposte non sono più liste di link, ma sintesi ragionate e personalizzate: un cambio di paradigma cognitivo e informativo che ridefinisce il modo in cui scopriamo e interpretiamo il sapere online.
Crisi e ridefinizione del traffico web. I dati mostrano un calo significativo dei clic verso siti esterni (fino al 90% delle ricerche senza clic) e una redistribuzione del valore informativo: chi viene citato dall’IA non necessariamente riceve traffico. Il rischio è la concentrazione dell’attenzione dentro l’ecosistema Google, con impatti economici e di pluralismo soprattutto per i piccoli editori.
Nuove strategie e interrogativi culturali. Emergono approcci come la Generative Engine Optimization (GEO) per “dialogare” con i modelli AI, ma la sfida va oltre la tecnica: riguarda la sostenibilità del giornalismo, la qualità dell’informazione e il futuro dell’esplorazione conoscitiva. La domanda di fondo resta aperta: quanto spazio resterà alla curiosità umana in un mondo dove le risposte ci trovano prima ancora di cercarle?

La modalità AI di Google, basata sui modelli Gemini 2.5, introduce un paradigma radicalmente diverso da quello della ricerca tradizionale. Mentre per due decenni abbiamo interrogato Google per ottenere liste di link da esplorare, AI Mode ci restituisce sintesi ragionate, percorsi logici e risposte strutturate. La differenza non è solo estetica: è strutturale e cognitiva.

Come ha spiegato Hema Budaraju, VP della Ricerca Google, durante un incontro con giornalisti, Google AI Mode è stata progettata per affrontare domande “molto più lunghe, difficili, complesse e sfumate” rispetto alla ricerca tradizionale. Il sistema utilizza una tecnica chiamata query fan-out: la domanda iniziale viene scomposta in sotto-argomenti e rilancia in rete centinaia di richieste simultanee. I risultati vengono poi organizzati in uno snapshot che presenta le informazioni essenziali accompagnate da link di supporto. I link non scompaiono, ma diventano molti meno. E soprattutto, meno centrali nell’esperienza dell’utente.

Questa architettura conversazionale ha prodotto effetti misurabili sul comportamento degli utenti. I primi tester hanno iniziato a scrivere domande due o tre volte più lunghe del normale, segno che l’interazione con l’intelligenza artificiale permette di articolare interrogativi più complessi senza il timore di “confondere” l’algoritmo. Gli utenti “restano dentro” all’interazione con l’IA piuttosto che fare clic su risultati esterni.

Secondo dati raccolti da Semrush su 69 milioni di sessioni, oltre il 90% delle ricerche in AI Mode non genera più un clic verso siti esterni. Nelle sessioni in Google AI Mode, riportano il Wall Street Journal e altre testate, solo tra il 6 e l’8% delle ricerche porta a un clic esterno.

La traiettoria del traffico: dati, proiezioni e fratture

I numeri raccontano una storia inequivocabile. Tra maggio 2024 e febbraio 2025, i principali siti di informazione statunitensi hanno perso in media il 15% del traffico proveniente da Google, secondo un’analisi di Similarweb pubblicata da Axios.

Nello stesso periodo, i referral da chatbot AI sono cresciuti del 2000%. Ma si tratta ancora di numeri imparagonabili: a febbraio 2025, i motori AI hanno generato 6 milioni di visite complessive verso i cinquecento principali siti USA, contro i 2,3 miliardi provenienti dai motori di ricerca tradizionali. Un rapporto di uno a quattrocento.

Uno studio condotto da Ahrefs su centinaia di migliaia di parole chiave ha rilevato che le pagine in prima posizione nei risultati tradizionali perdono in media il 34,5% di CTR quando è presente una panoramica AI. Un’altra analisi di BrightEdge ha mostrato una diminuzione del 30% del tasso di clic per le query informative, nonostante un aumento del 49% delle impressioni. La prima posizione, che una volta catturava fino al 28-30% dei clic, ora in alcuni casi si ferma al 18% o meno.

Ma c’è un’altra dimensione del fenomeno che merita attenzione: come cambiano le dinamiche di selezione delle fonti. Dopo un aggiornamento dell’algoritmo a marzo 2025, le citazioni da risultati posizionati tra il ventunesimo e il trentesimo posto sono aumentate del 400%, e quelle tra il trentunesimo e il centesimo posto del 200%. Questo significa che anche contenuti meno visibili nei risultati tradizionali possono guadagnare spazio grazie all’IA, se ritenuti rilevanti. Una democratizzazione apparente che nasconde però un paradosso: se l’intelligenza artificiale cita un contenuto ma l’utente non clicca, qual è il valore reale di quella citazione per chi ha creato il contenuto?

Per i grandi editori, l’impatto è già tangibile. Il New York Times ha visto il traffico proveniente da utenti umani passare dal 400% di aprile 2022 al 36,5% di aprile 2025, secondo un report di SimilarWeb citato dal Wall Street Journal. Alcuni settori hanno registrato cali di traffico fino al 50%. Per le testate che basano il proprio modello di business sulla pubblicità e sui referral, questo rappresenta una sfida esistenziale.

Una ricerca del Brookings Institute stima che entro il 2026 il 25% del traffico generato dai motori di ricerca verrà perso a causa dell’adozione delle AI search. Gartner prevede addirittura un calo del 50% del traffico organico tradizionale entro il 2028. Semrush, dal canto suo, prevede che il traffico LLM supererà il traffico Google tradizionale entro la fine del 2027.

La risposta di Google e il nodo della trasparenza

Google, ovviamente, contesta questa narrazione. La responsabile dello sviluppo della Ricerca Google ha precisato in un incontro con giornalisti che “il traffico verso il web dalla Ricerca, nel complesso, rimane stabile. Non stiamo vedendo i drastici cali complessivi rivendicati dalle fonti di terze parti e continuiamo a inviare miliardi di clic ai siti web ogni giorno“. L’azienda sostiene che Google AI Mode permette di porre domande che prima non sarebbero state formulate, generando quindi nuova domanda di informazioni. Tra settembre 2024 e aprile 2025, Google ha registrato un aumento superiore al 10% nell’utilizzo del motore per le query che attivano l’AI Overview, sia negli Stati Uniti che in India.

Ma questa risposta non risolve il problema fondamentale della distribuzione del valore. Anche ammettendo che il traffico complessivo resti stabile, la domanda è: chi cattura quel traffico? E in che forma?

Un’analisi pubblicata da Search Engine Journal ha riportato le parole di ex dirigenti di Google secondo cui “dare traffico ai siti dei publisher è una sorta di male necessario“. Questa frase, che secondo l’articolo rafforza l’idea che Google stia spostando l’attenzione verso una fruizione più interna ai propri ecosistemi, dice molto sulla percezione del modello di business emergente.

Il Columbia Journalism Review ha analizzato le prestazioni di otto chatbot AI nel riconoscere e citare correttamente articoli giornalistici. I risultati mostrano che nel 60% dei casi le risposte erano sbagliate o mancavano di indicazioni sulle fonti. Il tasso di errore variava dal 37% di Perplexity al 94% di Grok 3, con errori spesso presentati “con una sicurezza allarmante”, senza segnali di dubbio o ammissione d’incertezza. Questo solleva interrogativi non solo sulla redistribuzione del valore economico, ma anche sulla qualità e affidabilità delle informazioni che raggiungono gli utenti.

Piccoli editori e progetti indipendenti: il rischio dell’invisibilità digitale

Se per i grandi gruppi editoriali la situazione è preoccupante, per i piccoli editori e i progetti indipendenti il rischio è l’estinzione digitale. Molti di questi non hanno accesso agli accordi di licenza che Google ha siglato con centinaia di testate in Europa e nel mondo. In Italia, dal 2021, Google ha firmato accordi nell’ambito di Google News Showcase con tredici gruppi editoriali, tra cui RCS Media Group, Il Sole 24 Ore, Gruppo Monrif, Caltagirone Editore e altri, per un totale di settantasei pubblicazioni nazionali e locali. A livello europeo, ad oggi Google ha stipulato contratti con oltre millecinquecento pubblicazioni in quindici paesi.

Ma questi accordi, per quanto importanti, riguardano principalmente i grandi player. I piccoli siti, fortemente dipendenti dal traffico organico e spesso esclusi da queste partnership, rischiano di rimanere invisibili nei nuovi ecosistemi di ricerca guidati dall’intelligenza artificiale. È un circolo vizioso: meno visite significano minori entrate, quindi meno contenuti, quindi minore utilità per i motori di ricerca e i modelli AI, che perdono così l’accesso a fonti diversificate e aggiornate. Come ha osservato il Financial Times, questa trasformazione potrebbe condurre a uno scenario “Google Zero“, in cui la ricerca smette di distribuire traffico ai publisher e trattiene l’utente all’interno del dominio Google.

Il rischio non riguarda solo l’economia dell’informazione, ma anche la pluralità delle voci. Se i modelli di intelligenza artificiale generativa privilegiano sistematicamente fonti consolidate e già autorevoli, si innesca una dinamica di concentrazione che penalizza la diversità informativa. E questo in un momento storico in cui la capacità di accedere a prospettive molteplici e fonti indipendenti è più cruciale che mai.

La reazione europea: denunce, regolamentazione e tensioni

Non sorprende che questa trasformazione abbia generato reazioni istituzionali. Un gruppo di editori indipendenti ha denunciato Google alla Commissione Europea, accusandola di abusare della sua posizione dominante nella ricerca online. Il reclamo riguarda i riepiloghi generati tramite AI che Google mostra in cima ai risultati di ricerca. Secondo i firmatari, tra cui l’Independent Publishers Alliance, Foxglove Legal Community Interest Company e il Movement for an Open Web, questi contenuti utilizzano materiale degli editori senza possibilità di rinuncia, penalizzando il contenuto originale. I denuncianti chiedono una misura provvisoria da parte dell’Antitrust per evitare danni irreparabili alla concorrenza e garantire l’accesso a notizie indipendenti.

Anche negli Stati Uniti si moltiplicano le iniziative legali. Penske Media Corporation, editore di testate come Rolling Stone, Variety e Billboard, ha presentato una causa contro Google accusando AI Overviews di ridurre il traffico ai siti e mettere a rischio il modello economico delle testate. La tensione tra piattaforme tecnologiche ed editori non è nuova, ma l’introduzione dell’intelligenza artificiale generativa nella ricerca ha amplificato queste frizioni, rendendo urgente un ripensamento delle regole del gioco.

Il contesto europeo è particolarmente rilevante. La Direttiva sul Copyright del 2019, recepita da molti stati membri, ha introdotto nuovi diritti per gli editori quando vengono utilizzate anteprime più lunghe dei loro contenuti online. Google ha risposto stringendo accordi di licenza individuali con molte testate, ma il dibattito resta aperto su cosa costituisca un uso equo dei contenuti e su come garantire che il valore creato dai giornalisti e dai creatori di contenuti venga adeguatamente riconosciuto e remunerato.

Generative Engine Optimization: la nuova frontiera

Di fronte a questo scenario, una nuova disciplina sta emergendo: la Generative Engine Optimization, o GEO. Se la SEO tradizionale si concentrava su come migliorare il posizionamento nei risultati di ricerca, la GEO punta a ottenere citazioni dirette nei modelli di linguaggio generativi. Non più “essere cliccati” ma “essere letti dall’algoritmo“. Non più conquistare la prima posizione, ma diventare la fonte che l’intelligenza artificiale sceglie per costruire le sue risposte.

Le strategie di GEO richiedono un ripensamento profondo della creazione di contenuti. Significa costruire testi modulari, con dati chiari e fonti riconoscibili. Significa usare strutture semantiche che facilitino l’estrazione di informazioni da parte dei modelli AI: titoli descrittivi, risposte dirette alle domande degli utenti nelle prime frasi, uso di citazioni e statistiche, implementazione di schema markup per aiutare l’intelligenza artificiale a comprendere il contenuto. Significa privilegiare la chiarezza sulla creatività, l’utilità sulla originalità stilistica, la verificabilità sull’eloquenza.

Ma la GEO non sostituisce la SEO: la amplia. Come osservato da diversi esperti del settore, una solida base SEO rimane fondamentale. Se l’intelligenza artificiale usa strumenti di ricerca web per ottenere informazioni aggiornate, un sito che non compare nei risultati di ricerca tradizionali non avrà alcuna possibilità di essere selezionato come fonte dalle AI. La GEO, inoltre, non si limita alla dimensione tecnica: richiede anche una strategia di presenza multicanale. Wikipedia, ad esempio, rappresenta quasi il 48% delle citazioni principali di ChatGPT, secondo un’analisi di Profound. Reddit domina invece sia Gemini che Perplexity, con particolare preferenza per discussioni comunitarie e esperienze reali degli utenti.

Questo significa che gli editori e i marketer devono presidiare tutti i touchpoint dove si formano le decisioni di acquisto e dove l’intelligenza artificiale cerca informazioni: forum specializzati, piattaforme social, siti autorevoli come Medium o Substack, oltre ovviamente ai propri canali proprietari. Come sintetizzato efficacemente durante il SEOZoom Day 2025, l’acronimo SEO potrebbe oggi essere reinterpretato come “Search Everywhere Optimization“, riconoscendo che la multicanalità è la parola chiave per fare SEO nell’era dell’intelligenza artificiale.

Impatti sui modelli di business: dalla pubblicità alla diversificazione

La trasformazione innescata da Google AI Mode non riguarda solo la visibilità, ma l’intera catena del valore dell’informazione digitale. Per decenni, il modello economico di molti editori si è basato su una formula semplice: creare contenuti di qualità, attrarre traffico attraverso i motori di ricerca, monetizzare quel traffico attraverso pubblicità e abbonamenti. Se il traffico diminuisce drasticamente, l’intera formula vacilla.

Per mitigare questo rischio, alcuni gruppi hanno intrapreso strade diverse. Gli accordi di licenza con Google e altre piattaforme AI rappresentano una prima risposta: OpenAI ha siglato partnership con diversi editori per utilizzare legittimamente i loro contenuti nell’addestramento dei modelli. Google sta negoziando accordi simili con circa venti testate giornalistiche, secondo indiscrezioni riportate da Bloomberg. Ma si tratta di soluzioni che coinvolgono principalmente i grandi player, lasciando scoperte le realtà più piccole.

Google ha anche introdotto strumenti come Offerwall, che utilizza l’intelligenza artificiale per determinare il momento migliore per mostrare ai visitatori opzioni di pagamento, inclusi micropagamenti per accessi temporanei o abbonamenti. Durante un periodo di sperimentazione di oltre un anno con mille editori, le entrate medie sono aumentate del 9%. Ma resta da vedere se questo tipo di soluzione possa davvero compensare il calo di traffico organico.

La strada più promettente sembra essere la diversificazione delle fonti di traffico e di revenue. Costruire asset proprietari, come newsletter, podcast, community e piattaforme di membership, permette di ridurre la dipendenza dal traffico organico da Google. Sviluppare relazioni dirette con l’audience, attraverso brand affidabili e riconoscibili, diventa più importante che mai. E investire in contenuti di approfondimento, analisi esclusive e reportage originali che l’intelligenza artificiale non può replicare o sintetizzare facilmente rappresenta un modo per continuare ad aggiungere valore anche in un ecosistema dominato dall’AI.

Uno sguardo al futuro: tra opportunità e interrogativi aperti

Ogni grande cambiamento nel mondo digitale è stato accompagnato da timori apocalittici. È successo con i featured snippet, con i box meteo integrati in SERP, con AMP, con i pannelli “People also ask”. Ogni volta si temeva il crollo della visibilità per i siti, e ogni volta il traffico ha continuato ad arrivare, seppur distribuito in modi diversi. La domanda è: questa volta è diverso?

Forse sì, forse no. Quello che è certo è che Google AI Mode e le tecnologie di ricerca generativa non rappresentano un semplice aggiornamento algoritmico, ma un cambio di paradigma. Il passaggio da un web fatto di link a un web fatto di sintesi. Da una logica di distribuzione a una logica di sintesi e interpretazione. Da un ecosistema in cui il valore viene creato dai siti e catturato dalle piattaforme attraverso la mediazione, a un ecosistema in cui il valore viene direttamente sintetizzato dalle piattaforme, riducendo il ruolo di mediazione.

Gli interrogativi aperti sono molti. Come si sosterrà il web aperto se la prima risposta, e magari anche l’unica, arriva da un’intelligenza artificiale? Come si garantirà la pluralità delle fonti se i modelli privilegiano sistematicamente contenuti consolidati e autorevoli? Come si remunererà il lavoro giornalistico e creativo in un mondo in cui l’accesso alle informazioni avviene sempre più senza clic? E come si tutelerà la qualità e l’affidabilità delle informazioni in un contesto in cui le sintesi generate dall’AI possono contenere errori presentati “con una sicurezza allarmante”?

Queste domande non hanno risposte semplici. Richiedono un dialogo tra tecnologia, politica, editoria e società civile. Richiedono regolamentazione intelligente che tuteli l’innovazione senza sacrificare il pluralismo e la qualità dell’informazione. Richiedono modelli di business che riconoscano il valore del lavoro creativo e giornalistico in forme nuove. E richiedono, da parte di tutti noi che creiamo contenuti, una capacità di adattamento e sperimentazione che non rinunci alla qualità per inseguire l’algoritmo, ma che comprenda come dialogare con le nuove tecnologie senza perdere di vista l’obiettivo fondamentale: servire le persone, non le macchine.

Per chi scrive, per chi legge, per chi cerca

L’arrivo di Google AI Mode in Italia ci pone di fronte a una domanda fondamentale: cosa significa cercare informazioni nel ventunesimo secolo? Per generazioni, cercare ha significato esplorare, vagare tra fonti diverse, costruire il proprio percorso conoscitivo. Ora la ricerca diventa conversazione, sintesi, risposta immediata. C’è qualcosa di straordinariamente efficiente in questo, ma anche qualcosa di inquietante.

L’efficienza ha un costo, e quel costo è la serendipità, la scoperta inaspettata, il vagabondaggio intellettuale che caratterizza l’esplorazione del web. Quando l’intelligenza artificiale ci fornisce la risposta “giusta” senza porci di fronte alla necessità di esplorazione e comprensione più profonda, perdiamo anche l’opportunità di imbatterci in prospettive che non stavamo cercando, in fonti che non conoscevamo, in complessità che non avevamo previsto.

Per chi scrive e crea contenuti, il messaggio è duplice. Da un lato, è necessario adattarsi: comprendere le logiche della GEO, ottimizzare i contenuti per essere compresi e citati dalle intelligenze artificiali, diversificare le fonti di traffico e di revenue. Dall’altro lato, però, è fondamentale non perdere di vista ciò che rende un contenuto davvero prezioso: la profondità, l’originalità, la capacità di raccontare storie che vanno oltre la sintesi, di offrire analisi che le macchine non possono replicare, di costruire relazioni con i lettori che trascendono il singolo clic.

La sfida, in fondo, non è solo tecnologica o economica. È culturale. Riguarda il tipo di ecosistema informativo che vogliamo costruire e il ruolo che desideriamo assegnare all’intelligenza artificiale nella nostra vita intellettuale.


L’introduzione di Google AI Mode segna una soglia temporale: la ricerca non è più un gesto di esplorazione, ma un atto di dialogo con un’intelligenza che filtra, sintetizza, interpreta. È una mutazione silenziosa che tocca l’infrastruttura cognitiva della società digitale.

Come potrebbe cambiare il nostro modo di conoscere, informarci, decidere?
Proviamo a esplorarlo con la lente del framework STEEP – Sociale, Tecnologico, Economico, Ambientale, Politico – per cogliere i segnali di ciò che potrebbe accadere oltre il presente.

S – Sociale | La trasformazione del sapere condiviso

L’AI Mode modifica radicalmente il comportamento cognitivo e informativo degli utenti.

  • Dalla ricerca all’affidamento: in un futuro non lontano, la maggioranza delle persone potrebbe smettere di “cercare” attivamente, affidandosi totalmente alle risposte sintetiche dell’IA. Questo potrebbe ridurre la divergenza cognitiva – la capacità di attraversare prospettive diverse – a vantaggio della rapidità.
  • Nascita di nuove disuguaglianze conoscitive: chi saprà porre domande complesse (prompt literacy) potrà accedere a informazioni più sofisticate, mentre altri resteranno prigionieri di risposte superficiali. La “competenza di interrogazione” diventa la nuova forma di capitale cognitivo.
  • Fiducia e autorità delle fonti: i sistemi di sintesi AI potrebbero diventare i nuovi mediatori di fiducia. Ma se le fonti restano invisibili, il concetto stesso di autorevolezza rischia di dissolversi in una zona grigia dell’interpretazione algoritmica.
  • Educazione e alfabetizzazione: nasceranno percorsi formativi centrati sulla AI Literacy, per insegnare non solo a usare le intelligenze artificiali, ma a mantenere vivo lo spirito critico, l’abitudine al dubbio e alla pluralità delle fonti.

T – Tecnologico | Dalla query al ragionamento sintetico

La tecnologia dietro Google AI Mode – modelli Gemini 2.5, query fan-out, ragionamento multistrato – rappresenta un cambio di paradigma nella relazione uomo-macchina.

  • Integrazione crescente con i personal assistant: la ricerca si fonderà con gli agenti personali (Gemini, Copilot, ChatGPT), generando un ambiente cognitivo pervasivo in cui ogni interazione sarà mediata da IA conversazionali.
  • Evoluzione della semantica del web: emergeranno nuovi standard per la Generative Engine Optimization (GEO), con siti costruiti per “parlare con le macchine”. I contenuti saranno sempre più modulari, tracciabili e leggibili dai modelli, forse a scapito della creatività linguistica.
  • Rischio di ecosistemi chiusi: l’uso di modelli proprietari e di snapshot interni a Google potrebbe ridurre la visibilità del web aperto, creando un internet filtrato dove la navigazione diretta diventa marginale.
  • Opportunità di personalizzazione etica: la stessa tecnologia, se progettata con criteri di trasparenza e tracciabilità, può restituire all’utente una conoscenza più mirata, contestualizzata, sostenibile in termini cognitivi.

E – Economico | Il valore si sposta di luogo

L’economia dell’attenzione entra in una nuova fase.

  • Calo del traffico organico e crisi del modello pubblicitario: entro il 2028, fino al 50% del traffico web potrebbe passare attraverso sintesi AI, con conseguente riduzione dei ricavi pubblicitari per media e siti indipendenti.
  • Concentrazione del valore nelle piattaforme: Google, OpenAI e pochi altri player controlleranno l’accesso e la monetizzazione dei contenuti, accentuando il divario tra chi possiede i dati e chi li produce.
  • Emergenza di nuove microeconomie cognitive: piccoli editori e creatori potranno sperimentare forme di micropagamenti e membership dirette, alimentate da identità digitali e wallet intelligenti.
  • Nuove professioni dell’intermediazione cognitiva: si affermeranno figure come il GEO strategist, il prompt designer editoriale, il content trainer for LLMs – professioni che ibridano comunicazione, dati e linguistica.

E – Ambientale | L’impronta invisibile della conoscenza automatizzata

Il futuro della ricerca conversazionale ha un costo anche ambientale.

  • Consumo energetico crescente: ogni snapshot AI comporta centinaia di richieste simultanee ai data center. L’aumento delle ricerche dialogiche potrebbe moltiplicare il fabbisogno energetico dell’informazione.
  • Green AI come priorità: si affermeranno modelli “efficiency-first”, progettati per bilanciare capacità di calcolo e impatto ambientale. L’ottimizzazione del ciclo informativo diventerà parte integrante delle strategie ESG delle Big Tech.
  • Riconversione del sapere digitale: si diffonderanno iniziative per il sustainable knowledge design – pratiche e policy che misurano non solo il valore economico, ma anche il costo ecologico della conoscenza prodotta e distribuita.

P – Politico | Regolazione, sovranità e pluralismo informativo

La dimensione politica sarà forse la più cruciale nel determinare gli scenari futuri.

  • Sovranità informativa europea: l’UE rafforzerà le normative su copyright, trasparenza dei modelli e redistribuzione del valore, spingendo verso un equilibrio tra innovazione e tutela dell’ecosistema mediatico.
  • Tensioni geopolitiche dei modelli AI: la concentrazione delle infrastrutture nelle mani di pochi attori (statunitensi e cinesi) porrà interrogativi sulla autonomia cognitiva dei paesi europei.
  • Etica della sintesi: governi e autorità dovranno affrontare il nodo della “responsabilità epistemica”: chi risponde quando un modello genera una sintesi errata, distorta o tendenziosa?
  • Pluralismo e democrazia informativa: la perdita di visibilità delle fonti indipendenti potrebbe compromettere la diversità del dibattito pubblico. Serviranno strumenti per garantire che anche le voci minori restino accessibili e riconoscibili nell’infosfera generativa.

Scritto da:

Nicoletta Boldrini

Futures & Foresight Director Leggi articoli Guarda il profilo Linkedin