Schegge di vangelo a cura di don Stefano Bimbi
Il problema

Google Discover penalizza l’informazione professionale

Ascolta la versione audio dell'articolo

Il sistema di Google, ideato per suggerire articoli in base agli interessi dell’utente, è oggi al centro di forti critiche per la sua tendenza a favorire contenuti acchiappaclic o apertamente falsi.

Attualità 01_11_2025

Dopo gli allarmi lanciati per i rischi legati all’intelligenza artificiale generativa e ai modelli linguistici come quelli di OpenAI, un nuovo fronte di pericolo per l’informazione di qualità si apre con Google Discover, il sistema di raccomandazione personalizzata dei contenuti integrato nei dispositivi Android e nell’app Google. Lo strumento, ideato per suggerire articoli in base agli interessi dell’utente, è oggi al centro di forti critiche per la sua tendenza a favorire contenuti sensazionalistici, acchiappaclic o apertamente falsi, generati in molti casi da intelligenze artificiali e diffusi da siti sconosciuti o di dubbia provenienza.

Mesi fa Reporters sans frontières ha denunciato che Discover rischia di compromettere gravemente il diritto dei cittadini a ricevere informazioni affidabili e verificate, minando così uno dei pilastri fondamentali della democrazia. L’enorme potere distributivo della piattaforma, capace di generare centinaia di milioni di clic al mese verso i siti giornalistici, si traduce in una responsabilità proporzionale che Google, secondo molti osservatori, non sta esercitando con sufficiente rigore. Gli algoritmi che regolano Discover tendono infatti a privilegiare i contenuti che generano più interazioni, indipendentemente dalla loro veridicità, con il risultato che articoli falsi o manipolativi possono raggiungere un pubblico vastissimo prima di essere smentiti. Esempi recenti, come la falsa notizia sulla chiusura della catena Promod o quella su una presunta legge che obbligherebbe a potare gli alberi sopra i tetti, mostrano quanto sia facile per i siti generati da IA infiltrarsi nel sistema di raccomandazione di Google e ottenere una visibilità superiore rispetto alle testate professionali.

Secondo un’inchiesta di Next, esistono più di quattromila siti progettati per sfruttare le falle dell’algoritmo di Discover, capaci di superare le fonti giornalistiche vere nelle raccomandazioni agli utenti. La produzione industriale di contenuti automatizzati, resa possibile da strumenti di IA generativa, sta creando un ecosistema informativo dove le fake news diventano difficilmente distinguibili dalle notizie certificate, e il diritto all’informazione rischia di essere travolto dalla logica del clic. Anche il quotidiano Le Monde ha denunciato che Discover mostra sempre più spesso link a pagine create con strumenti come ChatGPT o Midjourney, talvolta camuffate da articoli giornalistici autentici per spingere truffe o investimenti fraudolenti.

Google, pur sostenendo di utilizzare sistemi anti-spam che escludono la maggior parte dei contenuti di bassa qualità, mantiene una posizione ambigua sull’uso dell’IA: da un lato ne riconosce i rischi, dall’altro la descrive come un semplice strumento di creatività, consentendo così a molti contenuti generati artificialmente di circolare insieme a quelli redatti da giornalisti. Questa ambiguità crea una forma di concorrenza sleale per gli editori tradizionali, che investono in verifica delle fonti e lavoro umano, mentre i siti automatizzati producono centinaia di articoli in pochi minuti, catturando visibilità e ricavi pubblicitari. Inoltre, Google ha iniziato a testare funzioni di riepilogo generato dall’IA direttamente all’interno di Discover, riducendo ulteriormente il traffico verso i siti d’informazione e privando le redazioni di una parte significativa del loro pubblico.

I casi di disinformazione non si limitano alla Francia o al Regno Unito: in diversi Paesi europei proliferano siti che sfruttano Discover per diffondere bufale su temi sensibili come pensioni, patenti o prelievi forzosi, accumulando milioni di visualizzazioni. La verità è che, se Google raccomanda articoli, deve assicurarsi che siano accurati e autorevoli; altrimenti, contribuisce direttamente alla distorsione del dibattito pubblico. Il problema è ormai strutturale e non più episodico: Google Discover, nato per personalizzare la fruizione delle notizie, è diventato un amplificatore globale di contenuti manipolativi e tossici, mettendo in crisi la fiducia nel giornalismo e nella verità digitale.

In questo scenario, la difesa dell’informazione di qualità non può essere lasciata alla buona volontà delle piattaforme. È necessario un intervento normativo e tecnologico che imponga a Google di introdurre filtri proattivi e meccanismi di verifica delle fonti.

Occorre inoltre che i criteri di ranking e raccomandazione privilegino i contenuti provenienti da editori verificati e che le notizie sospette o generate artificialmente siano chiaramente segnalate agli utenti. La trasparenza algoritmica deve diventare un obbligo, non un’opzione: gli utenti hanno il diritto di sapere perché un certo contenuto viene mostrato e da quale fonte proviene. Anche le autorità di regolazione, a livello nazionale ed europeo, dovrebbero imporre standard comuni di qualità e tracciabilità dei contenuti informativi online, in linea con i principi del Digital Services Act. L’obiettivo non è censurare, ma garantire che le raccomandazioni automatizzate non compromettano il diritto dei cittadini a essere informati correttamente.

In un contesto dominato da flussi personalizzati e da un’informazione sempre più mediata da algoritmi, l’equilibrio tra libertà digitale e responsabilità editoriale diventa cruciale. Se non verranno introdotti criteri più severi e strumenti di verifica realmente efficaci, Google Discover continuerà a confondere verità e finzione, favorendo la diffusione di contenuti sintetici e manipolatori a scapito del giornalismo professionale. Servono regole, trasparenza e responsabilità condivisa: solo così sarà possibile proteggere l’informazione di qualità e, con essa, la tenuta stessa delle democrazie contemporanee.