Go down

Cerchiamo di inquadrare i vantaggi e soprattutto le criticità dell’AI-Powered Search, quali conseguenze comporta, e quali contromisure si stanno proponendo.


Introduzione

L’uso dell’intelligenza artificiale per cercare informazioni sta crescendo rapidamente, ridefinendo il nostro modo di reperire le notizie. Negli Stati Uniti, quasi un cittadino su quattro dichiara di utilizzare già chatbot AI per informarsi, preferendoli ai motori di ricerca tradizionali. Personalmente sono convinto che per alcune ricerche non sia necessario scomodare un agente intelligente, e non ho attivato la funzione che trasforma ogni query su Google in una a Gemini o Perplexity, ma sinceramente, uso Google sempre meno spesso.

Questa tendenza può solo rafforzarsi sempre più, e finirà per cambiare radicalmente il giornalismo, il settore dei magazine online, e l’attività di molti content creator e publisher. Ne sono influenzate la selezione delle fonti, la percezione dell’attendibilità, e persino la relazione tra lettore e verità. Se stai seguendo questa newsletter, hai già trovato diversi articoli sul tema.

Una recente indagine condotta dal TOW Center for Digital Journalism della Columbia University, pubblicata a Marzo 2025, ha messo alla prova otto dei principali strumenti di ricerca AI — tra cui ChatGPT Search, Perplexity, DeepSeek, Microsoft Copilot, Grok (xAI) e Gemini (Google). I ricercatori hanno analizzato le performance nel recupero e nella citazione di articoli da venti testate giornalistiche, alcune favorevoli, altre apertamente ostili all’accesso da parte dei sistemi AI. I test, basati su 1600 query realizzate a partire da estratti di articoli originali, hanno valutato tre elementi chiave: il titolo, l’editore e l’URL fornito in risposta. I risultati sono allarmanti.

Oltre il 60% delle risposte fornite dai chatbot era errato. In alcuni casi, come per Grok-3, il tasso di errore ha raggiunto il 94%. Più sorprendente ancora è stata la convinzione con cui gli strumenti fornivano risposte inesatte, evitando formule dubitative e raramente riconoscendo i propri limiti. Paradossalmente, i modelli premium si sono mostrati più sicuri nel fornire risposte sbagliate rispetto alle loro controparti gratuite.

E’ emerso anche un ulteriore problema di tipo etico e legale: molti strumenti hanno utilizzato contenuti provenienti da testate che avevano negato l’autorizzazione. Avevano esplicitamente escluso i loro crawler tramite il protocollo robots.txt, che, sebbene non legalmente vincolante, rappresenta uno standard condiviso per il rispetto della volontà degli editori. La sua violazione apre interrogativi cruciali su consenso, uso dei dati e sostenibilità dell’ecosistema informativo.

Infine, l’indagine ha rivelato che le citazioni erano spesso sbagliate, incomplete o riportavano link inventati, minando la credibilità delle piattaforme AI stesse, e anche delle testate giornalistiche utilizzate come fonte apparente o imprecisa. Danneggiate due volte, insomma. È emblematica, per esempio, la constatazione della BBC secondo cui la sola menzione di marchi come “BBC News” induce gli utenti a fidarsi della risposta, anche quando questa è manifestamente errata.

Anche la presenza di accordi di licenza formali tra editori e piattaforme AI non ha garantito maggiore accuratezza nelle citazioni. Come ha osservato ironicamente il COO di Time, “oggi è il peggio che il prodotto possa mai essere”, sottolineando il potenziale evolutivo di questi strumenti ma anche, e soprattutto, la necessità di affrontare subito i loro errori sistematici, le opacità metodologiche e l’approccio da far west.

Cerchiamo di inquadrare meglio i vantaggi e soprattutto le criticità dell’AI-Powered Search. Nella seconda parte vedremo quali conseguenze comporta, e quali contromisure si stanno proponendo.

Dalla ricerca di parole chiave alle interrogazioni conversazionali

Mettiamo a confronto le presentazioni di Google e OpenAI relative alle loro soluzioni di AI-Powered AI Search. La prima, ovviamente interessata a difendere una posizione di leader nel settore, e l’altra, incomer agguerrito e benchmark di riferimento tra i modelli linguistici.

Con la Search Generative Experience, Google ha avviato (metà 2023) una “nuova era della ricerca”, basata non più sulla richiesta di “cose”, ma su un dialogo intelligente con una macchina capace di ricombinare conoscenza, intuire intenzioni e offrire risposte strutturate. Un dialogo finalizzato a cercare un senso, o almeno, una sua sintesi accettabile.

La promessa, quindi, è di semplificare la vita dell’utente: organizzare l’informazione, rispondere a quesiti intricati, ridurre il numero di passaggi tra domanda e soluzione. Ma anche una strategia molto concreta per fidelizzare l’utente all’interno del suo ecosistema, riducendo la dispersione e aumentando il tempo di permanenza.

Il classico esempio proposto da Google, “Meglio Bryce Canyon o Arches per una famiglia con bambini e un cane?”, dimostra come si passi da almeno una decina di ricerche manuali, comparazioni tra blog, recensioni e mappe, ad una risposta pre-digerita dall’algoritmo, con un riassunto sintetico e ordinato, corredato da link e suggerimenti personalizzati.

Il motore di ricerca, insomma, si traveste da consulente personale, il cui ruolo di mediatore si fa sempre più profondo, invisibile, e in parte autonomo. Non per niente, un particolare sviluppo strategico è previsto nel commercio online: niente più scroll infinito tra schede prodotto, ma aggregazione in base a parametri decisionali, recensioni, immagini, prezzi e coordinamento di scelte (qui Google si gioca il database che conta oggi 35 miliardi di prodotti).

Google ha promesso di non voler oscurare le fonti, ma anzi di valorizzare i contenuti originali, incoraggiando il link. E’ però legittimo domandarsi, se la sintesi è così valida e comoda, quando risulta ancora opportuno cliccarli.

Da Marzo 2024, OpenAI ha reso disponibile SearchGPT che sostanzialmente replica le funzionalità di SGE, distinguendosi soprattutto sul piano etico e relazionale. Dove Google mantiene un approccio fortemente integrato al suo ecosistema commerciale (soprattutto per la ricerca prodotti), OpenAI sottolinea la separazione tra ricerca e business pubblicitario, e rivendica una maggiore attenzione al dialogo con il mondo editoriale. In altre parole, SearchGPT si presenta — almeno per ora — meno intrusivo, più trasparente, e più negoziabile.

A maggio 2024, è stato anche rilasciato Google AI Overviews (disponibile in Italia da marzo 2025)che potremmo considerare il primo livello della scala. È pensato per coloro che vogliono “una risposta subito”: non pensa, non ragiona, non pianifica: riassume.

…alle missioni investigative

A dicembre 2024, con i primi reasoning model, Google ha rilasciato pubblicamente Gemini Deep Research, poi potenziato con i modelli successivi (Gemini 2.0 Flash Thinking e Gemini 2.5 Pro, quest’ultimo in versione “experimental”, alla data dell’articolo).

Come è facile intuire, la principale novità è determinata dall’intelligenza agenticaun assistente che pianifica, naviga, ragiona, valuta, confronta e collega, rielabora e sintetizza. E’ quindi in grado di affrontare compiti di ricerca complessi suddividendoli in attività, elaborando un piano personalizzato, visitando centinaia di fonti, e costruendo report articolati e ricchi di insight. Il tutto impiegando anche molti minuti, lavorando in modo asincrono, senza mai perdere il filo. Anzi, fornisce anche un riscontro del processo pianificato, man mano che lo esegue, in modo che l’utente possa intervenire e modificarlo.

Anche OpenAI ha rilasciato il suo agente intelligente per la ricerca sul web, Deep Search, questa volta più rapidamente, nel Febbraio 2025. Le differenze sono minime nelle funzionalità più importanti, e si trovano soprattutto nella rendicontazione e autonomia del processo pianificato ed eseguito. Gemini Deep Research nasce come assistente collaborativo e agentico: mostra ogni passaggio all’utente durante il lavoro e consente di intervenire. OpenAI Deep Research, invece, è concepito come agente autonomo: svolge il compito da solo, producendo solo alla fine un report strutturato e documentato.

Un’altra differenza è nella gestione di contenuti multimediali, migliore nella soluzione di OpenAI. Se da un lato Gemini Deep Research è in grado anche di comunicare a voce l’avanzamento del processo, OpenAI Deep Research supporta la ricerca multimodale: può analizzare immagini (es. infografiche, tabelle fotografiche, screenshot), leggere e interpretare PDF contenenti testo e immagini, integrare i dati visivi all’interno di un ragionamento testuale strutturato, con citazioni e riferimenti.

Quale prospettiva apre l’AI-powered Search?

Nonostante le ombre — opacità algoritmica, bias cognitivi, erosione della pluralità informativa — l’AI-powered search rappresenta una delle innovazioni più promettenti nel campo dell’accesso alla conoscenza. I vantaggi sono concreti: riduzione drastica del tempo di ricerca, capacità di sintesi su temi complessi, supporto conversazionale che avvicina il motore di ricerca a un consulente personale.

In prospettiva, possiamo immaginare che l’AI acquisirà capacità esplorative sempre più affidabili e potenti, scontrandosi sempre con la questione fondamentale del senso (cosa è pertinente? cosa è interessante? cosa è stimolante sapere?). Il nostro rapporto con gli agenti intelligenti dedicati alla ricerca sarà sempre più continuo, e quelli non saranno solo in grado di riportarci le informazioni cercate, o comunque quelle opportune, ma anche di predire e soddisfare i bisogni informativi in tempo reale, senza neppure bisogno di una query esplicita. E prepareranno per noi non semplici risposte testuali, ma spazi cognitivi navigabili, in cui possiamo esplorare alternative, fonti, contro-argomentazioni, percorsi logici.

In questa prospettiva, a noi sarà possibile concentrarci sulla curiosità e le finalità che originano le richieste di informazioni, e svolgere il compito di “orchestratori” di agenti intelligenti di ricerca specializzati ognuno in qualche dominio verticale.

Il rischio della Rete simulata

Fin qua abbiamo visto le nuove potenzialità. Concentriamoci ora sulle note dolenti, iniziando dall’opacità intrinseca al processo di raccolta delle informazioni. Un problema basilare, se è vero che siamo abituati a ritenere che tutto quanto pubblicato in Rete e raggiungibile con una ricerca ben fatta (“se è in rete, lo trovo con Google”). Gli agenti intelligenti specializzati nelle ricerche non ci facilitanno l’accesso diretto alla Rete, ma al contrario lo fanno credere facendoci accedere ad una versione simulata della Rete stessa.

L’opacità che avvolge i criteri di ranking non è un’invenzione recente. Già i motori di ricerca operavano (e operano) sulla base di algoritmi proprietari, mai pienamente rivelati. I risultati sono il frutto di un ordinamento arbitrario, spesso modellato su interessi economici e logiche di potere. Frank Pasquale, nel suo libro The Black Box Society, ha descritto con precisione questo scenario, dove sono gli algoritmi a ridefinire cosa esiste ed è importante.

Ora, quando un’AI cerca sul web, non è più chiaro né su quali fonti si basi né secondo quale criterio ordini e sintetizzi le informazioni. Il risultato è una risposta fluida e convincente, ma priva di garanzie di completezza e rilevanza. Come evidenziato in un articolo dell’Economist, veniamo persuasi che il mondo che ci viene rappresentato coi risultati delle ricerche, sia quello vero, senza sapere cosa ne è stato escluso, e tanto meno perché.

Da un lato, questa opacità potrebbe sembrare una forma di protezione: in questo momento è ancora poco probabile che attori esterni possano manipolare l’ordine dei risultati, come accade invece con i tradizionali motori di ricerca dominati dalla SEO. In realtà è un’illusione destinata a scomparire presto. La strada è quella di una nuova forma di ottimizzazione, ancora più difficile da riconoscere: la Generative Engine Optimization (GEO).

Alcune aziende stanno già imparando a “parlare il linguaggio dei modelli” per orientarne le risposte, influenzando silenziosamente ciò che l’utente riceve come “verità”. Il Guardian ha denunciato questo nuovo gioco dell’ottimizzazione come una minaccia alla fiducia stessa nella ricerca online. Siamo insomma di fronte a un sistema che promette trasparenza e universalità, e opera invece come una scatola nera, solo ora più elegante e seducente.

L’indebolimento dell’ecosistema dell’informazione

Come in un ecosistema biologico, anche in quello dell’informazione la diversità di specie ha un ruolo fondamentale: ogni specie conta. Maggiore è la diversità e maggiore è la resilienza degli ecosistemi alle fluttuazioni ambientali, ai cambiamenti climatici o alle malattie. Nello stesso modo tanto più sono le fonti di informazione e tanto più è resiliente il sistema che raccoglie, elabora e comunica le informazioni, permettendo uno sviluppo florido alla nostra stessa società, alle nostre capacità intellettuali e alla nostra cultura.

Purtroppo nell’epoca post-ChatGPT, la promessa di un accesso facilitato alla conoscenza si scontra con il rischio di sacrificare la pluralità delle fonti di informazione. I sistemi di intelligenza artificiale generativa, ottimizzati per fornire risposte coerenti e comprensibili, tendono a ridurre la complessità dei temi e delle notizie trattate, omogeneizzando le voci, e quindi penalizzando le visioni alternative e il pensiero laterale.

In nome di una levigata e rassicurante pertinenza, viene limato tutto ciò che va fuori tema o che non è particolarmente rilevante. Il pensiero transdisciplinare — quello capace di connettere ciò che normalmente non si collega — perde terreno, e con esso la probabilità di nuove scoperte. A questo si accompagna l’erosione della serendipità, cioè di quell’incontro fortuito con l’inatteso, che è alla base della creatività e del progresso in qualsiasi campo, compreso quello scientifico. Finora poteva capitare di inciampare in una bibliografia dimenticata, in un autore fuori dai canoni, in una piccola realtà di provincia. Come sarebbe possibile chiedere informazioni su qualcosa che è fuori dagli schemi, se non sai nulla di cosa c’è la fuori?

Ma c’è di più. Un’informazione rigidamente coerente e omogenea non può che portare a visioni assolutistiche. Conferma certezze monolitiche, spegne la curiosità e il dubbio, sanitarizza le dicotomie. In questo ambiente apparentemente asettico, i pregiudizi finiscono per prolificare come batteri virulenti. Se si annidano nei dati e nel modo come le informazioni grezze sono organizzate, i modelli li propagano, distillazione dopo distillazione.

Come sottolineato da Safiya Umoja Noble in Algorithms of Oppression, le logiche algoritmiche rischiano di consolidare stereotipi razziali, di genere e culturali, mascherandoli da neutralità tecnica. Più i modelli diventano opachi e stratificati, più si fa difficile anche per i loro creatori distinguere tra selezione informata e censura algoritmica.

Sbagliare da professionisti

Abbiamo citato all’inizio la ricerca di TOW Center for Digital Journalism che ha rilevato un allarmante 60% di informazioni errori o fuorvianti nelle risposte dell’esperimento. Ma oltre all’errore o alla allucinazione in se, vale la pena sottolineare il tono, ovvero la convinzione ostentata nel comunicare le informazioni sbagliate.

Paradossalmente, la stessa ricerca mostra che proprio i modelli premium, come Perplexity Pro (20 $ al mese) o Grok 3 (40 $ al mese), hanno risposto correttamente a più quesiti, ma con tassi di errore più elevati. Una apparente contraddizione che deriva principalmente dalla loro tendenza a fornire risposte definitive, con notevole padronanza linguistica, anche in situazioni di obiettiva incertezza. Programmati per rispondere alle domande in ogni caso, e per farlo bene, finiscono per sbagliare più spesso e per rendere gli errori più difficili da riconoscere. Come cantava un celebre contautore: “era un mondo adulto, si sbagliava da professionisti…”.

Esaminando la situazione senza la vena poetica di Paolo Conte, in questi casi si attivano diversi bias. Innanzitutto, l’authority bias: cioè la tendenza ad attribuire maggiore veridicità o validità a un’informazione se sembra provenire da una fonte autorevole o esperta. In questo caso, lo stile linguistico funge da indizio di autorevolezza: se un testo “suona” come se fosse scritto da un esperto, tendiamo a credergli di più, anche in assenza di prove.

A questi si aggiungono altri effetti nocivi secondari. L’halo effect è un bias cognitivo per cui un’impressione positiva su un aspetto (es. lo stile elegante e autorevole del testo) influenza positivamente anche il giudizio su altri aspetti (come la veridicità del contenuto). Il “processing fluency bias” si riferisce alla tendenza a considerare più vero, affidabile o piacevole un contenuto che è facile da leggere o comprendere. Se un testo è scritto in modo chiaro, fluido e ben strutturato, il cervello lo processa più facilmente, e questo viene inconsciamente associato a una maggiore probabilità che sia vero (vedi Occam e il suo famoso rasoio).

Riferimenti mancanti, sbagliati o allucinati

Che i modelli linguistici siano proni a errori e allucinazioni è dunque cosa nota. Quello che non tutti hanno notato è che gli agenti intelligenti che effettuano ricerche in rete sbagliano anche a indicare i riferimenti alle fonti. Anche questo fenomeno è risultato chiaramente nella ricerca citata. Non è un problema da poco.

Le risposte fornite nell’esperimento raramente hanno indicato con precisione la fonte originaria, e quando lo hanno fatto, spesso hanno riportato link non funzionanti, versioni sindacate degli articoli, o addirittura URL inventati. Anche nell’esperienza quotidiana capita spesso di chiedere un link ad una fonte e ricevere quello che, secondo il modello linguistico, dovrebbe essere il link secondo lo schema di formattazione più probabile (ma non quello reale).

Questo problema, di citare fonti che non esistono o non corrispondono, fa il paio con quello di non citarle affatto. I sistemi di ricerca intelligente ignorano allegramente le barriere imposte dai paywall o dai file robots.txt, aggirando così le protezioni editoriali pensate per tutelare i contenuti originali.

Sebbene il Robot Exclusion Protocol non sia legalmente vincolante, è uno standard ampiamente accettato per segnalare quali parti di un sito web debbano e non debbano essere scansionate. Ignorare il protocollo toglie agli editori la possibilità di decidere se i loro contenuti saranno inclusi nelle ricerche o utilizzati come dati di addestramento per i modelli di intelligenza artificiale. Sebbene consentire l’accesso ai crawler web potrebbe aumentare la visibilità complessiva dei loro contenuti nei risultati di ricerca generativi, gli editori potrebbero avere pianificato di monetizzare i contenuti o di proteggerne l’integrità.

Questi comportamenti, oltre a ostacolare la verifica delle informazioni da parte degli utenti, possono danneggiare la reputazione delle fonti stesse, che vengono citate in modo impreciso o scorretto. Ad esempio, in un recente rapporto di BBC News su come gli assistenti AI rappresentano i loro contenuti, si legge che “quando gli assistenti AI citano marchi affidabili come la BBC come fonte, il pubblico è più propenso a fidarsi della risposta, anche se errata”. Ma quando i chatbot sbagliano, il lettore valuta negativamente l’editore per l’inaccuratezza dei contenuti e l’inaffidabilità della loro formattazione.

Quest’ultimo punto rimanda alla questione dell’accountability: chi è veramente responsabile delle informazioni contenute nelle risposte degli agenti intelligenti?


L'articolo prosegue con un esame dell'impatto e delle possibili contromisure. Leggi la seconda parte. 


Fonti

  1. The Black Box Society: The Secret Algorithms That Control Money and Information, Frank Pasquale, (2015) - Harvard University Press
  2. Algorithms of Oppression: How Search Engines Reinforce Racism, Safiya Umoja Noble, (2018) - NYU Press
  3. Supercharging Search with generative AI, Elisabetta Reid, (5/2023) - Google Blog
  4. Prompting the News: Evaluating News Understanding in Large Language Models, Vishvak Murahari et al., (2/2024) - arXiv
  5. SearchGPT Prototype, Redazione, (3/2024) - OpenAI
  6. AI search could break the web, Benjamin Brooks, (31/10/2024) - MIT Technology Review
  7. The chatbot optimisation game: can we trust AI web searches?, Callum Bains, (3/11/2024) - The Guardian
  8. Deep Research Overview, Redazione, (12/2024) - Gemini | Google
  9. BBC research shows issues with answers from artificial intelligence assistants, Redazione, (2025) - BBC
  10. The danger of relying on OpenAI’s deep research, Redazione, (13/2/2025) - The Economist
  11. AI Search Has A Citation Problem, Klaudia Jaźwińska and Aisvarya Chandrasekar, (6/3/2025) - Columbia Journalism Review
  12. AI Search Has a News Citation Problem, Michelle Manafy, Rande Price, (24/3/2025) - DigitalContextNext

#giornalismo #journalism #GenerativeJournalism #IntelligenzaArtificiale #ArtificialIntelligence #IntelligentAgents #Informazione #Information #fiducia #trust #potere #power #media #bias #storytelling #storydiscovery #opinionepubblica #publicopinion #LLM #etica #businessmodel

Pubblicato il 10 maggio 2025

Gino Tocchetti

Gino Tocchetti / Driving Innovation and New Ventures @ Corporate Startup Ecosystem

gino.tocchetti@gmail.com http://www.ginotocchetti.medium.com/