Intelligenza artificiale e giornalismo: l’efficienza rischia di oscurare l’informazione

L’intelligenza artificiale nella ricerca online: promessa o illusione?

Gli strumenti di ricerca basati sull’intelligenza artificiale stanno rivoluzionando il modo in cui milioni di persone accedono alle informazioni. Con funzioni come AI Overview di Google, gli utenti ricevono risposte sintetiche e dirette, evitando la consultazione di link esterni. Ma questa apparente efficienza cela una trasformazione profonda, con conseguenze imprevedibili sull’affidabilità dell’informazione.

Molti accettano le risposte delle AI come verità assolute. In realtà, si tratta di testi generati da modelli che estraggono e rielaborano contenuti da diverse fonti, spesso senza trasparenza sulle origini. La differenza rispetto ai motori di ricerca tradizionali è netta: il ruolo di intermediario viene meno, sostituito da una sintesi che può essere parziale, distorta o errata.

Un esempio calzante è il settore dei giochi online, dove l’AI propone “i migliori casinò” analizzando recensioni e articoli. Il risultato sembra credibile, ma l’utente perde di vista le fonti originali, private di visibilità e traffico.

Errori e illusioni: il limite dell’affidabilità

Uno studio del Tow Center for Digital Journalism ha analizzato otto piattaforme AI. I risultati sono allarmanti: oltre il 60% delle risposte conteneva errori o imprecisioni. Peggio ancora, solo in pochi casi veniva segnalata l’incertezza.

ChatGPT, ad esempio, ha fornito 134 risposte errate, ammettendo dubbi in appena 15 casi. Questo comportamento genera fiducia ingiustificata, inducendo l’utente a credere a informazioni false, semplicemente perché espresse con sicurezza.

Contrariamente alle attese, i modelli premium non offrono maggiore accuratezza. Perplexity Pro e Grok 3, pur essendo a pagamento, hanno mostrato una tendenza a generare errori senza indicare incertezze. Questo aggrava il problema, perché chi paga è più incline a fidarsi.

Inoltre, il sistema di citazioni è spesso confuso o assente. Gli strumenti AI possono ignorare le regole imposte dai siti (ad esempio tramite robot.txt) e attingere contenuti da fonti non autorizzate. Perplexity, ad esempio, ha recuperato informazioni da National Geographic nonostante i blocchi impostati.

Fonti ignorate, citazioni sbagliate e danni al giornalismo

Le citazioni fantasma sono un’altra piaga. DeepSeek ha attribuito fonti errate in centinaia di casi, mentre Grok 2 ha generato URL fittizi. Anche Perplexity tende a preferire aggregatori come Yahoo News, penalizzando le testate originali.

Le conseguenze sono concrete: meno traffico, meno crediti, meno entrate pubblicitarie. Persino gli accordi diretti tra editori e aziende AI, come quelli di OpenAI con Time e San Francisco Chronicle, non garantiscono la corretta attribuzione.

La News Media Alliance ha lanciato l’allarme: senza strumenti di controllo adeguati, è a rischio la sopravvivenza del giornalismo investigativo. Il paradosso è evidente: l’AI si nutre di contenuti giornalistici, ma rischia di renderli invisibili.

Quale futuro per la ricerca e l’informazione?

Secondo Mark Howard, COO di Time, siamo solo all’inizio. Gli strumenti di oggi sono al loro “livello peggiore”, ma miglioreranno. Tuttavia, ciò non basta.

Finché accuratezza, trasparenza e rispetto delle fonti non diventeranno priorità, l’intelligenza artificiale rischia di trasformare la ricerca in uno specchio distorto della realtà.

Senza interventi mirati e consapevoli, il progresso tecnologico potrebbe compromettere l’essenza stessa del giornalismo: la verifica, la responsabilità e la libertà d’informazione.

Lascia un commento