Lo studio condotto da broadcaster europei come BBC, EBU e RAI ha valutato l’affidabilità degli assistenti AI, includendo ChatGPT, Gemini, Copilot e Perplexity. La ricerca mirava a verificare se tali strumenti possano fornire informazioni accurate e corrette, rispondendo agli standard giornalistici.
Tale indagine riveste particolare importanza per il mondo dell’informazione, evidenziando le criticità e la necessità di interventi per migliorare la precisione dei dati, in un’epoca in cui la qualità delle fonti è essenziale per il dibattito pubblico per eccellenza.
La metodologia applicata
Il progetto News Integrity in AI Assistants ha coinvolto 22 broadcaster in 18 paesi, analizzando oltre 3.000 risposte in 14 lingue.
Le domande poste agli assistenti spaziavano da questioni internazionali a tematiche nazionali, stimolando risposte su attualità e eventi recenti. Un team di giornalisti ha valutato ogni risposta, esaminando accuratezza e completezza delle informazioni fornite.
Questo metodo ha permesso di individuare criticità nell’affidabilità, evidenziando la necessità di standard giornalistici elevati in ambito intelligenza artificiale per un’analisi comparativa e precisa complessa.
I risultati criticabili
Lo studio ha evidenziato che il 45% delle risposte fornite dagli assistenti AI presenta errori significativi, compromettendo l’integrità dell’informazione. Un terzo delle risposte è risultato problematico per la gestione delle fonti, con dati non confermati o fonti errate.
In particolare, Gemini si distingue negativamente, registrando un tasso di errori del 72% riguardo alle citazioni. Al contrario, altri modelli hanno mostrato performance generalmente migliori, seppur non esenti da criticità.
Questi risultati sollevano interrogativi sulla capacità degli assistenti di garantire informazioni precise, evidenziando la necessità di ulteriori perfezionamenti prima di una diffusione ampia nel campo del giornalismo.
Il rischio delle allucinazioni e dei dati scaduti
Il rischio delle allucinazioni e dei dati scaduti si manifesta in circa il 20% delle risposte, comprendenti dati superati, errori numerici e informazioni inventate.
Tali allucinazioni compromettono la precisione dell’informazione, comportando conseguenze negative per la credibilità degli assistenti AI. La mancata contestualizzazione delle risposte rende difficile comprendere il reale significato delle notizie, inducendo a interpretazioni errate.
Questo fenomeno solleva interrogativi sulla sicurezza e sull’affidabilità degli strumenti digitali, influenzando negativamente il dibattito pubblico e il processo informativo. L’aggiornamento urgente degli standard è assolutamente essenziale per salvaguardare l’integrità e la qualità dell’informazione.
L’impatto sull’informazione
Il crescente impiego degli assistenti AI tra i giovani spinge ad una revisione critica dei modelli informativi.
Nonostante l’innovazione, i numerosi errori sollevano preoccupazioni per la qualità delle notizie e il dibattito pubblico, compromettendo la credibilità dei media.
È indispensabile adottare standard giornalistici rigorosi per limitare l’impatto negativo e garantire un’informazione affidabile e responsabile nel panorama digitale. Questo scenario sottolinea l’urgenza di un intervento coordinato per preservare l’integrità della comunicazione.