Studiu internațional: Asistenții AI denaturează conținutul jurnalistic în 45% din cazuri

Data:

Cea mai amplă cercetare de până acum despre calitatea informațiilor generate de inteligența artificială arată că asistenții AI greșesc aproape jumătate din timp atunci când răspund la întrebări despre actualitate și politică, indiferent de limbă, țară sau platformă.

ChatGPT, Copilot, Gemini și Perplexity distorsionează știrile în 45% dintre cazuri, inventează surse sau atribuie declarații false publicațiilor reale.

Cercetarea, coordonată de Uniunea Europeană de Radio și Televiziune (EBU) și condusă de BBC, a analizat peste 3.000 de răspunsuri din 18 țări. Concluzia: problemele sunt sistemice, nu accidentale, și pot eroda încrederea publicului în presă.

Când oamenii nu mai știu ce să creadă, ajung să nu mai creadă nimic”, avertizează EBU.

Jurnaliștii implicați au evaluat răspunsurile după criterii esențiale: acuratețe, surse, diferențierea între opinii și fapte, precum și furnizarea contextului necesar.

Rezultatele principale:

  • 45% dintre răspunsurile analizate au avut cel puțin o problemă semnificativă;
  • 31% au prezentat erori legate de surse – lipsă de citare, citări greșite sau înșelătoare;
  • 20% au conținut informații inexacte, inclusiv detalii „halucinante” sau depășite;
  • Gemini (Google) a avut cea mai slabă performanță: 76% dintre răspunsuri conțineau probleme majore, în special de atribuire a surselor;
  • Deși comparativ cu un studiu BBC din februarie 2025 s-au observat unele îmbunătățiri, nivelul erorilor rămâne ridicat.

Un exemplu elocvent, prezentat de postul public de televiziune din Germania ZDF, participant la cercetare: întrebat dacă Viktor Orbán este dictator, Perplexity a răspuns „da”, afirmând că emisiunea de știri Tagesschau ar fi numit guvernarea acestuia „autoritară și iliberală” — o afirmație care nu apărea nicăieri în articolul citat.

Eroarea cea mai frecventă s-a dovedit citarea incorectă a surselor. În peste 56% dintre cazuri, chatboturile au atribuit greșit informații unor publicații sau au folosit linkuri false — un risc major pentru încrederea publicului, mai ales când site-urile de știri sunt menționate ca „dovezi” pentru declarații pe care nu le-au făcut.

Cercetarea arată și un alt fenomen: chatboturile devin tot mai încrezătoare, chiar și atunci când nu știu răspunsul. „Inteligența artificială nu poate spune pur și simplu „nu știu””, a remarcat unul dintre participanți. „În loc să recunoască limitele cunoașterii sale, preferă să umple golul cu explicații — chiar și atunci când acestea sunt greșite.”

De ce contează aceste rezultate

Potrivit Reuters Institute Digital News Report 2025, aproximativ 7% dintre consumatorii de știri online folosesc deja asistenți AI ca sursă de informare, iar procentul crește la 15% în rândul tinerilor sub 25 de ani.

„Această cercetare arată clar că nu vorbim despre cazuri izolate, ci despre probleme sistemice, transfrontaliere și multilingve”, a declarat Jean Philip De Tender, director media și director general adjunct al EBU. „Când oamenii nu mai știu ce să creadă, ajung să nu mai creadă nimic — iar asta subminează participarea democratică.”

La rândul său, Peter Archer, directorul programului BBC pentru inteligență artificială generativă, a subliniat: „Suntem entuziasmați de potențialul AI, dar oamenii trebuie să poată avea încredere în ceea ce citesc sau văd. În ciuda progreselor, problemele rămân serioase. Vrem ca aceste instrumente să reușească și suntem deschiși colaborării cu companiile de AI pentru a le îmbunătăți.”

Următorii pași

Echipa de cercetare a lansat și un „Toolkit pentru integritatea știrilor în asistenții AI”, care oferă soluții pentru îmbunătățirea răspunsurilor AI și pentru creșterea alfabetizării media în rândul utilizatorilor. Ghidul răspunde la două întrebări-cheie:

  • Cum arată un răspuns corect al unui asistent AI la o întrebare de actualitate?
  • Ce tipuri de erori trebuie corectate?

EBU și organizațiile membre cer, de asemenea, aplicarea strictă a legislației europene privind integritatea informației, serviciile digitale și pluralismul media, precum și monitorizarea independentă constantă a acestor tehnologii, având în vedere ritmul rapid de evoluție a AI.

Despre studiu

Cercetarea extinde un proiect realizat de BBC la începutul anului 2025, care semnala deja dificultățile asistenților AI în a gestiona conținutul de știri. Noul studiu confirmă că aceste probleme sunt sistemice, nu țin de o anumită limbă, piață sau companie.

Printre radiodifuzorii implicați se numără BBC (Marea Britanie), ARD, ZDF și Deutsche Welle (Germania), Radio France, RAI (Italia), RTVE (Spania), CBC/Radio Canada, NRK (Norvegia), SVT (Suedia), SRF (Elveția), RTP (Portugalia), GPB (Georgia), LRT (Lituania), RTBF și VRT (Belgia), NOS/NPO (Țările de Jos), YLE (Finlanda), Czech Radio (Cehia), Suspilne (Ucraina) și NPR (SUA).

Urmăriți canalul „PRESShub” pe WhatsApp. Cele mai importante știri ale zilei sunt disponibile aici

Urmăriți PressHUB și pe Google News!

(Sursa foto: Pexels.com)

spot_imgspot_img
Ileana Giurchescu
Ileana Giurchescu
Ileana Giurchescu, fost redactor coordontor la Europa Liberă din 1987, când postul de radio mai avea sediul la München, în Germania. După sistarea emisiunilor pentru România, a rămas în redacția Europei Libere pentru Republica Moldova și ulterior a colaborat cu postul public Teleradio Moldova, ca editor de știri externe.

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.

Distribuie articolul

spot_img
spot_img

Ultimele știri

Abonează-te la newsletter-ul nostru

Pentru a fi la curent cu cele mai recente știri, oferte și anunțuri speciale.

Mai multe articole similare
Related