Cea mai amplă cercetare de până acum despre calitatea informațiilor generate de inteligența artificială arată că asistenții AI greșesc aproape jumătate din timp atunci când răspund la întrebări despre actualitate și politică, indiferent de limbă, țară sau platformă.
ChatGPT, Copilot, Gemini și Perplexity distorsionează știrile în 45% dintre cazuri, inventează surse sau atribuie declarații false publicațiilor reale.
Cercetarea, coordonată de Uniunea Europeană de Radio și Televiziune (EBU) și condusă de BBC, a analizat peste 3.000 de răspunsuri din 18 țări. Concluzia: problemele sunt sistemice, nu accidentale, și pot eroda încrederea publicului în presă.
„Când oamenii nu mai știu ce să creadă, ajung să nu mai creadă nimic”, avertizează EBU.
Jurnaliștii implicați au evaluat răspunsurile după criterii esențiale: acuratețe, surse, diferențierea între opinii și fapte, precum și furnizarea contextului necesar.
Rezultatele principale:
- 45% dintre răspunsurile analizate au avut cel puțin o problemă semnificativă;
- 31% au prezentat erori legate de surse – lipsă de citare, citări greșite sau înșelătoare;
- 20% au conținut informații inexacte, inclusiv detalii „halucinante” sau depășite;
- Gemini (Google) a avut cea mai slabă performanță: 76% dintre răspunsuri conțineau probleme majore, în special de atribuire a surselor;
- Deși comparativ cu un studiu BBC din februarie 2025 s-au observat unele îmbunătățiri, nivelul erorilor rămâne ridicat.
Un exemplu elocvent, prezentat de postul public de televiziune din Germania ZDF, participant la cercetare: întrebat dacă Viktor Orbán este dictator, Perplexity a răspuns „da”, afirmând că emisiunea de știri Tagesschau ar fi numit guvernarea acestuia „autoritară și iliberală” — o afirmație care nu apărea nicăieri în articolul citat.
Eroarea cea mai frecventă s-a dovedit citarea incorectă a surselor. În peste 56% dintre cazuri, chatboturile au atribuit greșit informații unor publicații sau au folosit linkuri false — un risc major pentru încrederea publicului, mai ales când site-urile de știri sunt menționate ca „dovezi” pentru declarații pe care nu le-au făcut.
Cercetarea arată și un alt fenomen: chatboturile devin tot mai încrezătoare, chiar și atunci când nu știu răspunsul. „Inteligența artificială nu poate spune pur și simplu „nu știu””, a remarcat unul dintre participanți. „În loc să recunoască limitele cunoașterii sale, preferă să umple golul cu explicații — chiar și atunci când acestea sunt greșite.”
De ce contează aceste rezultate
Potrivit Reuters Institute Digital News Report 2025, aproximativ 7% dintre consumatorii de știri online folosesc deja asistenți AI ca sursă de informare, iar procentul crește la 15% în rândul tinerilor sub 25 de ani.
„Această cercetare arată clar că nu vorbim despre cazuri izolate, ci despre probleme sistemice, transfrontaliere și multilingve”, a declarat Jean Philip De Tender, director media și director general adjunct al EBU. „Când oamenii nu mai știu ce să creadă, ajung să nu mai creadă nimic — iar asta subminează participarea democratică.”
La rândul său, Peter Archer, directorul programului BBC pentru inteligență artificială generativă, a subliniat: „Suntem entuziasmați de potențialul AI, dar oamenii trebuie să poată avea încredere în ceea ce citesc sau văd. În ciuda progreselor, problemele rămân serioase. Vrem ca aceste instrumente să reușească și suntem deschiși colaborării cu companiile de AI pentru a le îmbunătăți.”
Următorii pași
Echipa de cercetare a lansat și un „Toolkit pentru integritatea știrilor în asistenții AI”, care oferă soluții pentru îmbunătățirea răspunsurilor AI și pentru creșterea alfabetizării media în rândul utilizatorilor. Ghidul răspunde la două întrebări-cheie:
- Cum arată un răspuns corect al unui asistent AI la o întrebare de actualitate?
- Ce tipuri de erori trebuie corectate?
EBU și organizațiile membre cer, de asemenea, aplicarea strictă a legislației europene privind integritatea informației, serviciile digitale și pluralismul media, precum și monitorizarea independentă constantă a acestor tehnologii, având în vedere ritmul rapid de evoluție a AI.
Despre studiu
Cercetarea extinde un proiect realizat de BBC la începutul anului 2025, care semnala deja dificultățile asistenților AI în a gestiona conținutul de știri. Noul studiu confirmă că aceste probleme sunt sistemice, nu țin de o anumită limbă, piață sau companie.
Printre radiodifuzorii implicați se numără BBC (Marea Britanie), ARD, ZDF și Deutsche Welle (Germania), Radio France, RAI (Italia), RTVE (Spania), CBC/Radio Canada, NRK (Norvegia), SVT (Suedia), SRF (Elveția), RTP (Portugalia), GPB (Georgia), LRT (Lituania), RTBF și VRT (Belgia), NOS/NPO (Țările de Jos), YLE (Finlanda), Czech Radio (Cehia), Suspilne (Ucraina) și NPR (SUA).
Urmăriți canalul „PRESShub” pe WhatsApp. Cele mai importante știri ale zilei sunt disponibile aici
Urmăriți PressHUB și pe Google News!
(Sursa foto: Pexels.com)