
Amikor a mesterséges intelligencia (MI) robbanásszerűen berobbant a köztudatba, sokan a média szent grálját látták benne: egy eszközt, amely forradalmasítja a hírgyártást, csökkenti a költségeket és növeli a hatékonyságot. A kiadók milliókat fektettek be, abban a reményben, hogy a gépi elme tehermentesíti a szerkesztőségeket, teret engedve az emberi kreativitásnak és a mélyreható elemzésnek. Az elmúlt időszak tapasztalatai azonban egészen más képet festenek. Ahelyett, hogy megváltást hozott volna, a digitális asszisztens sok esetben inkább fejfájást, sőt, komoly aggályokat okoz a szakmában, alapjaiban rengetve meg a publikációkba vetett bizalmat.
Egyre több bizonyíték gyűlik össze arról, hogy a legfejlettebb MI-modellek megbízhatósága korántsem tökéletes. Gyakran készítenek olyan összefoglalókat, amelyekben tények torzulnak, vagy éppen kihagyják a lényeget. Sőt, az egyik legsúlyosabb probléma, amikor a rendszerek teljesen légből kapott információkat, úgynevezett „hallucinációkat” produkálnak, valóságos forrásokra hivatkozva, melyek sosem léteztek. Gondoljunk csak arra a hírhedt esetre, amikor egy fejlett algoritmust arra kértek, írjon egy cikket a „Byron-Cabot románcról”. A gépi elme egy köztiszteletben álló csillagász és egy feltörekvő exobolygó-kutató titkos viszonyáról szőtt történetet, mely egy nemzetközi űrtávcső-projekt során bontakozott ki, kiegészítve belső vizsgálatokkal és etikai aggályokkal. A valóság azonban sokkal prózaibb és emberibb volt: két vezető beosztású menedzser csupán egy Coldplay koncerten került a „kisscam” lencséje elé. Ez a példa ékesen bizonyítja, hogy az algoritmusok milyen könnyen tévednek fikcióval ténynek álcázva, kompromittálva a sajtó alapját képező hitelességet.
Hilke Schellmann, a New York-i Egyetem elismert újságíró professzora és kutatócsoportja a Columbia Journalism Review hasábjain publikált tanulmányában rendkívül aggasztó megállapításokra jutott. A legmodernebb algoritmusok, mint például a Google Gemini 2.5 Pro vagy az OpenAI GPT-4o, bár a rövid összefoglalók terén viszonylag helytállóak tudnak lenni, a komplexebb, részletesebb feldolgozások során már jelentős torzulások és hiányosságok jellemzik őket. A hosszabb szövegek elemzésénél a mesterséges intelligencia a tények közel felét egyszerűen figyelmen kívül hagyta, miközben a téves információk aránya drámaian megugrott.
A tudományos háttérkutatás területén mutatkozott meg a legkomolyabb deficit. Amikor öt vezető AI-alapú keresőeszközt kértek fel arra, hogy állítson össze releváns szakirodalmat négy tudományos cikkhez, az eredmények elmaradtak a humán szakértők által készített, gondos áttekintésektől. Sok esetben egyetlen hivatkozás sem fedte le az eredeti forrásokat, és mindössze egyetlen modell, a Semantic Scholar mutatott 50 százalékos egyezést – mindössze egyetlen vizsgált esetben. Ráadásul az algoritmusok eredményei következetlenek voltak; ugyanazt a parancsot többször lefuttatva is eltérő „tudományos konszenzust” prezentáltak.
Ahogy Schellmann professzor asszony jogosan rámutatott:
A hiányos vagy félrevezető szakirodalom nem pusztán pontatlan, hanem potenciálisan veszélyes is. Egy újságíró hamis képet kaphat egy új kutatás jelentőségéről, figyelmen kívül hagyhatja a meglévő kritikákat vagy korábbi eredményeket, ami súlyosan torzíthatja a nyilvánosság felé közvetített tudományos diskurzust.
Az eredeti ígéret az volt, hogy a gépi asszisztensek tehermentesítik az újságírókat, gyorsítva a munkát és felszabadítva a kreatív energiákat. A valóságban azonban épp az ellenkezője történik. Az MI által generált anyagokat a szerkesztőknek és riportereknek kell alaposan átfésülniük, ellenőrizniük, gyakran nulláról újraírniuk. Ez nem csökkenti, hanem drámaian növeli a munkaterhelést, hiszen a precizitás és a hitelesség elengedhetetlen a szakmában. A korrekcióra és ellenőrzésre fordított idő elvonja az energiát az eredeti, mélyreható kutatásoktól és a valóban értékes tartalmak létrehozásától.
Mindeközben a jelenség tágabb iparági következményekkel is jár. Az MI-generált szövegek rohamos terjedése elárasztja az internetet ellenőrizetlen, gyakran silány minőségű publikációkkal, amelyek fokozatosan aláássák a hiteles sajtó fundamentális szerepét. Paradox módon, miközben a médiaóriások dollármilliókat fektetnek ezen technológiákba, a szerkesztőségek világszerte leépülnek, és a tapasztalt szakemberek száma csökken. A bizalomvesztés már a közönség oldalán is tapintható. Egy friss felmérés szerint, amint az olvasók tudomására jut, hogy egy cikk létrehozásában mesterséges intelligencia is részt vett, a szerző és a médium iránti bizalmuk jelentősen megrendül. Ez egyenesen az újságírás egzisztenciális válságához vezethet.
A digitális forradalom és a gépi intelligencia tagadhatatlanul jelen van, és formálja a jövőt. Azonban az újságírásban, ahol a tények szentsége és az emberi meglátás értéke a legfontosabb, a technológia még messze jár attól, hogy önállóan képes legyen megfelelni a kihívásoknak. A gépi algoritmusok hasznos segédként szolgálhatnak, de a végső felelősség és a minőség garanciája továbbra is az emberi intellektus marad. Az igazi kérdés az, hogyan tudjuk okosan integrálni a technológia előnyeit anélkül, hogy feláldoznánk az alapvető újságírói etikai elveket és a közönség bizalmát.