
Előfordult már, hogy egy kifinomult mesterséges intelligencia magabiztosan állított valamit, ami kiderült, hogy teljességgel hamis? Ez a zavarba ejtő jelenség, amelyet gyakran „hallucinációnak” neveznek, nem csupán egy apró hiba; mélyen gyökerező kihívást jelent az AI-iparág számára. Nemrégiben az OpenAI kutatói ásták bele magukat ebbe a problémába, és egy lenyűgöző, bár némileg aggasztó magyarázattal álltak elő.
Tanulmányuk szerint ezek a fejlett digitális elméket nem rosszindulat vezérli, hanem egyfajta statisztikai kényszer. A kiterjedt tréningfolyamatok során az AI modelleket szigorúan értékelik: a helyes válaszokat jutalmazzák, a hibákért pedig büntetés jár. Ez azonban egy finom, mégis erős „tippelési nyomást” generál. Ha egy AI bizonytalan, statisztikailag biztonságosabb lehet egy magabiztos (ám esetleg téves) választ adni, mint beismerni a tudatlanságát. Gondoljunk csak egy diákra, aki részleges pontokra számít, még akkor is, ha csak tippel a vizsgán.
Ez a felismerés a generatív mesterséges intelligencia működésének alapjaiban rejlő lehetséges hibára utal. Az OpenAI optimistán úgy véli, hogy az értékelési mechanizmusok finomhangolásával orvosolható a probléma. Azonban a szélesebb szakmai közösség nem ennyire meggyőződött, és szkepticizmusuk nem csupán a technikai komplexitásból fakad. Sok szakértő megkérdőjelezi, hogy az iparág, jelenlegi formájában, vajon képes lenne-e valóban elviselni egy ilyen mértékű változás terheit.
Dr. Wei Xing, a Sheffieldi Egyetem professzora érzékletesen fogalmazta meg ezeket az aggályokat. Érvelése szerint, ha az AI-t arra tanítanánk, hogy pontosan számszerűsítse bizonytalanságát – magyarul, hogy megfelelő magabiztossági szinttel mondja ki: „nem tudom” vagy „nem vagyok benne biztos” –, az drámai számítási teljesítmény növekedést igényelne. Képzeljük el: minden lehetséges válaszhoz robusztus ellenőrzés szükséges, ami sokkal több erőforrást emészt fel, mint egyszerűen a legvalószínűbb válasz generálása. Ez csillagászati extra költségeket jelentene azon rendszerek számára, amelyek naponta több millió lekérdezést dolgoznak fel, különösen, ha figyelembe vesszük, hogy a jelenlegi infrastrukturális befektetések megtérülése is csak évek, vagy akár évtizedek múlva várható.
A pénzügyi terhek mellett Xing egy kulcsfontosságú felhasználói elvárást is kiemel: elvárjuk, hogy az AI lenyűgöző kinyilatkoztatásokat tegyen, ne pedig egy digitális vállrándítással feleljen.
„A csodálatos MI kinyilatkoztatások helyett a felhasználók nem lennének vevők rá, ha a kérdéseikre csak a vállát vonogatná a rendszer.”
Ez tehát nem pusztán technikai akadály; sokkal inkább egy gazdasági kötéltánc. Az OpenAI-hoz hasonló cégek folyamatosan igyekeznek megnyugtatni befektetőiket a hosszú távon fenntartható üzleti modellek ígéretével. A megfontoltabb, számításigényesebb AI felé való elmozdulás könnyen elidegenítheti azokat a fogyasztókat és érdekelt feleket, akiket éppen megnyerni próbálnak.
Ez a dilemma rávilágít arra, hogy míg a rigorózusabb, pontosságra törekvő MI létfontosságú lehet kritikus infrastruktúrák vagy érzékeny üzleti műveletek esetében – ahol egy hallucináció okozta kár messze meghaladhatja a járulékos költségeket –, az AI-fejlesztések mozgatórugója továbbra is a fogyasztói alkalmazások piaca. Ebben a szférában a gyors és megfizethető, akár pontatlan válaszok gyakran elsőbbséget élveznek az abszolút, ellenőrizhető pontossággal szemben. A piac erőteljes ösztönzést diktál: egyszerűen gazdaságosabb hagyni az AI-t tippelni.
Ez egy kényelmetlen igazsághoz vezet minket: az AI-alkalmazások fejlesztésének üzleti motivációi alapvető ellentmondásban állnak a hallucinációk megszüntetésének komoly céljával. Ironikus módon a Mesterséges Általános Intelligencia (AGI) – az emberi szintű kognitív képességekkel rendelkező gépek – elérésére tett szüntelen ígéretek sarokba szorították a fejlesztőket. Azáltal, hogy folyamatosan világmegváltó áttöréseket emlegetnek, akaratlanul olyan helyzetet teremtettek, ahol bármi, ami nem forradalmi, kudarcnak tűnik.
Ezt a véleményt erősítette meg nemrégiben az AI világ egyik óriása, Demis Hassabis, a Nobel-díjas Google DeepMind vezérigazgatója. Erőteljesen kritizálta az OpenAI legújabb GPT-5 modelljével kapcsolatos állításait, amelyről azt hirdették, hogy „PhD-szintű szakértelemmel” hajtja végre a feladatokat. Hassabis egy podcast interjúban „nonszensznek” nevezte ezeket az állításokat, rámutatva, hogy az AGI nagy ígérete üresen cseng, amikor az AI modellek még gondosan megfogalmazott kérdések esetén is elakadnak viszonylag egyszerű feladatokon. Ez éles emlékeztető a jelenlegi AI képzés képességei és a velük szemben támasztott egetverő elvárások közötti jelentős szakadékra.
Végső soron a valóban megbízható és etikus mesterséges intelligencia felé vezető út tele van összetett kihívásokkal – nem csupán technikai, hanem mélyen gazdasági és pszichológiai természetűekkel is. Az innováció, a felhasználói elvárások és az igazság keresésének egyensúlya fogja meghatározni e hihetetlen technológiai forradalom következő fejezetét.