
A mesterséges általános intelligencia (AGI), azaz az emberi intellektust elérő vagy akár meghaladó gépi elme koncepciója régóta foglalkoztatja a tudományos és technológiai világot. Miközben sokan még csak távoli lehetőségként tekintenek rá, vagy éppen teljes mértékben elvetik a megvalósíthatóságát, az OpenAI berkein belül ez a vízió már-már kézzelfogható közelségbe került – olyannyira, hogy a vállalat egyes vezetői komolyan fontolgatták a legrosszabb forgatókönyvekre való felkészülést.
Egy friss könyv alapján, amely az OpenAI körüli 2023 végi viharos eseményeket dolgozza fel, a cég egyik kulcsfigurája, Ilya Sutskever, a vállalat társalapítója és korábbi vezető tudósa, már 2023-ban egészen konkrét elképzelésekkel rendelkezett arról, mi lenne a teendő az AGI elszabadulása esetén. Információk szerint Sutskever annyira komolyan vette a szuperintelligencia megjelenésének lehetőségét és annak potenciálisan beláthatatlan következményeit, hogy egy bunker építésének ötletét vetette fel. Ebbe a menedékbe vonulhattak volna el a kiválasztottak, amikor az AGI valósággá válik, felkészülve egyfajta tömeges társadalmi sokkra vagy akár egy apokaliptikus forgatókönyv bekövetkeztére.
Sutskever aggodalmai nem voltak teljesen légből kapottak. Állítólag már hónapokkal a ChatGPT 2022-es, világsikert arató debütálása előtt is úgy vélte, hogy bizonyos mesterséges intelligencia modellek „enyhén tudatos” jeleket mutatnak. Ez a fajta mély meggyőződés az MI gyors fejlődéséről vezette őt arra a következtetésre, hogy az AGI küszöbön áll, és annak megjelenése alapvető biztonsági intézkedéseket tesz szükségessé.
Azonban 2023 nyarán Sutskever nézőpontja új irányt vett. Egyre inkább nyugtalanította az a mód, ahogyan az OpenAI a saját maga által fejlesztett, potenciálisan forradalmi technológiát kezelte. Ez a belső feszültség és aggodalom csúcsosodott ki abban, hogy Sutskever más igazgatótanácsi tagokkal együtt megkísérelte eltávolítani Sam Altmannt, az OpenAI vezérigazgatóját. Ez a lépés azonban, mint később kiderült, rövid életű volt, mivel a cég alkalmazottainak többsége Altman mögé állt, és Sutskever is kénytelen volt visszakozni. Ez a belső hatalmi harc végül Sutskever távozásához vezetett az OpenAI-tól.
A történtek ellenére Sutskever nem hagyott fel az AGI létrehozásával kapcsolatos munkájával. Új céget alapított Safe Superintelligence Inc. néven, amelynek célja, hogy olyan módon fejlesszen szuperintelligenciát, ami minimalizálja a világvégét idéző kockázatokat. Figyelemre méltó, hogy alig néhány hónap alatt, már 2023 szeptemberére, egymilliárd dolláros befektetést sikerült összegyűjtenie ezen új, biztonságközpontú vállalkozás számára.
Ez az egész történet rávilágít egy mély ellentmondásra: azok a szakemberek, akik a legközelebb állnak a potenciálisan világmegváltó, ám egyben katasztrofális kockázatokat is hordozó technológia kifejlesztéséhez, maguk is komolyan tartanak annak negatív következményeitől. Felmerül a kérdés, hogy mennyire kezelhetőek ezek a félelmek egy olyan környezetben, ahol a gyors technológiai haladás és a piaci verseny diktálja a tempót. Az etikai aggályok és a felelősségteljes fejlesztés kérdései minden eddiginél fontosabbá válnak, ahogy egyre közelebb kerülünk egy olyan jövőhöz, ahol a mesterséges intelligencia képességei talán meghaladják az emberi irányítás kereteit. Az OpenAI belső drámái és Sutskever óvóhely-tervei intő jelek arra, hogy a szuperintelligencia fejlesztése nem csupán technikai, hanem mélyen emberi és társadalmi kihívás is.