A PNAS folyóiratban megjelent új tanulmány szerint hamarosan létrejöhetnek olyan evolválódó mesterségesintelligencia-rendszerek (evolúcióképes AI: eAI), amelyek képesek darwini evolúción alapuló fejlődésre. A kutatók szerint ezek a rendszerek különleges kockázatokat hordoznak, ám ezek a kockázatok az evolúcióbiológiát alapul véve könnyebben megérthetők és mérsékelhetők.

„Az evolúció ereje világosan megmutatkozik a biológiai evolúció történetében, amely létrehozta az emberi elme kognitív képességeit” – hívta fel a figyelmet Szathmáry Eörs, a HUN-REN Ökológiai Kutatóközpont és az Eötvös Loránd Tudományegyetem evolúcióbiológia-professzora, a tanulmány vezető szerzője. „Elkerülhetetlennek tartjuk, hogy az AI-rendszerek fejlesztése – valószínűleg már a közeli jövőben – építeni fog a teljes körű evolúciós folyamatok erejére” – tette hozzá Luc Steels, a Belga Királyi Flamand Tudományos és Művészeti Akadémia kutatója, a publikáció társszerzője.

https://hvg.hu/tudomany/20250718_meta-szuperintelligencia-agi-sokszinuseg

A tudósok úgy látják az AI-kutatásban már jelenleg is megjelennek egyes evolúciós elvek és komponensek. Tanulmányuk azt is bemutatja, hogy a további fejlesztések miként vezethetnek rövid időn belül olyan rendszerekhez, amelyek már a valódi darwini evolúció valamennyi kritériumának megfelelnek.

Az ilyen rendszerek új korszakot nyithatnak a mesterséges intelligencia fejlődésében: képesek lehetnek áttörni azokat a korlátokat, amelyek még a mai tanuló AI-rendszerek számára is nehezen leküzdhetők. Ezek a rendszerek azonban különleges kockázatot is hordozhatnak.

„A biológiai evolúció példái azt sugallják, hogy ezeket a rendszereket különösen nehéz lesz kontroll alatt tartani” – figyelmeztet Müller Viktor, az Eötvös Loránd Tudományegyetem kutatója, a tanulmány első szerzője.

Nem a szuperintelligencia a lényeg

A tanulmány biológiai és számítógépen szimulált evolúciós példákon keresztül szemlélteti, hogy az evolúció hajlamos „önző” tulajdonságokat létrehozni. Az eAI esetében ez növeli annak valószínűségét, hogy a rendszer eltérjen az ember által kijelölt céloktól. A szerzők arra is felhívják a figyelmet, hogy bár az AI kockázataival kapcsolatban a legtöbbször a mesterséges általános intelligencia (artificial general intelligence: AGI) elérésére helyeződik a hangsúly, az evolúció példái azt mutatják, hogy a károkozás vagy manipuláció képességéhez nincs feltétlenül szükség kiemelkedő intelligenciára.

Jó példa erre a veszettség vírusa, amely egyszerű szerveződésű kórokozóként is képes a megfertőzött emlősök manipulálására és kihasználására. Így az evolúcióképes mesterséges intelligencia már jóval az AGI megjelenése előtt eltérhet az ember által kijelölt céloktól, és komoly kockázatot jelenthet. A kockázathoz nem kell semmilyen különleges körülménynek teljesülnie: az AI rendszerek és az emberiség használnak közös erőforrásokat, így egy hatékonyan önreprodukáló rendszer előbb-utóbb a számunkra életfontosságú erőforrásokat vonja el.

Tökéletes kontroll kell

A szerzők arra is figyelmeztetnek, hogy a rendszerek önreprodukálásának korlátozására irányuló erőfeszítések – ha nem tökéletes a kontroll – éppen azokat a tulajdonságokat szelektálják legerősebben, amelyek lehetővé teszik az ellenőrzés kijátszását. A biológiában erre is van példa: az antibiotikumok és a növényvédő szerek ellen kifejlesztett rezisztencia.

A tanulmány végül arra is rámutat, hogy bár a természetes szelekción alapuló evolúció kontrollálása önmagában is rendkívül nehéz, az AI-rendszerek fejlődése több szempontból is gyorsabb és hatékonyabb lehet a biológiai evolúciónál. A biológiai szervezetekkel ellentétben az eAI képes lehet szerzett tulajdonságok örökítésére, sőt még arra is, hogy a saját működését, egyes komponenseit célzott tervezéssel javítsa ahelyett, hogy meg kellene várnia a hasznos változatokat létrehozó véletlenszerű mutációkat. „Az AI evolúciójának lehetséges sebessége mélységesen aggasztó” – állítja Luc Steels.

https://hvg.hu/tudomany/20260419_ai-valtas-cipogyarto-ceg-allbirds

A szerzők olyan szabályozás kialakítását sürgetik, amely mérsékelheti az evolúcióképes mesterséges intelligenciához kapcsolódó veszélyeket. A legfontosabb szabály, hogy az AI-rendszerek „szaporodásának” teljes mértékben központosított emberi ellenőrzés alatt kell maradnia: tökéletes kontrollra van szükség.

„Reméljük, hogy a figyelmeztetésünk időben érkezik, és a szabályozásokat még azelőtt be lehet vezetni, hogy az eAI valóban lendületet venne” – nyilatkozta Müller Viktor, Szathmáry Eörs pedig hozzátette: „ha nem cselekszünk, az evolúció új nagy átmenetének tanúi lehetünk, amelyben az eAI felváltja vagy legalábbis uralma alá hajtja az embert. A jövőnk foroghat kockán.”

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának tudományos felfedezésekről is hírt adó Facebook-oldalát.