Korábbi OpenAI-alkalmazottak alapították az Anthropic nevű AI-biztonsági kutatócéget, majd kirukkoltak a Claude-dal, amelyik egy fejlett, multimodális mesterséges intelligencia asszisztens és nagy nyelvi modell család. A vállalat most azzal vádol három nagy kínai AI-fejlesztőt, a DeepSeeket, a Moonshot AI-t és a MiniMaxot, hogy nagyszabású „desztillációs” kampányokat folytattak a Claude modelljein, és több millió jogosulatlan interakciót hajtottak végre hamis fiókokon keresztül.
Az úgynevezett desztilláció egy elterjedt AI-képzési technika, amelynél egy nagy, erős modell válaszait használják egy kisebb, olcsóbb modell betanításához, ahelyett, hogy ezt tényleges adatokkal végeznék. Ezzel képzési idő takarítható meg, olcsóbb, specializáltabb modellek hozhatók létre, képességek nyerhetők ki a versenytársaktól, és csökkenhetnek a hardverkövetelmények. Ez a folyamat nem illegális, viszont amikor egy szigorú korlátozásokkal rendelkező kínai székhelyű szervezet alkalmazza, az megsérti mind az amerikai exportellenőrzéseket, mind az Anthropickal kötött végfelhasználói licencszerződést – mutat rá aTom’s Hardware.
A DeepSeek állítólag nagyjából 150 ezer, az érvelési képességekre és a rubrikákon alapuló osztályozási feladatokra összpontosító kommunikációt generált, szinkronizált forgalmat használva azonos mintákkal és megosztott fizetési módokkal rendelkező fiókok között. A Moonshot AI több mint 3,4 millió érvelésre, eszközhasználatra, kódolásra és számítógépes látási képességekre irányuló kérdés-válasz párt hajtott végre több száz hamis fiókon keresztül. A MiniMax körülbelül 13 millió kódolásra és eszközhasználatra összpontosító AI-interakciót generált, és forgalmának közel a felét 24 órán belül átirányította, amikor az Anthropic kiadott egy új modellt, amely a legújabb rendszer képességeit használja ki. „Valamennyi kampány a Claude legkülönlegesebb képességeit célozta meg: az ágensi gondolkodást, az eszközhasználatot és a kódolást” – nyilatkozta az Anthropic.
https://hvg.hu/tudomany/20250129_openai-mesterseges-intelligencia-hasznalata-jogszerutlenul-deepseek
A vállalat azt is állítja, hogy a kínai triót „IP-cím korreláció, kérési metaadatok, infrastruktúraindikátorok és bizonyos esetekben az iparági partnerek megerősítése alapján azonosították, akik ugyanazokat a szereplőket és viselkedéseket figyelték meg platformjaikon”. A szellemi tulajdonnal kapcsolatos fenntartásokon kívül az Anthropic azzal is érvelt, hogy a külföldi konkurensek desztillációs kampányai valódi geopolitikai kockázatokat hordoznak. „Az amerikai modelleket leszűrő külföldi laboratóriumok ezeket a képességeket betáplálhatják katonai, hírszerző és megfigyelő rendszerekbe, lehetővé téve az autoriter kormányok számára, hogy mesterséges intelligenciát alkalmazzanak támadó kiberműveletekhez, dezinformációs kampányokhoz és tömeges megfigyeléshez” – mondta a cég.
Az Anthropic állítja, hogy továbbra is befektet olyan védelmi megoldásokba, amelyek megnehezítik a desztillációs támadások végrehajtását és könnyebben azonosíthatók, de összehangolt válaszra szólít fel az AI-iparág, a felhőszolgáltatók és a politikai döntéshozók körében. A desztillációs kampányok jelentős kihívást jelentenek az Egyesült Államok kormánya által jelenleg alkalmazott exportellenőrzési stratégiára nézve. Washington ugyan megpróbálja lassítani Kína mesterséges intelligencia fejlesztését azáltal, hogy korlátozta a hozzáférést a nagy nyelvi modellek betanításához használt fejlett félvezetőkhöz, de az Anthropic állításai azt mutatják, hogy a külföldi szereplők megkerülhetik ezeket a hardverkorlátozásokat a nyilvánosan elérhető AI-szolgáltatások szisztematikus lekérdezésével.
Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.