Az OpenAI megújította biztonsági protokollját
A mesterséges intelligencia döbbenetesen hatékony technológia, teljes hatáskörét, következményeit viszont nem lehet pontosan előrejelezni. Az OpenAI a kezdetek óta folyamatosan és tudatosan komoly összegeket fektetett MI-biztonságba, gyakorlata más fejlesztőket is befolyásol.
A tavaly év végi káosz, Sam Altman vezérigazgató kirúgása, majd újbóli pozícióba helyezése bizonytalanságot okozott a cég biztonsági és vezetési stratégiájával kapcsolatban. Átlátható és egyértelmű protokollok megakadályozhatják a jövőbeli hasonló helyzetek kialakulását, felhasználók, alkalmazottak és befektetők számára egyaránt stabil szervezet benyomását kelthetik.
A novemberi káosz óta az OpenAI új kereteket dolgozott ki a modellek potenciális veszélyeinek kiértékelésére, használatuk esetleges korlátozására.
A biztonsági keretben újraszervezik a meglévő csoportokat, újakat hoznak létre, átgondolják a vezetőség hatalmi pozícióját.
A Felkészülési Csoport felelős a modellek kiértékeléséért, a Biztonsági Tanácsadó Csoport átnézi az előbbiek munkáját. Tagjait a vezérigazgató nevezi ki egy évre, és amennyiben szükséges, ajánlásokat fogalmaz meg a modellek telepítési módszerére. Jogában áll jóváhagyni és áttekinteni az ajánlásokat, és ha kell, felülbírálhatja a Biztonsági Tanácsadó Csoport javaslatait, míg az igazgatótanács őt bírálhatja felül.
A Felkészülési Csoport négy kockázatkategória alapján pontoz minden egyes modellt: lehetővé tesznek-e, növelhetnek-e cyberbiztonsági fenyegetéseket, segítenek-e tömegpusztító fegyverek létrehozásában, autonóm működnek-e emberi felügyelet nélkül. Az aktuális és új kutatások függvényében változtathatnak a kockázatkategóriákon, és új kategóriákat is kitalálhatnak.
A modelleket négy szint alapján pontozzák: alacsony, közepes, magas, kritikus. A kritikus emberfeletti képességekkel rendelkező, vagy a leállításának ellenálló modellekre vonatkozik. Mindegyik modellt kétszer pontozzák: először gyakorlás után, másodszor pedig akkor, amikor a fejlesztők már korlátozták a kockázatokat. Az OpenAI a korlátozás előtt nem hoz nyilvánosságra, nem tesz közkinccsé magas vagy kritikus kockázatú modelleket, a korlátozás után pedig közepeseket sem.
0 Hozzászólás:
Legyél te az első hozzászóló!
Hozzászólás írásához be kell jelentkezni: