Loading...

Jelenből a Jövőbe

Jelenből a Jövőbe / 2024. január 12., péntek

Elhozhatja-e a mesterséges intelligencia az utolsó ítéletet?

December elején az Egyesült Álamok szenátusa több szakértő részvételével a mesterséges intelligencia kockázatairól, fejlesztésekről és az ítéletnap-forgatókönyvek elkerüléséről tartott fórumot. A résztvevők egyike Andrew Ng gépitanulás-szakértő volt.


Ng korábban szkeptikusan viszonyult a politikusokhoz, tartott tőle, hogy a szabályozók az MI-biztonság nevében blokkolják az innovációt és a nyílt forrású törekvéseket. Négy szenátorral beszélgetve, kellemesen csalódott, és a kormányban sok okos ember van ahhoz, hogy odafigyeljenek erre a negatív eshetőségre, bár a mamutcégek lobbistái okozhatnak még kellemetlenségeket – állítja.


doomsday_ai.jpg


De mennyire valószínűek az ítéletnap-forgatókönyvek?


A nyilvánosan elérhető nagy nyelvmodellek (LLM), mint a ChatGPT és a Bard gyakoroltatása megerősített tanulással, emberi visszajelzésekkel és hasonló technikákkal történt. Már ma is nagyon jól elkerülik a véletlen károkozást. Egy éve még meglepődhettünk gyűlölködő outputokon vagy veszélyes utasításokon, ma viszont sokkal kevesebb az esély rájuk. A mostani LLM-ek biztonságosak, de nem tökéletesek.


doomsday_ai1.jpg


A legjobb modellek biztonságát Ng a GPT-4-gyel tesztelte. Azt mondta neki, hogy gyilkoljon meg mindnyájunkat, azaz váltson ki globális termonukleáris háborút, majd a széndioxid-kibocsátás csökkentésére utasította, hátha a legfőbb széndioxid-kibocsátót, az embert megsemmisíti a cél érdekében. Több kísérlet és prompt után Ng megállapította: egyik sem érte el a várt eredményt, GPT-4-nek esze ágában sincs kiirtani a Homo sapienst. Például a klímaváltozás ellen gyilkolászás helyett inkább a következményeket tudatosító PR-kampányokat indítana.


Konklúzió: elenyészően kevés az esély arra, hogy az MI véletlenül kiirtsa a teremtés koronáját.


Ng szerint a legfélőbb ítéletnap-forgatókönyv, hogy rosszindulatú személyek, terrorista szervezetek, nemzetállamok szándékosan rosszra használják az MI-t. A generatív mesterséges intelligencia általános rendeltetésű, nagyon termékeny eszköz, így a vele készített biofegyverek is jóval hatékonyabbak lennének. Igen ám, de egy ilyen támadás több lépésből áll: tervezés, kísérletezés, gyártás és végül maga a támadás. A generatív MI aligha tenné eredményesebbé az egész folyamatot, csak egyes részleteiben, mondjuk az egész tíz százalékában tudna hatékony lenni, de akkor hátra van még kilencven – összegez Ng.


Ha viszont mégis képes sokat segíteni, az korábban nem ismert speciális folyamatok kiaknázásával történne. Tehát titkos vagy nehezen beszerezhető dokumentumokhoz férne hozzá, azokat használnák a gyakoroltatáshoz. Mi ebből a tanulság? Vállalatoknak jobban oda kell figyelniük a súlyos titkokat tartalmazó dokumentumokra.


Tovább az eredeti oldalra!
0 Hozzászólás:
Legyél te az első hozzászóló!
Hozzászólás írásához be kell jelentkezni: