Elon Musk, valamint mesterséges intelligencia szakértők és iparági vezetők egy csoportja hat hónapos szünetet kér az OpenAI újonnan indított GPT-4-nél erősebb rendszerek fejlesztésében, nyílt levélben hivatkozva a társadalomra és az emberiségre gyakorolt lehetséges kockázatokra.
A hónap elején a Microsoft által támogatott OpenAI bemutatta GPT (Generative Pre-trained Transformer) AI programjának negyedik iterációját, amely alkalmazások széles skálájával nyűgözte le a felhasználókat, a felhasználók emberszerű beszélgetésbe való bevonásától a dalok komponálásáig és a hosszú dokumentumok összefoglalásáig.
A levél, amelyet a nonprofit Future of Life Institute adott ki, és amelyet több mint 1 ember, köztük Musk írt alá, a fejlett AI-fejlesztés szüneteltetésére szólított fel, amíg az ilyen tervekre vonatkozó közös biztonsági protokollokat független szakértők nem dolgozzák ki, hajtják végre és ellenőrzik.
"Erőteljes MI-rendszereket csak akkor szabad kifejleszteni, ha biztosak vagyunk abban, hogy hatásaik pozitívak lesznek, és kockázataik kezelhetők lesznek" - áll a levélben.
Az OpenAI nem válaszolt azonnal a kommentárkérésre.
A levél részletezte az ember által versenyképes mesterségesintelligencia-rendszerek által gazdasági és politikai zavarok formájában a társadalomra és a civilizációra jelentett potenciális kockázatokat, és felszólította a fejlesztőket, hogy működjenek együtt a politikai döntéshozókkal az irányítási és szabályozási hatóságok terén.
A társaláírók között volt Emad Mostaque, a Stability AI vezérigazgatója, az Alphabet tulajdonában lévő (GOOGL. O) A DeepMind és az AI nehézsúlyú Yoshua Bengio, akit gyakran az "AI egyik keresztapjaként" emlegetnek, és Stuart Russell, a terület kutatásának úttörője.
Az Európai Unió átláthatósági nyilvántartása szerint a Future of Life Institute-ot elsősorban a Musk Alapítvány, valamint a londoni székhelyű hatékony altruista csoport, a Founders Pledge és a Silicon Valley Community Foundation finanszírozza.
Az aggodalmak akkor merültek fel, amikor az EU rendőri erői, az Europol hétfőn csatlakoztak a fejlett mesterséges intelligenciával, például a ChatGPT-vel kapcsolatos etikai és jogi aggályok kórusához, figyelmeztetve a rendszerrel való esetleges visszaélésekre adathalász kísérletek, dezinformáció és kiberbűnözés során.
Eközben az Egyesült Királyság kormánya javaslatokat tett egy "adaptálható" szabályozási keretre a mesterséges intelligencia körül.
A kormány megközelítése, amelyet egy szerdán közzétett szakpolitikai dokumentum vázolt fel, megosztaná a mesterséges intelligencia (AI) irányításának felelősségét az emberi jogokért, az egészségért és biztonságért, valamint a versenyért felelős szabályozók között, ahelyett, hogy létrehozna egy új, a technológiának szentelt testületet.
ÁTLÁTHATÓSÁG
Musk, akinek autógyártója Tesla (TSLA. O) mesterséges intelligenciát használ robotpilóta rendszerhez, hangot adott az AI-val kapcsolatos aggályainak.
Tavalyi megjelenése óta az OpenAI ChatGPT arra ösztönözte a riválisokat, hogy gyorsítsák fel a hasonló nagy nyelvi modellek fejlesztését, a vállalatokat pedig arra, hogy generatív AI modelleket integráljanak termékeikbe.
A múlt héten az OpenAI bejelentette, hogy körülbelül egy tucat céggel lépett partnerségre, hogy szolgáltatásaikat beépítsék chatbotjába, lehetővé téve a ChatGPT felhasználók számára, hogy élelmiszert rendeljenek az Instacarton keresztül, vagy repülőjegyet foglaljanak az Expedián keresztül.
Sam Altman, az OpenAI vezérigazgatója nem írta alá a levelet, mondta a Future of Life szóvivője a Reutersnek.
"A levél nem tökéletes, de a szellemiségnek igaza van: le kell lassítanunk, amíg jobban meg nem értjük a következményeket" - mondta Gary Marcus, a New York-i Egyetem professzora, aki aláírta a levelet. A nagy szereplők egyre titkolózóbbak azzal kapcsolatban, hogy mit csinálnak, ami megnehezíti a társadalom számára, hogy megvédje magát bármilyen ártalom ellen."
A kritikusok azzal vádolták a levél aláíróit, hogy "AI hype" -ot hirdetnek, azzal érvelve, hogy a technológia jelenlegi potenciáljával kapcsolatos állítások erősen eltúlzottak.
"Az ilyen kijelentések célja a hype növelése. Célja, hogy aggodalommal töltse el az embereket" – mondta Johanna Björklund, az Umeå Egyetem MI-kutatója és docense. "Nem hiszem, hogy be kellene húzni a kéziféket."
Szerinte a kutatás szüneteltetése helyett az MI-kutatókra nagyobb átláthatósági követelményeknek kell vonatkozniuk. "Ha AI-kutatást végez, nagyon átláthatónak kell lennie azzal kapcsolatban, hogy hogyan csinálja." Forrás