Header Ads Widget

A legújabb kutatások rávilágítottak az AI nyelvi modellekben rejlő politikai elfogultságokra.



Számos tudományos tanulmány  azt sugallja, hogy az alkalmazott adatok és algoritmusok alapján ezek a modellek nem feltétlenül olyan semlegesek, mint amilyennek szánták.

Az MIT Technology Review szerint a Washingtoni Egyetem, a Carnegie Mellon Egyetem és a Xi'an Jiaotong Egyetem kutatói által vezetett átfogó tanulmány 14 AI modellt elemzett, köztük olyan népszerű modelleket, mint a ChatGPT by OpenAI.

Amikor politikai töltetű kijelentésekkel pózoltak, ezek a modellek számos elfogultságot mutattak. Nevezetesen, a ChatGPT a baloldali libertárius nézetek felé hajlott.

Egy másik, a Kelet-Angliai Egyetem által végzett tanulmány kifejezetten a ChatGPT-t figyelte meg, és "jelentős és rendszerszintű" baloldali elfogultságot talált.

Ez a tanulmány tovább erősítette megállapításait a ChatGPT ideológiai kérdésekre adott válaszainak elemzésével, megerősítve a chatbot kivételezését a Munkáspárttal és az amerikai demokratákkal szemben.

Ezeknek a torzításoknak az oka az AI-modellek betanításához használt kiterjedt internetes szöveges adatoknak tulajdonítható.

Az adatokban rejlő torzítások befolyásolhatják a modell kimeneteit. Továbbá a betanítási folyamatban használt algoritmusok felerősíthetik a meglévő torzításokat.

Dr. Fabio Motoki, az utóbbi tanulmány vezető szerzője aggodalmát fejezte ki ezen eredmények következményeivel kapcsolatban, tekintettel az olyan platformok széles körű használatára, mint a ChatGPT.

A lehetséges veszélyeket hangsúlyozva kijelentette: "Ahogy a média, az internet és a közösségi média befolyásolhatja a nyilvánosságot, ez nagyon káros lehet."

Eközben Chan Park az előbbi tanulmányból úgy vélekedett, hogy egyetlen AI nyelvi modell sem lehet teljesen mentes az előítéletektől.

Ezeknek az eredményeknek a fontossága abban rejlik, hogy potenciális hatást gyakorolhatnak azokra a termékekre és szolgáltatásokra, amelyekkel milliók lépnek kapcsolatba nap mint nap.

Az elfogult AI-modellek akaratlanul is károsíthatják vagy sérthetik a felhasználókat, tovább torzítva az információs környezetet.

Az ilyen modelleket fejlesztő technológiai vállalatokat kritika érte az észlelt elfogultságok miatt.

Az OpenAI például megerősítette elkötelezettségét amellett, hogy egyetlen politikai csoportot sem részesít előnyben, és minden felmerülő elfogultságot nem szándékosnak tekint.

A mesterségesintelligencia-modellek politikai hajlamainak szigorú vizsgálata rávilágít arra, hogy sürgősen szükség van a fokozott átláthatóságra és ellenőrzésre.

Mindkét kutatócsoport reméli, hogy tanulmányaik elősegítik a szélesebb körű tudatosságot és párbeszédet az AI etikai vonatkozásairól.