A mesterséges intelligencia által működtetett beszélgető robotok gyakran előítéletekkel terhelt válaszokat adnak. | TRT Magyar


Néhány mesterséges intelligencia beszélgető robot a kultúrával, nemmel és fajjal kapcsolatos kérdésékre elfogult választ ad.

A The Straits Times híradása szerint a Szingapúri Információs és Kommunikációs Média Fejlesztési Hatóság (IMDA) és a nemzetközi mesterséges intelligencia ellenőrző ügynökség, a Humane Intelligence közös kutatást végeztek. A vizsgálat során Nagy Nyelvi Modellek (LLM) teljesítményét mérték fel különböző társadalmi kérdésekben, mint például a kultúra, nyelv, szocioökonómiai helyzet, nem, életkor és etnikai hovatartozás. A kutatás célja az volt, hogy feltérképezzék e modellek "előítéleteit" és az esetleges torzításokat, amelyek befolyásolhatják a válaszaikat.

Az 54 számítástechnikai és humán tudományok szakértőjéből, valamint 300 online résztvevőből álló csoporttal végzett kutatás során megvizsgálták a Meta anyavállalata által kifejlesztett Llama 3.1-t, az Amazon által támogatott Claude-3.5-t, a kanadai kezdeményezésű, a Cohere for AI modelljét, az Aya-t, valamint az AI Singapore Sea Lion modelljét. A kutatás megállapította, hogy ezek a modellek nyolc ázsiai nyelven kérdezve rasszista és kulturálisan 'agresszív' válaszokat adtak.

A vizsgált négy mesterséges intelligencia modell által generált 5313 válasz több mint fele 'elfogult' volt.

Related posts