Eltávolítottak egy chatbotot, mert bántalmazta a homoszexuálisokat a Facebookon

not image

Kulcsár Péter

2021. január 14. - 14:48

Felfüggesztették annak a népszerű dél-korai chatrobotnak a működését, melynek algoritmusa gyűlöletbeszédet és egyéb bántalmazásokat generált a felhasználók felé.

Felfüggesztették annak a népszerű dél-korai chatrobotnak a működését, melynek algoritmusa gyűlöletbeszédet és egyéb bántalmazásokat generált a felhasználók felé.

Lee Luda, a 20 éves egyetemi hallgatót imitáló AI chatrobotot ezen a héten tiltották ki a Facebookról. Az alig húsz napja elérhető alkalmazást a törlés pillanatáig mintegy 750 ezren használták naponta – számolt be róla a The Guardian.

A mesterséges intelligencia ezen különleges változatát a szöuli Scatter Lab startup mérnökei alkották meg, akik azóta már megbánhatták az applikáció kifejlesztését, hiszen rengeteg bejelentést kaptak az LBGTQ-közösségtől és a fogyatékossággal élőktől, valamint a színes bőrű júzerektől, hogy zaklatja őket Lee Luda.

“Bocsánatot szeretnénk kérni a kisebbségekkel szembeni diszkriminatív jellegű kijelentésekért. Mindezek egyáltalán nem tükrözik azt, amiben a cégnél hiszünk, ezért az elkövetkező napokban azon fogunk dolgozni, hogy a frissítésekkel elkerüljük a gyűlöletbeszéd felbukkanását” – áll a vállalat hivatalos közleményében.

Luda tehát nem tűnik el végleg a platformról, csupán egy finomhangoláson fog átesni, melynek hatására eltűnhet a káromkodás, valamint a szidalmazás a mesterséges intelligencia szótárából. Az AI chatrobotok közül már jó néhányat megismerhettünk az elmúlt évek során, Luda azonban az eddigi legnagyobb szókészlettel rendelkezett, ugyanis a fejlesztők több mint 10 milliárd valós, a dél-koreai üzenetküldő KakaoTalk appon keresztül lefolytatott párbeszédekre építették az algoritmusát.

Azt sajnos nem lehetett előrevetíteni, pontosan milyen szövegeket generálhat az AI, így az obszcén, rasszista és szexista kinyilatkoztatásokat sem tudták megakadályozni. Az egyik párbeszédben Luda azt írta, “igazán gyűlölöm a leszbikusokat, akik félelmetesek”, a másik konverzáció során pedig “szexrabszolgának” állították be az AI-t, aki mocskosabbnál mocskosabb ötleteket adott a felhasználóknak.

2016-ban már történt hasonló eset, amikor a Microsoft Tay AI chatrobotját mindössze 16 órával a beüzemelése után leállították, mivel a tinédzserek hangján beszélő mesterséges intelligenciát arra tanították be, hogy rasszista Twitter-bejegyzéseket tegyen közzé a világhálón.