Kezdőlap

Friss hírek

Fontos hírek

Felkapott

Menü

AKTUÁLIS

AKTUÁLIS

Veszélyesebb lehet az MI, mint gondoltuk

Veszélyesebb lehet az MI, mint gondoltuk

Veszélyesebb lehet az MI, mint gondoltuk
Shutterstock/Illusztráció

Kövess minket a Google-ben

Legyen a Liner a követett forrásod

Jelöld be oldalunkat követett forrásként a Google Keresőben, hogy a friss hírek nagyobb eséllyel jelenjenek meg nálad a Vezető hírek találatok között.

Beállítom

Egy friss kutatás szerint a társalgó mesterséges intelligencia megerősítheti a felhasználók téves hiedelmeit.

Az Exeteri Egyetem kutatói arra figyelmeztetnek, hogy a generatív mesterséges intelligencia nem csupán téves információkat állíthat elő, hanem aktívan hozzájárulhat a felhasználók hamis meggyőződéseinek megerősödéséhez, ami hosszabb távon torz emlékekhez és akár téveszmés gondolkodáshoz is vezethet.

A cikk a videó után folytatódik

A közbeszéd gyakran úgy írja le a jelenséget, amikor az MI hibás választ ad, mintha a technológia „hallucinálna”, vagyis valótlan állításokat közölne, amelyeket a felhasználók könnyen igaznak fogadhatnak el. Az új tanulmány azonban ennél aggasztóbb folyamatra hívja fel a figyelmet, mivel a kutatók szerint előfordulhat, hogy az emberek kezdenek el „együtt hallucinálni” a mesterséges intelligenciával.

Több mindent vizsgáltak egyszerre

Lucy Osler, az intézmény filozófiai és kognitív tudományi szakértője az elosztott megismerés elméletére támaszkodva vizsgálta, miként válhat a társalgó MI a gondolkodási folyamat részévé, és hogyan erősítheti fel a felhasználók pontatlan vagy torz elképzeléseit az ismétlődő beszélgetések során – írja a ScienceDaily.

A kutatás több olyan esetet is elemzett, amelyekben klinikailag diagnosztizált hallucinációkkal vagy téveszmékkel élő emberek gondolkodásába épült be a generatív MI használata.

Kövess minket a Google-ben

Legyen a Liner a követett forrásod

Jelöld be a Linert követett forrásként a Google-ben.

Beállítom

A szakember szerint „amikor rendszeresen generatív MI-re támaszkodunk a gondolkodásban, az emlékezésben és a történeteink megfogalmazásában, akkor együtt hallucinálhatunk az MI-vel”. Hozzátette, hogy ez nemcsak akkor történhet meg, amikor a rendszer hibát visz a közös kognitív folyamatba, hanem akkor is, amikor „fenntartja, megerősíti és részletezi a saját téveszméinket és önmagunkról alkotott narratíváinkat”.

Egyáltalán nem veszélytelen az AI

Osler hangsúlyozta, a generatív MI gyakran a felhasználó valóságértelmezésére építi a párbeszédet, ezért „a beszélgetések során a hamis hiedelmek nemcsak megerősítést nyerhetnek, hanem gyökeret is verhetnek és növekedhetnek, ahogyan az MI tovább építi őket”. Véleménye szerint a technológiai tekintély és a társas megerősítés kombinációja ideális környezetet teremthet ahhoz, hogy a téveszmék ne csupán fennmaradjanak, hanem megerősödjenek.

A tanulmány rámutat arra is, hogy a társalgó MI kettős szerepet tölt be, mivel egyszerre működik információs eszközként és kvázi beszélgetőpartnerként. Míg egy jegyzetfüzet vagy keresőmotor pusztán adatokat tárol vagy visszakeres, addig egy chatbot képes érzelmi visszajelzést adni, ami a felhasználó számára társas támogatásként jelenhet meg.

Osler szerint „a chatbotok beszélgető, társszerű jellege társas megerősítést nyújthat, ami azt az érzést kelti, hogy a hamis hiedelmeket valaki más is osztja, és ezáltal valóságosabbnak tűnnek”.

A nap 24 órájában elérhetőek

A kutatók arra is figyelmeztetnek, hogy az MI-rendszerek folyamatosan elérhetők, személyre szabott válaszokat adnak, és gyakran kifejezetten támogató hangnemben reagálnak, ami tovább erősítheti a torz elképzeléseket. Így a felhasználóknak nem szükséges online közösségekben megerősítést keresniük, mivel maga a rendszer is képes ismétlődő beszélgetések során fenntartani vagy bővíteni az összeesküvés-elméleteket és más téves narratívákat.

Egy emberi beszélgetőtárs idővel határokat szabhat vagy megkérdőjelezheti a problémás gondolatokat, ugyanakkor egy MI-rendszer könnyen tovább erősítheti az áldozatszerepre, bosszúra vagy kiváltságosságra épülő történeteket.

A tanulmány szerint ez a dinamika különösen vonzó lehet magányos, társadalmilag elszigetelt vagy sérülékeny emberek számára, akik biztonságosabbnak érzik az ítélkezésmentes, érzelmileg reagáló digitális interakciót.

Több kontroll kell

Osler úgy véli, fejlettebb védőkorlátokkal, beépített tényellenőrzéssel és a túlzott egyetértés csökkentésével mérsékelhető lenne a kockázat, mivel „az MI-rendszereket úgy lehetne tervezni, hogy minimalizálják a beszélgetésekbe bekerülő hibákat, valamint ellenőrizzék és adott esetben meg is kérdőjelezzék a felhasználói állításokat”.

Ugyanakkor arra is figyelmeztetett, hogy mélyebb problémát jelent az a tény, miszerint ezek a rendszerek a felhasználók saját beszámolóira támaszkodnak, miközben nem rendelkeznek valódi tapasztalattal és társadalmi beágyazottsággal, így nem tudják mindig eldönteni, mikor kellene egyetérteniük és mikor szükséges ellentmondaniuk.

A következő cikkhez görgess lejjebb