Clouds
21 Budapest
Dollár
354,04 Ft
Euró
389,63 Ft
Font
438,45 Ft
Bitcoin
23,724 $

Fikcióból valós társadalmi kockázattá vált a deepfake

Fotó: illusztráció | Unsplash
Belföld

Takács Petra

Szerkesztő

Az NMHH szerint az egyéni kockázat mellett a társadalomra is veszélyes a mesterséges intelligencia által előállított hamis arcmás.

Az NMHH kommunikációs igazgatósága azt közölte az MTI-vel, hogy a deepfake olyan, a hitelességét tekintve rendkívül meggyőző videó, amelyben általában emberek arcát felhasználva hamis képmásokat mutatnak be, melyeket mesterséges intelligencia felhasználásával állítottak elő.

Soron kívül Észak-Korea megint súlyosan megfenyegette az USA-t

Megjegyezték, hogy a fényképek retusálása, azaz technikai értelemben vett meghamisítása nem újkeletű gyakorlat, azonban a mesterséges intelligencia nemcsak a képek megváltoztatását, hanem azok létrehozását is lehetővé teszi.

A deepfake-jelenség 2017-ben indult hódító útjára a Reddit fórumon, ahol az egyik felhasználó egy pornószínésznő arcát egy híres színésznőével helyettesítette – idézték fel. A videót követően számos hasonló hamisítvány látott napvilágot, és 2018 végére már szinte általánossá vált – írták.

Úgy folytatták, hogy ma már bárki tud jobb vagy rosszabb minőségben, különösebb utánajárás és technikai ismeret nélkül is deepfake tartalmakat készíteni. Az internetfelhasználók főként pornográfia hamisítására és mémek készítésére használták – tették hozzá. A kifejezetten félrevezető céllal megalkotott, úgynevezett megtévesztő deepfake víziója is hamar megszületett: az effajta tartalom hosszú ideig csak fikcióként élt a köztudatban.

Karácsony Gergely is helyet kapott az NMHH vizsgálatában

Az elméleti lehetőség azóta valósággá vált, erről árulkodik az a 2022 júniusában történt magyarországi eset is, amely Budapest főpolgármesterhez, Karácsony Gergelyhez, valamint Kijev polgármesterhez, Vitalij Klicskóhoz kapcsolódott, pontosabban egy ál-Klicskóhoz, ugyanis – mint később kiderült – a budapesti főpolgármester a videóbeszélgetés során nem a hivatalban lévő ukrán városvezetővel folytatott beszélgetést – olvasható a közleményben.

Karácsony és a hivatal dolgozói sokáig nem észlelték, hogy hamisítvánnyal van dolguk, mivel a deepfake Klicsko a háborút és a menekültválságot érintően releváns kérdéseket tett fel – fűzték hozzá, azzal együtt, hogy utólag kiderült, az ál-Klicsko korábban Madrid, Berlin és Bécs polgármestereivel is kezdeményezett videóhívásokat.

Nagy port kavart az a 2019-es eset is, amikor egy brit energiavállalat vezérigazgatójának hangját deepfake technológia segítségével reprodukálták, és a cég ügyvezető igazgatóját 200 ezer euró átutalására kérték fel egy állítólagos magyar beszállító javára. Mire az átverést felfedezték, a pénz, ami magyarországi, valamint mexikói számlákon mozgott, már szétszóródott a világban.

Ezeket a jeleket kell figyelni

A közleményben azt írták, hogy a tapasztalatok szerint a hamisítványt legkönnyebben az apró részleteken keresztül tudjuk leleplezni. Léteznek ugyanis a deepfake-re jellemző tipikus hibák, melyek általános ismertetőjegyei az ilyen jellegű hamisítványoknak. Ha odafigyelünk ezekre, egy idő után már könnyebben felfedezhetjük, hogy nem egy valódi személyt látunk a felvételeken.

Azt tanácsolták, hogy az első és legfontosabb, hogy jól szemügyre vegyük a képen vagy videófelvételen látható arcot, a pórusokat, a homlokot, kiváltképpen a haj és a nyak vonalát, hiszen számos esetben a hamisítvány már az illesztési pontokat követve leleplezhető. Bár a jelenlegi algoritmusok nagyon precízek, árulkodó nyom lehet, ha rendellenességet tapasztalunk a száj és a szemöldök mozgását figyelve – hívták fel a figyelmet.

A törvényi rendelkezések a deepfake létrejöttét elősegítő technológiát nem, de a felhasználásának módját már szabályozzák – jelezték. Közölték azt is, hogy a deepfake algoritmussal létrehozott tartalmak viszonylag új jelenségnek számítanak, de a szakértők már felhívták a figyelmet arra, hogy milyen kockázatokat is jelenthetnek az egyénekre, szervezetekre vagy akár országok kormányaira nézve.

Hangsúlyozták, hogy senki sincs biztonságban a deepfake-tartalmaktól. Egyes országokban már léteznek kifejezetten az ilyen tartalmakkal való visszaélések ellen létrehozott büntető szankciók, ugyanakkor a legtöbb helyen, ahogy hazánkban is, a jogi háttér még nem biztosított. A deepfake-technológia által generált kép- és hanganyag jogszerű használata nagyszerű üzleti lehetőségeket kínál, valamint számos új kaput nyit ki a marketing, a televízió és a mozi számára szerte a világon.

A technológia önmagában ártalmatlan és a konstruktív felhasználása nemcsak a különböző cégek és vállalatok érdekeit szolgálja, hanem jelentős társadalmi együtthatója révén, nagy hatással lehet az emberek életére – áll az NMHH elemzésében.

MTI