A Meta masszív tartalomkontrollal veszi fel a harcot a félretájékoztatással
Mivel vészesen közelednek az európai parlamenti választások, a Facebook anyavállalata komoly erőfeszítéseket tesz a félretájékoztatás elleni küzdelemre.
Az Euractiv értesülései szerint a Facebook, az Instagram, a Threads és a WhatsApp anyavállalata, a Meta most egy, a TikTok korábbi bejelentéséhez hasonló döntéssel állt elő: a vállalat ugyanis bejelentette, hogy a közelgő, 2024. júniusi európai parlamenti választásokra készülve erőfeszítéseket tesz a félretájékoztatás elleni küzdelemre és a mesterséges intelligenciával (AI) kapcsolatos kockázatok kezelésére.
A Meta tájékoztatása szerint eltávolítják platformjaikról az erőszakot népszerűsítő vagy a szavazásról álhíreket terjesztő tartalmakat, ehhez pedig összesen 22 nyelvet lefedő tényellenőrző szervezetekkel működnek majd együtt, továbbá kulcsszó-felismerésen alapuló algoritmusokat vezetnek be annak érdekében, hogy egyszerűbbé váljon a tartalomértékelés.
A techóriás mindemellett egy választási műveleti központ létrehozását tervezi a valós idejű fenyegetésazonosítás és -csökkentés érdekében: a vállalat célja ezzel az, hogy a titkos befolyásolási műveleteket kezelje, megjelölje az államilag ellenőrzött médiát, továbbá együttműködjön az Európai Tényellenőrzési Szabványok Hálózatával a tényellenőrzők képzése kapcsán.
További fontos információ, hogy a Meta egyebek mellett egy médiaműveltségi kampányt is életre hoz, melynek célja az iparági partnerekkel való partnerség a mesterséges intelligencia által generált tartalmak kezelésére vonatkozó közös szabványok kialakítása. A vállalat továbbá lépéseket tesz az AI által generált tartalmak megjelölésére és rangsorolására, valamint a digitálisan módosított média átláthatóságának fokozására is.
Mint ismert, a techvállalatokra új uniós szabályok vonatkoznak, így a Metának és a TikToknak is a digitális szolgáltatásokról szóló törvény (DSA) által előírt szigorú új tartalommoderálási szabályokat kell betartaniuk. A DSA értelmében a nagyon nagy online platformként (VLOP) azonosított 20 vállalatnak – köztük a Metának és a TikToknak – kell finanszíroznia a blokk új moderálási szabályainak végrehajtását.