A Facebook mesterséges intelligenciával tényellenőrzi a Wikipédiát
A Mark Zuckerberg vezette vállalat kifejlesztett egy mesterséges intelligenciamodellt, amely automatikusan vizsgálja át az idézeteket.
Emberek milliói fordulnak meg a Wikipédián, nem tudva, hogy azt bárki szerkesztheti, ezért sokszor hamis információk jelennek meg rajta – ezen akar változtatni a Meta-birodalom.
2020-ban botrányba keveredett a Wikipédia közössége, amikor kiderült, hogy egy amerikai tinédzser 27 ezer bejegyzést írt egy olyan nyelven, amelyet nem beszél. Előfordul, hogy az emberek rosszindulatból próbálják szerkeszteni a Wikipédia bejegyzéseit, de a ténybeli hibák gyakran abból adódnak, hogy egy jó szándékú ember hibázik.
A Facebook anyavállalata, a Meta úgy gondolja, hogy ezt a problémát a mesterséges intelligencia segítségével orvosolni tudja: a közösségi médiaóriás az idézeteket vette célba. A Wikipédia lábjegyzeteivel az a probléma, hogy túl sok van belőlük ahhoz, hogy a platform önkéntes szerkesztői ellenőrizni tudják. Mivel a weboldal havonta több mint 17 ezer cikkel bővül, számtalan idézet hiányos, hiányzik vagy egyszerűen csak pontatlan.
A Meta kifejlesztett egy olyan mesterséges intelligenciamodellt, amely képes az idézetek automatikus átvizsgálására, hogy ellenőrizze azok pontosságát. Alternatív hivatkozásokat is tud ajánlani, ha rossz forrású szövegrészletet talál – írja az Engadget.
Amikor a Wikipédia emberi szerkesztői értékelik az idézeteket, a józan észre és a tapasztalatra hagyatkoznak. Amikor egy mesterséges intelligencia végzi ugyanezt a munkát, egy természetes nyelvi megértési (NLU) és átalakítási modellt használ, amely megpróbálja megérteni a szavak és kifejezések különböző kapcsolatait egy mondaton belül.
A modell alkotói elmondták, bíznak benne, hogy munkájuk segítheti a tényellenőrzésre irányuló különböző erőfeszítéseket, és ezáltal nőhet az online talált információk megbízhatósága, azonban ha úgy működnek a tényellenőrzések a Wikipédián, mint a Facebookon, akkor nem lesz sokkal megbízhatóbb az oldal.