A Call of Duty-ban ezentúl AI moderálja majd a voice chatet
Ha egy játékos megsérti a CoD viselkedési kódexét, úgy kifogásolható kijelentését mesterséges intelligencia vizsgálja majd.
Az olyan first-person shooter játékok, mint például a Call of Duty, javarészt a lobbik és a voice chat igen toxikus mivoltáról híresek: felmérések szerint ugyanis a CoD-franchise rajongótábora a legtoxikusabb és negatívabb az egész játékvilágban. Sőt, egyszer egy két gamer közötti vita egészen egy SWAT-beavatkozáshoz vezetett.
Ezzel pedig a fejlesztők is tisztában vannak, az Activision pedig már évek óta próbálja visszaszorítani ezt a viselkedést, és a megoldás része lehet a mesterséges intelligencia. Az Activision ugyanis most partnerségre lépett a Modulate nevű céggel, hogy „játékon belüli voice chat moderálást” vigyenek címeikbe.
Az új moderációs rendszer a ToxMod nevű mesterséges intelligencia-technológiát használva valós időben azonosítja majd az olyan viselkedési formákat, mint a gyűlöletbeszéd, a diszkrimináció és a zaklatás. Azt is tudni lehet, hogy a ToxMod kezdeti béta bevezetése Észak-Amerikában augusztus 30-án már el is kezdődött.
A Verge jelentése szerint a rendszer a Call of Duty: Modern Warfare II-ben és a Call of Duty: Warzone-ban is aktív, maga a „teljes világméretű megjelenés” (ami Ázsiát nem foglalja magában a sajtóközlemény szerint) november 10-ére lett ütemezve a Call of Duty: Modern Warfare III megjelenésével, a franchise idei új belépőjével.
A Modulate sajtóközleménye nem tartalmaz túl sok részletet arról, hogy pontosan hogyan működik a ToxMod, weboldalukon pedig csak annyit közöltek a rendszer kapcsán, hogy az eszköz „a voice chatet osztályozza a toxikus viselkedés megjelölésére, elemzi az egyes beszélgetések árnyalatait a toxicitás meghatározásához, és lehetővé teszi a moderátorok számára, hogy gyorsan reagáljanak minden egyes incidensre a releváns és pontos kontextus biztosításával”.