Szomorú fiatal tinédzser lány elképedve nézi a telefonján a Facebook-on megjelenő felzaklató posztokat fehér pólóban, szürke pulcsiban
A Facebook története során először pontos adatokat közölt arról, hogy mennyi erőszakos, megfélemlítő, bántalmazó jellegű poszt kerül ki a platformra.

Verejtékes munka

A Meta (lassan barátkozzunk meg a Facebook új nevével) vélhetően az egyre növekvő társadalmi és kormányzati nyomás miatt olyan lépésre szánta el magát, amilyenre eddig még nem volt példa: lemérte, hogy nagyjából mennyi toxikus tartalom jelenik meg a Facebookon és az Instagramon. A vállalat a negyedéves tartalommoderálási-jelentésében hozta nyilvánosságra az adatokat.

Kiderült, hogy minden 10 ezer megtekintésre a Facebookon 14-15, az Instagramon pedig 5-6 olyan poszt jutott, ami sérti a közösségi elveket és felzaklathatja a felhasználókat.

A Meta tájékoztatása szerint az adatok csak azokat az eseteket tükrözik, amikor a cégnek nem volt szüksége további információkra, például egy felhasználó bejelentésére, hogy eldöntse, a tartalom károsnak minősül-e, így a valós számok jóval magasabbak lehetnek.

A negyedéves jelentés szerint a moderátorok az elmúlt három hónapban 9,2 millió tartalmat távolítottak el a megfélemlítési és zaklatási szabályok megsértése miatt, ezek 59,4 százalékát proaktívan találták meg.

Hogyan zajlik a moderálás?

A vállalat, teljesen érthető okokból rengeteg energiát és pénzt fektet az oldal moderálásába. A moderálást alapvetően a cég mesterséges intelligenciája végzi, illetve az a sok ezer munkavállaló, akik szerződéses megbízatásban, többnyire alvállalkozóként dolgoznak a vállalatnak. A módszer egyszerű. Ha az egyik „őrszem" olyan tartalomba fut, ami sérti a közösségi irányelveket, törli a posztot. Durvább, vagy sokszor ismétlődő kihágás esetén pedig a felhasználói fiókot is.

A Wall Street Journal jóvoltából nemrég az is kiderült, hogy a moderálásnak van egy másik szintje is. Egy program, amely az XCheck, azaz a „keresztellenőrzés" nevet viseli. Az Xcheck program kifejezetten a VIP felhasználók igényeire lett szabva, akikkel jóval megengedőbb a tech-óriás, mint a mezei felhasználókkal. Ha az algoritmus, az egyik moderátor, vagy épp egy felhasználó jelzi, hogy egy „nagyon fontos személy" kifogásolható tartalmat osztott meg, akkor az ügy átkerül az XCheck szakembereihez. Az XChecknél profibb, képzettebb tartalommoderátorok dolgoznak, akik ráadásul teljes munkaidős alkalmazásban állnak. Ők azok, akik végül eldöntik, hogy egy poszt maradhat, vagy sem. Tehát a VIP felhasználó konkrétan bármit közzétehet, egy bizonyos ideig biztosan elérhető lesz a posztja.

A valósághoz hozzátartozik, hogy a moderátori munka óriási mentális terhet ró a dolgozókra. Minden egyes nap több száz, több ezer pornográf, erőszakos, és úgy összességében a nyugalom megzavarására alkalmas tartalmon kell átrágniuk magukat. Sokan depresszióról, szorongásról és egyéb súlyos lelki problémákról számoltak be, amelyek a munka miatt alakultak ki náluk. Erről EBBEN A CIKKÜNKBEN írtunk bővebben.


Ne hagyd ki!