Áthúzott Facebook logó egy okostelefonon és egy toll egy ember kezében
Fotó: Unsplash

300 év sem volt elég, hogy megtisztítsák a Facebook-ot a gyűlölettől

A Wall Street Journal olyan belső dokumentumokhoz jutott, amelyekből kiderült, hogy a Facebook moderátorai mennyi időt töltöttek 2020-ban a kényes tartalmak ellenőrzésével. Az adatok remekül tükrözik, hogy mennyi gyűlölet és erőszak van a világban.



Évszázados moderálás

A Facebook napjaink egyik legnagyobb közösségi média platformja. Havonta nagyjából 2,895 milliárd ember látogatja az oldalt. A Facebook-nak szigorú irányelvei vannak azzal kapcsolatban, hogy milyen tartalmak jelenhetnek meg a platformon. Egyebek között tilos az erőszakos, törvénysértő,megtévesztő bejegyzések megosztása. Mondanunk sem kell ez elég tág meghatározás, így a Facebook moderátorainak irdatlan mennyiségű munkát kell elvégezniük. A Wall Street Journal beszámolója szerint a moderátorok 2020-ban összesen 3,2 millió órát töltöttek hamis vagy félrevezető információk keresésével, címkézésével és eltávolításával. Ez átszámítva több mint 365 évet jelent. Ebből a 365-ből 319 év csak az Egyesült Államokban közzétett bejegyzések felkutatására ment el. A Facebook tavaly október és december között, azaz csupán három hónap alatt közel 6,7 millió posztot távolított el.

Tovább megyünk, a vállalat háromszor ennyi időt fordított arra, hogy biztosítsa a „brand biztonságot". Utóbbi célja, hogy a Facebook partnereinek hirdetései még véletlenül se jelenjenek meg olyan posztok alatt vagy oldalakon, amelyek rossz fényt vetnének az adott vállalatra.

Nagy a baj a világban

A belsős információkból kiderült, hogy a Facebook moderátorainak igen megpróbáltató tartalmakon kell átrágniuk magukat. Egyáltalán nem ritkák a bandák közötti erőszakkal, az embercsempészettel, a kábítószer kartellekkel és az erőszakos és megtévesztő információk terjesztésével kapcsolatos bejegyzések. Egy nemrégiben készült tanulmány megállapította, hogy a téves információkat tartalmazó bejegyzések hatszor több lájkot, megosztást és interakciót kapnak Facebookon, mint a nevesebb, megbízhatóbb hírforrásoktól származó bejegyzések. A dokumentumok rámutattak, hogy az erőszakos csoportok hamis Facebook, Instagram és Messenger fiókokkal toborozzák a követőiket.

A vállalat egyik szóvivője elmondta a Journal-nek, hogy a cég a jövőben a mesterséges intelligenciában rejlő lehetőségeket akarja kiaknázni a moderálási folyamatok felgyorsítása és pontosítása érdekében.

Hogyan működik a Facebook?

A vállalat, teljesen érthető okokból rengeteg energiát és pénzt fektet az oldal moderálásába. A moderálást alapvetően a cég mesterséges intelligenciája végzi, illetve az a sok ezer munkavállaló, akik szerződéses megbízatásban, többnyire alvállalkozóként dolgoznak a vállalatnak. A módszer egyszerű. Ha az egyik „őrszem" olyan tartalomba fut, ami sérti a közösségi irányelveket, törli a posztot. Durvább, vagy sokszor ismétlődő kihágás esetén pedig a felhasználói fiókot is. A Journal nemrég azt is kiderítette, hogy a moderálásnak van egy másik szintje is. Egy program, amely az XCheck, más néven a „keresztellenőrzés" nevet viseli. Az Xcheck program kifejezetten a VIP felhasználók igényeire lett szabva, akikkel jóval megengedőbb a tech-óriás, mint a mezei felhasználókkal. Ha az algoritmus, az egyik moderátor, vagy épp egy felhasználó jelzi, hogy egy „nagyon fontos személy" kifogásolható tartalmat osztott meg, akkor az ügy átkerül az XCheck szakembereihez. Az XChecknél profibb, képzettebb tartalommoderátorok dolgoznak, akik ráadásul teljes munkaidős alkalmazásban állnak. Ők azok, akik végül eldöntik, hogy egy poszt maradhat, vagy sem. Tehát a VIP felhasználó konkrétan bármit közzétehet, egy bizonyos ideig biztosan elérhető lesz a posztja.

Ne hagyd ki!