Elméletben működik
Az első nagyobb fiaskóra 2016-ban került sor, amikor a Facebook a Cambridge Analytica politikai tanácsadó céggel egy hiba folytán felhasználói adatokat osztott meg. Az érintettek számát eleinte néhány százezerre becsülték, de idővel kiderült, hogy valójában több mint 87 millió felhasználó személyes adata landolt a vállalatnál. Az eset rávilágított, hogy milyen könnyedén használhatják a politikai hirdetéseket fegyverként, ha nincs egy megfelelően működő felügyeleti szerv, amely biztosítaná a kényes információk védelmét. A közösségi óriás végül a saját kezébe vette az ügyet.
Kialakított egy napjainkig is folyamatosan bővülő adatbázist a platformon megjelenő politikai hirdetésekből, új engedélyezési eljárásokat vezetett be, és lehetővé tette az embereknek, hogy letiltsák a számukra irreleváns reklámokat.
A rendszer sikere azon múlik, hogy a hirdetők őszintén nyilvánosságra hozzák politikai kapcsolataikat, érdekeltségeiket. Sajnos ezek a szereplők nem az őszinteségükről híresek, de ezzel a Facebook is tisztában van. Éppen ezért egy speciális, többnyire automatizált, mesterséges intelligencia alapú felülvizsgálati folyamatot alkalmaz, hogy kiszűrje azokat a politikai hirdetéseket, amelyek esetleg megpróbálják megkerülni ezeket a szabályokat.
Mivel egy automatizált rendszerről van szó, pontosan az történt, amire számítani lehetett: a politikai tartalmak megkerülték az „őrszemet”, míg a teljesen átlagos felhasználói posztokat megbélyegezte és letiltotta a Facebook. A számok még sötétebb képet festenek a rendszer hatékonyságáról.
Kínos
A New York-i és a KU Leuven egyetemek kutatói közös tanulmányukban 2020 júliusa és 2021 februárja között összesen több mint 189 ezer politikai hirdetést vizsgáltak meg.
Megállapították, hogy a Facebook az esetek 83 százalékában hibázott:
- a vizsgált tartalmak 21 százalékát tévesen politikai címkével bélyegezte meg,
- a fennmaradó 62 százalék pedig nyílt politikai hirdetés volt, amit a Facebook egyszerűen nem vett észre
A moderálási bakik azokban az országokban jelentik a legnagyobb problémát, ahol nem az angol a felhasználók anyanyelve. Emiatt számos kritika érte a közelmúltban a Facebookot. Sokan azt állítják, hogy a vállalat nem tesz kellő erőfeszítéseket, hogy kompetens, több nyelven beszélő moderátorokat alkalmazzon, a mesterséges intelligencia pedig többnyire nem boldogul a bonyolultabb nyelvekkel.
A Facebook tisztában van a problémával, ezért az elmúlt hónapokban szigorított, finomított a felügyeleti folyamatokon. Mark Zuckerberg januárban pedzegette, hogy azt tervezik, módosítanak a hírfolyamon megjelenő tartalmak algoritmusain annak érekében, hogy kevesebb politikai bejegyzés kerüljön a felhasználók elé. A projektet teszt jelleggel egy maroknyi piacon, egyebek között az USA-ban indították el. Az újítás remek fogadtatásban részesült, amin felbuzdulva Costa Ricára, Svédországra, Spanyolországra és Írországra is kiterjesztették a változtatást. A pozitív visszajelzések az új országokban sem maradtak el, ezért a közösségi platform további 75 országot von be a kezdeményezésbe.
A cég hozzátette, hogy azokat az országokat, ahol választások várhatók, vagy magas kockázata van egy konfliktus kialakulásának, egyelőre nem bolygatják. Mindebből elméletileg az következik, hogy Magyarországon még várni kell a politikamentes(ebb) Facebookra.