A „deepfake” szó a deep learning (mélytanulás) és a fake (hamis) szavak összeolvadása. Ez a technológia képes arra, hogy valaki arcát, hangját, mozdulatait lemásolja, és egy másik videóra, fotóra, hangfelvételre „ráhúzza”, úgy, hogy az egész teljesen valódinak tűnik. Persze, lehet ezt jóra használni. Filmekben, videojátékokban, történelmi rekonstrukcióknál lenyűgöző lehetőségek rejlenek benne. A baj ott kezdődik, amikor a cél már nem a szórakoztatás, és sajnos ez is egy túlságosan elterjedt formája.
A deepfake manipulációs ereje brutális. Lehet valakiről olyan videót készíteni, amiben olyat mond, amit soha nem mondott vagy olyat tesz, amit soha nem tett. Ez a bizalom végét jelenti az online világban, ami kiterjed az offline valóságunkra is, hiszen a hatásai nem állnak meg a képernyőn. És míg felnőttként talán még meg tudjuk különböztetni a valóságot a manipulációtól (bár már nem minden esetben), egy gyermek vagy tini jóval kiszolgáltatottabb.
-
TikTok trendek: hírességek deepfake hangján megszólaló „poénos” videók
-
YouTube-on: hamis tanácsokat adó deepfake influenszerek
-
Discord és más csoportos csevegők: kamaszok egymás arcát szerkesztik bele trágár vagy kínos videókba — sokszor „viccből”
-
Pornográf tartalmak: már 2023-ban is tucatjával kerültek elő olyan esetek, ahol nemcsak világsztárok, de sajnos iskolás lányok arcát szerkesztették pornóvideókba. Ezek nem csak megalázóak — de életre szóló következményekkel járnak.
-
Spanyolország, 2023: Több tinédzser fiú mesterséges intelligenciával generált pornóvideókat készített lányosztálytársaik arcával, és ezeket megosztották az iskolában. A videók annyira meggyőzőek voltak, hogy egyes lányok saját szüleiknek is bizonygatni kényszerültek: nem ők szerepelnek rajta.
-
Dél-Korea, 2024: Egy társadalmi krízis alakult ki, mert egyre több fiatal lány arcképét illesztik be AI által generált pornóképekre, és ezeket anonim csatornákon terjesztik. Az áldozatok — sokszor tizenévesek — teljes tehetetlenségben élik meg a helyzetet. Az egyik lánynak a szülei azt mesélték, a gyerekük teljesen összeomlott, amikor rájött, hogy az iskolatársai ezt a képet látják róla, noha semmi köze nem volt hozzá.
-
USA, 2023: Egy anya deepfake videóval próbálta lejáratni lánya riválisait egy cheerleading versenyen, hogy az ő gyermeke jusson tovább. Bíróság elé került.
A Thorn szervezet egyik felmérése szerint minden nyolcadik 13-20 éves fiatal és minden tizedik 13-17 éves tinédzser azt nyilatkozta, hogy „személyesen ismer valakit”, aki deepfake meztelen képek célpontja volt, és 17-ből 1 maga is célpont volt. A tinédzserek 13 százaléka nyilatkozott úgy, hogy ismer valakit, aki mesterséges intelligenciát használt kiskorúak hamisított pornográfiájának létrehozására vagy újraterjesztésére.
-
Kicsiknek (5–10 év)
-
Beszéljünk arról, hogy vannak trükkök, amikkel meg lehet hamisítani dolgokat. Például, mint a varázslat a mesékben, amiből jó és rossz varázslatok is léteznek. Tudniuk kell, hogy nem minden igaz, amit egy videóban látunk.
-
Nézzünk együtt videókat, és játsszatok: „Ez szerinted igaz vagy hamis?”
-
-
Pre-tiniknek (10–13 év)
-
Ismertessük meg őket a fogalommal: deepfake = trükkös technológia, ami megtéveszthet.
-
Mutassunk nekik példákat – humoros, ártatlan videókat és veszélyeseket is. Beszéljünk róluk!
-
-
Tiniknek (14+)
-
Adjunk nekik teret a kérdésekre. A bizalom legyen alap. Ne fenyegetésként tálaljuk a témát.
-
Beszéljünk a digitális lábnyomról. Egy deepfake sem jön létre semmiből – sokszor saját fotókból dolgozik a rendszer.
-
Tanítsuk meg őket arra, hogy ha ilyesmivel találkoznak, ne féljenek szólni. Legyen protokoll: kinek szólnak először? (szülő, tanár, barát, pszichológus?)
-
A jó hír az, hogy nem csak mi szülők látjuk a veszélyeket. A tech cégek sem alszanak:
-
Meta és Microsoft: Deepfake Detection Challenge versenyt indítottak, ahol fejlesztők olyan rendszereken dolgoznak, amik felismerik a manipulált videókat.
-
Google és OpenAI: Csatlakozott a C2PA kezdeményezéshez — céljuk a digitális tartalmak hitelesítése, hogy tudd, ki és mikor készítette a videót vagy képet.
-
Intel: "Nemrég mutatta be deepfake-felismerőjét, amely az adatokon túlmenően a videókon szereplő emberek arcán való véráramlást figyelve elemzi a videókat."
-
McAfee: A Deepfake Detector nevű appjuk valós időben figyelmeztet, ha gyanús tartalommal találkozol.
-
Reality Defender: Videóhívás közben is kiszúrják a deepfake-et — igen, élőben!
A deepfake olyan, mint a tűz: használhatjuk fűtésre vagy akár pusztításra is. A gyerekeink már egy olyan világban nőnek fel, ahol ez a kettő gyakran keveredik. A mi feladatunk, hogy megtanítsuk őket különbséget tenni. Nem kell szakértőnek lenni, elég, ha nyitottak vagyunk, figyelünk, és beszélünk ezekről a dolgokról. A megelőzés, az edukáció és a tudatosság a legjobb védelem a deepfake veszélyei ellen. Mert ha mi nem beszélünk velük róla, majd beszél más — csak lehet, hogy épp egy mesterséges arc mögött ülve.
Olvasd el ezt is!


