Totális káosz jöhet a pornóban és a politikában egyaránt
Korunk egyik legizgalmasabb, egyben legaggasztóbb újítása még jobban alááshatja az internetes tartalmak hitelességét, és teljesen új fejezetet nyithat a valóságérzékelésünkben is.
A deepfake videók egyre nagyobb teret nyernek manapság, de ezek a tartalmak már nem csak egy szubkultúra részét képzik, hanem a reklámokban, a televízióban és a pornóiparban is egyre inkább jelen vannak. Néhány hónapja a dél-koreai MNB csatornán történt, hogy az egyik televíziós munkatársuk arcát deepfake technológiával rászerkesztették egy másik műsorvezetőjére, így úgy tűnt, mintha ő lenne ott és ő beszélne.
Hogyan működik a hamisítás?
A deepfake alappillére két számítógépes rendszer, az autoencoder, valamint a generative adversarial network (GAN).
Leegyszerűsítve előbbi fölismeri és vizsgálja a mimikát, és azt hogy miként mozog az adott ember arca, majd ezen információk alapján azt "ráhelyezi" a másik egyén arcára, míg a GAN ADDIG TÖKÉLETESÍTI A FELVÉTELT, AMÍG AZ TELJESEN ÉLETHŰ NEM LESZ.
Egy minőségi deepfake elkészítéséhez azonban több dologra is szükségünk van: egyrészt kell egy videó, ahova ráilleszthető az egyén arca. Emellett nagyon sok, részletes, magas felbontású kép is kell az egyén arcáról, valamint a fent említett mesterséges intelligencia alapú programok.
Egy deepfake elkészítéséhez azonban nincs szükségünk nagyon bonyolult és fejlett hálózati rendszerekre, elég, ha van egy jó számítógépünk. A Synthesia rendszerén keresztül például lehet ilyen videókat csinálni. Mindössze annyi a dolgunk, hogy ki kell választani a sok emberi arc közül egyet, majd egy szövegdobozba beírjuk az általunk kért szöveget, és készen is van a deepfake-ünk, hiszen az avatár, a szerkesztett arc, azt fogja mondani, amit mi leírtunk.
Ez a nyelvi korlátok leküzdése szempontjából egyébként hasznos lehet a nagyvállalatoknak, mert ha különböző nemzetiségű dolgozókat alkalmaznak a vállalatnál, akkor nekik különböző nyelveken lehet elkészíteni ugyanazt az üzenetet.
A gerillamarketing új szintje
A technológiával kapcsolatos bizonytalanság azonban aláássa a reklámok hitelességét is, valamint etikai és jogi kérdéseket is fölvet. Ilyen például az, amikor már elhunyt emberek arcát használják föl marketing, vagy akár oktatási céllal. Nagyon érdekes például a Dél-kaliforniai Egyetem kiállítása, ahol holokauszt-túlélők avatárjaival beszélgethetünk, természetesen előre fölvett felvételek alapján.
RÖVID IDŐN BELÜL AKÁR AZ IS LEHETŐVÉ VÁLHAT MAJD, HOGY HALOTT FELMENŐINKKEL BESZÉLGESSÜNK ILYEN MÓDON.
Ezek azonban nem az elsődleges okai annak, hogy miért van sok embernek kétsége a technológiával kapcsolatban. Az észt titkosszolgálat például figyelmeztetett, hogy az orosz kibertámadásokban, valamint dezinformációs műveletekben jelentős szerepet kaphatnak a deepfake-ek.
Politika és pornó
Emellett az Europol is fölhívta rá a figyelmet, hogy vezető politikusok arcképeivel élhetnek vissza így. Ennek többek között már Barack Obama is áldozatul esett, de Donald Trumpról is terjedtek hasonló felvételek. Természetesen nemcsak a politikusok, hanem más hírességek is ki vannak téve a deepfake veszélyeinek. Tom Cruise arcát például egy belgiumi művész használja föl a TikTok-oldalán, ahol rendkívül valósághű videókat csinál.
A színészek és hírességek viszont az ilyen ártatlannak tűnő tréfák mellett hamis pornóvideókban is föltűnhetnek. A deepfake megjelenésekor sokan a politikai folyamatok manipulálását tartották a legnagyobb veszélynek, azonban ez – mint mára kiderült – sokkal inkább a pornográf tartalmakat érinti.
A deepfake pornóvideókban döntő többségben hírességek arcát használják föl, de előfordulnak olyan esetek is, amikor magánszemélyek esnek áldozatul az ilyen tartalmaknak. Mivel egy deepfake-et ma már nem nehéz elkészíteni – tulajdonképpen a Snapchat face swap funkciója is erre épül –, TÖBBSZÖR ELŐFORDULT, HOGY VALAKI BOSSZÚBÓL AZ EXPARTNERÉRŐL TETT KÖZÉ DEEPFAKE PORNOGRÁF VIDEÓKAT. (Index)