Védtelenek vagyunk a mesterséges intelligenciával szemben? – A Médiaunió kísérlete bebizonyította: bármelyik korosztály becsapható...
A „Kulcs te vagy!” kampány keretében a Médiaunió Alapítvány egy többgenerációs kísérletben vizsgálta, hogyan hat a mesterséges intelligencia az emberek valóság érzékelése. Fiatalok és idősebbek próbálták eldönteni, mely tartalmak valódiak és melyeket készítette MI.
Európai felmérések szerint a 13-18 évesek 96 százaléka használt már mesterséges intelligenciát az utóbbi egy évben (40 százalékuk napi rendszerességgel), a tinédzser fiúk 51 százaléka pedig érzelmi vagy „romantikus” beszélgetéseket is folytat ezekkel az eszközökkel. A felnőttek körében sem más a helyzet: az EU-ban dolgozóknak immár 30 százaléka alkalmaz AI-t a munkája során. A Médiaunió Alapítvány és a KiberPajzs friss kísérlete azt mutatta meg, hogy a magas arányszámok ellenére korántsem biztos, hogy jobban felismernénk, mi valós és mi mesterséges. Sőt, a legújabb pénzügyi elemzések szerint mára minden második pénzügyi csalási kísérletnek része valamilyen módon az MI…
Fiatalok, idősek – és az MI
Egy fiú ikerpárnak és nagymamájuknak, valamint két évvel idősebb nővérüknek és egy nagypapakorú férfinak mutattuk meg ugyanazokat a képeket és videókat, és mindannyiuknak arról kellett dönteniük, hogy valódi felvételeket látnak-e, vagy mesterséges intelligencia által generált tartalmakat. A kísérletben nem szerepeltek csalási szándékkal készült vagy érzelmileg megterhelő „unokás” videók: hétköznapinak tűnő jelenetek, tájképek, portrék kerültek a képernyőre. Volt köztük olyan is, amely első látásra reálisnak tűnt, de valójában abszurd részletet rejtett – például egy badacsonyi „karfiolültetvényt” –, és voltak olyan felvételek, amelyek minden pixele „hibátlan” volt.
A fiatalok magabiztosan keresték az MI tipikus jeleit: furcsa textúrákat, aránytalan színeket, kilógó árnyékokat, „videojátékos” bőrt, apró csúszásokat a szájmozgás és a hang között. Az idősebbek ezzel szemben azt nézték, mennyire életszerű, amit látnak: el tudják-e képzelni a helyszínt, „ilyenek-e” az emberek a valóságban. Bár a kontraszt látványos volt, a tévedések egyik generációnál sem maradtak el.
A kísérlethez kapcsolódóan Mezriczky Marcell deepfake- és MI-kutató részletesen elemezte, hogyan változtatja meg az MI a valóság érzékelésünket. Mint mondta, a fiatalok látszólag előnyben vannak, hiszen belenőttek az MI-eszközök használatába: természetes számukra, hogy a képek és videók lehetnek filterezettek, „megtuningoltak”, akár teljesen szintetikusak is. „Ez a rutin ugyanakkor könnyen túlzott magabiztossággá válik. A fiataloknak kisebb a forráskritikájuk, elbízzák magukat, és nem feltételezik, hogy a digitális módosítás olyan élethű lehet, hogy ők sem veszik észre.”
Az idősebb generáció másképp téved, ők elsősorban az érzelmi meggyőződésre építenek: ha a szereplő hangja, tekintete, gesztusai ismerősnek hatnak, könnyebben fogadják el valódiként a tartalmat. Ez a logika a hétköznapi életben gyakran jól működik, az MI korában viszont éppen ez válik kockázattá. „Az idősebb generáció érzelmi meggyőződés alapján hisz el egy tartalmat. Ez sebezhetővé teszi őket az MI-val felturbózott unokás csalásokkal és manipulált hívásokkal szemben.” Nem véletlen, hogy a pénzügyi szakemberek 56 százaléka a social engineeringet, vagyis a pszichológiai manipulációt tartja ma az egyik legerősebb, MI által támogatott csalási technikának.
A manipuláció új kora: brainrottól a politikai deepfake-ig
Mezriczky Marcell szerint fontos különbséget tenni az egyre többféle MI-tartalom között, mert míg a szintetikus, úgynevezett „brainrot” videók nyíltan vállalják mesterséges eredetüket – szándékosan túlzó, trash-jellegű, szórakoztató alkotások, amelyek nem akarnak valóságosnak tűnni –, a deepfake videók célja épp az, hogy megtévesszenek. Ez az ugrásszerű erősödés akkor vált igazán kézzelfoghatóvá, amikor a technológia „demokratizálódott”, és megjelentek azok a telefonos alkalmazások, amelyek egyetlen szelfiből is hiteles arccserés videót készítenek. A platformok ontják magukból ezeket a tartalmakat, a felhasználók pedig sokszor már nem is tudják, mi készült valósan és mi mesterségesen. A helyzetet tovább rontja, hogy a politikai kommunikációban is megjelent a deepfake, ami – a kutató szerint – „egyfajta legitimációt is ad a technológiának, ami kifejezetten káros példa”.
A deepfake-ek elterjedése nemcsak technikai, hanem társadalmi értelemben is komoly veszélyt jelent. Technikai oldalról nézve már most is egyre nehezebb felismerni a manipulált tartalmakat: a modellek ugyan néha még hibáznak a pislogásban, a bőrtónusban vagy a mozgás finomságaiban, de ezek a hibák gyorsan eltűnnek. A felismerhetetlenség pedig új típusú kockázatokat hoz magával. A beleegyezés nélküli „vetkőztetős” AI-képektől kezdve az unokázós csalásokon, hamis videóhívásokkal és kamu profilokkal pénzügyi kárt okozó átveréseken át egészen a testképzavart erősítő szintetikus képekig és a politikai manipuláció céljából készült deepfake-ekig, a technológia egyre több élethelyzetben válik veszélyforrássá. A pénzügyi szakemberek 44 százaléka már találkozott deepfake-alapú csalási technikákkal, ami jól mutatja, hogy a mesterségesen előállított arcok és hangok ma már valódi anyagi kockázatot is jelentenek.
Mit tehetünk? Lassítás, ellenőrzés, közös felelősség
A kérdés tehát nem az, meg tudjuk-e állítani a technológiai fejlődést, hanem az, hogyan alkalmazkodunk hozzá. Mert szabályozások elméletileg már most is vannak: az EU-s AI Act például előírja, hogy a mesterséges intelligenciával generált tartalmakat egyértelműen jelölni kellene, mégsem szerepel mindenhol ez a jelzés. A jogalkotás rendkívül lassú, a technológia pedig közben óriási léptekkel halad előre. A kutató szerint az oktatásra kellene sokkal nagyobb hangsúlyt fektetni, hiányzik ugyanis az MI-specifikus média- és digitális műveltség beépítése az iskolai tantervbe.
Mezriczky úgy gondolja a mindennapi biztonság egyik alapja egy egyszerű, de annál fontosabb reflex lenne: „Hiába kényelmetlen, inkább ellenőrizzünk mindent háromszor.” Ez a gyakorlatban azt jelenti, hogy egy erős érzelmi reakciót kiváltó videó vagy hangüzenet esetén nem azonnal cselekszünk, hanem más csatornán is ellenőrizzük az információt, és nem hozunk átgondolatlan pénzügyi vagy bizalmi döntést egyetlen impulzus alapján. Ez különösen fontos a pénzügyi manipulációk esetében, ahol a csalók gyakran banki ügyintézőnek, rendőrnek vagy a család egy tagjának adják ki magukat. Az ilyen rosszindulatú próbálkozások kivédésének legegyszerűbb módja, ha van egy „családi jelszó” – egy olyan szó, amit csak a valódi személyek ismerhetnek: így ha ezt nem mondják ki, biztosak lehetünk benne, hogy a hívás nem valódi. Fontos továbbá, hogy a bank sosem kér jóváhagyási kódot, belépési adatot, nem kér arra, hogy „tesztforgalmat” indítsunk vagy „biztonsági számlára” utaljunk. Ha ilyet látunk, az biztosan csalás.
Kardos Ferenc, a Médiaunió ügyvezetője szerint a kísérlet legfontosabb tanulsága az volt, hogy egyik generáció sem sebezhetetlen: „A kísérlet megmutatta, nem az számít, ki mennyi időt tölt a digitális térben – egyik generációnak sincs biztos kapaszkodója. A fiatalok technikai jelzésekre hagyatkoznak, az idősebbek a tapasztalataikra, de a mesterséges intelligencia mindkét logikát képes kijátszani.”
Másképp gondolkodunk, másképp hibázunk, mégis ugyanazokkal a kockázatokkal nézünk szembe. A mesterséges intelligencia nemcsak a technológiáról szól, hanem arról is, hogyan tanulunk együtt eligazodni egy olyan világban, ahol mindannyiunknak újra kell értelmezni a látottakat.

















