A mesterséges intelligencia olyan helyekre küldi az utazókat, amelyek nem léteznek

Olvasási idő
7perc
Eddig olvastam
a- a+

A mesterséges intelligencia olyan helyekre küldi az utazókat, amelyek nem léteznek

2025. szeptember 30. - 07:02

Egy képzeletbeli város Peruban, egy Eiffel-torony Pekingben: az utazók egyre gyakrabban használnak olyan eszközöket, mint a ChatGPT, útiterv-ötletek keresésére – és olyan úti célokra küldik őket, amelyek nem léteznek.

Miguel Angel Gongora Meza, az Evolution Treks Peru alapítója és igazgatója egy vidéki perui városban tartózkodott, és az andoki túrára készült, amikor egy különös beszélgetésre lett figyelmes. Két kísérő nélküli turista barátságosan beszélgetett arról a tervükről, hogy egyedül túráznak a hegyekben a „Humantay Szent Kanyonjához”.  

„[Megmutatták] nekem a képernyőképet, magabiztosan megírva és élénk jelzőkkel tele, [de] nem volt igaz. Nincs Humantay Szent Kanyonja!” – mondta Gongora Meza. „A név két hely nevének kombinációja, amelyeknek semmi közük a leíráshoz. A turista közel 160 dollárt (118 fontot) fizetett azért, hogy vezető vagy [célállomás] nélkül eljusson egy vidéki útra Mollepata környékén.”

Gongora Meza ráadásul ragaszkodott ahhoz, hogy ez a látszólag ártatlan hiba az utazók életébe is kerülhetett volna. „Peruban veszélyes ez a fajta félretájékoztatás” – magyarázta. „A tengerszint feletti magasságot, az éghajlati változásokat és az ösvények megközelíthetőségét meg kell tervezni. Amikor egy olyan programot [például a ChatGPT-t] használunk, amely képeket és neveket kombinál egy fantáziavilág létrehozásához, akkor 4000 méteres magasságban találhatjuk magunkat oxigén és telefonjel nélkül.”

Alig néhány év alatt a mesterséges intelligencia (MI) eszközök, mint például a ChatGPT, a Microsoft Copilot és a Google Gemini, puszta újdonságból emberek millióinak utazástervezésének szerves részévé váltak. Egy felmérés szerint a nemzetközi utazók 30%-a ma már generatív MI-eszközöket és dedikált utazási MI-webhelyeket, például a Wonderplant és a Laylát használ utazásaik megszervezéséhez.

Bár ezek a programok értékes utazási tippeket adhatnak, ha megfelelően működnek, frusztráló vagy akár veszélyes helyzetekbe is sodorhatják az embereket, ha nem. Ezt a leckét tanulják meg egyes utazók, amikor megérkeznek a kiszemelt úti céljukhoz, csak hogy aztán téves információkkal lássák el őket, vagy egy olyan helyre irányították őket, amely csak egy robot beprogramozott képzeletében létezik.

Dana Yao és férje nemrégiben első kézből tapasztalták meg ezt. A pár a ChatGPT segítségével egy romantikus túrát tervezett a japán Itsukushima szigetén található Misen-hegy tetejére idén év elején. Miután gond nélkül felfedezték Miyajima városát, 15:00-kor indultak útnak, hogy naplementére felgyalogoljanak a hegy csúcsára, pontosan úgy, ahogy a ChatGPT utasította őket.

„Ekkor jelentkezett a probléma” – mondta Yao, egy blogger, aki a japán utazásról ír –, „[amikor] készen álltunk leereszkedni [a hegyről] a kötélpálya-állomáson keresztül. A ChatGPT azt mondta, hogy az utolsó kötélpálya 17:30-kor indult le, de valójában a kötélpálya már bezárt. Így a hegytetőn ragadtunk.”

Egy 2024-es BBC cikk arról számolt be, hogy Layla röviden elmondta a felhasználóknak, hogy Pekingben van egy Eiffel-torony, és egy Észak-Olaszországon átívelő maratoni útvonalat javasolt egy brit utazónak, ami teljesen kivitelezhetetlen volt. „Az útvonaltervek nem voltak logikusak” – mondta az utazó. „Több időt töltöttünk volna a közlekedésre, mint bármi másra.”

Egy 2024-es felmérés szerint a megkérdezettek 37%-a, akik mesterséges intelligenciát használtak utazásaik megtervezéséhez, arról számolt be, hogy az nem tudott elegendő információt nyújtani, míg körülbelül 33%-uk azt mondta, hogy a mesterséges intelligencia által generált ajánlások hamis információkat tartalmaztak.

Ezek a problémák abból fakadnak, hogy a mesterséges intelligencia hogyan generálja a válaszokat. Rayid Ghani , a Carnegie Melon Egyetem gépi tanulással foglalkozó neves professzora szerint bár az olyan programok, mint a ChatGPT, látszólag racionális, hasznos tanácsokat adnak, az információk megszerzésének módja azt jelenti, hogy soha nem lehetünk teljesen biztosak abban, hogy igazat mondanak-e.

„Nem tud különbséget tenni az utazási tanácsok, az útvonaltervek vagy a receptek között” – mondta Ghani. „Csak szavakat ismer. Ezért folyamatosan olyan szavakat mond, amelyek realisztikussá teszik azt, amit mond, és innen ered a mögöttes problémák nagy része.”

A ChatGPT-hez hasonló nagy nyelvi modellek hatalmas szöveggyűjtemények elemzésével működnek, és olyan szavakat és kifejezéseket állítanak össze, amelyek statisztikailag megfelelő válaszoknak tűnnek. Ez néha tökéletesen pontos információkat szolgáltat. Máskor azt tapasztaljuk, amit a mesterséges intelligencia szakértői „hallucinációnak” neveznek, mivel ezek az eszközök csak kitalálják a dolgokat. Mivel azonban a mesterséges intelligencia programok ugyanúgy jelenítik meg a hallucinációikat és a tényszerű válaszokat, a felhasználók számára gyakran nehéz megkülönböztetni, mi a valóságos a nem valóságtól.

A „Humantay Szent Kanyonja” esetében Ghani úgy véli, hogy a mesterséges intelligencia programja valószínűleg csak összerakott néhány szót, amelyek illettek a régióhoz. Hasonlóképpen, az összes adat elemzése nem feltétlenül ad egy olyan eszköznek, mint a ChatGPT, hasznos ismereteket a fizikai világról. Könnyen összetéveszthet egy kényelmes 4000 méteres sétát egy városon keresztül egy 4000 méteres hegymászásnak – és ez még azelőtt van, hogy a tényleges félretájékoztatás kérdése felmerülne.

A Fast Company nemrégiben megjelent cikke egy olyan esetről számolt be, amikor egy pár felment egy festői hangulatú malajziai felvonóhoz, amelyet a TikTokon láttak, de aztán kiderült, hogy ilyen építmény nem is létezik. A megtekintett videót teljes egészében mesterséges intelligencia generálta, vagy az elköteleződés fokozása, vagy valami más furcsa cél érdekében.

Az ehhez hasonló esetek a mesterséges intelligencia bevezetésének egy nagyobb trendjét tükrözik, amely finoman – vagy kevésbé finoman – megváltoztathatja a világról alkotott képünket. Egy friss példa erre augusztusban, amikor a tartalomkészítők rájöttek, hogy a YouTube engedély nélkül mesterséges intelligenciát használt videóik megváltoztatására, olyan dolgok finom „szerkesztésével”, mint a videókban szereplő valódi emberek ruházata, haja és arca. A Netflix 2025 elején került nehéz helyzetbe a mesterséges intelligencia használata miatt, miután a régi szituációs komédiák „felújítására” irányuló erőfeszítések szürreális torzításokat hagytak a szeretett 1980-as és 90-es évekbeli televíziós sztárok arcán. Ahogy a mesterséges intelligenciát egyre inkább használják az ilyen apró változtatások tudtunk nélkül történő végrehajtására, a valóság és a kifinomult mesterséges intelligencia által ihletett álomvilág közötti határvonalak az utazók számára is elkezdhetnek elmosódni.

Javier Labourt , okleveles klinikai pszichoterapeuta és az utazás általános mentális egészségünk és a kapcsolódási érzésünk javításának szószólója attól tart, hogy ezeknek a problémáknak a sokasodása ellensúlyozhatja azokat az előnyöket, amelyeket az utazás kínálhat. Úgy véli, hogy az utazás egyedülálló lehetőséget kínál az embereknek arra, hogy olyanokkal lépjenek kapcsolatba, akikkel egyébként nem találkoznának, és első kézből tanuljanak a különböző kultúrákról – mindez nagyobb empátiához és megértéshez vezethet. De amikor a mesterséges intelligencia hallucinációi félretájékoztatják a felhasználókat, hamis narratívát kínálnak egy helyről, mielőtt az utazók egyáltalán elhagynák otthonukat.

Jelenleg is vannak kísérletek annak szabályozására, hogy a mesterséges intelligencia hogyan jelenít meg információkat a felhasználóknak, beleértve az EU és az Egyesült Államok számos javaslatát vízjelek vagy más megkülönböztető jellemzők beillesztésére, hogy a nézők tudják, ha valamit a mesterséges intelligencia módosított vagy generált. Ghani szerint azonban ez egy nehéz küzdelem: „Sok munka folyik a félretájékoztatás körül: Hogyan lehet észlelni? Hogyan lehet segíteni az embereknek [azonosítani]? [De] a mérséklés ma megbízhatóbb megoldás, mint a megelőzés.”

Ha az ilyen jellegű szabályozások elfogadásra kerülnek, megkönnyíthetik az utazók számára a mesterséges intelligencia által generált képek vagy videók észlelését. Az új szabályok azonban valószínűleg nem segítenek, amikor egy mesterséges intelligencia által létrehozott chatbot kitalál valamit egy beszélgetés közepén. Szakértők, köztük Sundar Pichai, a Google vezérigazgatója szerint a hallucinációk a nagy nyelvi modellek, például a ChatGPT vagy a Google Gemini „veleszületett jellemzői” lehetnek. Ha mesterséges intelligenciát használsz, az egyetlen módja annak, hogy megvédd magad, az éberség.

Ghani azt javasolja, hogy a lehető legpontosabbak legyünk a kérdéseinkben, és mindent feltétlenül ellenőrizzünk. Elismeri azonban, hogy ez a módszer egyedi utazási problémákat vet fel, mivel az utazók gyakran olyan úti célokról kérdeznek, amelyeket nem ismernek. De ha egy mesterséges intelligencia által támogatott eszköz egy kicsit túl tökéletesnek hangzó utazási javaslatot ad, ellenőrizzük kétszer. Ghani szerint a mesterséges intelligencia által szolgáltatott információk ellenőrzésére fordított idő bizonyos esetekben ugyanolyan fáradságossá teheti a folyamatot, mint a hagyományos módon történő tervezést.

Labourt szerint a jó utazás kulcsa – mesterséges intelligenciával vagy anélkül – a nyitottság és az alkalmazkodóképesség, amikor a dolgok rosszul mennek. „Próbáld meg elhárítani a csalódást [arról], hogy valaki átverjen” – javasolta. „Ha már ott vagy, hogyan fogod ezt [megfordítani]? Már így is egy klassz úton vagy, érted?”

(BBC)