Miguel Angel Gongora Meza, Evolution Treks Peru asutaja ja direktor, oli parasjagu Peruu maapiirkonnas matkaks valmistumas, kui kuulis pealt kummalist vestlust, vahendab BBC. Kaks turisti vestlesid plaanidest matkata mägedes „Humantay pühasse kanjonisse“.
„Nad näitasid mulle teksti ekraanil, mis oli enesekindlalt kirjutatud ja täis elavaid omadussõnu, aga see ei olnud tõsi. Humantay püha kanjonit pole olemas!“ ütles Gongora Meza. „See väidetav koht on kahe koha kombinatsioon, millel pole kõnealuse kirjeldusega mingit seost. Turist maksis ligi 160 dollarit, et jõuda Mollepata ümbruses asuvale maateele ilma giidi ja … sihtkohata.“
4000 meetri kõrgusel ilma hapniku ja levita
Lisaks rõhutas Gongora Meza, et see pealtnäha süütu viga võinuks reisijatele elu maksta. „Selline valeinformatsioon on Peruus ohtlik,“ selgitas ta. „Kõrgust merepinnast, kliimamuutusi ja radade ligipääsetavust tuleb planeerida. Kui kasutate programmi [nagu ChatGPT], mis ühendab pilte ja nimesid fantaasia loomiseks, võite leida end vabalt 4000 meetri kõrguselt ilma hapniku ja telefonilevita.“
Vaid mõne aastaga on tehisintellekti tööriistad nagu ChatGPT, Microsoft Copilot ja Google Gemini muutunud pelgast uudsusest BBC andmeil miljonite inimeste reisiplaneerimise lahutamatuks osaks. Ühe uuringu kohaselt kasutab 30% rahvusvahelistest reisijatest oma reiside korraldamiseks generatiivse tehisintellekti tööriistu ja spetsiaalseid reisimiseks mõeldud tehisintellekti saite, nagu Wonderplan ja Layla.
Kuigi need programmid võivad korralikult töötades pakkuda väärtuslikke reisinõuandeid, võivad need inimesi viia ka pettumust valmistavatesse või isegi ohtlikesse olukordadesse. See on õppetund, mida mõned reisijad saavad, kui nad saabuvad sihtkohta, et avastada – neile on antud valeinfot või nad on suunatud kohta, mis eksisteerib vaid roboti kujutlusvõimes.
Dana Yao ja tema abikaasa kogesid seda hiljuti omal nahal. Paar kasutas ChatGPT-d, et planeerida selle aasta alguses romantiline matk Jaapani saarel Itsukushima asuva Miseni mäe tippu. Pärast Miyajima linna avastamist asusid nad kell 15 teele, et matkata päikeseloojanguks mäe tippu, täpselt nii, nagu ChatGPT neile oli õpetanud.
„Siis probleem ilmneski,“ ütles Yao, Jaapanis reisimist käsitleva blogi looja, „kui olime valmis mäest alla laskuma köisraudtee abil, ütles ChatGPT, et viimane vagun tuleb alla kell 17.30, aga tegelikult oli köistee juba suletud. Seega olime mäetipus lõksus.“
2024. aastal kirjutati ühes BBC artiklis, et Layla kinnitas oma kasutajatele lühidalt, et ka Pekingis on Eiffeli torn ja pakkus Briti reisijale välja maratonimarsruudi läbi Põhja-Itaalia, mis oli teostamatu. „Marsruudid ei olnud loogilised,“ ütles reisija. „Oleksime kulutanud rohkem aega transpordile kui millelegi muule.“
Mulluse uuringu kohaselt teatas 37% vastanutest, kes kasutasid reiside planeerimiseks tehisintellekti, et see ei suutnud anda piisavalt teavet, samas kui umbes 33% ütles, et nende tehisintellekti loodud soovitused sisaldasid valeinformatsiooni.
Need probleemid tulenevad sellest, kuidas tehisintellekt oma vastuseid genereerib. Carnegie Melloni ülikooli silmapaistva masinõppeprofessori Rayid Ghani sõnul võivad sellised programmid nagu ChatGPT tunduda ratsionaalsete ja kasulike nõuannete andjatena, kuid viis, kuidas see teavet hangib, tähendab, et ei saa kunagi olla täiesti kindel, kas see räägib teile tõtt.
Vahepeal mõtlevad lihtsalt asju välja
„See ei tee vahet reisinõuannete, juhiste või retseptide vahel,“ ütles Ghani. ChatGPT analüüsib tohutuid tekstikogusid ning paneb kokku sõnu ja fraase, mis statistiliselt tunduvad sobivate vastustena. Mõnikord annab see täiesti täpset teavet. Teinekord tekib aga see, mida tehisintellekti eksperdid nimetavad „hallutsinatsioonideks“, kuna tööriistad lihtsalt mõtlevad vahel ka asju välja. Kuna tehisintellekti programmid esitavad oma hallutsinatsioone ja faktilisi vastuseid ühtemoodi, on kasutajatel sageli raske eristada, mis on reaalne, mis mitte.
Sellised juhtumid on osa laiemast tehisintellekti rakendamise trendist, mis võib meie maailmavaadet peenelt – või mitte nii peenelt – muuta. Hiljutine näide on võtta augustist, kui sisuloojad mõistsid, et YouTube oli tehisintellekti abil oma videoid ilma loata muutnud, „toimetades“ peenelt selliseid asju nagu videotes olevate pärisinimeste riided, juuksed ja näod.
Netflix sattus aga tehisintellekti kasutamise pärast 2025. aasta alguses raskustesse, pärast seda, kui vanade situatsioonikomöödiate „ümbertegemise“ püüdlused jätsid armastatud 1980. ja 90. aastate telestaaride nägudele sürreaalsed moonutused. Kuna tehisintellekti kasutatakse üha enam selliste väikeste muudatuste tegemiseks ilma meie teadmata, võib ka reisijate jaoks hakata piir reaalsuse ja lihvitud tehisintellekti unistustemaailma vahel hägustuma.
Üks asi, mida Ghani soovitab, on olla oma päringutes võimalikult täpne ja kontrollida absoluutselt kõike. Samas tunnistab ta selle meetodi ainulaadseid probleeme reisimisel, kuna reisijad küsivad sageli sihtkohtade kohta, millega nad pole tuttavad. Aga kui tehisintellekti tööriist annab teile reisisoovituse, mis kõlab pisut liiga ideaalselt, kontrollige seda veel kord.
Kuidas see lugu Sind end tundma pani?
Saada
Kommenteeri
Loe kommentaare (4)