Žmonės yra linkę meluoti, tačiau šiais technologinės pažangos laikais melo šaltinių daugėja, be to jis tampa vis įtikinamesnis. Pakliuvus į melo spąstus galima patirti didelės finansinės žalos. Melas taip pat kelia grėsmę demokratijai, visuomenės gebėjimui spręsti kylančias problemas, ardo socialinį audinį. Ar sugebėsime pasipriešinti kylančiai melų ir apgaulių lavinai?

Asociatyvi „Pixabay“ nuotr.
Melas – sukčių darbo įrankis
Žmonės meluoja dėl įvairių priežasčių. Pasak elgsenos mokslininkų, dažniausiai žmonės meluoja, kad išvengtų neigiamų pasekmių sau ar kitiems, atitiktų socialines normas ar išsaugotų gerą savo įvaizdį, o neretai ir tam, kad gautų asmeninės naudos. Melą ir apgaulę, siekdami asmeninės naudos, naudoja ir sukčiai, viliojantys pinigus. Skaičiuojama, kad pernai iš gyventojų apgaulės būdu nusikaltėliai siekė išvilioti 35 mln. eurų, iš kurių net 20 mln. eurų atsidūrė sukčių rankose.
Ant sukčių kabliuko pasimauna ne tik paprasti gyventojai, bet ir įmonių darbuotojai, neretai apmokyti tokias grėsmes atpažinti. Pavyzdžiui, pernai per vaizdo skambutį britų įmonės finansų vadovas nurodė pavaldiniui įvykdyti 26 mln. JAV dolerių vertės pervedimus. Pastarasis taip ir padarė, tačiau vėliau tapo aišku, kad tikrasis vadovas tokio nurodymo nedavė, o vaizdas skambutyje buvo suklastotas (angl. deepfake). Sukčiai vis dažniau pasitelkia dirbtinį intelektą (DI), kad jų apgaulės būtų įtikinamesnės ir sunkiau atpažįstamos.
Reikšmingos melagienų pasekmės
Apgaulė gali būti naudojama ir siekiant paveikti žmonių nuomonę. Tam tikslui dažnai pasitelkiamos melagienos (angl. fake news), t. y., tyčia klaidinanti arba netiksli informacija, platinama kaip tikros žinios. Socialiniai tinklai sukūrė ypač palankią terpę sklisti melagienoms. Nemažai diskusijų dėl per socialinius tinklus platinamų netikrų naujienų daromo poveikio politiniams procesams kilo po 2016 m. JAV prezidento rinkimų ir „Brexit“ referendumo. Bet melagienos daro įtaką ir kitiems visuomenei svarbiems klausimams, tokiems kaip sveikata: per COVID-19 pandemiją išaugusi sąmokslo teorijų sklaida socialiniuose tinkluose turėjo neigiamą poveikį visuomenės norui skiepytis.
Tobulėjant DI technologijai, pakibti ant melagienų kabliuko tampa vis lengviau, nes platinamus vaizdo įrašus sunku atskirti nuo tikrovės. DI sudaro galimybę pasinaudoti didžiausiomis žmonių baimėmis ir manipuliuoti jų emocijomis. Praėjusiais metais per socialinius tinklus nuvilnijo nuotrauka, kuri sukėlė didelę JAV visuomenės reakciją. Nuotraukoje buvo pavaizduota verkianti mergaitė valtyje – regis, visiškai viena, tik suspaudusi glėbyje mažą šunelį. Ji vilki gelbėjimosi liemenę ir, atrodo, dreifuoja potvynio vandenyse. Nors buvo išsiaiškinta, kad nuotrauka buvo sugeneruota DI, tačiau ji jau buvo sukėlusi visuomenės pasipiktinimą dėl tuometinio JAV prezidento Joe Bideno administracijos tariamo negebėjimo tvarkytis su uragano sukelto potvynio pasekmėmis.
Apgaudinėja ir pats DI
Pastebima ir kita tendencija, kai pats DI, be žmogaus nurodymo, skleidžia melus. DI, paremtas dideliais kalbiniais modeliais (angl. large language models), neretai generuoja klaidingą informaciją. Šios „haliucinacijos“ skamba įtikinamai, tačiau yra klaidingos. Tai gali kelti rimtų problemų, ypač tokiose srityse kaip sveikata, teisė, istorija ar švietimas.
Vienas iš realių pavyzdžių, kaip dirbtinio intelekto „haliucinacijos“ gali sukelti žalą, yra susijęs su teisine byla JAV. Šioje byloje Niujorko advokatas, rengdamas ieškinį, pasikliovė „ChatGPT“, tačiau teisėjas nustatė, kad pateiktos nuorodos ir citatos tiesiog neegzistavo – jas DI buvo visiškai išgalvojęs. Šios problemos ypač aktualios švietimo srityje – mokytojai ir dėstytojai (įskaitant šio komentaro autorę) vis dažniau susiduria su situacijomis, kai mokiniai ir studentai savo darbuose remiasi klaidinga DI sugeneruota informacija ar neegzistuojančiais šaltiniais.
DI „haliucinacijos“ nėra sąmoningai vykdomas melas. Tačiau atsiranda įrodymų, kai DI geba meluoti strategiškai ir net šantažuoti žmones tam, kad pasiektų savo tikslų. Pavyzdžiui, neseniai testavimo metu įmonės „Anthropic Claude“ modelis bandė šantažuoti savo kūrėjus, grasindamas atskleisti tariamą slaptą meilės romaną. DI modeliams tampant vis pažangesniems, kyla pagrįsto nerimo dėl žalos, kurią galėtų padaryti toks neetiškas DI elgesys.
Ar atsispirsime melui?
Dažnai kaip būdas netapti apgaulių auka minimas gyventojų švietimas, skatinant juos tikrinti ir kritiškai vertinti šaltinius, stebėti savo emocijas (jei situacija sukelia dideles emocijas, tai gali būti apgaulė) bei galimą polinkį į kognityvinius šališkumus (pavyzdžiui, polinkiu vadovautis informacija, kuri patvirtina išankstinius įsitikinimus). Švietimas gali padidinti visuomenės atsparumą, bet negali pilnai mūsų apsaugoti nuo melo ir apgaulių dėl žmonių ribotumo atpažįstant melą, perdėto pasitikėjimo savo gebėjimais ir polinkio patiems skleisti melą.
Šiuos apribojimus iliustruoja elgsenos ekonomistų Marta Serra-Garcia ir Uri Gneezy atliktas eksperimentas, kuriame dalyvių buvo prašoma atpažinti, ar vaizdo įraše rodomi žmonės meluoja, ar ne. Už teisingus atsakymus jiems buvo mokami pinigai. Eksperimento rezultatai parodė, kad žmonės turėjo ribotą gebėjimą atpažinti melą – tokie jų įgūdžiai buvo artimi atsitiktinumui, tačiau žmonės pernelyg pasitikėjo savo sprendimais. Tyrėjai taip pat nustatė, kad žmonės buvo labiau linkę dalintis tais vaizdo įrašais, kuriuose meluojama, o kiti dalyviai – labiau tikėti pasidalintais melagingais įrašais.
Jei žmonės negeba atpažinti melo, galbūt technologiniai sprendimai, kurių pagalba šiandien dažnai kuriamas melas, galėtų būti naudojami pagelbėti žmogui apsisaugoti nuo apgaulės? Tų pačių mokslininkų atlikto kito tyrimo rezultatai parodė, kad algoritmams pavyksta tiksliau nuspėti melą nei žmonėms, tačiau ar žmonės yra linkę pasikliauti algoritmo patarimu priklauso nuo to, kada jis pateikiamas. Jei žmogus įspėjamas apie melą dar iki tol, kol su juo susiduria, jis yra linkęs tikėti algoritmu. Tačiau, jei algoritmo vertinimas pateikiamas po galimo susidūrimo su melu, jis yra linkęs vadovautis savo suformuotais įsitikinimais ir algoritmas jų pakeisti dažniausiai nebegali.
Pasaulyje, kuriame gausėja melo, pasikliauti vien savo gebėjimais jį atpažinti, net jei jie ir nuolat tobulinami, nebepakanka. Pažangūs technologiniai sprendimai, pavyzdžiui, dirbtinio intelekto naudojimas, gali padėti užkirsti kelią melams ir apsaugoti mūsų pinigines ir visuomenės gerovę. Tačiau politikai, kurie kraunasi politinį kapitalą iš melu paremtos komunikacijos, gali būti nelinkę priimti sprendimus tikrinti informaciją. Dirbtinio intelekto polinkis „haliucinuoti“, o galbūt – net strategiškai meluoti, taip pat kelia rizikų. Tad kol kas, panašu, kad turėsime remtis savo netobulais gebėjimais išgyventi šiame melo pasaulyje.
Dr. Laura Galdikienė yra Vilniaus universiteto Ekonomikos ir verslo administravimo fakulteto Elgsenos ekonomistė.