Lengvai prieinami DI (dirbtinio intelekto) vaizdo kūrimo įrankiai, tokie kaip „Veo 3“ ar „Sora 2“, suteikia galimybę greitai ir realistiškai kurti klastotes (angl. „deepfake“), kurias vis aktyviau išnaudoja sukčiai. Pasinaudoję šiomis technologijomis, vien per 2025 metus jie išviliojo daugiau nei 860 milijonų eurų.
Naujausias „Surfshark“ tyrimas rodo, kad teisėsaugos institucijoms pranešti su dirbtinio intelekto klastotėmis susiję nuostoliai jau viršijo 1,3 mlrd. eurų. Vien per šiuos metus sukčiai išviliojo daugiau nei 860 milijonų eurų, kas yra 500 mln eurų daugiau nei 2024 metais.
Anot „Surfshark“ IT saugumo vadovo Tomo Stamulio, toks spartus sukčiavimo atvejų augimas gali būti paaiškinamas didėjančiu DI vaizdų bei įrašų generavimo įrankių prieinamumu.
„Ankščiau vienos minutės trukmės „deepfake“ vaizdo įrašo sukūrimas kainuodavo nuo maždaug 280 iki 18 000 eurų, priklausomai nuo įrašo kokybės. Šiandien dirbtinio intelekto įrankiai, tokie kaip „Veo 3“ ar „Sora 2“, leidžia klastotes kurti gerokai greičiau ir pigiau“, – pasakoja Tomas Stamulis.
Pasak saugumo eksperto, toks platus DI įrankių prieinamumas skatina naujų sukčiavimo formų atsiradimą. Pavyzdžiui, kai kurie sukčiai kuria suklastotus dingusių augintinių atvaizdus, kad apgautų sunerimusius šeimininkus ir išviliotų iš jų nedideles sumas, melagingai žadėdami, kad jų augintiniai rasti.
„Realistiškų vaizdų ir vaizdo įrašų kūrimo kainai artėjant prie nulio, sukčiai sparčiai monetizuoja apgaulę“, – teigia „Surfshark“ IT saugumo vadovas Tomas Stamulis. „Dingusių augintinių schema – tai ryškus naujas pavyzdys: sukčiai manipuliuoja žmonių emocijomis prašydami sąlyginai nedidelių atlygių, todėl aukos mažiau įtarios ir nelinkusios pranešti apie apgavystę. Be to, nusikaltėliams tokią schemą lengva replikuoti.“
Tomas Stamulis pabrėžia, kad nors panašių originalių klastočių skaičius auga, jų nuostoliai vis dar menki, palyginus su pelningiausiomis „deepfake“ aferomis. Pasak eksperto, pasaulyje vis dar dominuoja investiciniai sukčiavimai: apsimetinėjimas žinomais žmonėmis, siekiant reklamuoti ir įtraukti į apgaulingus investavimo būdus. „Deepfake“ klastotės taip pat išnaudojamos darbo pokalbiuose – taip sukčiams pavyksta apeiti tapatybės patikras ir pateikti į įvairias organizacijas.
Kaip apsisaugoti?
T. Stamulis ragina asmenis ir organizacijas išlikti budriais. Anot eksperto, geriausia gynyba prieš sukčius – kritinis mąstymas. Jis pataria visas netikėtas užklausas laikykiti potencialiai įtartinomis – ypač tas, kurios susijusios su pinigais ar jautriais duomenimis.
- Prieš imdamiesi veiksmų, visuomet patikrinkite informaciją (paskambinkite žinomiems numeriams) ir jokiu būdu nenaudokite kontaktų ar nuorodų, pateiktų pačioje žinutėje.
- Įvertinkite vaizdo įrašų technines savybes: lūpų sinchronizacijos neatitikimai ar nenatūralus foninis triukšmas gali būti klastotės išdava.
- Atkreipkite dėmesį į mažiausias detales (keistos rankos ar pirštai, neįprastos akys, apšvietimas, trūkčiojantys judesiai), taip pat, vien vaizdu nepasitikėkite.
- Neskubėkite: skubinimas, spaudimas ar emociniai „kabliukai“ – klasikinė sukčių taktika.
- Organizacijos turėtų apmokyti didelės rizikos komandas atpažinti potencialius sukčius (aptarnavimas, personalas, finansai). Įdarbinant naują darbuotoją, reikalaukite gyvo, vietoje atliekamo pokalbio. Kruopščiai tikrinkite gyvenimo aprašymus bei adresus.
Metodologija
Šiame tyrime buvo panaudoti „AI Incident Database“ ir „Resemble.AI“ duomenys, siekiant sukurti bendrą duomenų rinkinį, apimantį incidentus nuo 2017 m. iki 2025 m. rugsėjo mėn. Įtraukti incidentai yra susiję su netikrų vaizdo įrašų, vaizdų ar garso įrašų generavimu ir aprašyti žiniasklaidoje, kai straipsnyje buvo aiškiai pranešta apie finansinius nuostolius.