PRAMOGOS
SUSIJĘ STRAIPSNIAI
Aktualijos2023 m. Gegužės 26 d. 14:37

Jūsų skaitmeninė tapatybė – neapsaugota, dirbtinio intelekto priemonės vis dažniau savinasi vaizdus iš socialinių tinklų

Lietuva

Freepik.com nuotr.

Alaina ŠtreimikytėŠaltinis: Etaplius.lt


268396

Deepfake (lietuviškai – sintetinės vaizdakaitos) technologija yra sparčiai besivystanti skaitmeninio manipuliavimo forma. Naudojantis šia technologija kuriami labai tikroviški, tačiau tiesos neatspindintys vaizdo ir garso įrašai. Vos keliais pelės paspaudimais įtikinamai sukeičiami žmonių veidai, nepriekaištingai imituojami balsai, kurie pritaikomi išgalvotuose scenarijuose, todėl šį dirbtinio intelekto technologija tapo patogiu įrankiu dezinformacijos plitimui. Ką turėtumėte žinoti ir kaip nepapulti į dezinformacijos rankas?

Technologijos naudojimas paplito ir kuriant sintetinę pornografiją

Prieš suprasdami, kaip apsisaugoti nuo šios dezinformacijos formos, pirmiausiai turėtumėte žinoti, kaip veikia deepfake technologija. Vytauto Didžiojo universiteto docentas ir informacinio saugumo bei dezinformacijos specialistas Ignas Kalpokas teigia, kad sintetinė vaizdakaita yra dar viena dirbtinio intelekto technologija, kuri generuoja vaizdinį turinį.

„Tai gali būti arba visiškai sukurtas turinys (nuotrauka, vaizdo įrašas), arba pakeistas esamas turinys, pavyzdžiui, pakeičiant vieno žmogaus veidą kito žmogaus veidu. Tokiu būdu galima patalpinti žmogų į situaciją, kurioje jis niekada nebuvo arba parodyti atliekant veiksmus, kurių jis niekada neatliko“, – pasakojo Ignas Kalpokas.

Pasak specialisto, ši technologija nebuvo sukurta dezinformacijai, tačiau ji pasirodė labai patogi tuo užsiimantiems asmenims. Nekenksmingai ją naudoti galima įvairiose humoro formose arba meninėje kūryboje, tačiau informacinio saugumo specialistas sako, kad šios technologijos naudojimas paplito kuriant sintetinę pornografiją, kai į pornografinį turinį patalpinamas kito žmogaus atvaizdas.

„Sparčiausias plitimas pradžioje vyko įvairiose seksistinėse subkultūrose ir interneto forumuose, o labiausiai paplitęs pritaikymas buvo įžymybių (iš esmės – išskirtinai moterų) atvaizdų talpinimas į pornografinį turinį“, – apie technologijos pavojų kalbėjo specialistas.

Jau sukurto turinio vartojimas yra labiau paplitęs nei jo generavimas

Specialisto teigimu, naudojimasis šia technologija reikalauja bent minimalių žinių, nes siekiant sukurti žmogaus atvaizdą reikia viso rinkinio konkretaus asmens nuotraukų. Visgi, Ignas Kalpokas sako, jog uolus pasiruošimas klastotojų negąsdina ir deepfake technologija išlieka pagrindiniu įrankiu, kai reikia sukurti ne bendro pobūdžio atvaizdą, o konkretaus žmogaus klastotę.

Turbūt garsiausias pastarojo meto deepfake panaudojimo atvejis – Lietuvos politikų patalpinimas į vieno mados prekės ženklo reklamą:

Kaip atpažinti klastotę?

Deepfake klastočių kokybė priklauso nuo to, kiek pastangų buvo įdėta į jos kūrimą, tačiau dezinformacijos specialistas sako, kad skiriamieji ženklai kartais gali būti įžvelgiami.

„Prastesnės kokybės klastotėse gali būti nenatūralus lūpų ir akių vokų judėjimas, atvaizdo kontūrų neryškumas, skirtingų kūno dalių odos atspalvių arba apšvietimo nesutapimas“, – perspėjo I. Kalpokas.

Vis dėlto, tikrai geros kokybės klastotės gali būti sunkiai atskiriamos nuo tikrų atvaizdų tiek plika akimi, tiek ir naudojant specialią programinę įrangą. Pastebima, kad visuomenė linkusi patikėti tokiomis klastotėmis, jei pateikiamame turinyje yra patvirtinamos teorijos, kurios jau egzistavo mūsų pasąmonėje, pavyzdžiui įvairūs politiniai įsitikinimai.

Dezinformacijos priemonių daugėja, o aptikti ją darosi vis sunkiau

Etaplius.lt domėjosi, ar deepfake aptikimo ir prevencijos srityje yra įrankių, kurie galėtų parodyti įrašo originalumą, tačiau specialistas sako, kad technologijos tobulėja greičiau, nei priemonės joms atpažinti.

„Pažanga vyksta, tačiau ji yra sąlyginė. Vyksta nuolatinės lenktynės, kai sukuriamos priemonės egzistuojantiems įrankiams ir jų rezultatams aptikti, tačiau tai jau savaime lemia naujų įrankių kūrimą – tokių, kuriems nebėra būdingi ankstesniųjų trūkumai. Tad vėl reikia naujų aptikimo įrankių, kurie savaime inspiruoja naujus klastojimo įrankius“, – apie technologijų spartą kalbėjo Ignas Kalpokas.

Specialistas pažymi, kad priemonių apsaugoti savo skaitmeninę tapatybę nėra. Kiekvienas asmuo viešindamas savo nuotraukas socialiniuose tinkluose prisiima riziką, kad tokia informacija yra pažeidžiama ir gali pakliūti į netinkamas rankas.

Paklaustas, ar ši technologija gali neigiamai paveikti visuomenės pasitikėjimą žiniasklaida arba politika, specialistas sako, kad tai priklauso nuo kiekvieno individo noro piktnaudžiauti deepfake galimybėmis.

Nors ši technologija gali tapti hibridinių grėsmių arsenalo dalimi kuomet priešiškos jėgos gali ją naudoti tiesiog visuomenės supriešinimui, didesnė grėsmė kiltų jei patys politikai ar žiniasklaidos atstovai, siekdami naujumo arba vaikydamiesi populiarumo, imtų piktnaudžiauti technologija.

Šis straipsnis buvo iš dalies finansuojamas Jungtinių Valstijų valstybės departamento dotacijos lėšomis. Šiame straipsnyje pateiktos nuomonės, išvados ir teiginiai yra autoriaus nuomonė ir nebūtinai atspindi Jungtinių Amerikos Valstijų valstybės departamento nuomonę, išvadas ir teiginius.


Foto galerija: