Šie triukai padės atpažinti deepfake melagystes, kurios apgauna net patyrusius interneto naudotojus

6 min. skaitymo

Interneto melagienos jau seniai neapsiriboja nevykusiu „Photoshop“ – vartotojų erdvę vis labiau užpildo dirbtinio intelekto (DI) vaizdo įrašai ir gilesnės klastotės (deepfake): nuo netikrų reklamų iki suklastotų „reportažų“ apie katastrofas. Šiuolaikinės technologijos triną ribą tarp tikrovės ir fantazijos, todėl suklastoti vaizdai atrodo vis įtikinamiau.

Ką svarbu žinoti apie Sora vaizdo įrašus

Techniniu požiūriu su Sora sukurti vaizdo įrašai atrodo įspūdingai ir gerokai lenkia konkuruojančius sprendimus, tokius kaip Midjourney V1 ar Google Veo 3. Jie pasižymi didele raiška, sinchronizuotu garsu ir netikėtu kūrybiškumu. Viena populiariausių funkcijų – „Cameo“, kuri leidžia panaudoti tikrų žmonių išvaizdą ir „įdėti“ juos praktiškai į bet kokią DI sukurtą sceną. Rezultatas – bauginamai realistiški įrašai.

Dėl to aplink Sora kyla tiek daug nerimo. Ši programa smarkiai supaprastina pavojingų deepfake’ų kūrimą, dezinformacijos sklaidą ir tikrovės iškraipymą. Ypač pažeidžiami tampa vieši asmenys ir įžymybės – profesinės sąjungos, tokios kaip SAG-AFTRA, jau paragino „OpenAI“ stiprinti apsaugos priemones.

Jei „OpenAI“ modelis Sora jau ir taip supainiojo informacinę erdvę, tai jo virusinis „tęsinys“ – vadinamasis „socialinis tinklas“ Sora 2 – tapo vienu labiausiai aptarinėjamų ir kartu labiausiai klaidinančių reiškinių internete. Iš esmės tai į TikTok panaši naujienų srauto juosta, kurioje visas turinys 100 % yra suklastotas. Platforma nuolat tobulėja kurdama realistiškas išgalvotas scenas, o tai kelia realią grėsmę visuomenei.

Atkreipkite dėmesį į vandens ženklą

Visuose vaizdo įrašuose, kurie įkelti iš Sora „iOS“ programėlės, matomas vandens ženklas – baltas Sora debesėlio formos logotipas, judantis palei kadro kraštus. Tai primena TikTok vandens ženklus ir yra vienas paprasčiausių būdų nustatyti, kad turinys sukurtas DI.

Vis dėlto vandens ženklai negarantuoja visiškos apsaugos: statinį ženklą galima tiesiog iškirpti, o dinaminį – pašalinti specialiomis programomis. „OpenAI“ vadovas Samas Altmanas yra pabrėžęs, kad visuomenė turės prisitaikyti prie realybės, kurioje bet kas gali sukurti netikrą vaizdo įrašą su bet kuriuo žmogumi. Tai reiškia, kad vien tik vizualaus požymio šiandien jau nebepakanka.

Patikrinkite metaduomenis

Nors metaduomenų tikrinimas gali pasirodyti sudėtingas, praktiškai tai yra vienas patikimiausių būdų nustatyti vaizdo įrašo kilmę. Metaduomenys – tai techninė informacija, automatiškai pridedama prie failo: kameros tipas, filmavimo data ir vieta, failo pavadinimas ir kita. DI turinyje dažnai paliekamos specialios žymos, rodančios dirbtinę kilmę.

„OpenAI“ yra C2PA (Coalition for Content Provenance and Authenticity) koalicijos narė, todėl Sora vaizdo įrašuose įrašomi atitinkami metaduomenys. Juos galima patikrinti naudojantis „Content Authenticity Initiative“ (Turinio autentiškumo iniciatyvos) įrankiais.

Kaip patikrinti failo metaduomenis

  • Atidarykite „Content Authenticity Initiative“ metaduomenų tikrinimo puslapį.
  • Įkelkite nuotrauką, vaizdo įrašą arba dokumentą.
  • Pasirinkite komandą „Atidaryti“.
  • Peržiūrėkite informaciją dešiniajame skydelyje – jei turinys sukurtas DI, tai bus aiškiai nurodyta apraše.

Tikrinant Sora vaizdo įrašus paprastai matoma, kad failą „išleido OpenAI“ ir kad jis sukurtas dirbtiniu intelektu. Taip galima patvirtinti tokio įrašo kilmę.

Šio metodo ribotumai

Kaip ir bet kuris DI turinio detektorius, šis metodas nėra tobulas. Vaizdo įrašai, sukurti kitomis priemonėmis, pavyzdžiui, Midjourney, gali neturėti reikiamų metaduomenų. Be to, jei Sora vaizdo įrašas buvo apdorotas kita programa ir išsaugotas iš naujo, tikimybė, kad jis bus teisingai atpažintas, sumažėja.

Vis dėlto metaduomenų tikrinimas išlieka vienu efektyviausių būdų atskirti tikrą vaizdo įrašą nuo deepfake klastotės DI plėtros laikais.

Ieškokite DI žymėjimo ir patys jį nurodykite

Socialiniuose tinkluose, priklausančiuose „Meta“ – pavyzdžiui, „Instagram“ ir „Facebook“ – vartotojai gali gauti papildomą užuominą, ar turinys sukurtas dirbtiniu intelektu. „Meta“ naudoja vidines sistemas, kurios žymi tokias publikacijas specialiomis etiketėmis. Šie mechanizmai nėra tobuli, tačiau pažymėtose žinutėse galima aiškiai matyti atitinkamą užrašą. Panašios DI turinio žymėjimo taisyklės galioja ir TikTok bei „YouTube“ platformose.

Tačiau vienintelis tikrai patikimas būdas suprasti, kad turinys sukurtas DI, – aiški paties autoriaus nuoroda. Daugelis socialinių tinklų jau siūlo nustatymus, leidžiančius pažymėti įrašus kaip sugeneruotus dirbtiniu intelektu. Net ir paprastas paaiškinimas įrašo apraše padeda auditorijai suvokti, kokiu būdu buvo sukurtas turinys.

Kol vartotojas naršo Sora naujienų srautą, jam akivaizdu, kad matomas turinys yra fikcija. Tačiau DI vaizdo įrašams iškeliaujant už programėlės ribų ir atsirandant kitose platformose, atsakomybė už tikrąją jų kilmę tampa bendra – ją prisiimti turi ir kūrėjai, ir platintojai.

Didėjant tokių modelių kaip Sora galiai ir vis labiau nykstant ribai tarp tikrovės ir išgalvoto turinio, patys vartotojai turi stengtis kuo aiškiau atskleisti, ar vaizdo įrašas yra tikras, ar sukurtas dirbtiniu intelektu.

Svarbiausia – išlikti budriems

Nėra universalaus metodo, kuris leistų vienu žvilgsniu tiksliai nustatyti, ar vaizdo įrašas yra tikras, ar sugeneruotas DI. Geriausia, ką galima padaryti, – nekreipti aklo pasitikėjimo į viską, ką matote internete. Jei kažkas atrodo įtartina ar „nenatūralu“, greičiausiai taip ir yra.

Šiandien, kai internetą užpildo abejotinos kokybės DI turinys, geriausia apsauga yra atidus žiūrėjimas. Verta pastebėti iškraipytą tekstą, dingstančius ar staiga atsirandančius objektus, judesius, prieštaraujančius fizikos dėsniams. O jei vis dėlto kartais apsigaunate ir patikite netikru vaizdo įrašu – neverta savęs kaltinti: net ir ekspertai ne visada pajėgia atpažinti profesionaliai sukurtą klastotę.

Dalintis straipsniu
Komentarų: 0

Parašykite komentarą

El. pašto adresas nebus skelbiamas. Būtini laukeliai pažymėti *