Tikras žmogus ar klastotė? „Microsoft“ parodė, kaip atpažinti dirbtinio intelekto sukurtą turinį

5 min. skaitymo

Microsoft korporacija pristatė naują požiūrį į internetinio turinio autentiškumo patvirtinimą, kuris tampa vis aktualesnis sparčiai plintant dirbtinio intelekto sukurtiems ir pakeistiems tekstams, vaizdams bei vaizdo medžiagai. Tuo pat metu bendrovė kol kas nėra įsipareigojusi šias rekomendacijas pilnai įdiegti savo produktuose.

Pasak technologijų ekspertų, dirbtinio intelekto pagrindu kuriama dezinformacija vis giliau skverbiasi į skaitmeninę erdvę – nuo manipuliatyvių vaizdų, kuriuos dalijasi politikai, iki tikslinių įtakos kampanijų vaizdo įrašų, nukreiptų į skirtingų šalių auditorijas.

Į tai reaguodama, Microsoft dirbtinio intelekto saugumo tyrėjų komanda parengė techninę „droadžio žemėlapį“ – rekomendacijas ir metodų rinkinį, skirtą padėti atskirti autentišką turinį nuo pakeisto ar sukurto dirbtiniu intelektu.

Kaip veiktų siūloma sistema?

Specialistai išanalizavo apie 60 skirtingų skaitmeninės patikros metodų ir jų derinių – nuo metaduomenų ir skaitmeninių vandens ženklų iki kriptografinių parašų. Tikslas – išsiaiškinti, kurie įrankiai išlieka patikimi net ir tada, kai failas buvo iš dalies pakeistas ar sąmoningai manipuliuotas.

Microsoft siūlomą patikros principą lygina su garsaus paveikslo, pavyzdžiui, Rembranto kūrinio, ekspertize. Norint patvirtinti autentiškumą, reikia trijų elementų: aiškaus turinio kilmės patvirtinimo (kas, kada ir kokiomis priemonėmis sukūrė turinį), paslėpto mašinomis skaitomo ženklo, skaitmeninio „piršto atspaudo“, kuris leidžia identifikuoti originalą net jam šiek tiek pakitus.

Woman typing on laptop at wooden table with breakfast.

Microsoft vyriausiasis mokslinis darbuotojas Erikas Horvicas teigia, kad pagrindiniais šio darbo impulsais tapo dvi kryptys: naujos teisėkūros iniciatyvos (pavyzdžiui, Kalifornijos įstatymas dėl dirbtinio intelekto skaidrumo) ir itin sparčiai tobulėjančios technologijos, galinčios generuoti hiperrealistinius vaizdo ir garso įrašus.

Vis dėlto, anot Horvico, ši iniciatyva nėra skirta nustatyti, ar turinys yra teisingas pagal faktus – ji orientuota tik į jo kilmės ir pakeitimų žymėjimą.

„Tai nėra priemonė nuspręsti, kas yra tiesa, o kas ne. Tai – žymėjimo sistema, kuri parodo, iš kur atsirado medžiaga ir kaip ji buvo apdorota“, – aiškina jis.

Ar Microsoft laikysis savo siūlomų standartų?

Nors iniciatyva atrodo ambicinga, Microsoft kol kas negarantuoja, kad visi siūlomi standartai bus visapusiškai įgyvendinti jos valdomoje ekosistemoje. Bendrovė valdo Copilot paslaugą, debesų kompiuterijos platformą „Azure“, profesinį tinklą „LinkedIn“ ir turi reikšmingą dalį „OpenAI“.

Įmonė nurodo, kad tyrimų rezultatai jau daro įtaką produktų atnaujinimams, tačiau konkrečių įsipareigojimų dėl privalomo viso dirbtinio intelekto generuoto turinio žymėjimo kol kas nepateikia.

Technologijų ribotumai

Ekspertai pabrėžia, kad net ir geriausios patikros sistemos neatsako į klausimą, ar informacija yra teisinga. Jos tik fiksuoja, ar turinys buvo redaguotas ir ar jis buvo sukurtas naudojant dirbtinį intelektą.

Kalifornijos universiteto (JAV) skaitmeninės kriminalistikos profesorius Hanis Faridas mano, kad tokių standartų įdiegimas gerokai apsunkintų masinį manipuliatyvaus turinio plitimą. Vis dėlto tai iki galo problemos neišspręstų: dezinformacija galėtų būti kuriama ir platinama kitais būdais, pavyzdžiui, be aiškaus žymėjimo ar per platformas, kurios nesilaiko standartų.

Tyrimai taip pat rodo, kad net ir tada, kai vartotojai aiškiai informuojami apie dirbtinę turinio kilmę, tai ne visada sumažina jo įtaką jų nuomonei ar elgesiui. Kitaip tariant, vien žymėjimas negarantuoja kritiško vertinimo.

Reguliavimas ir politika

Naujos taisyklės dėl privalomo dirbtinio intelekto generuoto turinio žymėjimo jau rengiamos Europos Sąjungoje ir keliose kitose šalyse. Kalifornijos teisės aktas gali tapti pirmuoju didelio masto šių priemonių efektyvumo testu Jungtinėse Valstijose.

Tačiau pernelyg skubotas ar techniškai netikslus patikros sistemų diegimas gali pakenkti pasitikėjimui jomis. Microsoft tyrėjai įspėja: kai kuriais atvejais geriau visai nerodyti jokio žymėjimo, nei pateikti klaidingą ar klaidinantį.

Globaliai daugėjant „deepfake“ vaizdo įrašų ir kitų manipuliatyvių medžiagų, skaitmeninės autentiškumo patikros klausimas tampa ne tik technologiniu, bet ir politiniu iššūkiu. Nors Microsoft iniciatyva gali padėti suformuoti naują standartą, jos reali įtaka priklausys nuo to, ar didžiosios technologijų bendrovės bus pasirengusios šių taisyklių laikytis ir taikyti jas savo platformose bei produktuose.

Dirbtinio intelekto keliamas naujas iššūkis: skaitmeninis „amžinas gyvenimas“

Tuo pat metu kitos technologijų bendrovės taip pat dirba su radikaliomis dirbtinio intelekto idėjomis. Meta jau yra gavusi patentą dirbtinio intelekto sistemai, kuri leistų vartotojams tarsi „tęsti gyvenimą“ socialiniuose tinkluose net po fizinės mirties.

Pagrindinė idėja – sukurti skaitmeninį asmens „kloną“, kuris reaguotų į įrašus, komentarus ir žinutes, imituodamas tikrąją vartotojo elgseną, rašymo stilių ir net bendravimo būdą. Tokios technologijos dar labiau paaštrina klausimą, kaip ateityje atskirti gyvą žmogų nuo dirbtinio intelekto valdomos tapatybės ir kas turėtų reguliuoti šią sritį.

Dalintis straipsniu
Komentarų: 0

Parašykite komentarą

El. pašto adresas nebus skelbiamas. Būtini laukeliai pažymėti *

Rekomenduojami Video