„OpenAI“ vadovas Samas Altmanas viešai stojo ginti konkurentės „Anthropic“ dėl jos bendradarbiavimo su JAV Gynybos departamentu (DoW). Pasak pranešimų, Altmanas mano, kad bet kuri dirbtinio intelekto (DI) bendrovė, dirbdama su Pentagono struktūromis, privalo turėti aiškias „raudonąsias linijas“.
Visa tai prasidėjo, kai Pentagono atstovai paprašė „Anthropic“ leisti jos DI modelį naudoti „visiems teisėtiems tikslams“. „Anthropic“ sutinka bendradarbiauti su DoW, tačiau nerimauja, kad tokia formuluotė gali reikšti ir DI modelių panaudojimą, pavyzdžiui, autonominiams ginklams.
Teoriškai ši technologija galėtų būti pritaikoma ir masinei teisėtų JAV piliečių stebėsenai. Be to, DI galėtų būti integruotas į sistemas, kuriose nėra užtikrintas patikimumas.
Palyginimui verta priminti, kad „Anthropic“ sukurta DI sistema „Claude AI“ tapo pirmuoju tokio tipo modeliu, naudotu klasifikuotuose kariniuose projektuose. Pranešama, kad Pentagonas bendrovei nurodė iki vasario 27 d. 17:01 val. priimti sprendimą dėl šio reikalavimo vykdymo.
Dar labiau neramina tai, kad atsisakius paklusti gali būti sužlugdytas pelningas, maždaug 200 mln. JAV dolerių vertės „Anthropic“ kontraktas su DoW. Be to, nebendradarbiaujanti įmonė galėtų būti priskirta prie „tiekimo grandinės rizikos“ šaltinių.
„Anthropic“ reikalaujama atsisakyti saugiklių
Be to, valdžia teoriškai galėtų pasitelkti ir specialius teisinius instrumentus, pavyzdžiui, Gynybos gamybos aktą (Defense Production Act), kad bendrovę priverstų bendradarbiauti. Tai būtų itin rimta eskalacija, jei toks scenarijus iš tiesų būtų įgyvendintas.
Kaip rašo žiniasklaida, Samas Altmanas ėmėsi veiksmų, siekdamas įtikinti Pentagoną sumažinti įtampą. Jis įsitikinęs, kad ši situacija nėra tik „Anthropic“ ir DoW konfliktas – ji gali turėti pasekmių visam DI sektoriui, įskaitant ir pačią „OpenAI“.
Jeigu Pentagono spaudimas būtų sėkmingas, tai sukurtų nepriimtiną precedentą. Iš esmės DoW iš „Anthropic“ reikalauja atsisakyti vidaus DI saugumo priemonių – ir tai daroma, anot kritikų, spaudimo sąlygomis.
„Nors su „Anthropic“ nesutariu daugeliu klausimų, iš esmės jais pasitikiu kaip įmone ir manau, kad jie rimtai žiūri į saugumą. Džiaugiuosi, kad jie padeda mūsų kariams“, – interviu metu sakė Altmanas.
„Nežinau, kur visa tai nuves“, – pridūrė jis.
Vidiniame pranešime „OpenAI“ darbuotojams Altmanas pabrėžė: „Tai nebėra tik „Anthropic“ ir DoW reikalas; tai – visos industrijos klausimas, ir mums svarbu aiškiai išdėstyti savo poziciją.“
Laukiama sprendimo
Altmanas taip pat paaiškino, kad „OpenAI“ Pentagonui yra pateikusi savo pasiūlymą, kuris, jų manymu, leistų „mūsų modelius diegti klasifikuotose aplinkose taip, kad tai atitiktų mūsų principus“. Tokia schema, anot jo, galėtų būti tinkama ir kitoms DI laboratorijoms.
„Tikime, kad šis ginčas susijęs ne su tuo, kaip bus naudojamas DI, o su tuo, kas jį kontroliuos. Manome, kad privati JAV įmonė negali būti galingesnė už demokratiškai išrinktą JAV vyriausybę, nors įmonės gali turėti daug įtakos ir pasiūlymų“, – teigiama Altmano laiške, cituojamame žiniasklaidos.
„Dabartinė situacija kelia riziką mūsų nacionaliniam saugumui ir kartu didina tikimybę, kad vyriausybė imsis veiksmų, galinčių pakenkti Amerikos lyderystei DI srityje. Norėtume prisidėti prie įtampos mažinimo“, – pridūrė jis.
Kas benutiktų toliau, nuo šios derybų baigties priklausys ne tik vienas DI ir DoW kontraktas, bet ir būsimos sąveikos taisyklės tarp Silicio slėnio ir valstybės. Nuo to, ar išliks vadinamoji „etinė veto teisė“, gali priklausyti, kaip karinis DI bus kuriamas, diegiamas ir galiausiai kontroliuojamas artimiausius metus ar net dešimtmečius.