Dirbtinio intelekto (DI) pažanga pastaraisiais metais kelia vis daugiau klausimų dėl saugumo, etikos ir valdžios institucijų įtakos technologijų kūrėjams. Naujausi įvykiai JAV gynybos sektoriuje ir „Anthropic“ sprendimai peržiūrėti savo pagrindinius saugumo įsipareigojimus atskleidžia, kaip greitai keičiasi pirminės pažangiausių startuolių deklaruojamos vertybės, susidūrus su geopolitiniais ir komerciniais interesais.
Dvi naujienos apie „Claude“ kūrėją „Anthropic“, pasirodžiusios antradienį, sudėjus jas draugėn, sukuria nerimą keliantį vaizdą. Pranešama, kad JAV gynybos sekretorius Pete’as Hegsethas spaudžia „Anthropic“ atsisakyti dalies savo DI saugiklių ir suteikti kariuomenei neribotą prieigą prie „Claude“ pokalbių roboto. Tą pačią dieną, kai pasirodė žinios apie Hegsetho spaudimą, bendrovė tyliai atsisakė savo pagrindinio saugumo pažado.
Antradienį „Anthropic“ paskelbė keičianti savo „Responsible Scaling Policy“ (RSP) ir silpninanti iki tol galiojusius saugumo ribojimus. Iki šiol pagrindinis bendrovės įsipareigojimas buvo toks: ji nutrauktų naujų DI modelių treniravimą, jei iš anksto negalėtų garantuoti, kad laikomasi konkrečių saugumo gairių. Ši griežtų „stabdžių“ politika, numatanti aiškias ribas, kada plėtra turi būti sustabdyta, buvo esminė „Anthropic“ žinutės dalis verslui ir vartotojams.
„Praėjus dvejiems su puse metų, sąžiningai vertindami matome, kad dalis šios pokyčių teorijos pasiteisino taip, kaip tikėjomės, tačiau kita dalis – ne“, – pažymėjo „Anthropic“. Atnaujintoje politikoje saugumas pradedamas vertinti santykinai, o ne pergriežtų raudonųjų linijų prizmę.
Žvelgiant pavieniui, „Anthropic“ atstovų argumentai interviu gali skambėti pakankamai nuosaikiai. „Mums atrodė, kad realiai niekam nepadės, jei tiesiog sustabdysime DI modelių treniravimą“, – sakė „Anthropic“ vyriausiasis mokslo pareigūnas Jaredas Kaplanas. Pasak jo, atsižvelgiant į spartų DI pažangą, „neatrodė prasminga vienašališkai prisiimti įsipareigojimus, jei konkurentai, tuo metu, žengia į priekį be analogiškų apribojimų“.
Tačiau tuos pačius teiginius galima vertinti ir kaip dar vieną pavyzdį, kai sparčiai augančio startuolio etiniai principai palaipsniui pilkėja kartu su augančia jo verte. Primena ankstyvąjį „Google“ šūkį „Don’t be evil“ („Nebūk blogas“), kuris vėliau buvo pašalintas iš bendrovės elgesio kodekso. Naujausios „Claude“ versijos sulaukė plačių pagyrų, ypač programavimo srityje. 2026 m. vasarį „Anthropic“ pritraukė dar 30 mlrd. JAV dolerių investicijų ir dabar vertinama apie 380 mlrd. dolerių. Tuo metu konkurentė „OpenAI“ vertinama daugiau nei 850 mlrd. dolerių.
Vietoje ankstesnių aiškių plėtros stabdymo „saugos laidų“ „Anthropic“ ketina diegti naujus „Risk Reports“ (rizikų vertinimo ataskaitas) ir „Frontier Safety Roadmaps“ (pažangiausių modelių saugumo planus). Šie ataskaitų ir kelrodžių formatai esą turėtų užtikrinti didesnį skaidrumą visuomenei, pakeisdami iki tol galiojusias griežtas ribas.
Bendrovės teigimu, šiuos pokyčius lėmė „kolektyvinio veiksmo problema“, kylanti dėl itin konkurencingos DI rinkos ir JAV antireguliacinio požiūrio. Atnaujintoje RSP versijoje pažymima: „Jei vienas DI kūrėjas pristabdytų plėtrą, kad įgyvendintų saugumo priemones, o kiti toliau kurtų ir diegtų DI sistemas be stiprių apsaugos mechanizmų, pasaulis iš esmės taptų mažiau saugus. Tempą diktuotų silpniausias apsaugas turintys kūrėjai, o atsakingi kūrėjai prarastų galimybę vykdyti saugumo tyrimus ir kurti visuomenės gerovę didinančias technologijas.“
Tiek „Anthropic“ pranešime, tiek išskirtiniame pasakojime apie naująją RSP neminimas akivaizdus kontekstas – Pentagono spaudimas. Antradienį paaiškėjo, kad Hegsethas „Anthropic“ generaliniam direktoriui Dariui Amodei esą davė ultimatumą: iki penktadienio bendrovė turi suteikti kariuomenei neribotą prieigą prie savo DI modelio, kitaip susidurs su sankcijomis. „Anthropic“ siūlė taikyti savo naudojimo taisykles ir Pentagono projektams, tačiau atsisakė leisti savo modelį naudoti masiniam amerikiečių sekimui ar ginklams, kurie veikia be žmogaus įsikišimo.
Jei „Anthropic“ nesutiks su Pentagono reikalavimais, ekspertų teigimu, vienas pagrindinių jos ginklų gali būti teisminis ginčas. Klausimas tik, ar Pentagono grasinamos sankcijos nebus pakankamai bauginančios, kad pelno siekiantis startuolis galiausiai nusileistų. Hegsethas, kaip teigiama, grasina pasinaudoti Gynybos gamybos aktu (Defense Production Act), suteikiančiu prezidentui teisę įpareigoti privačias bendroves teikti prioritetą tam tikroms sutartims nacionalinio saugumo pagrindu. Kariuomenė taip pat galėtų nutraukti turimas sutartis su „Anthropic“ ir pripažinti ją tiekimo grandinės rizikos veiksniu. Tokiu atveju kitos su Pentagono projektais dirbančios įmonės turėtų oficialiai patvirtinti, kad savo darbo procesuose nenaudoja „Claude“.
„Claude“ šiuo metu yra vienintelis DI modelis, naudojamas jautriausiems kariuomenės darbams. „Vienintelė priežastis, kodėl mes vis dar kalbamės su šiais žmonėmis, yra ta, kad mums jų reikia ir mums jų reikia dabar“, – sakė vienas gynybos pareigūnas. „Problema jiems yra ta, kad jie tokie geri.“ Skelbiama, kad „Claude“ buvo naudojamas ir operacijoje prieš Maduro režimą Venesueloje – šią temą Amodei esą buvo aptaręs su partneriu „Palantir“.
Papildomame vertinime, paskelbtame kartu su naujos RSP analizėmis, nevyriausybinės organizacijos, tiriančios DI rizikas, atstovai pabrėžė, kad „Anthropic“ žingsnis yra kartu ir suprantamas, ir galimai nerimą keliantis. METR direktorius Chrisas Painteris teigė vertinantis akcentą skaidrioms rizikų ataskaitoms ir viešai tikrinamiems saugumo planams. Tačiau jis įspėjo ir apie „varlės virimo“ efektą: kai saugumas tampa pilka zona, gali prasidėti nesibaigianti, iš pirmo žvilgsnio racionalių išlygų seka, kuri pamažu nuveda tuo pačiu tamsiu keliu, kurį bendrovė anksčiau pati kritikavo.
Anot Painterio, naujoji RSP rodo, kad „Anthropic“ mano privalanti pereiti prie tarsi „triage“ režimo savo saugumo planuose, nes rizikų vertinimo ir mažinimo metodai nespėja vytis DI galimybių šuolio. „Tai dar vienas įrodymas, kad visuomenė nėra pasirengusi potencialiai katastrofiškoms rizikoms, kurias gali sukelti DI“, – pažymėjo jis.