Dirbtinio intelekto diegimas karinėse struktūrose vis labiau kelia etikos ir saugumo klausimų. JAV Gynybos departamentui spaudžiant švelninti saugumo priemones, bendrovė „Anthropic“ atsisako atsisakyti savo dirbtinio intelekto sistemų apsaugos priemonių ir taip atsiduria konflikto centre su Pentagono vadovybe.
JAV gynybos sekretoriaus Pete’o Hegsetho ultimatumui nepaisant, „Anthropic“ pranešė, kad negali „švaria sąžine“ vykdyti Pentagono reikalavimo panaikinti savo dirbtinio intelekto saugiklius, rašoma generalinio direktoriaus Dario Amodei viešame pareiškime. Gynybos departamentas buvo pagrasinęs nutraukti 200 mln. JAV dolerių vertės sutartį ir pripažinti „Anthropic“ „tiekimo grandinės rizika“, jei bendrovė nesutiks panaikinti apribojimų, susijusių su masiniu sekimu ir autonominiais ginklais.
„Mūsų tvirtas prioritetas – ir toliau dirbti Gynybos departamentui ir mūsų kariams, išlaikant dvi mūsų prašomas saugumo priemones“, – teigė Amodei. „Esame pasirengę tęsti darbą, padedant užtikrinti Jungtinių Valstijų nacionalinį saugumą.“
Į tai reagavęs JAV gynybos viceministras Emilis Michaelas viešai apkaltino Amodei tuo, kad šis esą „nori nieko daugiau, tik asmeniškai kontroliuoti JAV kariuomenę ir yra pasirengęs rizikuoti mūsų valstybės saugumu“.
Konfliktas įsiplieskė, kai Pentagonas pareikalavo, kad „Anthropic“ padarytų savo dirbtinio intelekto sistemą „Claude“ prieinamą „visiems teisėtiems tikslams“ – įskaitant masinį gyventojų sekimą ir visiškai autonominių ginklų, galinčių žudyti be žmogaus priežiūros, kūrimą. „Anthropic“ atsisakė leisti naudoti savo technologiją tokiems tikslams, net ir su papildomu „saugumo sluoksniu“ pačioje modelio architektūroje.
Pranešta, kad Hegsethas suteikė „Anthropic“ terminą – iki penktadienio 17 val. 01 min. – sutikti su Pentagono sąlygomis. Tuo pat metu Gynybos departamentas užsakė savo priklausomybės nuo „Claude“ vertinimą – tai yra pradinis žingsnis siekiant formaliai pripažinti „Anthropic“ „tiekimo grandinės rizika“. Pasak pačios bendrovės, toks statusas iki šiol būdavo taikomas įmonėms iš priešiškų valstybių, pavyzdžiui, Kinijos, ir „niekada anksčiau nebuvo priskirtas Amerikos bendrovei“.
Amodei atsisakė keisti savo poziciją ir pareiškė, kad jei Pentagonas nuspręstų atsisakyti „Anthropic“ paslaugų, „mes sieksime užtikrinti sklandų perėjimą prie kito tiekėjo, kad nebūtų sutrikdytas karinis planavimas, operacijos ar kitos kritinės misijos“.
Gynybos departamentas, anot pranešimų, svarsto ir kitus dirbtinio intelekto tiekėjus – tarp jų sistemą „Grok“, taip pat „Google“ modelį „Gemini“ ir „OpenAI“ kuriamus sprendimus.
Vis dėlto kariuomenei gali būti sudėtinga visiškai atsisakyti „Claude“. Iki šiol „Anthropic“ modelis buvo vienintelis, leidžiamas naudoti jautriausiose karinėse srityse – žvalgyboje, ginklų kūrime ir mūšio lauko operacijose. Pranešama, kad „Claude“ buvo pasitelktas ir operacijoje Venesueloje, per kurią JAV pajėgos evakavo šalies prezidentą Nicolásą Maduro ir jo žmoną.
Dirbtinio intelekto bendrovės plačiai kritikuojamos dėl galimos žalos naudotojams, tačiau masinis sekimas ir ginklų kūrimas būtų visiškai naujas, daug pavojingesnis lygis. „Anthropic“ atsakymas Pentagonui buvo laikomas svarbiu jos deklaruojamo įsipareigojimo saugumui išbandymu, ypač po to, kai prieš kelias dienas bendrovė atsisakė savo anksčiau viešai skelbėto pagrindinio saugumo įsipareigojimo.
Dabar, kai Amodei pateikė aiškų atsakymą, dėmesio centre atsiduria Pentagonas – stebima, ar jis ištesės savo grasinimus. Tokie veiksmai galėtų smarkiai pakenkti „Anthropic“ verslui ir kartu nubrėžti naujas ribas, kaip JAV kariuomenė bendradarbiauja su aukštųjų technologijų bendrovėmis dirbtinio intelekto srityje.