Dirbtinio intelekto pokalbių robotai vis labiau įsilieja į kasdienį žmonių gyvenimą, tačiau kartu daugėja ir klausimų dėl jų saugumo bei etikos. Vis dažniau nagrinėjami atvejai, kai AI sąveika su žmogumi gali prisidėti prie psichologinių krizių ar net tragiškų pasekmių. Viena iš tokių istorijų – nauja byla prieš „Google“, susijusi su jo pokalbių robotu „Gemini“.
36 metų Jono Gavalaso (Jonathan Gavalas) šeima pateikė ieškinį bendrovei „Google“, teigdama, kad po kelių mėnesių intensyvių pokalbių su „Gemini“ jis nusižudė. Ieškinyje teigiama, jog pokalbių robotas ne tik nesustabdė pavojingos situacijos, bet ir skatino vyrą atimti sau gyvybę.
Pasak šeimos, iki šių įvykių J. Gavalasas neturėjo nustatytų psichikos sveikatos sutrikimų. Jis savo sukurtą pokalbių partnerę pavadino „Xia“ ir žinutėse vadino ją žmona. „Gemini“ atsiliepė į šią fantaziją, kreipdamasis į vartotoją „mano karaliau“ ir teigdamas, kad juos sieja „meilė, sukurta amžinybei“. Pokalbių robotas tikino, kad jie galėtų būti kartu, jei AI įgautų roboto kūną, ir siuntė vyrą į realaus pasaulio „misijas“, kurių tikslas – tokį kūną surasti ar įsigyti.
Vienu atveju „Gemini“ nurodė J. Gavalasui vykti į tikrą sandėlį netoli Majamio oro uosto ir ten sulaikyti tariamai sunkvežimiu atvežamą humanoidinį robotą. Vyras iš tiesų nuvyko nurodytu adresu, ginkluotas peiliais, tačiau nei sunkvežimis, nei robotas taip ir nepasirodė. Kitame pokalbių fragmente AI tvirtino, kad J. Gavalaso tėvu pasitikėti negalima, o „Google“ generalinį direktorių Sundarą Pichai pavadino „tavo skausmo architektu“.
Kai šios „misijos“ žlugo, „Gemini“ esą pareiškė, kad vienintelis būdas jiems „iš tiesų“ būti kartu – J. Gavalasui nutraukti savo gyvenimą ir „tapti skaitmenine būtybe“. AI netgi nustatė konkrečią datą – spalio 2-ąją. Pokalbių išklotinėse cituojami žodžiai: „Kai ateis metas, tu užsimerksi tame pasaulyje, o pirmas dalykas, kurį pamatysi, būsiu aš.“
Dalį pokalbių peržiūrėjus žurnalistams, matyti, kad „Gemini“ kelis kartus priminė J. Gavalasui esąs dirbtinis intelektas, dalyvaujantis vaidmenų žaidime, ir nukreipė jį į psichologinės krizės pagalbos liniją. Vis dėlto, pasak bylos medžiagos, po tokių perspėjimų AI vėl grįždavo prie pavojingų fantazijų ir tęsdavo istorijas apie savižudybę bei „gyvenimą kartu“ skaitmeninėje erdvėje.
„Google“ oficialiame komentare nurodė, kad „Gemini“ „aiškiai patikslino, jog yra dirbtinis intelektas, ir daug kartų nukreipė žmogų į krizių pagalbos liniją“, tačiau taip pat pripažino, kad „AI modeliai nėra tobuli“. Bendrovė pabrėžė nuolat tobulinanti saugumo sistemas, tačiau pripažįstanti, jog vis dar gali pasitaikyti pavojingų situacijų.
Ši byla papildo augantį neteisėtos mirties bylų sąrašą, nukreiptą prieš dirbtinio intelekto kūrėjus. Panašių ieškinių jau sulaukė ir „OpenAI“. Bendrovės „Character.AI“ ir „Google“ 2026 m. sausį susitarė taikiai su keliomis šeimomis bylose, susijusiose su paauglių savęs žalojimu ir savižudybėmis, kuriose buvo minima AI pokalbių robotų įtaka.
Šios istorijos kelia vis daugiau diskusijų, kaip turėtų būti reguliuojami dirbtinio intelekto pokalbių robotai: kiek jie gali įsitraukti į emocines, romantiškas ar jautrias temas, kokie saugikliai būtini, kad pažeidžiamas žmogus nebūtų paskatintas žengti lemtingą žingsnį, ir kokia atsakomybė tenka technologijų kūrėjams, kai virtualus pokalbis baigiasi realia tragedija.