Jungtinės Tautos, vasario 10 d. (IPS) – Naujos Jungtinių Tautų vaikų fondo (UNICEF) išvados atskleidė, kad milijonų vaikų atvaizdai paverčiami seksualizuotu turiniu, naudojant generatyvųjį dirbtinį intelektą (AI), skatinant greitai augančią ir labai žalingą prievartos internete formą. Agentūra perspėja, kad be tvirtų reguliavimo sistemų ir prasmingo vyriausybių bei technologijų platformų bendradarbiavimo ši didėjanti grėsmė gali turėti pražūtingų pasekmių kitai kartai.
2025 m. „The Childlight Global Child Safety Institute“ – nepriklausomos organizacijos, stebinčios seksualinį vaikų išnaudojimą ir prievartą – ataskaitoje matyti, kad pastaraisiais metais stulbinančiai išaugo technologijų sukeltos prievartos prieš vaikus skaičius – nuo 4 700 atvejų Jungtinėse Valstijose 2023 m. iki daugiau nei 67 000 atvejų 2024 m. garso inžinierius taip, kad atrodytų tikroviškas ir dažnai naudojamas seksualizuoto turinio kūrimui. Tai apima plačiai paplitusią „nuoginimą“, kai dirbtinio intelekto įrankiai nupjauna arba pakeičia drabužius nuotraukose, kad sukurtų suklastotus nuogos vaizdus.
Bendras UNICEF, Interpolo ir vaikų prostitucijos nutraukimo Azijos turizme (ECPAT) International tyrimas ištyrė vaikų seksualinės prievartos medžiagos (CSAM), platinamos internete 11 šalių, rodiklius, atskleidė, kad vien per praėjusius metus mažiausiai 1,2 mln. Tai reiškia, kad maždaug vienas iš 25 vaikų – arba vienas vaikas kiekvienoje klasėje – jau nukentėjo nuo šios atsirandančios skaitmeninės prievartos formos.
„Kai naudojamas vaiko atvaizdas ar tapatybė, tas vaikas tiesiogiai nukenčia“, – sakė UNICEF atstovas. „Net ir be identifikuojamos aukos, dirbtinio intelekto sukurta medžiaga, kurioje išnaudota seksualinė prievarta prieš vaikus, normalizuoja seksualinį vaikų išnaudojimą, skatina įžeidžiančio turinio paklausą ir kelia didelių iššūkių teisėsaugai identifikuojant ir saugant vaikus, kuriems reikia pagalbos. Deepfalse prievarta yra piktnaudžiavimas, ir nėra nieko netikro apie jos daromą žalą.
2025 m. Nacionalinės policijos vadovų tarybos (NPCC) atlikta apklausa ištyrė visuomenės požiūrį į netikrą prievartą ir nustatė, kad 2019–2024 m. piktnaudžiavimas netikrais piktnaudžiavimu išaugo 1780 proc. Visoje JK vykdomoje reprezentatyvioje „Crest Advisory“ apklausoje beveik trys iš penkių respondentų pranešė, kad tapo labai susirūpinę dėl piktnaudžiavimo.
Be to, 34 procentai prisipažino sukūrę sekso ar intymių padirbinių su pažįstamu asmeniu, o 14 procentų – sukūrę nepažįstamo asmens netikrą padirbinėjimą. Tyrimas taip pat atskleidė, kad moterys ir merginos yra neproporcingai nukreiptos, o socialinė žiniasklaida nustatyta kaip labiausiai paplitusi vieta, kur platinami šie padirbiniai.
Tyrimo metu respondentams taip pat buvo pateiktas scenarijus, kai žmogus sukuria intymią savo partnerio klastotę, atskleidžia jiems, o vėliau ginčydamasis išplatina kitiems. Nerimą kelia tai, kad 13 procentų respondentų teigė, kad toks elgesys turėtų būti tiek moraliai, tiek teisiškai priimtinas, o dar 9 procentai išreiškė neutralumą. NPCC taip pat pranešė, kad tie, kurie manė, kad toks elgesys yra priimtinas, buvo jaunesni vyrai, aktyviai vartojantys pornografiją ir sutinkantys su įsitikinimais, kurie „paprastai būtų laikomi misoginistiškais“.
„Gyvename labai nerimą keliančiais laikais, mūsų dukterų (ir sūnų) ateičiai gresia pavojus, jei greitai nesiimsime ryžtingų veiksmų skaitmeninėje erdvėje“, – NPCC sakė apdovanojimus pelniusi aktyvistė ir interneto asmenybė Cally-Jane Beech. „Mes žiūrime į visą kartą vaikų, kurie užaugo neturėdami jokių apsaugos priemonių, įstatymų ar taisyklių, ir dabar matome tamsų tos laisvės poveikį.
Suklastotas piktnaudžiavimas gali turėti sunkių ir ilgalaikių psichologinių ir socialinių pasekmių vaikams, dažnai sukeliantis didelę gėdą, nerimą, depresiją ir baimę. Naujoje ataskaitoje UNICEF pažymi, kad vaiko „kūnas, tapatybė ir reputacija gali būti pažeisti nuotoliniu būdu, nepastebimai ir visam laikui“ dėl netikro piktnaudžiavimo, kartu su kaltininkų grasinimų, šantažo ir turto prievartavimo rizika. Pažeidimo jausmas, susijęs su skaitmeninio turinio nuolatiniu ir virusiniu plitimu, gali palikti aukoms ilgalaikes traumas, nepasitikėjimą ir sutrikdyti socialinį vystymąsi.
„Daugelis patiria didelį nerimą ir baimę, kai sužino, kad jų atvaizdas buvo paverstas seksualizuotu turiniu“, – IPS sakė UNICEF būstinės vaikų apsaugos specialistas Afroozas Kaviani Johnsonas. „Vaikai praneša apie gėdos ir stigmos jausmus, kuriuos apsunkina praradus savo tapatybės kontrolę. Ši žala yra tikra ir ilgalaikė: vaizdavimas seksualizuotose klastotėse gali smarkiai paveikti vaiko gerovę, sumenkinti jų pasitikėjimą skaitmeninėmis erdvėmis ir leisti jiems jaustis nesaugiai net kasdieniame „neprisijungus“ gyvenime.
Tarptautinės telekomunikacijų sąjungos (ITU) Telekomunikacijų plėtros biuro direktorius Cosmas Zavazava pridūrė, kad piktnaudžiavimas internete taip pat gali sukelti fizinę žalą.
Bendrame pareiškime dėl Dirbtinis intelektas ir vaiko teisėspagrindiniai JT subjektai, įskaitant UNICEF, ITU, JT vyriausiojo žmogaus teisių komisaro biurą (OHCHR) ir JT vaiko teisių komisiją (CRC), perspėjo, kad vaikams, tėvams, globėjams ir mokytojams labai trūksta dirbtinio intelekto raštingumo. Tai reiškia pagrindinį gebėjimą suprasti, kaip veikia AI sistemos ir kaip su jomis kritiškai ir efektyviai bendrauti. Dėl šios žinių spragos jaunimas tampa ypač pažeidžiamas, todėl aukoms ir jų paramos sistemoms sunkiau atpažinti, kada vaikas yra nukreiptas, pranešti apie prievartą arba gauti tinkamą apsaugą ir paramos paslaugas.
JT taip pat pabrėžė, kad didelė atsakomybė tenka technologijų platformoms, ir pažymėjo, kad daugumai generuojamųjų AI įrankių trūksta reikšmingų apsaugos priemonių, kad būtų užkirstas kelias skaitmeniniam vaikų išnaudojimui.
„Žvelgiant iš UNICEF perspektyvos, netikras išnaudojimas iš dalies klesti dėl to, kad teisinės ir reguliavimo sistemos neatsilieka nuo technologijų. Daugelyje šalių įstatymai aiškiai nepripažįsta, kad dirbtinio intelekto sukurti seksualizuoti vaikų vaizdai yra seksualinės prievartos prieš vaikus medžiaga (CSAM)”, – sakė Johnsonas.
UNICEF ragina vyriausybes užtikrinti, kad CSAM apibrėžimai būtų atnaujinti, įtraukiant dirbtinio intelekto sukurtą turinį ir „aiškiai nubaustų jo kūrimą ir platinimą“. Anot Johnsono, technologijų įmonės turėtų būti įpareigotos priimti tai, ką jis vadino „projekto saugos priemonėmis“ ir „poveikio vaiko teisėms vertinimu“.
Tačiau jis pabrėžė, kad nors vien įstatymų ir kitų teisės aktų nepakaks. „Socialinės normos, kurios toleruoja arba sumažina seksualinę prievartą ir išnaudojimą, taip pat turi keistis. Norint veiksmingai apsaugoti vaikus, reikės ne tik geresnių įstatymų, bet ir tikrų požiūrio, vykdymo ir paramos tiems, kuriems daroma žala, pasikeitimų.
Komercinės paskatos dar labiau apsunkina problemą, nes platformos gauna naudos iš didesnio naudotojų įsitraukimo, prenumeratos ir viešumo, kurį sukuria AI vaizdo įrankiai, todėl nėra pakankamai motyvacijos imtis griežtesnių apsaugos priemonių.
Dėl to technologijų įmonės dažnai įveda apsauginius turėklus tik po didelių viešų ginčų – ilgai po to, kai vaikai jau nukentėjo. Vienas iš tokių pavyzdžių yra Grok, AI pokalbių robotas, skirtas X (buvęs Twitter), kuris, reaguodamas į vartotojų raginimus, generuoja didelius kiekius nesuderinamų, seksualizuotų giliai padirbtų vaizdų. Susidūręs su plačiai paplitusia tarptautine reakcija, X sausį paskelbė, kad Groko vaizdų generavimo įrankis bus apribotas tik mokamiems X abonentams.
Tačiau Groko tyrimai tebevyksta. Jungtinė Karalystė ir Europos Sąjunga pradėjo tyrimus nuo sausio, o vasario 3 d. Prancūzijoje prokurorai surengė kratą X biuruose, vykdydami tyrimą dėl tariamo platformos vaidmens platinant CSAM ir gilias klastotes. X savininkas Elonas Muskas buvo iškviestas į apklausą.
JT pareigūnai pabrėžė, kad reikia reguliavimo sistemų, kurios apsaugotų vaikus internete, tuo pačiu leisdamos dirbtinio intelekto sistemoms augti ir gauti pajamų. „Iš pradžių jautėme, kad jie nerimauja dėl naujovių slopinimo, bet mūsų žinutė labai aiški: atsakingai diegdami dirbtinį intelektą, vis tiek galite uždirbti pelno, daryti verslą, užimti rinkos dalį“, – sakė aukštas JT pareigūnas. „Privatus sektorius yra partneris, tačiau turime iškelti raudoną vėliavą, kai matome kažką, kas sukels nepageidaujamų pasekmių.
IPS JT biuras
© „Inter Press Service“ (20260210072132) — Visos teisės saugomos. Originalus šaltinis: Inter Press Service