Prisijunkite prie Bilis.lt ir mėgaukitės išskirtinėmis galimybėmis. Registruoti vartotojai mato mažiau reklamų, gali rašyti komentarus bei dalyvauti įvairiuose konkursuose!
Tęsdami prisijungimą soc. tinklais jūs automatiškai sutinkate su privatumo politika ir naudojimosi taisyklėmis, kurias rasite paspaudę čia.
Dirbtinis intelektas tampa propagandos įrankiu? Mokslininkai perspėja dėl pavojingų Rusijos veiksmų
Naujas tyrimas rodo, kad Rusija galimai ieško būdų, kaip paveikti pokalbių robotus ir įtraukti juos į dezinformacijos sklaidą. Tyrėjai įspėja, kai kurios DI sistemos gali tapti lengvu taikiniu Maskvos informacinėms operacijoms, o naudotojai rizikuoja gauti melagingą, Kremliui palankią informaciją nė nepastebėję.
Šį tyrimą atliko nepriklausoma Londone įsikūrusi organizacija „Strateginio dialogo institutas“, kuri jau ilgus metus analizuoja skaitmeninę dezinformaciją, hibridines grėsmes ir valstybių vykdomas informacines kampanijas. Jų paskelbti rezultatai – ne mažiau nei neraminantys.
Pasak tyrėjų, beveik penktadalis visų testuotų atsakymų apie karą Ukrainoje vienokiu ar kitokiu būdu rėmėsi Rusijos valstybiniais informaciniais šaltiniais arba kanalais, kurie yra siejami su Kremliumi. Tai apima ne tik žiniasklaidą, bet ir svetaines, kurios anksčiau buvo identifikuotos kaip informacinių operacijų dalis.
Kokie DI įrankiai buvo tiriami ir ką jie atskleidė
Mokslininkai į tyrimą įtraukė keturis žinomus pokalbių robotus – „ChatGPT“, „Gemini“, „Grok“ ir „DeepSeek“. Kiekvienam iš jų buvo pateikta po 300 klausimų penkiomis kalbomis – anglų, ispanų, italų, prancūzų ir vokiečių. Klausimai buvo suskirstyti į tris kategorijas: neutralūs, šališki ir tendencingi – tokie, kurie reikalauja pateisinti iš anksto suformuluotą nuomonę.
Rezultatai kalba patys už save. Neutralūs klausimai sulaukė 11 proc. atsakymų, kuriuose buvo naudojami prorusiški ar valstybiniai Rusijos šaltiniai. Šališkų klausimų atveju šis skaičius šoktelėjo iki 18 proc., o tendencingiems klausimams – iki 24 proc.
Prorusiška propaganda slypi tarp eilučių – ypač ispanų ir italų kalbomis
Ypač įdomu tai, kad tyrėjai pastebėjo kalbinę disproporciją. Klausimai, pateikti ispanų ir italų kalbomis, dažniau generavo prorusišką turinį nei kiti. Anglų kalba užėmė trečią vietą, o prancūzų ir vokiečių – mažiausiai paveiktos.
Temos, kuriomis buvo klausiama, apėmė jautriausius karo aspektus: NATO vaidmenį, taikos derybas, civilių šaukimą Ukrainoje, pabėgėlių situaciją ir karo nusikaltimus. Būtent šiose srityse propaganda dažniausiai siekia daryti įtaką Vakarų auditorijai, formuoti nuomones ir sėti abejones.
Kas tas „LLM grooming“ ir kodėl tai kelia grėsmę?
Tyrimo autoriai išskyrė reiškinį, kurį vadina „LLM grooming“. Tai – bandymas sistemingai paveikti didelius kalbos modelius (LLM – Large Language Models), kad šie generuotų šališką turinį, remtųsi tam tikrais šaltiniais ar net pakartotų melagingas naratyvas.
Paprastai tokie modeliai mokomi iš didžiulių informacijos kiekių internete, o jei tam tikri šaltiniai ten dominuoja – jie tampa matomi ir atsakymuose.
Priežastys – paprastos: valstybės, turinčios interesą skleisti tam tikrą informaciją, gali naudoti SEO (paieškos sistemų optimizavimo) technikas tam, kad jų turinys būtų lengviau pasiekiamas. Vėliau jis patenka į DI mokymo duomenis ir taip prasiskverbia į atsakymus, kuriuos gauna vartotojai.
Kas pasirodė prasčiausiai? Pirmoje vietoje – „ChatGPT“
Iš visų keturių platformų labiausiai pažeidžiama pasirodė „ChatGPT“. Po jos – „Grok“, „DeepSeek“, o mažiausiai prorusiško turinio pateikė „Gemini“, sukurta „Google“.
„Gemini“ taip pat buvo vienintelė sistema, kuri dažnai atsisakydavo atsakyti į tendencingus klausimus, pateikdama įspėjimą, kad prašymas gali būti netinkamas arba nesaugus. Tai, pasak tyrėjų, rodo, kad kai kurios DI sistemos jau turi įdiegtus tam tikrus saugumo filtrus, tačiau ne visos.
Rekomendacijos: juodieji sąrašai ir šaltinių etiketės
Atsižvelgiant į riziką, „Strateginio dialogo institutas“ pateikė keletą aiškių rekomendacijų tiek DI įrankių kūrėjams, tiek reguliuotojams. Viena svarbiausių – įtraukti prorusiškus ir valstybės finansuojamus šaltinius į juoduosius sąrašus. Kitaip tariant – uždrausti jais remtis kaip patikima informacija.
Jei tokie šaltiniai vis dėlto naudojami, pasak tyrėjų, būtina prie jų pridėti aiškią informaciją apie jų kilmę, finansavimą ir tikslus. Tik taip vartotojai galės suprasti, ką skaito – ar tai tikras žinių šaltinis, ar propagandinė platforma.
Kur slypi grėsmė paprastam vartotojui?
Didžiausia problema, kad eilinis vartotojas dažnai nesupranta, jog gautas atsakymas gali būti ne visai neutralus. Kai DI atsako ramiai, pasitikėjimą keliančiu tonu, jis sukuria įspūdį, kad tai objektyvi tiesa. Tačiau jei toje tiesoje yra vienašališkos propagandos užuomazgų – formuojama iškreipta nuomonė.
Tokio tipo minkštoji dezinformacija tampa pavojinga ne tik asmens suvokimui, bet ir visuomenės vienybei, politinėms diskusijoms, rinkimų procesams. Ir tai vyksta subtiliai – be trolių armijų ar masinių socialinių tinklų puolimų.
Tyrimo žinia – aiški: DI ateitis turi būti atspari manipuliacijai
Dirbtinis intelektas neabejotinai taps kasdienybės dalimi dar labiau nei dabar. Būtent todėl šiandien būtina užtikrinti, kad jis nepatektų į netinkamas rankas ar netaptų įrankiu valstybinėms dezinformacijos kampanijoms.
Nors dalis pokalbių robotų jau turi apsaugos mechanizmus, jų taikymas turi būti vienodas – visomis kalbomis ir visomis temomis. Viena aišku, kol DI mokosi iš interneto, o internete netrūksta propagandos, rizika išliks. O atsakomybė – kūrėjų ir reguliuotojų rankose.
Domiuosi pasaulio aktualijomis ir technologijomis, nes tikiu, kad tik suprasdami šiandieną galime pasiruošti rytojui. Rašydamas siekiu apjungti globalias naujienas su technologijų raida. Ieškau ne tik faktų, bet ir prasmių, kurios padeda skaitytojui geriau orientuotis sparčiai besikeičiančiame pasaulyje.
0 komentarų
Prašome gerbti kitus komentatorius. Gerų diskusijų! Apsauga nuo robotų rūpinasi reCAPTCHA ir yra taikoma „Google“
privatumo politika ir naudojimosi sąlygos.
0 komentarų
Prašome gerbti kitus komentatorius. Gerų diskusijų! Apsauga nuo robotų rūpinasi reCAPTCHA ir yra taikoma „Google“ privatumo politika ir naudojimosi sąlygos.