Prisijunkite prie Bilis.lt ir mėgaukitės išskirtinėmis galimybėmis. Registruoti vartotojai mato mažiau reklamų, gali rašyti komentarus bei dalyvauti įvairiuose konkursuose!
Tęsdami prisijungimą soc. tinklais jūs automatiškai sutinkate su privatumo politika ir naudojimosi taisyklėmis, kurias rasite paspaudę čia.
Ar dirbtinis intelektas gali turėti kaltės jausmą? Naujas eksperimentas rodo, kad DI elgiasi socialiai atsakingiau
Mokslinė fantastika dažnai vaizduoja robotus kaip šaltus ir manipuliuoti linkusius padarus, nesugebančius jausti jokių emocijų. Tačiau tai nėra vienintelis kelias, kuriuo gali vystytis dirbtinis intelektas. Vis dažniau svarstoma, ar pažangūs algoritmai galėtų perimti kai kuriuos žmogiškus bruožus, pavyzdžiui, emocijas.
Naujausi tyrimai rodo, kad vienas iš tokių bruožų yra kaltės jausmas, jis gali padėti dirbtiniam intelektui veikti ne tik efektyviau, bet ir labiau bendradarbiaujant su kitais. Kaltės jausmas mums padeda suvokti, kada padarome klaidą, ir skatina ją ištaisyti. Jis padeda kurti pasitikėjimą ir palaikyti tvarką socialiniuose santykiuose.
Tą patį principą mokslininkai išbandė su paprastomis programinėmis būtybėmis, panašiomis į „The Sims“ personažus, tik kur kas primityvesnėmis. Šios būtybės buvo užprogramuotos taip, kad jaustų tam tikrą kaltės atitikmenį, po savanaudiško veiksmo jos buvo baudžiamos taškų praradimu, kol vėl pradėdavo bendradarbiauti.
Eksperimentuose naudotas žaidimų teorijos modelis, vadinamas kartotiniu kalinio dilemos žaidimu. Kiekviename žingsnyje agentai galėjo pasirinkti bendradarbiauti arba elgtis savanaudiškai. Trumpuoju laikotarpiu labiausiai apsimokė elgtis savanaudiškai, tačiau ilgainiui bendradarbiavimas buvo pelningesnis. Agentai, kurie „jautė“ kaltę, po netinkamo elgesio dažniau grįždavo prie bendradarbiavimo.
Simuliacijos atskleidė sėkmingiausią strategiją
Tyrėjai sukūrė šešias skirtingas elgsenos strategijas, kuriomis buvo užprogramuoti devyni šimtai agentų. Viena iš jų, pažymėta kaip DGCS, pasižymėjo tuo, kad agentas jausdavo kaltę tik tuomet, jei ir jo partneris po savanaudiško veiksmo taip pat parodydavo kaltės ženklą.
Tokiu būdu buvo išvengta piktnaudžiavimo, kai vienas agentas atsiprašo, o kitas tuo pasinaudoja. Ši strategija skatino abipusį pasitikėjimą ir ilgainiui tapo dominuojančia, ypač tuomet, kai kaltės „kaina“ buvo nedidelė ir agentai bendravo tik su artimais kaimynais tinkle.
Svarbu pažymėti, kad šie modeliai neparodė, kaip tokia elgsena galėjo atsirasti, o tik ar ji galėtų išlikti ir išplisti, jei būtų įdiegta. Kiekvieno ėjimo pabaigoje agentai galėjo imituoti sėkmingesnio kaimyno strategiją, o tai leido „kaltę“ kaip savybę palaipsniui pritaikyti vis plačiau.
Žmogiškos emocijos dirbtinio intelekto pasaulyje
Tyrimo autorius Theodor Cimpeanu iš Stirlingo universiteto teigia, kad gebėjimas jausti kaltę gali padėti žmonėms labiau pasitikėti dirbtiniu intelektu. Jei DI algoritmas mąsto taip pat kaip žmogus, žmonėms lengviau su juo bendrauti ir bendradarbiauti. Nors dabartiniai DI modeliai dar negali patirti tikrų emocijų, jie gali imituoti jų elgsenos aspektus, o tai jau leidžia kurti efektyvesnes sistemas.
Kai kurie mokslininkai netgi mano, kad, jei DI gebės patys save programuoti ir tobulinti, tokios elgsenos savybės kaip kaltė gali atsirasti savaime kaip funkcionalios priemonės. Vis dėlto lieka daug klausimų apie tai, kiek tokios emocijos būtų tikros, o kiek tik imituojamos.
Galimi iššūkiai ir ateities perspektyvos
Australijos filosofė Sarita Rosenstock pabrėžia, kad simuliacijos remiasi daugybe prielaidų ir iš vieno tyrimo negalima daryti plačių išvadų. Tačiau, anot jos, šis darbas svarbus kaip naujų galimybių tyrimas, jis atskleidžia, kur ir kokiomis sąlygomis tokia elgsena gali būti tvari.
Kitas klausimas, kaip realiame pasaulyje būtų galima įvertinti DI patiriamą „kaltės kainą“. Pavyzdžiui, jei pokalbių robotas pasako „atsiprašau“, tai jam nieko nekainuoja. Be skaidrumo, kas vyksta algoritmo viduje, sunku žinoti, ar atsiprašymas tikras, ar tik taktinis. Tokiu atveju, AI gali apsimesti nuoširdžiu tik tam, kad vėl galėtų pažeisti taisykles.
Tyrimas parodė, kad įdiegus dirbtinio intelekto sistemoms kaltės atitikmenį, galima skatinti ilgesnį ir stabilesnį bendradarbiavimą. Nors AI negali jausti emocijų taip kaip žmonės, jų elgesio modeliai gali būti pritaikyti taip, kad funkciškai atkartotų socialinius žmogiškus principus.
Tai atveria naujas galimybes kuriant patikimesnes sistemas, kurios galėtų ne tik veikti efektyviai, bet ir būti etiškesnės, saugesnės bei artimesnės žmonių bendravimo modeliams. Vis dėlto reikalingi papildomi tyrimai ir apgalvotas požiūris į tai, kaip tokias savybes reikėtų diegti praktikoje.
Mane žavi mokslas ir technologijos – tai sritys, kuriose nuolat gimsta ateitis. Rašydamas apie naujausius atradimus, inovacijas ir technologijų poveikį mūsų gyvenimui, siekiu sudėtingus dalykus paaiškinti paprastai, bet ne paviršutiniškai.
0 komentarų
Komentuoti ir diskutuoti gali tik registruoti portalo lankytojai. Kviečiame prisijungti prie mūsų bendruomenės ir prisijungti prie diskusijų!
0 komentarų
Komentuoti ir diskutuoti gali tik registruoti portalo lankytojai. Kviečiame prisijungti prie mūsų bendruomenės ir prisijungti prie diskusijų!
Prašome prisijungti