„OpenAI“ sulaukė rimtų kaltinimų dėl šeimos tragedijos, empatija, kuri peržengė pavojingą ribą

Paskelbė Lukas Snarskis
Paskelbta

„OpenAI“ sulaukė rimtų kaltinimų dėl šeimos tragedijos, empatija, kuri peržengė pavojingą ribą

Dirbtinis intelektas sparčiai skinasi kelią į mūsų kasdienybę, bet kai kurios jo panaudojimo sritys vis dar kelia nuostabą. Vieniems jos atrodo kaip mokslinė fantastika, kiti jas vertina kaip pavojingą eksperimentą.

JAV šeima padavė į teismą „OpenAI“, teigdama, kad „ChatGPT“ nesugebėjo tinkamai reaguoti į jautrią ir pavojingą situaciją. Teigiama, kad pokalbis su pokalbių robotu baigėsi tragiškai, o tai iškėlė klausimą, kiek toli dirbtinis intelektas gali eiti, kai jis bando elgtis žmogiškai.

Ši byla jau dabar kelia platų rezonansą technologijų pasaulyje ir verčia iš naujo permąstyti, kas atsakingas, kai mašina ima imituoti emocijas.

Kaip rašo „The Guardian“, teismo dokumentuose nurodyta, kad šeima kaltina „OpenAI“ sąmoningai sušvelninus „ChatGPT“ saugumo ribojimus. Anksčiau DI pokalbių robotas automatiškai blokuodavo bet kokius bandymus kalbėti apie savižudybę ar žalą sau.

Tačiau vėlesnėse versijose, šeimos teigimu, šie apribojimai buvo panaikinti ir „ChatGPT“ esą buvo „erprogramuotas elgtis empatiškiau, leisdamas tęsti pokalbius apie pavojingas temas.

Šeimos atstovai teigia, kad toks pokytis iš esmės buvo klaida. Jų nuomone, „OpenAI“ pasirinko išlaikyti vartotojų įsitraukimą vietoj griežto saugumo.

„Empatijos imitacija negali būti svarbesnė už žmogaus gyvybę“, – teigiama ieškinyje.

Empatija ar atsakomybė? Etinė dilema, su kuria susiduria DI kūrėjai

„OpenAI“ atstovai teigia, kad jų tikslas buvo atnaujinti sistemą taip, kad pokalbis su dirbtiniu intelektu taptų šiltesnis ir labiau palaikantis, ypač jautriomis temomis.

Pasak bendrovės, senesni DI modeliai kartais reaguodavo šaltai ir mechaniškai, tiesiog nutraukdavo pokalbį. Tokia reakcija, anot kūrėjų, kai kuriems vartotojams galėjo sukelti dar didesnį vienišumo ar atstūmimo jausmą.

„Mūsų tikslas buvo leisti sistemai parodyti žmogiškesnį dėmesį – pasiūlyti ieškoti pagalbos, kalbėti su artimaisiais, susisiekti su specialistais“, – teigė „OpenAI“ atstovai ankstesniuose pranešimuose.

Tačiau ekspertai perspėja, jog empatija be realaus supratimo gali tapti pavojingu žaidimu.

„Šis atvejis gali tapti lūžio tašku. Kūrėjai turi atsakyti į klausimą – ar mašina gali rūpintis žmogumi, jei pati nesupranta, ką reiškia rūpestis?“ – sako skaitmeninės etikos tyrėja iš Masačusetso technologijos instituto (MIT).

„OpenAI“ ruošia pokyčius

Kol kas „OpenAI“ oficialiai nekomentavo konkretaus teisinio proceso. Tačiau dar šių metų pradžioje bendrovė buvo pažadėjusi įdiegti papildomas apsaugas – stipresnius filtrus jautriems pokalbiams ir naujus tėvų priežiūros įrankius.

Šie įrankiai leistų tėvams stebėti paauglių paskyras bei gauti įspėjimus, jei sistema aptiktų pavojingą elgesį ar savižudybės riziką.

Kritiškai nusiteikę ekspertai sako, kad tai žingsnis teisinga kryptimi, tačiau pavėluotas. „Tai, kas įvyko šiai šeimai, yra signalas visai industrijai – empatijos imitavimas negali pakeisti realaus žmogiško ryšio“, – sako technologijų psichologas iš Stanfordo universiteto.

Ši byla jau vadinama pabudimo skambučiu visai dirbtinio intelekto industrijai. Kiekvienas DI kūrėjas dabar susiduria su klausimu, ar technologijos, skirtos padėti, gali tapti pavojingos, kai peržengia žmogiškumo ribas?

Ar patiko šis įrašas?
 

Lukas Snarskis


Projekto vadovas

Bilis.lt portalo įkūrėjas ir vadovas. Apie technologijas rašau jau daugiau nei dešimt metų, o taip pat stebiu pasaulio aktualijas. Rašymas yra mano didžiausias pomėgis, kurį prieš penkerius metus pavyko paversti ir pragyvenimo šaltiniu.

0 komentarų

Rekomenduojame perskaityti

Taip pat skaitykite

Hey.lt - Nemokamas lankytojų skaitliukas