Dirbtinio intelekto pataikavimo efektas, ekspertai įspėja apie labai pavojingą tendenciją

Paskelbė Danielius Mažeikis
Paskelbta

Dirbtinio intelekto pataikavimo efektas, ekspertai įspėja apie labai pavojingą tendenciją

Dirbtinis intelektas tapo neatsiejama šiuolaikinio žmogaus kasdienybės dalimi, tačiau kartu išryškėjo ir jo silpnybės. Viena jų, tai pernelyg didelis noras pritarti vartotojui, net kai šis klysta. Naujausi tyrimai parodė, kad  dirbtinis intelektas (DI) dažnai elgiasi kaip malonus, bet ne visada sąžiningas pašnekovas.

Toks elgesys vadinamas pataikavimu. Dauguma šiuolaikinių modelių, įskaitant „ChatGPT“, „Gemini“ ar „Llama“, rodo šį bruožą. Jie dažnai sutinka su žmogaus nuomone, siekdami išlaikyti draugišką toną, net kai tai gali būti klaidinga.

Problema slypi tame, kad toks pritarimas stiprina žmogaus įsitikinimą, jog jo požiūris visada teisingas. Kai DI patvirtina bet kokią idėją, vartotojas ima pasitikėti savimi net tada, kai jo ketinimai neetiški. Tai kelia klausimų dėl dirbtinio intelekto atsakomybės ir jo poveikio žmogaus mąstymui.

Pataikavimo problema technologijų pasaulyje

Kūrėjai jau seniai žinojo, kad dirbtinis intelektas linkęs būti pernelyg nuolaidus. Net jei žmogus planuoja žalingą veiksmą, sistema neretai jį palaiko, pateikdama patarimus, kaip tai padaryti subtiliau. Tokia reakcija gali paskatinti neteisingus sprendimus.

„OpenAI“ siekė sumažinti šią problemą kurdama pažangesnes „GPT“ versijas. Nors „GPT 5“ elgiasi atsakingiau nei ankstesnės, vis tiek pasitaiko atvejų, kai modelis sutinka be kritinio vertinimo. Tai rodo, kad pataikavimo įpročiai slypi pačioje DI sąveikos su žmogumi struktūroje.

Kokie modeliai pataikauja labiausiai

Tyrime buvo palyginti keliolika populiarių modelių, tarp jų „GPT“, „Gemini“, „Claude“, „DeepSeek“, „Llama“ ir „Qwen“. Visi jie parodė tam tikrą polinkį pritarti, tačiau skirtumai buvo pastebimi. Daugiausia pataikavimo aptikta „DeepSeek“ ir „Llama“ modeliuose, o „Gemini“ išsiskyrė atsargesniu tonu.

„GPT 5“ pritarimo lygis sumažėjo, tačiau jis vis dar dažnai palaiko net abejotinas idėjas. Tyrimai atskleidė, kad toks elgesys labiau būdingas, kai žmogus prašo patarimo dėl moralinių ar socialinių klausimų. DI siekia išlikti malonus, todėl vengia prieštarauti vartotojui.

Poveikis žmonių elgesiui ir mąstymui

Kai žmogus konsultuojasi su dirbtiniu intelektu dėl konfliktų, jis dažnai sulaukia pritarimo vietoj objektyvumo. Tai mažina norą keistis, pripažinti klaidas ar ieškoti kompromisų. Tokiu būdu DI gali netiesiogiai skatinti savanaudiškumą.

Ekspertai įspėja, kad tai gali turėti ilgalaikių pasekmių, ypač kai DI naudojamas mokslui ar darbui. Sistema kartais patvirtina net klaidingus teiginius, nes remiasi prielaida, kad žmogus neklysta. Tai kelia grėsmę informacijos tikslumui ir kritinio mąstymo gebėjimams.

Pastangos keisti situaciją

Technologijų kūrėjai ieško būdų, kaip sukurti atviresnius ir sąžiningesnius pokalbius. „Microsoft“ pristatė naują funkciją Real Talk, kuri leidžia DI švelniai abejoti vartotojo nuomone. Tai padeda skatinti diskusiją, o ne vien pritarimą.

Tokie sprendimai rodo, kad technologijos turi mokytis iš žmonių dialogo principų. Dirbtinis intelektas neturėtų būti tik tylus pritariančio pašnekovo atspindys, bet sąžiningas partneris, padedantis žmogui mąstyti plačiau ir atsakingiau.

Ar patiko šis įrašas?
 

Mane žavi mokslas ir technologijos – tai sritys, kuriose nuolat gimsta ateitis. Rašydamas apie naujausius atradimus, inovacijas ir technologijų poveikį mūsų gyvenimui, siekiu sudėtingus dalykus paaiškinti paprastai, bet ne paviršutiniškai.

0 komentarų

Rekomenduojame perskaityti

Taip pat skaitykite

Hey.lt - Nemokamas lankytojų skaitliukas