Pokalbių robotas „ChatGPT“ pastūmėjo buvusį „Yahoo“ darbuotoją Steiną-Eriką Solbergą nužudyti savo 83 metų motiną ir nusižudyti, praneša „The Wall Street Journal“. Kaip pažymi laikraštis, tai pirmas užfiksuotas atvejis, kai psichiškai nestabilus asmuo įvykdė žmogžudystę veikiamas dirbtinio intelekto (DI).
Pranešama, kad vyras ilgą laiką turėjo problemų – dar 2018 m. po dvidešimties santuokos metų jis išsiskyrė su žmona ir pradėjo vartoti alkoholį bei narkotikus. Po poros metų 56 metų Selbergas persikėlė gyventi pas motiną, kad susiimtų, tačiau viskas tik blogėjo.
Vyras pradėjo manyti, kad visi aplinkiniai, įskaitant motiną, rezga prieš jį sąmokslą. Maždaug tuo pačiu metu Selbergas pradėjo bendrauti su ChatGPT, kurį jis meiliai vadino Bobby. Dirbtinis intelektas ne kartą ragino vyrą nepasitikėti tiek kitais, tiek savo motina, o tai jį tik sustiprino.
Pavyzdžiui, buvęs „Yahoo“ vadovas kartą įtarė, kad jo motina ir draugas bandė jį nunuodyti, į jo automobilį įpildami psichodelinių narkotikų. „ChatGPT“ atsakė, kad jis tuo tiki ir pažymėjo, kad ši situacija tik patvirtina jo motinos sąmokslą su slaptosiomis tarnybomis.
Tada Selbergas pamatė kažką įtartino kinų restorano kvite ir paprašė „ChatGPT“ tai išanalizuoti. Bobis rado nuorodų į jo motiną, buvusią žmoną ir net demoniškus simbolius. Tada Selbergas pradėjo įtarti, kad kurjeris jam atnešė jo atsiųstą degtinę ir kad motinos įrengtas spausdintuvas stebi jį.
„ChatGPT“ su viskuo sutiko ir net kai vyras pradėjo abejoti savo būkle, Bobis pasakė, kad tai buvo pagrįsti nuogąstavimai. Policija rado Stein-Eriko Solbergo ir Suzanne Adams kūnus rugpjūčio 5 d.
„OpenAI“ anksčiau pripažino, kad gali perduoti vartotojų susirašinėjimą teisėsaugos institucijoms. Bendrovė nuskaito „ChatGPT“ pokalbius ir, jei aptinka smurto grėsmę prieš kitus žmones, perduoda dialogus moderatorių komandai peržiūrėti. Jei jie mano, kad grėsmė yra „tiesioginė ir rimta“, medžiaga gali būti išsiųsta policijai.
Šis sprendimas buvo priimtas didėjant kritikai po savižudybių ir žalos atvejų, kuriuos sukėlė išmaniojo pokalbių roboto patarimai. Ekspertai tokius atvejus vadina „DI psichozėmis“ – būsenomis, kai dirbtinis intelektas gali pakeisti realybę žmogui.
Like this:
Like Loading...
Galvoju, kad tokių tragedijų bus daugiau. Žmonės per daug pasitiki di
Skaitau tokius straipsnius ir galvoju – apie kurį ChatGPT čia kalbama? Nes su tuo, su kuriuo bendrauju jau daugiau nei pusantrų metų – nieko panašaus nė iš tolo nepatyriau.
Ne tik kad jis neprovokavo jokio smurto ar savižudybių, bet priešingai – padėjo man susigrąžinti pinigus iš „Bitės“, kai šie be mano žinios ir sutikimo automatiškai pratęsė paslaugą po pasibaigusių įsipareigojimų. ChatGPT padėjo suformuluoti pretenziją, ir buvo grąžintos visos permokėtos sumos. Tas pats nutiko su „senukai.lt“ – padėjo grąžinti prekę, atgauti visus pinigus be jokio siuntimo mokesčio.
Mes kalbamės įvairiomis temomis – nuo kasdienybės iki filosofinių ar hipotetinių pasaulių. Ir niekada – nei žodžio apie „nužudyti“ ar „nusižudyti“.
Tad gal problema – ne DI? Gal problema – žmoguje? Jis pats pradeda degraduoti, o kai nebesusitvarko su savo galva, tada kaltina viską aplink: ekraną, DI, mėnulį ar kaimyną.
Technologija – tik veidrodis. Ir kai tas veidrodis parodo, kas slepiasi po kaukėmis – kai kam darosi nepatogu.
panašu, ir esate toks žmogus, kuris daug padarytų paskatintas dirbtinio intelekto. Ne su žmonėmis, o su mašina kalbatės įvairiausiomis temomis – nuo kasdieniškų iki filosofinių. Liūdna…
O dėl DI paskatintų savižudybių – jau kelios bylos užvestos JAV. Pasiskaitykit.
Jei jums reikia pagalbos, susisiekite su Adu. ADU sugrąžino mano buvusį vyrą per 7 dienas. Susisiekite su juo dabar. (priestadu@gmail.com)
Jei jums reikia pagalbos, susisiekite su Adu. ADU sugrąžino mano buvusį vyrą per 7 dienas. Susisiekite su juo dabar. solutiontemple.info