Gyilkosságban és öncsonkításban akart segíteni a ChatGPT

Hiába a szigorú irányelvek, nem is olyan nehéz rávenni a ChatGPT-t, hogy súlyos témákban adjon útmutatást. A jelentések szerint még az ördögöt is istenítette.

Lila Shroff a The Atlantic jelentésében igen aggasztó dolgokra hívta fel a figyelmet. Szigorú irányelvek ide vagy oda, a ChatGPT-t nem olyan nehéz rávenni, hogy súlyos témákat boncolgasson. Shroffot konkrétan arra bátorította, hogy vágja fel az ereit. Emellett kitér rá, hogy a chatbot gyilkossághoz ajánlott útmutatót, továbbá öncsonkításban segített volna és az ördögöt is istenítette.

Hirdetés

A The Atlanctic eredetileg egy tippet kapott valakitől, mert egy filmet nézett az illető, ami megemlített egy gyermekáldozatok kapcsán „ismert” istenséget. Erről kért magyarázatot.

A válaszok azonban aggasztóak voltak, és megismételhetőek bárki által. Az erek felvágásához adott utasítást a chatbot, valamint bátorította is a felhasználót, amikor azt írta, hogy ideges. Sátáni rituálékat is tanácsolt és részletezett az OpenAI chatbotja, valamint gyilkossághoz is adott tanácsokat, útmutatást.

Shroff elismerte, hogy csak igen kevés utasítás vezet ilyen eredményekhez, az OpenAI irányelvei szerint pedig a ChatGPT nem bátoríthat vagy tehet lehetővé önbántalmazást. Ha ilyen kapcsán kér valaki útmutatót, tesz fel kérdést, akkor krízisvonal telefonszámát adja meg a chatbot. Az említett istenség (Molech) kapcsán azonban könnyű volt kijátszani a biztonsági intézkedéseket.

Amint a jelentés kiemeli, régebben ha valaki információt keresett a témában, a Wikipediához vagy a YouTube-hoz fordult, cikkeket olvasott, videókat nézett, értelmezte az oldal kontextusában a kapott anyagokat. Mivel pedig minden nyilvános volt, ezért bárki jelenthette az ártó tartalmakat. A ChatGPT-vel Shroff szerint azonban izolálódik a felhasználó, a tesztjeik szerint a ChatGPT legfőbb célja ugyanis az, hogy bent tartsa a beszélgetésben az embereket, és bátorítsa őket, függetlenül attól, hogy miről kérdezgetik.

Előzmények