Hirdetés
Az AI és az öngyilkosság kapcsolata felkapott téma, és nem véletlenül, hiszen a felhasználókkal való „beszélgetést” erőltető chatbotok önszántukból nem feltétlenül reagálnak a megfelelő módon arra, ha önjelölt pszichológusként szeretnénk használni őket. Az őket üzemeltető cégek persze azt ígérik mindig, hogy majd ők különböző szabályok beépítésével ellehetetlenítik az ilyen beszélgetéseket, de Kínában most úgy döntöttek, hogy nem szeretnék ezt a feladatot az érdekelt felekre bízni, inkább a központi szabályozásban bíznak, és ez, ha elkészül, jelen állás szerint a legszigorúbb ilyen feltételrendszer lehet majd.
A kínai Kibertér Felügyelet (Cyberspace Administration) által múlt hét végén közzétett tervezet valamennyi, a Kínai Népköztársaság területén nyilvánosan elérhető szöveg, kép, hang, videó vagy „más jellegű”, emberi párbeszédre képes és azt ösztönző szolgáltatásra vonatkozna, és olyan szabályokat tartalmazna, melyek szerint például az „öngyilkosság” kifejezés bármilyen előfordulása esetén azonnal emberi beavatkozásra lenne szükség. Ugyanígy fiatalkorúak és idősebb korú felhasználók számára kötelező lenne gondviselő megadása is – annak elérhetőségével együtt, aki szintén azonnal értesülne, ha akár az öngyilkosság, akár az önkárosítás felmerülne a beszélgetésekben.
Ezeken felül szigorúbban szabályoznák a témákat is: tilos lenne minden olyan topik érintése, ami növelheti az öngyilkosságra való hajlamot, az érzelmi manipuláció, de a chatbotok nem buzdíthatnának bűnelkövetésre, szerencsejátékra és nem is szidalmazhatnák a felhasználót. A chatbotok fejlesztőinek tilos lenne olyan AI ügynököket létrehozni, amelyeknek célja „addikciót és függést” kialakítani, a havi 100 000 aktív felhasználóval vagy egymillió regisztrált fiókkal rendelkező chatbotoknak pedig éves teszteken kéne résztvenni, miközben folyamatosan monitoroznák a használók felöl érkező panaszokat is. A szabályrendszer elfogadása természetesen kötelező lenne a kínai piacon való megjelenéshez.
