Az OpenAI a napokban adott ki egy jelentést, amely szerint ők maguk eddig öt olyan fedett befolyásoló kampányt állítottak meg, amely a saját AI-modelljeikre épített megtévesztő tevékenységet.
Hirdetés
A cég szerint a rosszakarók arra használják az AI-modelleket, hogy rövid kommenteket és hosszabb cikkeket írjanak több nyelven is, illetve neveket, profilokat generálnak a közösségi médiába.
A kampányok érintették az amerikai és az európai politikát, Ukrajna és Gáza kérdését, de az indiai választásokat is. A megtévesztő tevékenységekkel a közvéleményt akarták befolyásolni és a politikai eredményeket manipulálni – közölte az OpenAI.
Azt eddig is lehetett tudni, hogy a technológiát nagy erőkkel használják majd erre is, az OpenAI jelentése azonban újabb bizonyíték arra, hogy a trend felgyorsult, amit online látunk, egyre kevésbé valószínű, hogy igaz vagy valódi – mivel az AI meggyőző, „emberszerű” szöveget, képet és audiót, sőt akár videót is generál.
Az OpenAI egyébként nemrég új biztonsági tanácsot is indított, amelyet azóta sok kritika is ért.
Az OpenAI szerint a most megállított kampányok nem jártak sikerrel, de hozzátették, hogy nem csak AI-t használnak a rosszakarók, hanem kézzel írt szöveget és mémeket is.
A Meta ezzel párhuzamosan közölte a napokban, hogy feltehetően AI generálta tartalmakkal akarják megtéveszteni az embereket a Facebookon és az Instagramon.