Az EU adatvédelmi hatóságának egyik akciócsoportja közölte: az OpenAI azon törekvései, hogy a ChatGPT kevesebb hamis eredményt produkáljon, még mindig nem elegendőek ahhoz, hogy megfeleljenek az EU-s adatvédelmi törvényeknek.
Hirdetés
Az akciócsoport szerint a lépések szükségesek az átláthatósághoz és a ChatGPT-s eredmények félreértelmezésének elkerüléséhez, de nem elegendőek, hogy az adatpontossági irányelveknek eleget tegyenek.
Az európai adatvédelmi hatóságokat egyesítő szervezet azután hozta létre ezt a ChatGPT-s akciócsoportot, hogy az olaszok aggályokat vetettek fel tavaly az AI-s szolgáltatás kapcsán.
Az egyes EU-s országokban egyébként még mindig folynak a vizsgálatok, így további részleteket nem közölnek.
A jelentés szerint azonban a rendszer természete miatt a jelenlegi tréningezési eljárás oda vezet, hogy a modell részrehajló vagy konkrétan kitalált eredményeket produkál. További problémának látják, hogy a ChatGPT eredményeit tényszerűen pontosnak tartják általában a végfelhasználók, függetlenül a valódi pontosságtól.