Fujitsu blog: ajánlások a biztonságos AI-hoz

A japán vállalat megfogalmazta, mi kell az etikus mesterséges intelligenciához.

A Fujitsu jó ideje foglalkozik a mesterséges intelligenciával, és nem csak technológiai lehetőségeit vizsgálják, hanem a potenciális problémákat is. Utóbbiról általában nem szeretnek beszélni a cégek, hiszen a mesterséges intelligencia számukra egy termék, amit el kell adni, ehhez pedig előnyös oldalait kell megmutatniuk, elrejtve az amúgy sem túl látható, de azért jelen lévő hátrányokat.

Az előnyök hangsúlyozása viszont nem azt jelenti, hogy az érintettek nem figyelnek az AI hátulütőire. Itt elsődlegesen azokra a technológiákra kell gondolni, amelyek az emberekkel lépnek kapcsolatba, ugyanis nem egyszer kiderült már, hogy a cégek megoldásai nem igazán vetik meg a rasszizmust. A legismertebb eset talán Tay, a Microsoft chatbotja volt, amely gyakorlatilag 24 órán belül elkezdett antiszemita üzeneteket írni a Twitterre.

A problémás esetek vezettek ahhoz, hogy az AI etikát lassan tényleg komolyan veszik a cégek, de a helyzet kezelése nehéz. A tanulási folyamat során az efféle, emberekkel kapcsolatba lépő technológiák gyakorlatilag az emberekről gyűjtenek információkat, fajunk viszont legtöbb esetben nem pusztán tényeken alapuló, racionális gondolkodású, hanem részben érzelmi alapú meggyőződésekre alapozza döntéseit, ebből eredően elfogult egyes témák iránt. Ez talán az emberiség egészének az előnyére válik, hiszen így alakulhatnak ki különböző nézőpontok, de egy gép számára gond, ugyanis nem tudja eldönteni, hogy egy adott problémára mi lehet az optimális válasz. Egyszerűen csak dönt valami mellett, és tulajdonképpen így lehet egy szimpla, AI-alapon működő chatbotból igen gyorsan rasszista.

A fentiek persze csak egy részét képzik az egész jelenségnek, ami mondjuk Taynek köszönhetően látható volt az emberek számára, de a mesterséges intelligenciát például a bankok is használják – többek között arra, hogy az adott ember kölcsönigényét kielemezzék a megadott adatok alapján. A bankoknak eleve rengeteg statisztikájuk van arról, hogy milyen hatékonysággal fizetik vissza az emberek hiteleket, és sajnos ezek között például ott lehet a bőrszín is, ami eleve egy megkérdőjelezhető tényező, de vajon etikus ezt az információt átadni megoldókulcsként a mesterséges intelligenciának?

A fentiek az emberek többségének nem feltétlenül tetszhetnek, a kérdés pedig az, hogy mi lehet a megoldás? A tréninghez használt modellek konfigurálása szükséges-e, és ha igen, akkor hogyan? A Fujitsu megfogalmazott egy kötelezettségvállalást, amely a Fujitsu Group AI Commitment nevet kapta. A vállalat ehhez felmérte és megvizsgálta az AI fejlesztését, illetve használatát célzó módszereket, amelyeket a kormányok és szervezetek promótálnak világszerte.

A Fujitsu Group AI Commitment minden bizonnyal nem old meg helyből minden problémát, de egy lényeges lépés lehet a biztonságos AI-hoz, illetve a technológia etikus felhasználásához.

Azóta történt

Előzmények