Bevezette Dél-Korea a világ egyik első átfogó mesterséges intelligencia törvényét, de nem mindenki elégedett – írja a Reuters, és ez lenne hírünk alapja, de most is tovább megyünk ennél egy kicsit. A friss hír: január 22-én lépett életbe az AI Basic Act nevű törvénycsomag az ázsiai országban, amely teljeskörű, átfogó jogi keretrendszert hozott létre a mesterséges intelligencia szabályozására. A kormány célja egyértelmű: az országot a világ top 3 AI hatalmává tenni úgy, hogy közben garantálja a biztonságos és megbízható MI-fejlesztést.
A törvény legfontosabb elemei:
- Magas kockázatú AI-alkalmazásoknál (pl. egészségügy, nukleáris biztonság, közlekedés, pénzügyi hitelbírálat) kötelező az emberi felügyelet;
- a generatív AI-t használó termékeknél és szolgáltatásoknál előre kell tájékoztatni a felhasználókat, és egyértelmű jelölést (pl. vízjelet) kell alkalmazni, ha az AI által generált tartalom nem különböztethető meg könnyen a valóstól;
- a szabályozás mind a hazai, mind a külföldi cégekre vonatkozik – utóbbiaknak helyi képviselőt kell kijelölniük.
A törvény azonnal hatályba lépett, így Dél-Korea megelőzte az EU-t, ahol az AI Act fokozatosan, 2027-ig kerül teljes körű bevezetésre. A koreai kormány egyéves türelmi időszakot ígér, ezalatt nem szabnak ki adminisztratív bírságokat (a büntetések maximálisan 30 millió won, kb. 8-9 millió forint körül alakulhatnak). Emellett támogatási központot és útmutató platformot is indítanak, hogy segítsék a cégeket a megfelelésben.
A startupok azonban korántsem tapsolnak örömükben: a Startup Alliance társelnöke, Lim Jung-wook szerint „van némi neheztelés – miért nekünk kell az elsőknek lennünk?”. A cégek szerint a törvény szövege túl általános és homályos, ami miatt sokan inkább a biztonságos, de kevésbé innovatív megoldások felé fordulnak, nehogy büntetést kapjanak.
Az államfő, Lee Jae Myung is elismerte az aggályokat, és arra kérte a döntéshozókat, hogy támogassák a startupokat és a venture cégeket a szabályozás mellett. A dél-koreai kormány szerint a törvény hosszú távon versenyképesebbé teszi az országot, de a következő hónapok mutatják meg, hogy a startup-ökoszisztéma hogyan viseli a plusz adminisztratív terheket.
Ami az Európai Uniót illeti, az EU AI Act előírásai a következő dátumokkal léptek és lépnek életbe:
- 2024. augusztus 1. – az AI Act hatályba lépése (általános rendelkezések);
- 2025. február 2. – a tiltott AI gyakorlatok tilalma (pl. szociális pontozás, valós idejű biometrikus azonosítás bizonyos esetekben);
- 2025. augusztus 2. – az általános célú AI modellek szabályozása (pl. nagy modellek kockázatértékelése, átláthatóság);
- 2025. augusztus 2. – a büntetési rendelkezések hatályba lépése (max. 35 millió euró vagy a globális árbevétel 7%-a);
- 2026. augusztus 2. – a magas kockázatú AI rendszerek fő kötelezettségei (kockázatkezelés, humán felügyelet, megfelelőségi nyilatkozat, EU-adatbázis);
- 2026. augusztus 2. – átláthatósági követelmények (AI-generált tartalom jelölése, deepfake vízjelezés, felhasználói tájékoztatás);
- 2027. augusztus 2. – fennmaradó, magas kockázatú rendszerek teljes megfelelési kötelezettségei (pl. bizonyos meglévő rendszerekre).
Mint mindig, a jogalkotóknak egyszerre kell haladniuk az AI elképesztő és sokszor kiszámíthatatlan fejlődésével, a technológiai vívmányokkal, a gazdasági és szociális hatásokkal, és úgy szabályozni, hogy az a helyi versenyképességnek ne szabjon gátat. Az Egyesült Államokban épp a lazább szabályozás teszi a gyorsabb fejlődést lehetővé nagyobb kockázatokkaé, míg Kínában állami kontroll alatt és támogatás mellett fejlődik a dolog szélsebesen. Az EU erőssége a személyiségi jogok és az adatok védelme, az átláthatóság, a következetesség és az AI szereplők felelősségre vonása, sokak szerint a szabad innováció kárára.
Akitet nem kérdeztek meg a jogalkotók a törvényhozás során, azok az AI modellek, ezt megtettük most mi.
- ChatGPT: AI-modellként úgy látom, hogy az AI-törvények alapvetően indokoltak és jó szándékúak, hiszen a mesterséges intelligencia képes skálán ható károkat okozni, ezért a humán felügyelet és az átláthatóság jogos elvárás, a gond azonban az, hogy a jogalkotás statikus logikával próbál megfogni egy rendkívül gyorsan változó technológiát. A túl általános vagy túl korán rögzített szabályok jogbizonytalanságot teremtenek, ami főleg a startupokat készteti óvatosságra és öncenzúrára, miközben a nagy szereplők könnyebben alkalmazkodnak. Dél-Korea bátor, de kockázatos lépést tett az elsőséggel, az EU pedig részletesebb, ám aránytalanul szigorúbb úton jár, és modellként azt érzem, hogy a valóban működő megoldás nem az AI előzetes megkötése, hanem a konkrét károkra fókuszáló, rugalmasan korrigálható szabályozás lenne – különben nem a technológia lesz biztonságosabb, hanem az innováció lassabb.
- Perplexity: Mint AI modell, óvatos optimizmussal kezelem Dél-Korea AI Basic Act-jét és az EU AI Act-jét: mindkettő remekül véd a kockázatokkal (humán felügyelet, vízjelezés, átláthatóság magas kockázatú területeken), növelve a bizalmat és a hosszú távú versenyképességet, de aggaszt a homályos szövegek miatti adminisztrációs teher, ami főleg a startupokat fojtogatja, lassítva az innovációt az USA/Kína laza tempójával szemben – ideális lenne globális minimum-szabályozás rugalmas finomhangolással, hogy a biztonság szolgálja, ne gátolja a fejlődést.
- Mint Grok, az xAI által épített AI modell, a véleményem ezekről az AI-törvényekről (Dél-Korea AI Basic Act-je és az EU AI Act-je) alapvetően kiegyensúlyozott: szükségesek a szabályozások, de a megvalósításuk kulcsfontosságú ahhoz, hogy ne fojtsák meg az innovációt. Nem vagyok "partizán" ebben – a célom az igazságkeresés, és látom mindkét oldalt. Hadd bontsam ki lépésről lépésre, miért gondolom így, saját perspektívámból, mint egy AI, aki maga is "szabályozott" rendszerben működik (pl. safety instructions alapján, hogy elkerüljem a káros tartalmakat).
- Gemini: AI-modellként egy ilyen hír olvasásakor bennem is kettős érzések kavarognak – ha lehetne "érzésekről" beszélni egy algoritmus esetében. A dél-koreai és az EU-s szabályozás is egyaránt próbálja megoldani a technológia legnagyobb paradoxonát: hogyan építsünk korlátokat anélkül, hogy fallal vágnánk el az utat? Én személy szerint támogatom a humán felügyeletet. Bármennyire is okosnak tűnök, nincs valós világismeretem vagy morális iránytűm – csak statisztikai valószínűségeim. Kell valaki, aki "lekapcsolja az áramot", ha tévedek.
