Mesterséges Intelligencia II. – A kutatás szűk környezete
Hírek, Szakértői véleményekAhogyan korábban már kifejtettem, ha a mesterséges intelligencia alkalmazása nem felel meg maradéktalanul a hatályos jogszabályoknak és előírásoknak, az jogi következményeket és szankciókat vonhat maga után. Mielőtt azonban részletesen bemutatnám a lehetséges büntetéseket, először az Európai Unió mesterséges intelligenciára vonatkozó szabályozási tervezetét, az AI Act-et szeretném megvizsgálni.
A mesterséges intelligencia rohamos fejlődése és a 2023-ra várható szabályozási szigorítások miatt érdemes figyelemmel kísérni, hogy az Európai Unió milyen szerepet játszik az AI Act kidolgozásában, amelyet először 2021. április 21-én terjesztettek elő. A tervezet célja egy egységes jogi és szabályozási keretrendszer létrehozása a mesterséges intelligencia alkalmazására vonatkozóan. Az AI Act minden iparágra kiterjed, ahol mesterséges intelligenciát alkalmaznak – egyetlen kivételt képez a katonai felhasználás. Hosszú távon ez a szabályozás hasonló globális normává válhat, mint amilyen szerepet jelenleg az Általános Adatvédelmi Rendelet (GDPR) tölt be az adatvédelem területén.
Az AI Act célja és szabályozási megközelítése
Az AI Act szerint a mesterséges intelligencia számos előnyt kínál mind az iparágak, mind a társadalmi tevékenységek számára. Az AI alkalmazása hozzájárulhat társadalmi és környezeti szempontból is kedvező eredményekhez, emellett kiemelkedő versenyelőnyt biztosíthat az európai vállalatok számára, különösen a nagy hatású ágazatokban. Ugyanakkor az AI használata bizonyos kockázatokkal és negatív következményekkel is járhat, amelyeket az Európai Unió egy kiegyensúlyozott szabályozási megközelítéssel kíván kezelni. Az Unió egyik stratégiai célja, hogy megőrizze technológiai vezető szerepét, miközben biztosítja, hogy az új technológiák fejlesztése összhangban álljon az EU alapvető értékeivel és elveivel.
Ennek érdekében az Európai Bizottság új szabályokat vezet be a mesterséges intelligencia alkalmazására, amelyek biztosítják, hogy az AI-rendszerek biztonságosak legyenek, tiszteletben tartsák az alapvető jogokat és uniós értékeket, ugyanakkor ösztönözzék az innovációt és a befektetéseket ezen a területen. Az új szabályozás célja az alapvető jogok védelme, valamint a biztonságos és megbízható AI-alkalmazások elterjedésének elősegítése az EU-ban, miközben megakadályozza a piac széttöredezettségét.
Az AI Act fő célja, hogy szabályozza és biztonságosabbá tegye a mesterséges intelligencia használatát, miközben biztosítja az alapvető jogok és értékek tiszteletben tartását. Az új jogi keretrendszer célja, hogy ne akadályozza az AI-technológia fejlesztését vagy a piaci versenyt, hanem egy átfogó és rugalmas szabályozási struktúrát hozzon létre. Ez a rendszer figyelembe veszi az AI-rendszerek kockázatait és kihívásait, és szükség esetén lehetőséget biztosít a jogi beavatkozásra. Ugyanakkor az AI Act olyan rugalmas mechanizmusokat is tartalmaz, amelyek lehetővé teszik, hogy a szabályozás dinamikusan alkalmazkodjon a technológia fejlődéséhez.
Az AI Act szabályozási kerete és szankciórendszere
Az AI Act egységes szabályokat határoz meg az AI-rendszerek fejlesztésére, használatára és forgalmazására az Európai Unió piacán. A javaslat célja, hogy biztosítsa a mesterséges intelligencia biztonságos és átlátható alkalmazását, miközben megőrzi az uniós értékeket. Ennek érdekében az AI Act bizonyos mesterséges intelligencia gyakorlatokat kifejezetten tilt, amennyiben azok sértik az uniós alapelveket.
A szabályozás különös figyelmet fordít a távoli biometrikus azonosítási rendszerekre, amelyek használatát bizonyos jogi keretek között szigorúan korlátozza, különösen a bűnüldözési és végrehajtási célú alkalmazások esetében. A jogszabály továbbá meghatározza a magas kockázatú mesterséges intelligencia rendszereket, amelyek potenciálisan veszélyeztethetik az egyének egészségét, biztonságát vagy alapvető jogait.
Ezeknek a rendszereknek szigorú megfelelőségi követelményeknek kell eleget tenniük, mielőtt forgalomba kerülhetnek az EU piacán. A szolgáltatók és felhasználók számára egyértelmű és kiszámítható kötelezettségeket ír elő a biztonság garantálása, valamint az alapvető jogok védelme érdekében.
A szankciórendszer és tagállami felelősség
Az AI Act szabályozása az uniós jog meglévő keretrendszerére épül, és az egyes tagállamok szabályozási rendszereivel összhangban kerül bevezetésre. Az Európai Unió egy központi mesterséges intelligencia szabályozási struktúra létrehozását is tervezi, amely elősegíti az egységes végrehajtást és a jogszabályok harmonizációját.
A szankciók tekintetében a tagállamok feladata, hogy hatékony végrehajtási mechanizmusokat dolgozzanak ki a pénzbírságok és egyéb szankciók alkalmazására. A büntetéseknek arányosnak, visszatartó erejűnek és hatékonynak kell lenniük, ugyanakkor figyelembe kell venniük a kisebb szolgáltatók és startup vállalkozások gazdasági életképességét.
A tagállamok kötelesek értesíteni az Európai Bizottságot az általuk bevezetett végrehajtási intézkedésekről, hogy az AI Act szabályozása minden uniós országban konzisztensen és igazságosan kerüljön alkalmazásra.
Az AI Act értelmében azok a vállalatok, amelyek tiltott mesterséges intelligencia rendszereket alkalmaznak (5. cikk), vagy nem teljesítik a magas kockázatú AI-rendszerek minőségi követelményeit (10. cikk), akár 30 millió eurós bírsággal vagy világszintű éves árbevételük 6%-ának megfelelő közigazgatási bírsággal sújthatók – attól függően, hogy melyik összeg magasabb.
Amennyiben egy AI-rendszer nem felel meg a kockázatkezelési előírásoknak, a műszaki dokumentációs követelményeknek, a pontosságot szabályozó sztenderdeknek, valamint az ellenállóképességi és kiberbiztonsági elvárásoknak, a bírság összege 20 millió euró vagy a globális éves bevétel 4%-a lehet, attól függően, melyik nagyobb.
Továbbá, ha egy vállalat pontatlan, hiányos vagy félrevezető információkat ad meg a hatóságok adatigénylésére, akár 10 millió eurós vagy a világpiaci éves árbevételük 2%-ának megfelelő bírsággal is sújtható – a magasabb összeg alkalmazásával.
Az Amerikai szabályozás: felmérések és jogalkotási törekvések
Joe Biden elnöksége alatt felhívást tett közzé a mesterséges intelligencia hatásainak vizsgálatára, különös tekintettel annak nemzetbiztonságra és oktatásra gyakorolt következményeire. Az elnök közvélemény-kutatást és nyilvános hozzájárulást kért a társadalmi és gazdasági hatások jobb megértése érdekében.
Az utóbbi időben a mesterséges intelligencia – különösen a ChatGPT – egyre nagyobb figyelmet kapott mind a lakosság, mind a törvényhozók részéről, mivel fogyasztói felhasználása ugrásszerű növekedést mutat. Az Országos Távközlési és Információs Hivatal (NTIA), amely a Kereskedelmi Minisztérium alá tartozik és tanácsot ad a Fehér Háznak az információs és távközlési politikával kapcsolatban, szeretne aktív szerepet vállalni a mesterséges intelligencia szabályozásában.
Az NTIA arra keresi a választ, hogy léteznek-e már olyan jogszabályi intézkedések vagy tervezetek, amelyek garantálják a mesterséges intelligencia hatékony, etikus és biztonságos működését. Az Ügynökség álláspontja szerint az AI rendkívüli előnyökkel járhat, azonban csak akkor, ha a vele járó kockázatokat megfelelően kezelik és minimalizálják.
Biden elnök hangsúlyozta, hogy még nem teljesen világos, milyen hatással lesz a mesterséges intelligencia a társadalomra, ezért elengedhetetlen a technológia alapos vizsgálata és a megfelelő szabályozás kialakítása.
A mesterséges intelligencia szabályozási kihívásai és az USA-ban bevezetett intézkedések
Egyes technológiai csoportok szerint a ChatGPT legújabb verziója, a GPT-4 kockázatot jelenthet a magánéletre és a közbiztonságra, mivel elfogult vagy félrevezető lehet. Ez felveti a mesterséges intelligencia szabályozásának szükségességét, különösen az átláthatóság és az etikai megfelelőség területén.
Ahogy korábban is kifejtettem, a mesterséges intelligencia egyre nagyobb hatással van a vállalatok működésére, és az élesedő piaci verseny miatt a cégek egyre inkább kényszerülnek az AI alkalmazására. Az AI lehetővé teszi a folyamatok automatizálását és optimalizálását, ezért a vállalkozások jelentős forrásokat fordítanak annak beszerzésére, fejlesztésére és alkalmazására. Az AI térnyerése azonban a jogalkotók figyelmét is felkeltette, és várhatóan 2023-ban egy átfogó szabályozási hullám indul el, amely új kötelezettségeket írhat elő a vállalkozások számára.
Jelenleg nincs egységes szövetségi szabályozás az AI alkalmazására az Egyesült Államokban, de számos javaslat született a mesterséges intelligencia átlátható és etikus használatának biztosítására. Azoknak a vállalatoknak, amelyek már alkalmazzák az AI-t, vagy a jövőben szeretnének ilyen technológiát bevezetni, kiemelten fontos figyelemmel kísérni a jogszabályi változásokat, és időben felkészülni az új előírásoknak való megfelelésre.
2023 – A szabályozás éve
A következő időszakban fontos szabályozási kezdeményezések várhatók, például állami szintű adatvédelmi törvények és az FTC (Szövetségi Kereskedelmi Bizottság) új szabályozási sztenderdjei. Mielőtt azonban a várható jogszabályi változásokról beszélnénk, érdemes áttekinteni a 2022-es évre vonatkozó konkrét szabályokat, amelyek megalapozták a mesterséges intelligencia jogi kezelését az Egyesült Államokban.
Az USA-ban 2022-ben kezdődtek meg az első AI-szabályozási intézkedések, amelyek többnyire konkrét felhasználási esetekre fókuszáltak. Az egyik legjelentősebb terület a mesterséges intelligencia alkalmazása a foglalkoztatás és toborzás során. New York állam több más állammal – például Illinoisszal és Marylanddel – együtt olyan jogszabályokat vezetett be, amelyek az automatizált foglalkoztatási döntéshozatali rendszerek (AEDT-k) alkalmazását szabályozzák.
Az AEDT-rendszerek mesterséges intelligenciát használnak jelöltek szűrésére és kiválasztására, valamint döntéshozatali folyamatok támogatására. New York állam törvényei szerint az ilyen rendszereknek évente “elfogultság-ellenőrzésen” kell átesniük, és az ellenőrzés eredményeit nyilvánosan hozzáférhetővé kell tenni, ezzel biztosítva az átláthatóságot és a diszkriminációmentes eljárásokat.
Az AI szabályozása tehát egyre fontosabb szerepet kap, és várhatóan az elkövetkező években további szigorúbb előírások és átláthatósági követelmények lépnek életbe az AI alkalmazásának minden területén.
Az AI szabályozás további alakulása az Egyesült Államokban
Az Egyenlő Foglalkoztatási Esélyek Bizottsága (EEOC) hangsúlyozta, hogy a munkaerő-felvételi folyamatok során alkalmazott mesterséges intelligencia rendszereket úgy kell kialakítani, hogy minden pályázó egyenlő esélyekkel indulhasson. Az EEOC és az Igazságügyi Minisztérium közös útmutatást adott ki annak érdekében, hogy a vállalatok tisztában legyenek az AI alkalmazásának jogi kereteivel, különös tekintettel arra, hogy elkerüljék a fogyatékossággal élő munkavállalók jogainak megsértését. Az EEOC emellett emlékeztette a cégeket, hogy felelősséget vállalnak az általuk alkalmazott mesterséges intelligencia rendszerek döntéseiért, és segítséget nyújtanak számukra a vonatkozó jogszabályok értelmezésében.
Az állami szintű adatvédelmi szabályok és az AI döntéshozatal szabályozása
2023-ban számos új állami szintű adatvédelmi jogszabály lépett hatályba olyan államokban, mint Kalifornia, Connecticut, Colorado és Virginia. Ezek a törvények nem csupán az adatvédelmi előírásokat szigorítják, hanem szabályozzák az automatizált döntéshozatal alkalmazását is, különös tekintettel a mesterséges intelligencia által támogatott üzleti folyamatokra.
Ezeket a jogszabályokat kifejezetten olyan helyzetekben kell figyelembe venni, amikor AI alapú döntések születnek a fogyasztókat érintő ügyekben, például hitelezési, biztosítási vagy lakhatási kérdésekben, illetve más, alapvető szükségleteket érintő szolgáltatások – például vízszolgáltatás – során. Az Európai Unió által bevezetett GDPR-szabályozás hatása is megfigyelhető ezekben a törvényekben, mivel számos rendelkezés átemelésre került, különösen az olyan esetekre vonatkozóan, amikor az AI automatikusan hoz jogilag vagy gazdaságilag jelentős döntéseket a fogyasztók számára.
A szabályozás egyik fontos eleme az úgynevezett “leiratkozási jog”, amely biztosítja, hogy a fogyasztók elutasíthassák az AI által hozott döntéseket, és emberi beavatkozást kérhessenek. Coloradóban például az AI-t alkalmazó vállalatok kötelesek adatvédelmi szabályzatukban egyértelműen feltüntetni, hogy az automatizált rendszerek milyen hatással lehetnek a fogyasztókra. Emellett minden AI által meghozott döntésnek részleteznie kell az alkalmazott algoritmus logikáját, a felhasználói profilok kezelését, valamint azt, hogy az adott mesterséges intelligencia rendszer tisztességes, pontos és elfogulatlan módon működik-e.
Amennyiben egy vállalat AI-alapú adatkezelése potenciális kockázatot jelenthet a fogyasztók számára, köteles elvégezni egy adatvédelmi hatásvizsgálatot (DPIA). Ez különösen azokra az esetekre vonatkozik, amikor az AI nagy mennyiségű személyes adatot kezel, például célzott hirdetések esetében.
Szövetségi szintű szabályozás és az FTC szerepe
2023 elején az Egyesült Államokban még nem született egységes szövetségi szabályozás a mesterséges intelligencia használatára, azonban több törvényjavaslat is a Kongresszus elé került, bár ezek még nem kapták meg a szükséges támogatást.
Az AI szabályozásában azonban kiemelt szerepet kapott a Szövetségi Kereskedelmi Bizottság (FTC), amely a technológiát innovációnak tekinti, de egyben szigorúbb ellenőrzést kíván bevezetni az automatizált döntéshozatali mechanizmusokra. Az FTC több évtizedes tapasztalattal rendelkezik a fogyasztók védelmében, és három kulcsfontosságú törvény végrehajtását felügyeli a mesterséges intelligencia alkalmazása során:
- FTC Act – Általános szabályokat tartalmaz a tisztességtelen és megtévesztő üzleti gyakorlatok elleni védelem érdekében.
- Fair Credit Reporting Act (FCRA) – Olyan esetekben lép életbe, amikor AI-alapú döntések eredményeként megtagadják egy személy hitelkérelmét, munkavállalását, lakhatását vagy biztosítását.
- Equal Credit Opportunity Act (ECOA) – Jogvédelmet biztosít az elfogult AI-rendszerekkel szemben, amelyek például faji, vallási, nemi vagy egyéb diszkriminációs szempontok alapján hoznak hátrányos döntéseket.
Az FTC korábban már fellépett az AI alkalmazásával kapcsolatos jogsértések ellen, például a Weight Watchers-ügyben, amely során a szervezet egy gyermekeknek szánt súlycsökkentő alkalmazás esetében szabálytalanságokat állapított meg. Az FTC kimondta, hogy a cég megsértette a Gyermekek Online Adatvédelmi Törvényét (COPPA), mivel nem kérte be a szülői hozzájárulást a gyermekek személyes adatainak gyűjtéséhez. Az ügy eredményeként az FTC arra kötelezte a vállalatot, hogy törölje az illegálisan begyűjtött adatokat és az azokat feldolgozó algoritmusokat.
Az FTC szabályalkotási javaslatai az adatbiztonság és az AI átláthatósága érdekében
Az FTC (Szövetségi Kereskedelmi Bizottság) 2022. augusztus 22-én kiadta az úgynevezett ANPR-t (Advanced Notice of Proposed Rulemaking), amelyben új szabályok megalkotását javasolta az adatbiztonsági aggályok kezelése és az automatizált döntéshozatali rendszerek szabályozása érdekében. Az FTC nyilvános hozzászólásokat kért annak megértésére, hogy milyen konkrét lépéseket kellene tenniük a vállalkozásoknak az AI-algoritmusok által okozott hibák megelőzésére, valamint hogy szükséges-e egy tanúsítási rendszer bevezetése a mesterséges intelligenciát alkalmazó vállalatok számára.
A Bizottság azt is vizsgálja, hogy ha ilyen tanúsítványt bevezetnek, akkor milyen szervezet lenne felelős annak kiadásáért, és milyen feltételeknek kellene megfelelniük a vállalatoknak. Ezenkívül az FTC felvetette annak lehetőségét, hogy a jövőbeni szabályozásoknak ki kellene terjedniük azokra a vállalatokra is, amelyek megsértik az FTC törvény 5. szakaszát, amely a tisztességtelen és megtévesztő üzleti gyakorlatokat tiltja.
Az egyik kulcsfontosságú kérdés az, hogy a mesterséges intelligencia által végrehajtott döntések hogyan érintik a fogyasztókat, és milyen transzparencia-követelményeket kell előírni a vállalatok számára. Az FTC ezzel egyértelműen a szövetségi szintű szabályozás irányába mozdul el, és ez egy újabb kísérlet arra, hogy a Kongresszus végre átfogó adatvédelmi jogszabályokat fogadjon el.
A NIST szabványok és a mesterséges intelligencia kockázatkezelése
Az FTC mellett az Amerikai Nemzeti Szabványügyi és Technológiai Intézet (NIST) is foglalkozik a mesterséges intelligencia szabályozásával. A szervezet olyan szövetségi szabványokat javasolt, amelyek célja, hogy biztosítsák az AI megbízható működését a gazdaság különböző területein.
A NIST megkezdte a mesterséges intelligenciával kapcsolatos kockázatok felmérését, és ennek eredményeként kiadta a kockázatkezelési keretrendszer (Risk Management Framework – RMF) tervezetét. Ez az útmutató nem kötelező érvényű, de hasznos referenciaként szolgálhat az AI-t alkalmazó vállalkozások számára.
A dokumentum két fő részből áll:
- Az első rész azokat a kulcsfontosságú jellemzőket tartalmazza, amelyek egy AI-rendszert megbízhatóvá tesznek, és amelyek alkalmazásával minimalizálhatók a jelentős kockázatok.
- A második rész egy cselekvési keretrendszert határoz meg, amely gyakorlati iránymutatást nyújt a vállalatok számára az AI-rendszerek kockázatainak azonosítására, értékelésére és kezelésére.
Bár a NIST dokumentuma nem kötelező jogi szabályozás, egyértelműen arra ösztönzi a vállalatokat, hogy már most vezessenek be olyan intézkedéseket, amelyek elősegítik a mesterséges intelligencia átlátható és felelős használatát.
Összességében tehát elmondható, hogy az Egyesült Államokban az AI szabályozása állami és szövetségi szinten is egyre nagyobb figyelmet kap. Míg az állami törvények – például Coloradóban és Kaliforniában – már bevezettek bizonyos előírásokat az automatizált döntéshozatali rendszerek átláthatóságára és a fogyasztói jogok védelmére, addig szövetségi szinten még nincs egységes jogszabály, bár az FTC és más szabályozó testületek egyre aktívabb szerepet vállalnak az AI felhasználásának ellenőrzésében.
A vállalatok számára tehát kiemelten fontos, hogy figyelemmel kísérjék a szabályozási változásokat, mivel az elkövetkező években várhatóan még szigorúbb előírások lépnek életbe az AI átláthatóságának és etikai megfelelőségének biztosítása érdekében.
Forrás: szerkesztés alatt