Nariadenie EÚ o umelej inteligencii vstúpi do platnosti v auguste 2024
Po prvom návrhu Európskej komisie v apríli 2021 prijal Európsky parlament nariadenie EÚ o umelej inteligencii. Toto bolo uverejnené v Úradnom vestníku Európskej únie v júli 2024 a teraz je dostupné vo všetkých 24 úradných jazykoch členských štátov EÚ. Nariadenie oficiálne nadobudne účinnosť v auguste 2024, hoci väčšina ustanovení sa začne uplatňovať až o dva roky neskôr. Pre jednotlivé ustanovenia však platia iné lehoty. Nariadenie stanovuje povinnosti pre spoločnosti, ktoré vyvíjajú a/alebo používajú systémy umelej inteligencie v Európskej únii.
Harmonogram regulácie umelej inteligencie EÚ
Nariadenie EÚ o umelej inteligencii sa bude vyvíjať a implementovať podľa tohto harmonogramu:
Apríl 2021: Prvý návrh Európskej komisie
Marec 2024: Prijaté Európskym parlamentom
Júl 2024: Oficiálne uverejnenie v Úradnom vestníku EÚ
August 2024: Nariadenie nadobúda účinnosť
Polovica roku 2025: Úplná implementácia vo všetkých členských štátoch EÚ
Čo je európske nariadenie o umelej inteligencii?
Európsky zákon o umelej inteligencii 2024 je nariadenie Európskej komisie, ktorého cieľom je zabezpečiť, aby sa systémy umelej inteligencie používali „bezpečným, transparentným, sledovateľným, nediskriminačným a ekologickým spôsobom“ . Cieľom nariadenia je regulovať, ako môžu „poskytovatelia“ a „prevádzkovatelia“ systémov AI primerane zaobchádzať so systémami AI v súlade s rizikami, ktoré predstavujú. „Poskytovateľ“ systémov AI je v najširšom zmysle spoločnosť, ktorá ponúka alebo vyvíja systém AI pod vlastnou značkou. Operátori sú tí, ktorí používajú technológie AI. Do tejto skupiny teda môže patriť každá spoločnosť. Čím vyššie je riziko systému AI, tým prísnejšie sú regulačné požiadavky.
Niektoré kľúčové body právnych predpisov EÚ o umelej inteligencii
- Klasifikácia na základe rizika: Zákon o AI klasifikuje systémy AI do rôznych úrovní rizika, pričom každý má špecifické regulačné požiadavky na riadenie ich potenciálnych vplyvov.
- Požiadavky na transparentnosť: Systémy umelej inteligencie s vysokým rizikom musia spĺňať prísne požiadavky na transparentnosť a vedenie záznamov, aby sa zabezpečila zodpovednosť a sledovateľnosť.
- Ľudský dohľad: Niektoré systémy AI vyžadujú ľudský dohľad na zmiernenie rizík a dodržiavanie etických noriem.
Úrovne rizika v práve EÚ o umelej inteligencii
Zákon o AI definuje štyri úrovne rizika pre systémy AI, z ktorých každá je spojená so špecifickými regulačnými požiadavkami:
Zdroj : Oficiálna publikácia Európskej komisie o zákone AI
Neprijateľné riziko
Systémy AI, ktoré spadajú pod túto úroveň rizika, predstavujú jasnú hrozbu a sú prísne zakázané. Príklady zahŕňajú manipuláciu správania prostredníctvom kognitívnych techník, ako sú napríklad hračky ovládané hlasom, ktoré oklamú deti k nebezpečnému správaniu, alebo systémy sociálneho hodnotenia, ktoré kategorizujú ľudí na základe ich správania alebo osobných vlastností.
Vysoko rizikové systémy AI
Systémy umelej inteligencie v tejto kategórii môžu mať významný vplyv na zdravie, bezpečnosť alebo základné práva. Príklady zahŕňajú AI v správe kritickej infraštruktúry, vzdelávaní, zamestnaní a presadzovaní práva. Všetky systémy AI s vysokým rizikovým potenciálom musia prejsť prísnym testovaním pred uvedením na trh a počas celej svojej životnosti. Jednotlivci majú právo nahlásiť obavy týkajúce sa systémov AI príslušným vnútroštátnym orgánom.
Obmedzené riziko
Tieto systémy AI predstavujú nízke riziko a podliehajú požiadavkám na transparentnosť. Napríklad používatelia, ktorí interagujú s chatbotmi, musia byť informovaní, že hovoria s AI. Poskytovatelia musia tiež zabezpečiť, aby obsah vytvorený umelou inteligenciou, najmä o témach verejného záujmu, bol jasne označený ako umelo vytvorený, bez ohľadu na to, či ide o text, zvuk alebo video.
Minimálne alebo žiadne riziko
Na systémy AI s minimálnym alebo žiadnym rizikom sa nevzťahujú dodatočné regulačné požiadavky. Medzi príklady patria videohry riadené AI a filtre nevyžiadanej pošty.
Súlad a AI: Čo by mali spoločnosti robiť
Ako vysvetlila Európska rada v májovej tlačovej správe , je dôležité posúdiť vplyv na základné práva predtým, ako niektoré spoločnosti poskytujúce verejné služby nasadia vysokorizikový systém umelej inteligencie.
Poskytovatelia systémov AI by mali mať na pamäti niekoľko bodov:
- Vykonajte posúdenie rizika určením kategórie rizika systému AI a zavedením potrebných ochranných opatrení.
- Vytvorte technickú dokumentáciu na preukázanie zhody a odošlite ju orgánom na posúdenie.
- Vyviňte systém AI na automatické zaznamenávanie udalostí na zisťovanie rizík a systémových zmien.
- Vytvorte pokyny pre operátorov, aby ste zabezpečili splnenie požiadaviek.
Aj keď prevádzkovatelia nemajú rovnaké povinnosti ako poskytovatelia, zákon o umelej inteligencii od nich vyžaduje, aby pred nasadením vysokorizikových systémov umelej inteligencie dodržiavali pokyny na používanie, zabezpečili organizačný a technický súlad a vykonali posúdenie vplyvu na ochranu údajov.
Nedodržanie zákona EÚ o umelej inteligencii môže mať za následok pokuty v rozmedzí od 35 miliónov EUR alebo 7 % celosvetového obratu až po 7,5 milióna EUR alebo 1,5 % obratu v závislosti od závažnosti porušenia a veľkosti spoločnosti.
Digitálne ciele Európy a Európska dátová stratégia definovaná do roku 2030 sa zameriavajú na podporu spravodlivej hospodárskej súťaže a zvýšenie transparentnosti online služieb. Pre spoločnosti to znamená, že musia zabezpečiť, aby ich procesy podporovali tieto hodnoty ochrany údajov. Nedávno prijaté zákony vrátane zákona o digitálnych službách a zákona o digitálnych trhoch zdôrazňujú dôležitosť spravodlivej hospodárskej súťaže a transparentnosti. Riešením interných procesov a ich kontrolou v počiatočnom štádiu sa môžu poskytovatelia aj používatelia systémov AI vyhnúť pokutám a zvýšiť dôveru spotrebiteľov. Zlepšite svoje procesy dodržiavania predpisov už dnes kliknutím sem a začnite.