Uredba EU o AI začne veljati avgusta 2024
Po prvem predlogu Evropske komisije aprila 2021 je Evropski parlament sprejel Uredbo EU o umetni inteligenci. To je bilo objavljeno v Uradnem listu Evropske unije julija 2024 in je zdaj na voljo v vseh 24 uradnih jezikih držav članic EU. Uredba bo uradno začela veljati avgusta 2024, čeprav se bo večina določb začela uporabljati šele dve leti pozneje. Za posamezne določbe pa veljajo različni roki. Uredba določa obveznosti za podjetja, ki razvijajo in/ali uporabljajo sisteme umetne inteligence v Evropski uniji.
Razpored predpisov EU o AI
Uredba EU o AI se bo razvila in izvajala po naslednjem razporedu:
April 2021: prvi predlog Evropske komisije
Marec 2024: Sprejel Evropski parlament
Julij 2024: Uradna objava v Uradnem listu EU
Avgust 2024: Uredba začne veljati
Sredina leta 2025: Popolna implementacija v vseh državah članicah EU
Kaj je evropska uredba o umetni inteligenci?
Evropski zakon o umetni inteligenci 2024 je uredba Evropske komisije, ki naj bi zagotovila, da se sistemi umetne inteligence uporabljajo na »varen, pregleden, sledljiv, nediskriminatoren in okolju prijazen« način . Namen uredbe je urediti, kako lahko »ponudniki« in »operaterji« sistemov umetne inteligence ustrezno ravnajo s sistemi umetne inteligence v skladu s tveganji, ki jih predstavljajo. »Ponudnik« sistemov AI je v najširšem smislu podjetje, ki ponuja ali razvija sistem AI pod lastno blagovno znamko. Operaterji so tisti, ki uporabljajo tehnologije umetne inteligence. Zato lahko v to skupino spada vsako podjetje. Večje kot je tveganje sistema AI, strožje so regulativne zahteve.
Nekatere ključne točke prava EU o AI
- Razvrstitev na podlagi tveganja: Zakon o umetni inteligenci razvršča sisteme umetne inteligence v različne stopnje tveganja, od katerih ima vsaka posebne regulativne zahteve za obvladovanje njihovih potencialnih učinkov.
- Zahteve glede preglednosti: Sistemi umetne inteligence z visokim tveganjem morajo izpolnjevati stroge zahteve glede preglednosti in vodenja evidenc, da zagotovijo odgovornost in sledljivost.
- Človeški nadzor: Nekateri sistemi umetne inteligence zahtevajo človeški nadzor za zmanjšanje tveganj in vzdrževanje etičnih standardov.
Stopnje tveganja v zakonodaji EU o AI
Zakon o umetni inteligenci opredeljuje štiri stopnje tveganja za sisteme umetne inteligence, od katerih je vsaka povezana s posebnimi regulativnimi zahtevami:
Vir : Uradna objava Evropske komisije o pravu AI
Nesprejemljivo tveganje
Sistemi umetne inteligence, ki padejo pod to raven tveganja, predstavljajo očitno grožnjo in so strogo prepovedani. Primeri vključujejo manipulacijo vedenja s kognitivnimi tehnikami, kot so igrače z glasovnim upravljanjem, ki otroke zavedejo v nevarno vedenje, ali sistemi družbenega ocenjevanja, ki kategorizirajo ljudi na podlagi njihovega vedenja ali osebnih značilnosti.
Sistemi umetne inteligence z visokim tveganjem
Sistemi umetne inteligence v tej kategoriji lahko pomembno vplivajo na zdravje, varnost ali temeljne pravice. Primeri tega vključujejo umetno inteligenco pri upravljanju kritične infrastrukture, izobraževanju, zaposlovanju in kazenskem pregonu. Vsi sistemi umetne inteligence z visokim potencialom tveganja morajo biti podvrženi strogemu testiranju, preden se dajo na trg in v njihovi življenjski dobi. Posamezniki imajo pravico poročati o pomislekih glede sistemov umetne inteligence ustreznim nacionalnim organom.
Omejeno tveganje
Ti sistemi umetne inteligence predstavljajo majhno tveganje in zanje veljajo zahteve glede preglednosti. Na primer, uporabniki, ki komunicirajo s chatboti, morajo biti obveščeni, da se pogovarjajo z AI. Ponudniki morajo tudi zagotoviti, da je vsebina, ustvarjena z umetno inteligenco, zlasti o temah javnega interesa, jasno označena kot umetno ustvarjena, ne glede na to, ali gre za besedilo, zvok ali video.
Minimalno ali brez tveganja
Za sisteme umetne inteligence z minimalnim tveganjem ali brez njega ne veljajo dodatne regulativne zahteve. Primeri tega vključujejo video igre, ki jih nadzoruje umetna inteligenca, in filtre za neželeno pošto.
Skladnost in umetna inteligenca: kaj naj podjetja storijo
Kot je Evropski svet maja pojasnil v sporočilu za javnost , je pomembno oceniti vpliv na temeljne pravice, preden nekatera podjetja, ki zagotavljajo javne storitve, uvedejo visoko tvegan sistem umetne inteligence.
Ponudniki sistemov umetne inteligence morajo upoštevati nekaj točk:
- Izvedite oceno tveganja z določitvijo kategorije tveganja sistema AI in izvajanjem potrebnih zaščitnih ukrepov.
- Ustvarite tehnično dokumentacijo za dokazovanje skladnosti in jo predložite organom v pregled.
- Razvijte sistem AI za samodejno beleženje dogodkov za zaznavanje tveganj in sistemskih sprememb.
- Ustvarite smernice za operaterje, da zagotovite izpolnjevanje zahtev.
Čeprav operaterji nimajo enakih obveznosti kot ponudniki, zakon o AI od njih zahteva, da upoštevajo smernice za uporabo, zagotovijo organizacijsko in tehnično skladnost ter izvedejo oceno učinka na varstvo podatkov, preden uvedejo visoko tvegane sisteme AI.
Neupoštevanje zakonodaje EU o umetni inteligenci lahko povzroči globe v razponu od 35 milijonov EUR ali 7 % svetovnega prometa do 7,5 milijona EUR ali 1,5 % prometa, odvisno od resnosti kršitve in velikosti podjetja.
Evropski digitalni cilji in evropska podatkovna strategija , opredeljena za leto 2030, so namenjeni spodbujanju poštene konkurence in povečanju preglednosti spletnih storitev. Za podjetja to pomeni, da morajo zagotoviti, da njihovi procesi podpirajo te vrednote varstva podatkov. Nedavno sprejeti zakoni, vključno z Zakonom o digitalnih storitvah in Zakonom o digitalnih trgih , poudarjajo pomen poštene konkurence in preglednosti. Z obravnavanjem notranjih procesov in njihovim pregledom v zgodnji fazi se lahko tako ponudniki kot uporabniki sistemov umetne inteligence izognejo kaznim in povečajo zaupanje potrošnikov. Izboljšajte svoje postopke skladnosti še danes, tako da kliknete tukaj, da začnete.