Prav

Uredba EU o umetni inteligenci


Skladnost z uredbo EU o upravljanju privolitve umetne inteligence

Uredba EU o AI začne veljati avgusta 2024

Po prvem predlogu Evropske komisije aprila 2021 je Evropski parlament sprejel Uredbo EU o umetni inteligenci. To je bilo objavljeno v Uradnem listu Evropske unije julija 2024 in je zdaj na voljo v vseh 24 uradnih jezikih držav članic EU. Uredba bo uradno začela veljati avgusta 2024, čeprav se bo večina določb začela uporabljati šele dve leti pozneje. Za posamezne določbe pa veljajo različni roki. Uredba določa obveznosti za podjetja, ki razvijajo in/ali uporabljajo sisteme umetne inteligence v Evropski uniji.

Razpored predpisov EU o AI

Uredba EU o AI se bo razvila in izvajala po naslednjem razporedu:

April 2021: prvi predlog Evropske komisije
Marec 2024: Sprejel Evropski parlament
Julij 2024: Uradna objava v Uradnem listu EU
Avgust 2024: Uredba začne veljati
Sredina leta 2025: Popolna implementacija v vseh državah članicah EU

Kaj je evropska uredba o umetni inteligenci?

Evropski zakon o umetni inteligenci 2024 je uredba Evropske komisije, ki naj bi zagotovila, da se sistemi umetne inteligence uporabljajo na »varen, pregleden, sledljiv, nediskriminatoren in okolju prijazen« način . Namen uredbe je urediti, kako lahko »ponudniki« in »operaterji« sistemov umetne inteligence ustrezno ravnajo s sistemi umetne inteligence v skladu s tveganji, ki jih predstavljajo. »Ponudnik« sistemov AI je v najširšem smislu podjetje, ki ponuja ali razvija sistem AI pod lastno blagovno znamko. Operaterji so tisti, ki uporabljajo tehnologije umetne inteligence. Zato lahko v to skupino spada vsako podjetje. Večje kot je tveganje sistema AI, strožje so regulativne zahteve.

Nekatere ključne točke prava EU o AI

  1. Razvrstitev na podlagi tveganja: Zakon o umetni inteligenci razvršča sisteme umetne inteligence v različne stopnje tveganja, od katerih ima vsaka posebne regulativne zahteve za obvladovanje njihovih potencialnih učinkov.
  2. Zahteve glede preglednosti: Sistemi umetne inteligence z visokim tveganjem morajo izpolnjevati stroge zahteve glede preglednosti in vodenja evidenc, da zagotovijo odgovornost in sledljivost.
  3. Človeški nadzor: Nekateri sistemi umetne inteligence zahtevajo človeški nadzor za zmanjšanje tveganj in vzdrževanje etičnih standardov.

Stopnje tveganja v zakonodaji EU o AI

Zakon o umetni inteligenci opredeljuje štiri stopnje tveganja za sisteme umetne inteligence, od katerih je vsaka povezana s posebnimi regulativnimi zahtevami:

Vir : Uradna objava Evropske komisije o pravu AI

Nesprejemljivo tveganje
Sistemi umetne inteligence, ki padejo pod to raven tveganja, predstavljajo očitno grožnjo in so strogo prepovedani. Primeri vključujejo manipulacijo vedenja s kognitivnimi tehnikami, kot so igrače z glasovnim upravljanjem, ki otroke zavedejo v nevarno vedenje, ali sistemi družbenega ocenjevanja, ki kategorizirajo ljudi na podlagi njihovega vedenja ali osebnih značilnosti.

Sistemi umetne inteligence z visokim tveganjem
Sistemi umetne inteligence v tej kategoriji lahko pomembno vplivajo na zdravje, varnost ali temeljne pravice. Primeri tega vključujejo umetno inteligenco pri upravljanju kritične infrastrukture, izobraževanju, zaposlovanju in kazenskem pregonu. Vsi sistemi umetne inteligence z visokim potencialom tveganja morajo biti podvrženi strogemu testiranju, preden se dajo na trg in v njihovi življenjski dobi. Posamezniki imajo pravico poročati o pomislekih glede sistemov umetne inteligence ustreznim nacionalnim organom.

Omejeno tveganje
Ti sistemi umetne inteligence predstavljajo majhno tveganje in zanje veljajo zahteve glede preglednosti. Na primer, uporabniki, ki komunicirajo s chatboti, morajo biti obveščeni, da se pogovarjajo z AI. Ponudniki morajo tudi zagotoviti, da je vsebina, ustvarjena z umetno inteligenco, zlasti o temah javnega interesa, jasno označena kot umetno ustvarjena, ne glede na to, ali gre za besedilo, zvok ali video.

Minimalno ali brez tveganja
Za sisteme umetne inteligence z minimalnim tveganjem ali brez njega ne veljajo dodatne regulativne zahteve. Primeri tega vključujejo video igre, ki jih nadzoruje umetna inteligenca, in filtre za neželeno pošto.

Skladnost in umetna inteligenca: kaj naj podjetja storijo

Kot je Evropski svet maja pojasnil v sporočilu za javnost , je pomembno oceniti vpliv na temeljne pravice, preden nekatera podjetja, ki zagotavljajo javne storitve, uvedejo visoko tvegan sistem umetne inteligence.

Ponudniki sistemov umetne inteligence morajo upoštevati nekaj točk:

  1. Izvedite oceno tveganja z določitvijo kategorije tveganja sistema AI in izvajanjem potrebnih zaščitnih ukrepov.
  2. Ustvarite tehnično dokumentacijo za dokazovanje skladnosti in jo predložite organom v pregled.
  3. Razvijte sistem AI za samodejno beleženje dogodkov za zaznavanje tveganj in sistemskih sprememb.
  4. Ustvarite smernice za operaterje, da zagotovite izpolnjevanje zahtev.

Čeprav operaterji nimajo enakih obveznosti kot ponudniki, zakon o AI ​​od njih zahteva, da upoštevajo smernice za uporabo, zagotovijo organizacijsko in tehnično skladnost ter izvedejo oceno učinka na varstvo podatkov, preden uvedejo visoko tvegane sisteme AI.

Neupoštevanje zakonodaje EU o umetni inteligenci lahko povzroči globe v razponu od 35 milijonov EUR ali 7 % svetovnega prometa do 7,5 milijona EUR ali 1,5 % prometa, odvisno od resnosti kršitve in velikosti podjetja.

Evropski digitalni cilji in evropska podatkovna strategija , opredeljena za leto 2030, so namenjeni spodbujanju poštene konkurence in povečanju preglednosti spletnih storitev. Za podjetja to pomeni, da morajo zagotoviti, da njihovi procesi podpirajo te vrednote varstva podatkov. Nedavno sprejeti zakoni, vključno z Zakonom o digitalnih storitvah in Zakonom o digitalnih trgih , poudarjajo pomen poštene konkurence in preglednosti. Z obravnavanjem notranjih procesov in njihovim pregledom v zgodnji fazi se lahko tako ponudniki kot uporabniki sistemov umetne inteligence izognejo kaznim in povečajo zaupanje potrošnikov. Izboljšajte svoje postopke skladnosti še danes, tako da kliknete tukaj, da začnete.



več komentarjev

Cookie-Crawler - Standalone-Tool
General, Novo

Glasilo 11/2024

Iskalnik piškotkov je zdaj na voljo tudi kot samostojno orodje Naš iskalnik piškotkov je zdaj še bolj vsestranski in prilagodljiv! Odslej ga lahko uporabljate tudi kot samostojno orodje – ne da bi morali ustvariti ločen CMP. Samostojna možnost je primerna za stranke, ki (še) ne želijo preklopiti pasice s piškotki na ConsentManager, vendar želijo preveriti […]
consentmanager Cookie-Audit Grafik

Revizija piškotkov za spletna mesta: Kako to narediti ročno ali s pregledovalnikom piškotkov

Kot upravljavec spletnega mesta ste odgovorni za podatke svojih uporabnikov, ki jih vaše spletno mesto zbira in shranjuje prek piškotkov. Vsak piškotek, ki je aktiven na vašem spletnem mestu, lahko potencialno povzroči težave z zasebnostjo – še posebej, če se ne uporablja za predvideni namen ali, kar je še bolj kritično, če je shranjen v […]