Umetna inteligenca, tehnološka revolucija s koreninami v petdesetih letih prejšnjega stoletja, je danes ključna tema svetovnih razprav. V ospredju je evropski akt o AI, ki ambiciozno želi urediti področje z večplastnimi tveganji. Čeprav akt razvršča aplikacije umetne inteligence v štiri stopnje tveganja – minimalno, omejeno, visoko in nesprejemljivo –, ostaja vprašanje, ali lahko zakonodaja res dohiti tehnološke inovacije.
Razvoj AI je bil dolgo zaznamovan s tehnološkimi omejitvami in pomanjkanjem podatkov. Pravi preboj je prišel šele s transformatorsko arhitekturo leta 2017, ki je omogočila razvoj naprednih modelov, kot je ChatGPT. Kljub temu kompleksnost in interdisciplinarnost AI predstavljata velik izziv za regulacijo.
Evropski akt o AI predvideva strogo testiranje sistemov umetne inteligence na področjih z visokim tveganjem, a ne določa natančnih metodologij. Pojmi, kot so “pošteni podatki” in “visokokakovostni podatki”, ostajajo nejasni, kar pušča prostor za interpretacije. Prav tako ni povsem jasno, kako bo EU zagotovila, da bodo regulatorji obvladovali hitro spreminjajoče se tehnologije.
Zakonodaja se sooča z dilemo, kako učinkovito uravnotežiti varnost in inovacije. Brez podrobnejših smernic o preskusnih metodah in ocenjevanju tveganj obstaja tveganje, da bo regulacija preveč prožna in neučinkovita.
Čeprav so cilji akta občudovanja vredni, ostaja vprašanje, ali bo lahko zares zagotavljal varnost in hkrati omogočal nadaljnji razvoj umetne inteligence. Evropski akt o AI je korak v pravo smer, a njegova uspešnost bo odvisna od prilagodljivosti in sposobnosti sledenja hitrim tehnološkim spremembam.