Zadnje ažuriranje: 30. ožujka 2026.
Brzi pregled: ukratko
| Aspekt | Detalji |
|---|---|
| Pravna osnova | Uredba (EU) 2024/1689 — Akt o umjetnoj inteligenciji |
| Stupanje na snagu | 1. kolovoza 2024. |
| Zabranjene prakse | Primjenjuju se od 2. veljače 2025. |
| AI pismenost (čl. 4) | Obvezna od 2. kolovoza 2025. |
| Puna primjena | 2. kolovoza 2026. |
| Kazne | Do 35 milijuna eura ili 7% globalnog prometa |
| Tko je obvezan | Sve tvrtke koje razvijaju ili koriste AI sustave u EU |
| Nadležno tijelo u HR | AZOP (za AI sustave koji obrađuju osobne podatke) |
Sadržaj
- Izvršni sažetak
- Što je EU Akt o umjetnoj inteligenciji?
- Pristup temeljen na riziku: četiri razine
- Zabranjene AI prakse — što je zabranjeno od veljače 2025.
- AI pismenost: obveza koja već vrijedi
- Visokorizični AI sustavi: obveze od kolovoza 2026.
- AI opće namjene (GPAI): ChatGPT, Gemini, Claude
- Što ovo znači za hrvatske tvrtke
- Rokovi: vremenski raspored primjene
- Kazne za neusklađenost
- Kako se pripremiti: koraci za usklađenost
- Najčešće greške
- Često postavljana pitanja
- Izvori
Vrijeme čitanja: 18 minuta.
Trebate edukaciju o AI usklađenosti? Pregledajte naše tečajeve ili kontaktirajte nas za prilagođeni program za vaš tim.
Izvršni sažetak
Akt o umjetnoj inteligenciji (Uredba (EU) 2024/1689) prva je sveobuhvatna regulativa o umjetnoj inteligenciji na svijetu. Europska unija donijela ga je u lipnju 2024. godine s ciljem zaštite temeljnih prava, sigurnosti i demokratskih vrijednosti od rizika koje AI sustavi mogu predstavljati.
Akt nije teorijski dokument za budućnost. Zabrane određenih AI praksi primjenjuju se od 2. veljače 2025. Obveza osiguravanja AI pismenosti zaposlenika aktivna je od 2. kolovoza 2025. Puna primjena za visokorizične AI sustave kreće 2. kolovoza 2026.
Za hrvatske tvrtke ovo znači konkretne obveze — bez obzira na to razvijate li AI sustave ili ih samo koristite. Ako vaša tvrtka koristi ChatGPT za korisničku podršku, AI alat za selekciju kandidata, algoritam za određivanje cijena ili chatbot na web stranici — Akt o umjetnoj inteligenciji odnosi se na vas.
"Akt o umjetnoj inteligenciji obvezuje dobavljače i subjekte koji uvode UI sustave na aktivno poduzimanje mjera koje će omogućiti dostatnu razinu pismenosti u području umjetne inteligencije — kod svih onih osoba koje su u njihovo ime uključene u rad i korištenje UI sustava."
— Članak 4, Uredba (EU) 2024/1689
Što je EU Akt o umjetnoj inteligenciji?
EU Akt o umjetnoj inteligenciji je uredba — što znači da se izravno primjenjuje u svim državama članicama EU, uključujući Hrvatsku, bez potrebe za prijenosom u nacionalno zakonodavstvo. To ga razlikuje od direktiva poput NIS2 ili GDPR-a koji su zahtijevali posebne nacionalne zakone.
Akt regulira razvoj, stavljanje na tržište i korištenje AI sustava na teritoriju Europske unije. Primjenjuje se na:
- Dobavljače (providers) — tvrtke koje razvijaju ili stavljaju AI sustave na tržište EU
- Korisnike/implementatore (deployers) — tvrtke koje koriste AI sustave u svojem poslovanju
- Uvoznike i distributere — tvrtke koje uvoze AI sustave iz trećih zemalja na EU tržište
Pristup temeljen na riziku: četiri razine
Akt klasificira AI sustave u četiri kategorije prema razini rizika koji predstavljaju za sigurnost i temeljna prava. Što je viši rizik, to su strože obveze.
Neprihvatljiv rizik — ZABRANJENO
AI sustavi koji predstavljaju neprihvatljiv rizik za temeljna prava potpuno su zabranjeni. Zabrane se primjenjuju od 2. veljače 2025.
Visok rizik — STROGE OBVEZE
AI sustavi koji se koriste u osjetljivim područjima poput zapošljavanja, zdravstva, obrazovanja, pravosuđa i pristupa financijskim uslugama. Podliježu strogim zahtjevima za upravljanje rizicima, transparentnost, ljudski nadzor i kvalitetu podataka. Puna primjena od kolovoza 2026.
Ograničen rizik — OBVEZE TRANSPARENTNOSTI
AI sustavi poput chatbotova i generatora sadržaja. Moraju korisnicima jasno dati do znanja da komuniciraju s AI sustavom. Primjena od kolovoza 2026.
Minimalan ili nikakav rizik — BEZ SPECIFIČNIH OBVEZA
Većina AI sustava (spam filteri, AI u videoigrama, sustavi za preporučivanje). Bez dodatnih regulatornih zahtjeva, ali obveza AI pismenosti (članak 4) i dalje se primjenjuje.
| Razina rizika | Primjeri | Status | Obveze |
|---|---|---|---|
| Neprihvatljiv | Društveno bodovanje, emocionalno prepoznavanje na radnom mjestu, biometrijska identifikacija u stvarnom vremenu | Zabranjeno od 02/2025 | Potpuna zabrana |
| Visok | AI u zapošljavanju, kreditnom bodovanju, zdravstvu, obrazovanju | Od 08/2026 | Upravljanje rizicima, transparentnost, ljudski nadzor, dokumentacija |
| Ograničen | Chatbotovi, deepfake generatori, AI generatori teksta | Od 08/2026 | Transparentnost — korisnik mora znati da koristi AI |
| Minimalan | Spam filteri, AI u igrama, sustavi preporuka | Bez ograničenja | Samo AI pismenost (čl. 4) |
Zabranjene AI prakse — što je zabranjeno od veljače 2025.
Od 2. veljače 2025. zabranjene su sljedeće AI prakse prema članku 5 Akta. AZOP je objavio smjernice o primjeni ovih zabrana.
1. Društveno bodovanje (social scoring)
AI sustavi koje koriste javna tijela ili privatne tvrtke za ocjenjivanje ili klasificiranje pojedinaca na temelju njihovog društvenog ponašanja, što dovodi do nepovoljnog postupanja.
Primjer: Sustav koji prati aktivnosti zaposlenika na društvenim mrežama i na temelju toga odlučuje o napredovanju.
2. Manipulacija i obmana
AI sustavi koji koriste subliminalne tehnike, namjernu manipulaciju ili obmanu kako bi iskrivili ponašanje osobe na način koji joj može nanijeti štetu.
Primjer: AI sustav za prodaju koji koristi psihološku manipulaciju prilagođenu individualnim ranjivostima kupca.
3. Iskorištavanje ranjivosti
AI sustavi koji iskorištavaju ranjivosti osoba zbog dobi, invaliditeta ili socioekonomskog statusa.
4. Prediktivno policijsko profiliranje
AI sustavi koji procjenjuju rizik da osoba počini kazneno djelo isključivo na temelju profiliranja ili procjene osobnih obilježja.
5. Neselektivno prikupljanje slika lica
Prikupljanje slika lica s interneta ili iz nadzornih kamera radi stvaranja baza podataka za prepoznavanje lica bez ciljanog naloga.
6. Prepoznavanje emocija na radnom mjestu i u obrazovanju
AI sustavi koji zaključuju o emocijama zaposlenika na radnom mjestu ili učenika u obrazovnim ustanovama, osim ako su namijenjeni za medicinske ili sigurnosne svrhe.
7. Biometrijska kategorizacija po osjetljivim obilježjima
AI sustavi koji kategoriziraju osobe na temelju biometrijskih podataka za zaključivanje o rasi, političkim uvjerenjima, religiji, seksualnoj orijentaciji ili članstvu u sindikatu.
8. Biometrijska identifikacija u stvarnom vremenu na javnim mjestima
Korištenje sustava za prepoznavanje lica u stvarnom vremenu na javnim prostorima od strane tijela kaznenog progona, osim u strogo ograničenim iznimkama.
AI pismenost: obveza koja već vrijedi
Članak 4 Akta uvodi obvezu koja se primjenjuje od 2. kolovoza 2025. — i koja je najčešće zanemarena obveza u cijelom Aktu.
Što članak 4 zahtijeva
Svi dobavljači i korisnici AI sustava moraju osigurati dostatnu razinu AI pismenosti kod svojih zaposlenika i drugih osoba koje rade s AI sustavima u njihovo ime.
Konkretno, to znači:
- Osposobljavanje zaposlenika koji koriste AI alate da razumiju kako ti sustavi rade, koje su im mogućnosti i ograničenja
- Prilagođavanje edukacije tehničkom znanju, iskustvu i ulozi svake osobe
- Razumijevanje konteksta — na koga se AI sustav primjenjuje i koji su potencijalni rizici
- Dokumentiranje poduzetih mjera
Tko mora osigurati AI pismenost
| Uloga u tvrtki | Potrebna razina AI pismenosti |
|---|---|
| Uprava i direktori | Razumijevanje rizika, odgovornosti i regulatornog okvira |
| Voditelji projekata | Procjena rizika AI sustava, upravljanje nabavom AI alata |
| Zaposlenici koji koriste AI | Osnovno razumijevanje rada AI-ja, prepoznavanje grešaka, postupanje u slučaju problema |
| IT odjel | Tehničko razumijevanje AI sustava, sigurnosni rizici, upravljanje podacima |
| Pravna služba | Regulatorni zahtjevi, odgovornost, upravljanje ugovorima s AI dobavljačima |
| HR odjel | AI u zapošljavanju, etička pitanja, zaštita od diskriminacije |
Što AI pismenost mora pokrivati
Prema Recitalu 20 Akta, AI pismenost uključuje:
- Osnove rada AI sustava — što je AI, kako donosi odluke, razlika između tradicionalnog softvera i AI-ja
- Mogućnosti i ograničenja — što AI može, a što ne može pouzdano napraviti
- Rizici i potencijalne štete — pristrani ishodi, halucinacije, sigurnosni rizici
- Prava i obveze — što Akt zahtijeva od vaše tvrtke, kako postupiti u slučaju problema
- Praktična primjena — kako sigurno koristiti specifične AI alate u svakodnevnom radu
Što ako ne osigurate AI pismenost
Kazne za neispunjavanje obveze iz članka 4 iznose do 7,5 milijuna eura ili 1,5% globalnog godišnjeg prometa, ovisno o tome što je veće.
Ali postoji i praktičan razlog: bez AI pismenosti vaši zaposlenici ne mogu ispravno koristiti AI alate, ne prepoznaju pogreške i ne razumiju rizike. Svaki incident s AI sustavom bit će teže obraniti ako nemate dokumentiran program AI edukacije.
Visokorizični AI sustavi: obveze od kolovoza 2026.
Od 2. kolovoza 2026. godine na snagu stupaju najstrože obveze Akta — one za visokorizične AI sustave. Ovo je najvažniji rok za hrvatske tvrtke koje koriste AI u osjetljivim područjima.
Koji AI sustavi su visokorizični?
Akt definira dvije kategorije visokorizičnih AI sustava:
Kategorija 1 — Sigurnosne komponente reguliranih proizvoda:
AI sustavi koji su dio proizvoda obuhvaćenih EU zakonodavstvom (medicinski uređaji, vozila, strojevi, igračke).
Kategorija 2 — Samostalni AI sustavi u osjetljivim područjima (Prilog III):
| Područje | Primjeri u praksi |
|---|---|
| Zapošljavanje | AI alati za pregled životopisa, algoritmi za rangiranje kandidata, AI sustavi za provođenje intervjua |
| Obrazovanje | Automatsko ocjenjivanje, AI sustavi koji utječu na pristup obrazovanju |
| Financijske usluge | AI za procjenu kreditne sposobnosti, algoritmi za određivanje premija osiguranja |
| Zdravstvo | AI dijagnostički alati, sustavi za triažu, roboti za kirurgiju |
| Pravosuđe | AI sustavi u sudskim postupcima, sustavi za procjenu rizika od recidivizma |
| Biometrija | Sustavi za identifikaciju osoba (osim onih koji su zabranjeni) |
| Kritična infrastruktura | AI za upravljanje prometom, energetskim sustavima, vodoopskrbom |
Obveze za dobavljače visokorizičnih AI sustava
- Sustav upravljanja rizicima — dokumentirani proces identifikacije, procjene i ublažavanja rizika
- Upravljanje podacima — osiguravanje kvalitete, reprezentativnosti i relevantnosti podataka za trening
- Tehnička dokumentacija — detaljna dokumentacija sustava, uključujući dizajn, svrhu, performanse
- Vođenje zapisa — automatsko bilježenje rada sustava radi praćenja i revizije
- Transparentnost — jasne upute za korisnike o mogućnostima i ograničenjima sustava
- Ljudski nadzor — mjere koje omogućuju ljudima da nadziru i po potrebi interveniraju u rad sustava
- Točnost i robusnost — testiranje performansi, uključujući otpornost na manipulaciju
- Kibernetička sigurnost — zaštita sustava od neovlaštenog pristupa i napada
Obveze za korisnike (implementatore) visokorizičnih AI sustava
Ako vaša tvrtka koristi visokorizični AI sustav (npr. AI alat za selekciju kandidata), imate sljedeće obveze:
- Koristiti sustav u skladu s uputama dobavljača
- Osigurati ljudski nadzor nad radom sustava
- Pratiti rad sustava i prijavljivati incidente
- Provesti procjenu učinka na temeljna prava prije implementacije
- Informirati zaposlenike i pogođene osobe da su izloženi AI sustavu
- Čuvati zapise koje sustav generira
AI opće namjene (GPAI): ChatGPT, Gemini, Claude
Posebna pravila uvedena su za AI modele opće namjene (General Purpose AI — GPAI), poput velikih jezičnih modela (LLM). Ova pravila primjenjuju se od 2. kolovoza 2025.
Obveze za dobavljače GPAI modela
| Obveza | Opis |
|---|---|
| Tehnička dokumentacija | Detaljni opis modela, procesa treninga, evaluacijskih rezultata |
| Informacije za korisnike nizvodno | Dokumentacija za tvrtke koje koriste model u svojim proizvodima |
| Poštivanje autorskih prava | Politika usklađenosti s EU zakonodavstvom o autorskim pravima |
| Sažetak podataka za trening | Objavljivanje sažetka podataka korištenih za trening |
Za GPAI modele sa sistemskim rizikom (modeli s izuzetno velikim računalnim kapacitetom) primjenjuju se dodatni zahtjevi, uključujući evaluaciju modela, procjenu rizika, praćenje incidenata i kibernetičku sigurnost.
Što to znači za tvrtke koje koriste ChatGPT/Copilot/Gemini
Ako vaša tvrtka koristi komercijalne AI alate, niste dobavljač GPAI modela — to su OpenAI, Microsoft, Google. Međutim:
- Jeste korisnik (deployer) i morate osigurati AI pismenost (članak 4)
- Ako AI alat koristite u visokorizičnom kontekstu (npr. zapošljavanje), morate ispuniti obveze za korisnike visokorizičnih sustava
- Morate informirati zaposlenike i klijente da koriste AI sustav (obveza transparentnosti)
- Morate paziti da AI alat ne generira zabranjeni sadržaj (manipulacija, diskriminacija)
Što ovo znači za hrvatske tvrtke
Kontekst hrvatskog tržišta
Prema istraživanju Eurostata iz 2024., 13,5% poduzeća u EU koristi AI tehnologije. Taj postotak u Hrvatskoj je nešto niži, ali raste. Tvrtke u financijskom sektoru, telekomunikacijama, maloprodaji i IT sektoru najbrže usvajaju AI alate.
Konkretne situacije za hrvatske tvrtke
Korištenje ChatGPT-a za korisničku podršku:
Morate informirati korisnike da komuniciraju s AI sustavom (čl. 50). Morate osigurati AI pismenost zaposlenika koji upravljaju chatbotom (čl. 4).
AI alat za selekciju kandidata:
Ovo je visokorizičan AI sustav. Od kolovoza 2026. morate provesti procjenu učinka na temeljna prava, osigurati ljudski nadzor, informirati kandidate i dokumentirati rad sustava.
AI za analizu podataka i izvještavanje:
Ako AI sustav ne donosi odluke koje utječu na pojedince, vjerojatno spada u kategoriju minimalnog rizika. Obveza AI pismenosti i dalje vrijedi.
AI za određivanje cijena:
Ako algoritam individualno prilagođava cijene, mogao bi spadati u kategoriju visokog rizika, posebno ako koristi osobne podatke. Potrebna je detaljna analiza.
AI za marketing i personalizaciju:
Obveza transparentnosti — korisnici moraju znati da im se prikazuje AI-generirani ili AI-personalizirani sadržaj. Pazite da sustav ne koristi manipulativne tehnike (zabranjeno člankom 5).
Nadležna tijela
AZOP je objavio da je nadležan za nadzor AI sustava koji obrađuju osobne podatke. Za ostale aspekte Akta, Hrvatska još uspostavlja nadležna tijela. Na EU razini, Ured za AI (AI Office) pri Europskoj komisiji koordinira provedbu.
Rokovi: vremenski raspored primjene
| Datum | Što se primjenjuje |
|---|---|
| 1. kolovoza 2024. | Akt stupio na snagu |
| 2. veljače 2025. | Zabranjene AI prakse (članak 5) + obveza AI pismenosti (članak 4) |
| 2. kolovoza 2025. | Pravila za GPAI modele opće namjene + imenovanje nadležnih tijela |
| 2. veljače 2026. | Kodeksi prakse za GPAI |
| 2. kolovoza 2026. | Puna primjena — visokorizični sustavi, transparentnost, kazne |
| 2. kolovoza 2027. | AI sustavi ugrađeni u regulirane proizvode |
Kazne za neusklađenost
Akt predviđa značajne kazne, strukturirane prema težini kršenja:
| Kršenje | Maksimalna kazna |
|---|---|
| Zabranjene AI prakse (članak 5) | 35 milijuna € ili 7% globalnog prometa |
| Visokorizični AI sustavi — neusklađenost | 15 milijuna € ili 3% globalnog prometa |
| Neispunjenje obveze AI pismenosti (članak 4) | 7,5 milijuna € ili 1,5% globalnog prometa |
| Davanje netočnih informacija nadležnim tijelima | 7,5 milijuna € ili 1% globalnog prometa |
Za mala i srednja poduzeća (SME) primjenjuju se niži iznosi, ali postotci prometa ostaju isti.
Kako se pripremiti: koraci za usklađenost
Korak 1: Inventura AI sustava (odmah)
Napravite popis svih AI sustava koje vaša tvrtka koristi ili razvija:
- Koji AI alati se koriste i za što?
- Tko ih koristi?
- Koje podatke obrađuju?
- Donose li odluke koje utječu na pojedince?
Korak 2: Klasifikacija rizika (odmah)
Za svaki AI sustav odredite razinu rizika:
- Je li sustav na popisu zabranjenih praksi? → Odmah ukloniti
- Spada li u kategoriju visokorizičnih? → Pripremiti za obveze od kolovoza 2026.
- Zahtijeva li transparentnost? → Implementirati informiranje korisnika
- Minimalan rizik? → Osigurati AI pismenost zaposlenika
Korak 3: AI pismenost zaposlenika (ako niste — odmah)
Obveza je već aktivna. Koraci:
- Identificirajte tko u tvrtki radi s AI sustavima
- Procijenite trenutnu razinu znanja
- Osigurajte prilagođenu edukaciju prema ulogama
- Dokumentirajte program i sudjelovanje
Korak 4: Procjena učinka na temeljna prava (za visokorizične sustave)
Ako koristite visokorizične AI sustave, provedite procjenu učinka koja uključuje:
- Opis AI sustava i svrhe korištenja
- Identifikaciju pogođenih osoba
- Procjenu rizika za temeljna prava
- Mjere za ublažavanje rizika
- Plan ljudskog nadzora
Korak 5: Upravljanje dobavljačima
Provjerite AI dobavljače:
- Ispunjavaju li obveze iz Akta?
- Pružaju li potrebnu dokumentaciju?
- Postoje li ugovorne klauzule za usklađenost s AI Aktom?
Korak 6: Dokumentacija i governance
Uspostavite:
- Interni registar AI sustava
- Odgovornu osobu ili tim za AI usklađenost
- Proces za procjenu novih AI sustava prije implementacije
- Proceduru za prijavu incidenata s AI sustavima
Kontrolna lista za usklađenost
| Zadatak | Rok | Status |
|---|---|---|
| Inventura AI sustava | Odmah | ☐ |
| Provjera zabranjenih praksi | Odmah | ☐ |
| Program AI pismenosti | Odmah (već obvezno) | ☐ |
| Klasifikacija rizika | Do 06/2026 | ☐ |
| Procjena učinka (visokorizični) | Do 08/2026 | ☐ |
| Provjera dobavljača | Do 06/2026 | ☐ |
| Interni registar AI sustava | Do 08/2026 | ☐ |
| Imenovanje odgovorne osobe | Do 06/2026 | ☐ |
| Dokumentacija mjera | Kontinuirano | ☐ |
| Edukacija zaposlenika | Kontinuirano | ☐ |
Najčešće greške
1. "Mi samo koristimo ChatGPT, Akt se ne odnosi na nas"
Netočno. Članak 4 (AI pismenost) primjenjuje se na sve korisnike AI sustava, bez obzira na razinu rizika. Ako vaši zaposlenici koriste AI alate, imate obveze.
2. Zanemarivanje članka 4 jer "izgleda jednostavno"
AI pismenost je najranija pozitivna obveza u Aktu i prva koju će regulatori provjeravati. Bez dokumentiranog programa edukacije, tvrtka ne može dokazati usklađenost ni s jednom drugom obvezom.
3. Čekanje na kolovoz 2026.
Zabranjene prakse i AI pismenost već su na snazi. Inventura i klasifikacija AI sustava trebaju mjesece pripreme. Tvrtke koje čekaju posljednji trenutak neće biti spremne.
4. Tretiranje Akta kao IT projekta
AI Akt ima pravne, etičke i poslovne implikacije. Usklađenost zahtijeva suradnju pravne službe, uprave, IT-ja, HR-a i operativnih timova. Ne može se delegirati samo jednom odjelu.
5. Ignoriranje lanca opskrbe
Ako koristite AI sustav koji je klasificiran kao visokorizičan, a vaš dobavljač ne ispunjava obveze iz Akta, vi ste i dalje odgovorni za način korištenja sustava. Morate provjeriti usklađenost dobavljača.
Odnos s postojećim regulativama
AI Akt ne zamjenjuje postojeće propise — nadopunjuje ih.
| Regulativa | Odnos s AI Aktom |
|---|---|
| GDPR | Automatsko odlučivanje (čl. 22 GDPR) ostaje na snazi. AI Akt dodaje zahtjeve za transparentnost i ljudski nadzor. AZOP nadzire oba. |
| NIS2 / Zakon o kibernetičkoj sigurnosti | AI sustavi u kritičnoj infrastrukturi podliježu i NIS2 i AI Aktu. |
| DORA | Financijske institucije koje koriste AI moraju ispuniti i DORA i AI Akt zahtjeve. |
| Zakon o radu | AI u zapošljavanju i upravljanju radnicima mora poštivati i AI Akt i Zakon o radu. |
Često postavljana pitanja
Odnosi li se AI Akt na moju tvrtku ako samo koristim ChatGPT?
Da. Ako koristite AI sustave u svom poslovanju, imate barem obvezu AI pismenosti (članak 4). Ako AI sustav koristite u visokorizičnom kontekstu (zapošljavanje, kreditno bodovanje), imate dodatne obveze.
Tko je nadležan za provedbu AI Akta u Hrvatskoj?
AZOP je nadležan za AI sustave koji obrađuju osobne podatke. Za ostale aspekte, Hrvatska uspostavlja nadležna tijela. Na EU razini, Ured za AI koordinira provedbu.
Koliko vremena imam za usklađenost?
Zabranjene prakse i AI pismenost već se primjenjuju. Puna primjena za visokorizične sustave kreće 2. kolovoza 2026. To je manje od 5 mjeseci.
Što je AI pismenost i kako je osigurati?
AI pismenost znači da zaposlenici razumiju kako AI sustavi rade, koja su im ograničenja i rizici, te kako ih sigurno koristiti. Osigurava se kroz edukaciju prilagođenu ulogama, redovito osvježavanje i dokumentiranje.
Kakve su kazne?
Do 35 milijuna eura ili 7% globalnog prometa za najteža kršenja (zabranjene prakse). Do 15 milijuna eura ili 3% za neusklađenost s visokorizičnim zahtjevima. Do 7,5 milijuna eura ili 1,5% za neispunjenje obveze AI pismenosti.
Je li dovoljno imati interni pravilnik o korištenju AI-ja?
Pravilnik je dobar početak, ali sam po sebi nije dovoljan za ispunjenje članka 4. Potreban je strukturirani program edukacije s dokumentiranim sudjelovanjem, prilagođen ulogama zaposlenika.
Što ako moj AI dobavljač nije usklađen s Aktom?
Vi ste i dalje odgovorni za način korištenja AI sustava. Morate provjeriti usklađenost dobavljača i osigurati ugovorne klauzule koje zahtijevaju usklađenost s Aktom.
Trebam li DPO-a za AI Akt?
Akt ne zahtijeva imenovanje specifične osobe kao kod GDPR-a (DPO). Međutim, preporučuje se imenovanje osobe ili tima odgovornog za AI usklađenost, posebno ako koristite visokorizične sustave.
Kako se AI Akt odnosi prema GDPR-u?
Nadopunjuju se. GDPR štiti osobne podatke, AI Akt regulira AI sustave. Ako AI sustav obrađuje osobne podatke, primjenjuju se oba propisa. AZOP nadzire oboje.
Postoji li prijelazni period za tvrtke?
Za zabranjene prakse i AI pismenost — ne, već su na snazi. Za visokorizične sustave, rok je kolovoz 2026. Za AI u reguliranim proizvodima, rok je kolovoz 2027.
Izvori
- Uredba (EU) 2024/1689 — Akt o umjetnoj inteligenciji (EUR-Lex) — puni tekst uredbe
- AZOP: Uredba o umjetnoj inteligenciji — smjernice za Hrvatsku
- Europska komisija: AI Act smjernice o zabranjenim praksama — službene smjernice na hrvatskom
- EU AI Office — koordinacija provedbe na razini EU
- Eurostat: ICT Usage Survey 2024 — statistika korištenja AI u EU
- Artificial Intelligence Act (EU) — nezavisni portal s analizama i ažuriranjima
- Rokovi provedbe AI Akta (Presido) — pregled rokova
- Netokracija: AI Akt obveze za tvrtke — analiza na hrvatskom
Trebate pomoć s AI usklađenošću? CompliQuest nudi edukaciju o EU Aktu o umjetnoj inteligenciji prilagođenu hrvatskim tvrtkama. Od programa AI pismenosti za zaposlenike do procjene rizika AI sustava.
Pregledajte naše tečajeve | Kontaktirajte nas
Povezani članci
- NIS2 direktiva: Što hrvatska poduzeća moraju znati
- GDPR kazne u Hrvatskoj: Kako zaštititi vašu tvrtku
- Kibernetička sigurnost: Vodič za zaposlenike
- Pojmovnik: Compliance termini i definicije
Ovaj članak služi kao informativni vodič i ne predstavlja pravni savjet. Za specifične situacije vezane uz AI Akt konzultirajte pravne stručnjake ili službenika za zaštitu podataka.
