Vysoce rizikové AI systémy: Příloha III AI Actu vysvětlena

19. února 2026 • 5 min čtení

Vysoce rizikové AI systémy: Příloha III

AI Act a jeho rizikový přístup: Proč je to důležité?

Evropská unie se stala průkopníkem v regulaci umělé inteligence s přijetím Nařízení EU 2024/1689, známého jako AI Act. Tento legislativní rámec si klade za cíl zajistit, aby systémy AI používané v EU byly bezpečné, transparentní, nediskriminační a respektovaly základní práva občanů. Klíčovým pilířem AI Actu je jeho rizikově orientovaný přístup, který rozděluje AI systémy do kategorií podle potenciální míry rizika, které představují pro uživatele a společnost. Čím vyšší riziko, tím přísnější pravidla a povinnosti.

Zatímco některé AI systémy jsou zcela zakázány (viz článek 5 AI Actu) a jiné spadají do kategorie s minimálním nebo omezeným rizikem, největší pozornost a nejkomplexnější požadavky se soustředí na tzv. vysoce rizikové AI systémy. Právě tyto systémy mají potenciál způsobit závažné škody na zdraví, bezpečnosti, základních právech nebo životním prostředí. Porozumění tomu, co přesně definuje vysoce rizikový AI systém, je absolutně klíčové pro každého, kdo se v oblasti AI pohybuje – od vývojářů a provozovatelů až po koncové uživatele.

V tomto článku se podrobně zaměříme na srdce definice vysoce rizikových systémů: Přílohu III AI Actu. Vysvětlíme si osm klíčových oblastí, které jsou v této příloze specifikovány, poskytneme konkrétní příklady z praxe a nastíníme povinnosti, které z této klasifikace plynou pro provozovatele. Pokud vaše organizace využívá, vyvíjí nebo plánuje implementovat AI systémy, je tento průvodce nezbytností pro vaši budoucí shodu s regulací.

Co definuje vysoce rizikové AI systémy? Pohled do Přílohy III

AI Act (konkrétně článek 6) definuje vysoce rizikové AI systémy dvěma hlavními způsoby. První kategorií jsou AI systémy, které jsou součástí produktů regulovaných harmonizační legislativou EU (např. bezpečnost hraček, letadel, zdravotnických prostředků), pokud jejich selhání ohrožuje zdraví nebo bezpečnost. Druhá, a pro mnoho organizací relevantnější kategorie, je přímo definována v Příloze III AI Actu. Tato příloha systematicky vyjmenovává oblasti a konkrétní použití AI, která jsou považována za vysoce riziková bez ohledu na to, zda jsou součástí jiného produktu.

Příloha III je dynamický dokument, který může být v budoucnu aktualizován, aby odrážel technologický pokrok a nové rizikové scénáře. Prozatím však poskytuje jasný rámec osmi klíčových oblastí, kde se AI systémy automaticky klasifikují jako vysoce rizikové. Důvodem je jejich potenciál k zásadnímu ovlivnění života jednotlivců, jejich práv a svobod.

Je důležité si uvědomit, že klasifikace jako vysoce rizikový AI systém automaticky spouští celou řadu přísných povinností pro provozovatele, a to ještě před uvedením systému na trh nebo do provozu. To zahrnuje vše od robustního systému řízení rizik přes zajištění kvality dat až po lidský dohled a posouzení shody. Více o klasifikaci rizikových kategorií AI naleznete na našem webu.

Příloha III AI Actu: Osm klíčových kategorií s příklady

Příloha III AI Actu, zmiňovaná v článku 6 odstavci 2, bodu a) a b), detailně rozvádí specifické oblasti, ve kterých se AI systémy považují za vysoce rizikové. Podívejme se na každou z těchto kategorií s praktickými příklady, abychom lépe pochopili jejich rozsah.

1. Biometrická identifikace a kategorizace fyzických osob: Sem spadají systémy, které používají biometrická data (např. rozpoznávání obličeje, otisků prstů, hlasu) k jednoznačné identifikaci osob, s výjimkou určitých použití povolených zákonem (článek 50). Příklady zahrnují: systémy pro vzdálenou biometrickou identifikaci osob ve veřejně přístupných prostorech (např. kamerové systémy s rozpoznáváním obličejů v reálném čase), systémy pro biometrickou kategorizaci osob (např. identifikace emocí nebo rasy).

2. Správa a provoz kritické infrastruktury: Jde o systémy, které řídí nebo monitorují provoz kritických infrastruktur, jejichž selhání by mohlo ohrozit životy nebo zdraví osob. Příklady: AI systémy řídící provoz silniční, železniční, letecké nebo vodní dopravy; systémy pro řízení rozvodných sítí elektřiny, plynu a vody; systémy pro správu nemocničních IT sítí.

3. Vzdělávání a odborná příprava: AI systémy, které rozhodují o přístupu k vzdělání nebo odborné přípravě, nebo které vyhodnocují učební výsledky. Příklady: AI systémy pro automatické přijímání studentů na univerzity; systémy pro hodnocení testů s významným dopadem na kariéru studenta; monitorovací systémy pro sledování chování studentů během zkoušek.

4. Zaměstnávání, řízení pracovníků a přístup k samostatné výdělečné činnosti: AI systémy používané pro nábor, výběr, monitorování nebo vyhodnocování výkonu zaměstnanců. Příklady: AI systémy pro automatické filtrování životopisů, které by mohly vést k diskriminaci; systémy pro monitorování produktivity zaměstnanců s cílem rozhodovat o jejich povýšení nebo propuštění; nástroje pro predikci výkonu kandidátů.

5. Přístup k základním soukromým a veřejným službám a jejich využívání: Sem spadají AI systémy, které rozhodují o poskytování nebo odejmutí základních služeb, jako jsou sociální dávky, úvěry, pojištění nebo zdravotnictví. Příklady: AI systémy pro hodnocení úvěruschopnosti, které mohou ovlivnit přístup k bydlení; systémy pro přidělování sociálních dávek; systémy pro triáž pacientů ve zdravotnictví nebo pro diagnostiku s kritickým dopadem na léčbu; systémy pro vyhodnocování žádostí o azyl.

6. Vymáhání práva: AI systémy používané v oblasti vymáhání práva, které mohou ovlivnit základní práva jednotlivců. Příklady: AI systémy pro posuzování rizika recidivy; nástroje pro prediktivní policejní činnost; systémy pro hodnocení důkazů nebo identifikaci podezřelých v trestním řízení (pokud nejsou biometrické a spadaly by pod bod 1).

7. Řízení migrace, azylu a kontroly hranic: AI systémy používané v kontextu migrace, azylu a hraničních kontrol, které mohou ovlivnit práva žadatelů. Příklady: AI systémy pro posuzování žádostí o víza nebo azyl; systémy pro ověřování cestovních dokladů a biometrických údajů na hranicích; systémy pro detekci podvodů v migračním procesu.

8. Správa spravedlnosti a demokratických procesů: AI systémy používané v soudnictví nebo v procesech ovlivňujících demokratické právo, s výjimkou systémů pro čistě administrativní podporu. Příklady: AI systémy pro podporu soudních rozhodnutí (tzv. prediktivní soudnictví); systémy pro analýzu soudních spisů s cílem doporučit rozsudky; AI pro ovlivňování volebních procesů nebo veřejné debaty.

Povinnosti provozovatelů vysoce rizikových AI systémů: Co to znamená v praxi?

Klasifikace AI systému jako vysoce rizikového má dalekosáhlé důsledky pro jeho provozovatele a dodavatele. Na tyto systémy se vztahují nejpřísnější požadavky AI Actu, které jsou detailně popsány v Kapitole III. Mezi nejdůležitější povinnosti patří: zavedení a udržování robustního systému řízení rizik (článek 9), zajištění vysoké kvality trénovacích dat (článek 10), vypracování detailní technické dokumentace (článek 11) a uchovávání záznamů (článek 12) pro účely transparentnosti a dohledatelnosti.

Dále je klíčové zajistit lidský dohled nad vysoce rizikovými AI systémy (článek 14), aby bylo možné v případě potřeby zasáhnout a korigovat autonomní rozhodování AI. Systémy musí být také navrženy tak, aby byly přesné, robustní a kyberneticky bezpečné (článek 15) a odolné vůči chybám, útokům či manipulaci. Před uvedením na trh je nutné provést posouzení shody (článek 43), což je komplexní proces, který ověřuje splnění všech stanovených požadavků. Mnoho z těchto systémů bude také vyžadovat registraci do databáze EU (článek 51) a označení CE (článek 49).

Nesplnění těchto povinností může mít pro organizace závažné důsledky, včetně vysokých pokut (článek 99). U vysoce rizikových AI systémů mohou pokuty dosahovat až 3 % celkového ročního obratu nebo 15 milionů EUR (článek 99 odst. 4). Za zakázané AI praktiky pak až 7 % obratu nebo 35 milionů EUR. Proto je pro každou firmu, která s vysoce rizikovými AI systémy pracuje, nezbytné, aby měla zavedené mechanismy pro identifikaci, hodnocení a neustálé monitorování shody s AI Actem. Připravenost a proaktivní přístup jsou klíčové pro minimalizaci rizik a zajištění legálního a etického provozu AI.

Závěr: Připravte se na éru zodpovědné AI s AIshield.cz

Příloha III AI Actu představuje základní kámen pro identifikaci a regulaci vysoce rizikových AI systémů v Evropské unii. Její porozumění je prvním a nejdůležitějším krokem k zajištění shody s novou legislativou. Provozovatelé a dodavatelé AI systémů musí proaktivně posoudit, zda jejich řešení spadají do některé z osmi vyjmenovaných kategorií, a následně implementovat veškeré požadované povinnosti, které jsou pro high-risk systémy stanoveny.

Implementace AI Actu vyžaduje nejen právní, ale i technické a procesní změny napříč organizací. Je to investice do důvěry, bezpečnosti a udržitelnosti vašeho podnikání v digitální éře. Cílem AI Actu není bránit inovacím, nýbrž zajistit jejich etický a bezpečný rozvoj, který bude sloužit lidem a respektovat jejich práva.

Jste si jisti, že vaše AI systémy jsou v souladu s AI Actem a rozumíte všem rizikovým kategoriím? Zjistěte to s AIshield.cz! Nabízíme komplexní nástroje a služby, které vám pomohou identifikovat rizika, posoudit shodu a připravit se na nadcházející regulaci. Nenechte nic náhodě a zajistěte si klid v duši. Objednejte si sken vašeho webu a AI aplikací ještě dnes a zjistěte, jak jste připraveni!

Související články

Zjistěte stav vašeho webu

Bezplatný sken odhalí všechny AI systémy na vašem webu za 60 sekund. Bez registrace.

Skenovat web ZDARMA

Chcete vědět, jestli se vás AI Act týká?

Zadejte URL vašeho webu — sken je zdarma a trvá 60 sekund.

Skenovat web ZDARMA