AI Act a transparentnost: Klíčové požadavky na označování AI produktů

22. dubna 2026 • 9 min čtení

AI Act a transparentnost:

Transparentnost jako pilíř důvěry v umělou inteligenci

Svět umělé inteligence (AI) se vyvíjí závratným tempem a s ním roste i potřeba jasných pravidel, která zajistí bezpečnost, etiku a důvěru. Evropská unie na tuto výzvu reagovala přijetím přelomového Nařízení EU o umělé inteligenci (Nařízení EU 2024/1689), známého jako AI Act. Tento legislativní rámec si klade za cíl chránit základní práva občanů a zároveň podporovat inovace v oblasti AI. Jedním z klíčových pilířů, na kterých AI Act stojí, je transparentnost – a ta začíná u správného označování AI produktů.

Cílem transparentního označování není pouze splnit byrokratické požadavky, ale především dát uživatelům do rukou nástroje, které jim umožní informovaně se rozhodovat. Ať už jde o spotřebitele, zaměstnance nebo profesionály, každý, kdo přichází do styku s AI systémem, by měl mít jasnou představu o jeho fungování, omezeních a potenciálních rizicích. Právě zde vstupuje do hry Článek 13 AI Actu, který podrobně specifikuje, jaké informace musí doprovázet AI produkty, zejména ty s vysokým rizikem.

Proč je transparentní označování AI produktů nezbytné?

V éře, kdy se AI stává stále více součástí našeho každodenního života – od doporučovacích systémů přes zdravotnické aplikace až po autonomní vozidla – je naprosto zásadní, aby uživatelé plně rozuměli tomu, s čím interagují. AI systémy by neměly být vnímány jako „černé skříňky“, jejichž vnitřní mechanismy jsou neproniknutelné. Naopak, AI Act si klade za cíl zajistit, že tyto systémy budou pro uživatele předvídatelné, bezpečné a spolehlivé. A právě kvalitní a srozumitelné *označování* je prvním krokem k dosažení tohoto cíle.

Zajištění transparentnosti je klíčové pro budování důvěry v technologie umělé inteligence. Pokud uživatelé vědí, jaký je účel AI systému, jaké jsou jeho limity a kdo za něj nese odpovědnost, budou s větší pravděpodobností ochotni jej přijmout a využívat. Naopak nedostatečné *informace* mohou vést k nedorozuměním, nesprávnému použití a v konečném důsledku k ohrožení bezpečnosti nebo porušení základních práv. AI Act klade na poskytovatele povinnost poskytovat tyto *informace* jasným a srozumitelným způsobem, aby byl *uživatel* vždy v centru pozornosti.

Povinnosti pro poskytovatele vysoce rizikových AI systémů

Článek 13 AI Actu se specificky zaměřuje na povinnosti poskytovatelů vysoce rizikových AI systémů, pro které jsou požadavky na *označování* a doprovodné *informace* nejpřísnější. Co přesně se považuje za vysoce rizikový AI systém? AI Act definuje tyto systémy na základě jejich potenciálního dopadu na zdraví, bezpečnost a základní práva osob. Patří sem například AI systémy používané v kritické infrastruktuře, vzdělávání, zaměstnanosti, vymáhání práva nebo v biometrické identifikaci. Pro detailnější pochopení se můžete podívat na náš článek o [rizikových kategoriích AI Actu](/ai-act/rizikove-kategorie).

Poskytovatelé těchto systémů mají povinnost zajistit, aby k jejich AI produktům byly připojeny jasné a úplné *informace*. Tyto *informace* musí být dostupné v digitální nebo tištěné formě a musí být srozumitelné pro průměrného *uživatele*. Cílem je, aby *uživatel* mohl AI systém používat bezpečně a v souladu s jeho určeným účelem, plně si vědom všech relevantních aspektů. Nedodržení těchto povinností může mít závažné právní důsledky a vést k vysokým pokutám, jak stanoví například Článek 99 AI Actu.

Co přesně musí doprovázet AI produkt dle Článku 13?

Článek 13 AI Actu podrobně popisuje, jaké *informace* musí být poskytovány *uživatelům* vysoce rizikových AI systémů. Jde o komplexní soubor údajů, které mají zajistit plnou transparentnost a umožnit informované používání. Mezi nejdůležitější patří:

Zaprvé, komplexní návod k použití. Ten musí jasně uvádět účel AI systému, jeho očekávaný výkon, úroveň přesnosti, robustnosti a kybernetické bezpečnosti. Dále by měl obsahovat pokyny pro instalaci, provoz, údržbu a likvidaci systému. Zásadní je také upozornění na potřebu lidského dohledu, pokud je to relevantní, a jasné instrukce k zajištění bezpečného a správného používání AI systému. Návod musí rovněž specifikovat, jakým způsobem se AI systém může stát nefunkčním a jaké kroky je třeba v takovém případě podniknout.

Zadruhé, *informace* o známých a předvídatelných rizicích. Poskytovatel musí transparentně sdělit všechna rizika, která s používáním AI systému souvisí. To zahrnuje potenciální dopady na zdraví a bezpečnost, možné diskriminace, rizika pro soukromí nebo jiná relevantní rizika. Dále je nutné uvést omezení použití, tedy specifické podmínky, prostředí nebo skupiny *uživatelů*, pro které je systém určen nebo naopak není vhodný. Může jít například o věkové omezení, požadavky na odborné znalosti nebo omezení použití v určitých klimatických podmínkách. A konečně, musí být uvedeny kontaktní *informace* na poskytovatele a případně jeho autorizovaného zástupce v EU, aby *uživatelé* věděli, na koho se obrátit v případě dotazů nebo problémů.

Označení CE a další viditelné značky shody

Kromě podrobných písemných *informací* hraje klíčovou roli také vizuální *označování* – zejména *CE mark*. Označení CE, což je zkratka pro „Conformité Européenne“ (Evropská shoda), je povinným označením shody pro mnoho výrobků uváděných na evropský trh. Pro AI systémy s vysokým rizikem je *CE mark* symbolem, že systém splňuje všechny relevantní požadavky AI Actu a dalších platných právních předpisů EU. Jeho umístění na AI produktu je upraveno Článkem 50 AI Actu.

*CE mark* musí být viditelně, čitelně a nesmazatelně umístěno na AI systému nebo na jeho datovém štítku. Pokud to není proveditelné kvůli povaze systému, musí být umístěno na obalu nebo v doprovodné dokumentaci. Tento symbol nejenže signalizuje shodu s předpisy, ale také poskytuje *uživatelům* a orgánům dohledu rychlou vizuální *informaci* o tom, že produkt prošel potřebným procesem posouzení shody. Vedle *CE mark* mohou být na produktu nebo v dokumentaci uvedeny i další specifická *označení* nebo varování, která dále upřesňují bezpečnostní aspekty nebo omezení používání.

Praktické kroky k dodržování požadavků a minimalizaci rizik

Pro poskytovatele AI systémů není dodržování požadavků AI Actu na *označování* pouhou formalitou, ale strategickou nutností. Klíčem je proaktivní přístup a systematická příprava. Prvním krokem je vytvoření robustní technické dokumentace, která podrobně popisuje systém, jeho účel, výkon, data, tréninkové metody a všechny provedené testy. Tato dokumentace je základem pro veškeré *informace* poskytované *uživatelům* a je nezbytná pro proces posouzení shody, jak zmiňujeme v našem článku o [konformitním posouzení dle AI Actu](/blog/ai-act-konformitni-posouzeni).

Dále je důležité zavést interní procesy pro sběr, aktualizaci a správu všech *informací* souvisejících s AI systémem. To zahrnuje i průběžné monitorování po uvedení na trh, aby bylo možné včas reagovat na nové poznatky o rizicích nebo výkonu systému. Veškeré pokyny a *informace* pro *uživatele* by měly být testovány na srozumitelnost a přístupnost, ideálně s cílovou skupinou *uživatelů*, aby se zajistilo, že jsou skutečně pochopitelné. Investice do transparentnosti a správného *označování* se vyplatí – buduje důvěru, minimalizuje riziko právních problémů a posiluje pozici poskytovatele na trhu.

Závěr: Důvěra a bezpečnost skrze srozumitelné označování

AI Act přináší novou éru regulace umělé inteligence, kde transparentnost a ochrana *uživatele* stojí v popředí. Požadavky na *označování* AI produktů, zejména pak ty specifikované v Článku 13 a Článku 50, nejsou jen dalšími byrokratickými překážkami. Jsou to nástroje, které umožňují budovat důvěru, zajistit bezpečnost a podpořit etický rozvoj AI. Pro poskytovatele to znamená povinnost, ale zároveň i příležitost odlišit se na trhu jako spolehlivý a zodpovědný inovátor.

Pamatujte, že správné *označování* a poskytování komplexních *informací* je investicí do budoucnosti vašeho AI produktu a vaší společnosti. Chráníte tím nejen své *uživatele*, ale i sami sebe před reputačními a právními riziky. Jste si jisti, že váš AI systém splňuje všechny požadavky AI Actu na *označování*? Nechte si prověřit svůj web nebo AI produkt. Navštivte aishield.cz/scan a začněte s přípravou ještě dnes!

Související články

Zjistěte stav vašeho webu

Bezplatný sken odhalí všechny AI systémy na vašem webu za 60 sekund. Bez registrace.

Skenovat web ZDARMA

Čtěte dále

Komentáře

Zatím žádné komentáře. Buďte první!

Chcete vědět, jestli se vás AI Act týká?

Zadejte URL vašeho webu — sken je zdarma a trvá 60 sekund.

Skenovat web ZDARMA