Rizikové kategorie AI Act

AI Act rozděluje AI systémy do 4 úrovní rizika. Čím vyšší riziko, tím přísnější povinnosti.

Nepřijatelné riziko

AI systémy, které jsou v EU zcela zakázány od února 2025.

Příklady:

  • Sociální bodování (social scoring)
  • Biometrická identifikace v reálném čase na veřejnosti
  • Manipulativní techniky zneužívající slabosti osob
  • Prediktivní policing

Povinnosti: Absolutní zákaz. Pokuta až 35 mil. EUR nebo 7 % obratu.

Vysoké riziko

AI systémy s významným dopadem na lidská práva a bezpečnost.

Příklady:

  • AI v náboru a hodnocení zaměstnanců
  • AI v kreditním scoringu
  • AI v zdravotnictví
  • AI v kritické infrastruktuře

Povinnosti: Risk assessment, technická dokumentace, lidský dohled. Pokuta až 15 mil. EUR.

Omezené riziko

AI systémy, kde musíte uživatele informovat o interakci s AI. Sem spadá většina webových AI.

Příklady:

  • Chatboty (Smartsupp, Tidio, Crisp)
  • AI generovaný obsah
  • Deepfakes a syntetická média
  • Emoční rozpoznávání

Povinnosti: Transparenční povinnost dle čl. 50. Pokuta až 7,5 mil. EUR.

Minimální riziko

AI systémy bez specifických regulatorních povinností.

Příklady:

  • Spam filtry
  • AI ve videohrách
  • Automatické doplňování textu
  • Doporučování obsahu

Povinnosti: Žádné povinné požadavky. Doporučené dodržování kodexu chování.

Chcete vědět, jestli se vás AI Act týká?

Zadejte URL vašeho webu — sken je zdarma a trvá 60 sekund.

Skenovat web ZDARMA