AI Act a vojenské systémy: Co regulace (ne)pokrývá
25. července 2024 • 10 min čtení

Navigace v digitálním válečnictví: Úvod do výjimek AI Actu
Evropská unie se stala průkopníkem v regulaci umělé inteligence, když schválila přelomové Nařízení EU 2024/1689, známé jako AI Act. Tento ambiciózní právní rámec má za cíl zajistit, aby systémy umělé inteligence byly bezpečné, transparentní a respektovaly základní práva občanů. Nicméně, jako každá komplexní legislativa, i AI Act obsahuje specifické výjimky, které jasně definují jeho hranice. Jednou z nejvýznamnějších a zároveň nejcitlivějších oblastí, kde se působnost AI Actu omezuje, je sektor obrany a národní bezpečnosti.
Zatímco diskuse o etice a bezpečnosti AI v civilním sektoru nabírají na intenzitě, oblast vojenských aplikací umělé inteligence zůstává často v pozadí veřejné debaty. Proč tomu tak je? Jak přesně AI Act přistupuje k systémům AI používaným pro vojenské účely? A co to znamená pro členské státy, které vyvíjejí nebo nasazují špičkové technologie pro svou obranu? V tomto článku se podíváme podrobněji na to, co AI Act v oblasti obrany reguluje a co z jeho působnosti naopak zcela vylučuje, s odkazem na klíčové články nařízení.
AI Act v kostce: Rozsah a jeho přirozené limity
AI Act je koncipován jako regulace založená na riziku, což znamená, že různé kategorie systémů AI podléhají různým úrovním dohledu. Od systémů s minimálním rizikem až po vysoce rizikové AI systémy, které mohou mít významný dopad na zdraví, bezpečnost nebo základní práva jednotlivců. Cílem je chránit uživatele a zajistit důvěru v AI technologie. Nicméně, samotné Nařízení EU 2024/1689, konkrétně jeho článek 2, jasně stanovuje omezení své působnosti, a to zejména v oblastech, které se dotýkají suverenity a bezpečnosti členských států.
Podle čl. 2 odst. 3 AI Actu se toto nařízení nevztahuje na systémy AI, které jsou vyvinuty nebo použity výlučně pro vojenské účely. Dále, odstavec 4 téhož článku uvádí, že nařízení se nevztahuje na systémy AI používané výlučně pro účely národní bezpečnosti. Tyto klíčové výjimky odrážejí politickou realitu, že otázky obrany a national security spadají primárně do kompetence jednotlivých členských států a jsou považovány za citlivé oblasti, kde by nadnárodní regulace mohla narušit národní suverenitu a operativní schopnosti. To však neznamená, že tyto systémy zůstávají zcela bez dohledu; podléhají jiným mezinárodním a národním právním rámcům.
Klíčová výjimka: Vojenské systémy a národní bezpečnost
Nejvýznamnější výjimka, která je pro naše téma klíčová, se nachází v čl. 2 odst. 3 a 4 AI Actu. Tyto odstavce explicitně uvádějí, že nařízení se nevztahuje na systémy AI, které jsou vyvinuty nebo použity výlučně pro vojenské účely, a také na systémy AI, jež jsou použity výlučně pro účely národní bezpečnosti, ať už orgány členských států nebo subjekty, které jednají jejich jménem. Tato formulace je zásadní a má dalekosáhlé důsledky.
Co to přesně znamená? Systémy AI, které jsou integrální součástí obranné infrastruktury – například pro řízení autonomních zbraní, pro zpravodajství a sledování, pro logistiku vojenských operací, nebo pro kybernetickou obranu – jsou mimo přímou působnost AI Actu. Důvodem je uznání, že členské státy potřebují flexibilitu při vývoji a nasazování technologií pro ochranu svých zájmů, a že takové systémy již podléhají specifickým mezinárodním humanitárním právům a národním etickým a kontrolním rámcům. Tato výjimka zdůrazňuje svrchovanost států v otázkách jejich obrany a national security.
Je však důležité si uvědomit, že označení "výlučně" je zde klíčové. Pokud by byl AI systém primárně vyvinut pro civilní účely a pouze *příležitostně* nebo *sekundárně* použit ve vojenském kontextu, situace by se mohla komplikovat. AI Act cílí na primární účel a určení systému, což vytváří určitou šedou zónu, o které si povíme v další sekci. Dále, i když tyto systémy nepodléhají AI Actu, jiné obecné definice jako "AI systém" (čl. 3 odst. 1) samozřejmě platí pro pochopení, co se za takový systém považuje.
Šedá zóna: Dual-use technologie a civilně-vojenské pomezí
Jednou z největších výzev v souvislosti s výjimkami AI Actu je fenomén tzv. dual-use technologií – tedy systémů, které mohou mít jak civilní, tak vojenské využití. Příkladem může být AI systém vyvinutý pro autonomní řízení vozidel (civilní aplikace), který by mohl být upraven pro navádění bezpilotních letounů v armádě. Nebo technologie rozpoznávání obličejů, která může sloužit k identifikaci kriminálníků (civilní bezpečnost), ale i k monitoringu bojiště (vojenská aplikace).
Pokud je AI systém původně navržen a uveden na trh pro civilní účely, ale později je adaptován nebo použit pro vojenské nebo národní bezpečnostní účely, AI Act se na něj původně vztahoval v civilní fázi jeho životního cyklu. Avšak jeho pozdější použití v rámci vojenské výjimky by již nepodléhalo regulaci AI Actu, pokud by bylo "výlučně" pro tyto účely. Naopak, pokud by byl AI systém vyvinut pro vojenské účely, ale následně by byl nabízen k civilnímu použití, musel by splňovat požadavky AI Actu pro civilní aplikace. Tato situace vytváří komplexní právní a etické dilema a vyžaduje pečlivé posouzení účelu a kontextu použití.
Zde je důležité zdůraznit, že i když AI Act poskytuje výjimku pro vojenské a national security systémy, jiné zákony a nařízení, například týkající se exportních kontrol dual-use zboží, zůstávají v platnosti. To znamená, že i když systém AI pro obranné účely nepodléhá AI Actu, jeho vývoz do třetích zemí by mohl být přísně regulován, aby se zabránilo jeho zneužití. Dále, pokud by byl takový systém AI nasazen v kritické infrastruktuře, která má i civilní komponenty, pak by se na příslušné civilní části regulace AI Actu vztahovala, například v kontextu vysoce rizikových systémů definovaných v čl. 6 a příloze III AI Actu.
Autonomní zbraně a širší etické úvahy
Jedním z nejdiskutovanějších témat v oblasti AI je vývoj a použití autonomních zbraní, často označovaných jako "smrtící autonomní zbraňové systémy" (LAWS). Tyto systémy jsou schopny samostatně vybírat a zasahovat cíle bez lidského zásahu. I když AI Act výslovně nereguluje autonomní zbraně, jeho existence a filozofie mají nepřímý vliv na širší debatu o etice AI v konfliktech.
AI Act se zaměřuje na regulaci AI systémů v civilním kontextu s důrazem na bezpečnost, transparentnost a lidský dohled (human oversight). I když tyto principy přímo neplatí pro vojenské systémy díky čl. 2, mezinárodní společenství a jednotlivé státy stále řeší otázky odpovědnosti, etiky a mezinárodního humanitárního práva v souvislosti s autonomními zbraněmi. AI Act tak nepřímo posiluje nutnost transparentnosti a odpovědnosti i v oblastech, které přímo nereguluje, a nutí k zamyšlení nad širšími dopady AI na společnost a bezpečnost.
Je důležité si uvědomit, že EU se snaží prosazovat globální normy a etické směrnice pro AI, a to i v kontextu vojenských aplikací, například prostřednictvím diskusí v OSN a jiných mezinárodních fórech. I když AI Act neukládá konkrétní povinnosti výrobcům autonomních zbraní, jeho duch a tlak na odpovědný vývoj AI mohou inspirovat národní legislativy a politiky v členských státech k zavedení vlastních kontrolních mechanismů a etických rámců pro vojenské AI systémy. Téma je proto stále živé a vyvíjí se.
Závěr: Připravenost v době AI a výzva pro obranu
AI Act představuje monumentální krok v regulaci umělé inteligence, který má za cíl chránit občany a budovat důvěru v nové technologie. I když explicitně vylučuje systémy AI určené výhradně pro vojenské účely a národní bezpečnost z jeho přímé působnosti (čl. 2), je klíčové si uvědomit, že hranice mezi civilním a vojenským využitím AI je často neostrá. Dual-use technologie a nejasné definice mohou vést k situacím, kdy se AI Act stane relevantním i pro subjekty s vojenskými vazbami, pokud jejich systémy nespadají "výlučně" pod zmíněné výjimky.
Pro firmy a organizace, které se pohybují v technologickém sektoru a mají vazby na obranný průmysl, je proto nezbytné pečlivě analyzovat své AI systémy a jejich určení. Pochopení AI Actu a jeho výjimek je klíčové pro zajištění souladu s předpisy a minimalizaci rizik. Ať už se jedná o vývoj nových technologií, nebo o audit stávajících systémů, znalost regulace je nezbytná. V případě porušení AI Actu pro systémy, které nejsou vyňaty, hrozí vysoké pokuty, které mohou dosahovat až 35 milionů eur nebo 7 % celkového celosvětového ročního obratu (čl. 99, dříve čl. 50 v předchozích verzích).
Budoucnost obrany a bezpečnosti bude stále více záviset na umělé inteligenci. I když AI Act dává členským státům volnou ruku v této citlivé oblasti, mezinárodní debata a etické standardy se neustále vyvíjejí. Proaktivní přístup k regulaci, transparentnost a odpovědnost by měly být prioritou, a to i v sektorech, které stojí mimo přímý dosah tohoto nařízení. Nenechte nic náhodě a zjistěte, zda jsou vaše AI systémy v souladu s AI Actem. Využijte náš skener webových stránek a AI systémů a buďte připraveni na novou éru regulace.
Související články
Zjistěte stav vašeho webu
Bezplatný sken odhalí všechny AI systémy na vašem webu za 60 sekund. Bez registrace.
Skenovat web ZDARMAČtěte dále
Komentáře
Zatím žádné komentáře. Buďte první!
Chcete vědět, jestli se vás AI Act týká?
Zadejte URL vašeho webu — sken je zdarma a trvá 60 sekund.
Skenovat web ZDARMA