Open-source AI modely a AI Act: Výjimky a povinnosti
3. dubna 2026 • 6 min čtení

AI Act a open-source: Průsečík inovací a regulace
Vstupujeme do éry, kdy je umělá inteligence (AI) hybnou silou digitální transformace, a s ní přichází i potřeba robustní regulace. Evropská unie se ujala role globálního průkopníka s Nařízením EU 2024/1689, známým jako AI Act. Cílem je zajistit bezpečnost, transparentnost a etické používání AI systémů, a to bez ohledu na to, zda jsou vyvíjeny gigantickými korporacemi, nebo zapálenými komunitami.
Fenomén open-source AI modelů, jako je například populární rodina LLaMA, zásadně mění dynamiku AI ekosystému. Tyto modely, s volně dostupným kódem a daty, podporují rychlou inovaci, demokratizují přístup k pokročilým technologiím a umožňují široké spektrum aplikací. Zároveň ale vyvstává klíčová otázka: Jak se nároky AI Actu slučují s otevřenou a kolaborativní povahou open-source vývoje? Je nutné najít rovnováhu mezi podporou inovací a ochranou uživatelů.
AI Act je postaven na rizikovém přístupu, což znamená, že míra regulace závisí na potenciálním riziku, které AI systém představuje. Pro open-source komunitu a vývojáře je proto zásadní pochopit, kdy se jejich modely řadí mezi ty, na které se vztahují plné povinnosti, a kdy mohou využít speciální výjimky, které AI Act nabízí. Tento článek vám pomůže se v těchto složitostech zorientovat a připravit se na nadcházející změny.
Klíčové výjimky pro open-source AI modely (čl. 53 odst. 2)
AI Act si uvědomuje jedinečnou hodnotu a specifika open-source vývoje. Proto v článku 53 odst. 2 zavádí klíčové výjimky, které mají za cíl podpořit inovace a snížit byrokratickou zátěž pro open-source komunitu. V podstatě platí, že požadavky AI Actu se nevztahují na poskytovatele open-source AI modelů, kteří je zpřístupňují pod bezplatnou a volnou licencí (tzv. free licence).
Tato výjimka platí za předpokladu, že poskytovatel není v postavení dodavatele vysoce rizikového AI systému (dle čl. 6 a přílohy III) ani poskytovatele obecného AI modelu (GPAI) se systémovým rizikem (dle čl. 50 a čl. 53 odst. 2 písm. b). Důležité je, že se výjimka primárně vztahuje na rané fáze vývoje, výzkum, nebo nekomerční využití. Cílem je chránit základní vývoj a experimentování, které tvoří páteř open-source ekosystému.
Prakticky to znamená, že pokud jste vývojář, který zpřístupňuje svůj AI model pod licencí jako MIT, Apache 2.0 nebo GPL (tedy free licence), a tento model sám o sobě není zamýšlen jako vysoce rizikový systém, ani nespadá do kategorie GPAI se systémovým rizikem, nemusíte splňovat komplexní požadavky AI Actu, jako je například posuzování shody nebo systém řízení kvality. To je významná úleva, která umožňuje rychlejší a flexibilnější vývoj.
Kdy se výjimky nevztahují: Povinnosti open-source providerů
Ačkoliv výjimky pro open-source představují významnou úlevu, je klíčové pochopit, že nejsou bezpodmínečné. Existují scénáře, kdy i open-source AI model spadá pod plné povinnosti AI Actu. Prvním a nejzřejmějším případem je, pokud je open-source model klasifikován jako vysoce rizikový AI systém. Pokud je model určen k použití v oblastech, které AI Act označuje za vysoce rizikové (např. kritická infrastruktura, vzdělávání, zaměstnanost, biometrická identifikace), pak se na jeho dodavatele (včetně open-source providera, který jej takto zpřístupňuje) vztahují veškeré povinnosti, včetně posouzení shody, technické dokumentace a systémů řízení kvality. Více o těchto kategoriích se dozvíte v našem článku o <a href="/ai-act/co-je-ai-act">definici a kontextu AI Actu</a>.
Druhým kritickým bodem je, když open-source AI model spadá do kategorie obecných AI modelů (GPAI) se systémovým rizikem. To je zvláště relevantní pro velké jazykové modely (LLM) a další foundation modely, které vykazují značné schopnosti a mohou ovlivnit mnoho aplikací. AI Act (konkrétně čl. 50 a čl. 53 odst. 2 písm. b) stanovuje pro tyto GPAI modely s významnými schopnostmi, které mohou vyvolat systémové riziko, zvýšené povinnosti, jako je například hodnocení modelu, posouzení a zmírnění systémových rizik, opatření kybernetické bezpečnosti a monitorování spotřeby energie. Příkladem takového modelu může být právě zmíněná LLaMA, pokud splní kritéria systémového rizika stanovená AI Actem. Podrobnější informace o GPAI naleznete v našem <a href="/blog/general-purpose-ai-gpai-povinnosti">článku o povinnostech GPAI</a>.
Třetím důležitým faktorem je komercializace. I když je základní model open-source, jakmile je integrován do komerčního produktu nebo služby, odpovědnost se přesouvá na toho, kdo produkt či službu dodává. V takovém případě se tento subjekt stává dodavatelem AI systému (nebo jeho deployerem) a musí zajistit, že celý systém, včetně open-source komponent, splňuje požadavky AI Actu. To platí i v situacích, kdy open-source model sám o sobě není vysoce rizikový, ale jeho konkrétní použití v komerčním kontextu ho vysoce rizikovým činí.
Transparentnost a dobrovolné závazky pro open-source
I když se na některé open-source AI modely nevztahují plné regulatorní povinnosti, transparentnost a odpovědnost zůstávají klíčové. AI Act (čl. 53 odst. 3) výslovně nabádá poskytovatele open-source AI modelů, kteří nespadají pod plné povinnosti, aby dodržovali požadavky transparentnosti definované pro GPAI modely (čl. 50, zejména odst. 1 písm. c), d) a e)). To zahrnuje poskytování podrobné technické dokumentace, jasných pokynů pro uživatele a informací o tréninkových datech a způsobu fungování modelu. Tato data jsou klíčová pro pochopení schopností, omezení a potenciálních rizik modelu.
Kromě toho AI Act podporuje vývoj a dodržování dobrovolných kodexů chování (čl. 69). Tyto kodexy mohou hrát zásadní roli při definování osvědčených postupů pro open-source komunitu, a to i nad rámec minimálních právních požadavků. Mohou pokrývat aspekty jako etický vývoj, zajištění spravedlnosti, zmírnění zkreslení (bias) a robustnost modelů. Účast v takových iniciativách může nejen zvýšit důvěru v open-source AI, ale také pomoci formovat budoucí standardy a regulace.
Pro open-source komunitu to znamená příležitost aktivně se podílet na tvorbě odpovědného AI ekosystému. Jasná dokumentace, takzvané 'model cards', a otevřená komunikace o schopnostech a omezeních modelů jsou neocenitelné. Pomáhají nejen koncovým uživatelům, ale i dalším vývojářům, kteří chtějí open-source modely integrovat do svých aplikací, aby mohli odpovědně posoudit rizika a zajistit soulad s AI Actem tam, kde je to relevantní.
Navigace v AI Actu: Důležitost znalosti a přípravy
Pro vývojáře, podniky a inovátory v oblasti open-source AI je nezbytné pečlivě sledovat vývoj AI Actu a pochopit, jak se jeho pravidla vztahují na jejich konkrétní modely a aplikace. Nuance mezi open-source AI modely, vysoce rizikovými systémy a GPAI se systémovým rizikem jsou jemné, ale jejich dopad na povinnosti může být obrovský. Chybná interpretace může vést k nedodržení předpisů a potenciálním sankcím, zatímco správné pochopení otevírá cestu k inovaci a odpovědnému rozvoji.
AI Act není překážkou pro open-source, ale spíše rámcem, který klade důraz na odpovědnost a důvěru. Pro open-source komunitu to znamená příležitost ukázat, že otevřenost a transparentnost mohou jít ruku v ruce s bezpečností a etickými standardy. Pro ty, kteří open-source AI modely využívají v komerčních aplikacích, je pak klíčové zajistit, že celý systém splňuje požadavky, i když jeho základem je volně dostupný kód.
Na AIshield.cz jsme připraveni vám pomoci navigovat těmito složitými vodami. Ať už jste vývojář open-source AI, podnik, který je integruje, nebo jen chcete pochopit dopady AI Actu na vaše projekty, nabízíme nástroje a expertizu pro zajištění souladu. Zjistěte, jak se připravit na AI Act, a minimalizujte rizika. Udělejte první krok k bezpečné a odpovědné AI ještě dnes.
Související články
Chcete vědět, jestli se vás AI Act týká?
Zadejte URL vašeho webu — sken je zdarma a trvá 60 sekund.
Skenovat web ZDARMA