Open-source AI modely a AI Act: Výjimky a povinnosti

21. března 2026 • 10 min čtení

Open-source AI modely a AI Act:

Open-source AI: Inovační motor pod drobnohledem AI Actu

Svět umělé inteligence se neustále vyvíjí závratným tempem a open-source modely hrají v této revoluci nezastupitelnou roli. Od inovativních výzkumných projektů až po masové komerční aplikace, open-source AI demokratizuje přístup k technologiím a urychluje pokrok. Umožňuje menším firmám, startupům a akademikům využívat pokročilé algoritmy, které by si jinak nemohli dovolit vyvinout. Tato otevřenost však s sebou nese i výzvy, zejména v kontextu nové regulace, jako je evropský AI Act (Nařízení EU 2024/1689).

Evropská unie si je vědoma klíčového významu open-source komunity pro digitální ekonomiku a inovace. AI Act proto přistupuje k open-source AI modelům specifickým způsobem, který má za cíl podpořit inovace a zároveň zajistit bezpečnost a etické standardy. Není cílem brzdit vývoj, ale nastavit jasná pravidla hry. Pochopení těchto pravidel je zásadní pro každého, kdo se v oblasti open-source AI pohybuje, ať už jako vývojář, poskytovatel nebo uživatel. V tomto článku se podrobně zaměříme na to, jaké výjimky AI Act pro open-source modely stanovuje a kdy naopak musí splnit plné povinnosti regulace.

AIshield.cz je tu, aby vám pomohl se v této složité legislativě zorientovat a zajistit soulad vašich AI systémů s AI Actem. Pochopení nuancí kolem open-source je prvním krokem k bezpečnému a legálnímu rozvoji AI.

Kdo je poskytovatel open-source modelu a na koho se výjimky vztahují?

Klíčovým prvkem pro pochopení výjimek pro open-source AI je definice toho, kdo je považován za 'poskytovatele' takového modelu a za jakých podmínek se na něj vztahují speciální pravidla. AI Act ve svém článku 53 odstavec 2 (a navazujících odkazech, jako je čl. 3 bod 11a) stanovuje, že se určité povinnosti nevztahují na 'poskytovatele AI systémů s obecným účelem nebo AI systémů, které jsou poskytovány pod free licencí a jejichž zdrojový kód je veřejně dostupný'. Zde je důležité rozlišovat.

Výjimky se primárně vztahují na *poskytovatele* (vývojáře nebo subjekty, které model zpřístupňují), kteří AI model poskytují pod free licencí (např. MIT, Apache 2.0, GPL) a bez finančního zisku, nebo bez úmyslu monetizovat jeho použití. To znamená, že pokud jste individuální vývojář, výzkumná instituce nebo nezisková organizace, která vytvoří a zveřejní AI model pro širokou veřejnost k volnému použití a úpravám, je velká šance, že se na vás tyto výjimky vztahují. Cílem je podpořit základní výzkum a sdílení znalostí v komunitě. Problém ale nastává, když se open-source model dostane do komerčního kontextu.

Je důležité si uvědomit, že i když je model poskytován pod free licencí, výjimky se nemusí vztahovat na organizace, které model 'vydávají' s úmyslem z něj v budoucnu profitovat nebo ho aktivně integrovat do svých komerčních služeb. Příkladem může být LLaMA od Meta. I když je LLaMA dostupná pod licencí, která je v podstatě 'open-source', Meta je velká korporace s jasnými komerčními zájmy, a proto na ni mohou dopadat povinnosti pro poskytovatele GPAI modelů. Zjednodušeně řečeno, výjimka není automatická jen proto, že je kód veřejně dostupný; záleží na záměru a způsobu distribuce.

Hlavní výjimky pro open-source AI modely dle AI Actu

AI Act uznává, že uvalení plných regulatorních povinností na každého, kdo přispívá k open-source vývoji AI, by mohlo brzdit inovace. Proto článek 53 odstavec 2 stanovuje specifické výjimky pro poskytovatele open-source AI modelů, kteří splňují stanovená kritéria. Konkrétně se na ně nevztahují mnohé z povinností kladených na poskytovatele rizikových systémů AI, jako jsou například povinnosti týkající se systémů řízení kvality (čl. 17), posuzování shody (čl. 43) nebo registrace v databázi EU (čl. 49).

Tyto výjimky se vztahují na modely, které jsou poskytovány pod free licencí, jsou otevřeně dostupné a nejsou určeny k vývoji vysoce rizikových AI systémů, ani nejsou samy o sobě klasifikovány jako vysoce rizikové. Důraz je kladen na transparentnost a přístupnost zdrojového kódu. Poskytovatelé by měli jasně dokumentovat, jakým způsobem je model určen k použití a jaká jsou potenciální rizika. Cílem je umožnit komunitě, aby sama přispívala k identifikaci a zmírňování rizik, namísto byrokratické zátěže.

Je však klíčové zdůraznit, že tyto výjimky nejsou neomezené. Jakmile je open-source model integrován do vysoce rizikového AI systému (dle čl. 6), nebo je významně upraven a komercializován, odpovědnost za soulad s AI Actem se přesouvá na 'nasazovatele' (uživatele) nebo 'distributora', který model do komerčního kontextu uvádí. To je zásadní rozdíl, který je třeba mít na paměti. Zde si můžete přečíst více o tom, co je AI Act a jaké jsou jeho základní principy.

Kdy se výjimky neuplatní: Povinnosti pro open-source AI v komerčním a rizikovém kontextu

Přestože AI Act nabízí významné výjimky pro open-source AI modely, existuje několik důležitých scénářů, kdy se tyto výjimky neuplatní a na open-source AI se vztahují plné povinnosti. První a nejdůležitější je situace, kdy je open-source model použit k vývoji, nebo je součástí, *vysoce rizikového AI systému* (jak je definováno v článku 6 AI Actu). V takovém případě se na poskytovatele (nebo nasazovatele, který open-source model integruje) vztahují veškeré povinnosti pro vysoce rizikové systémy, včetně posuzování shody, řízení rizik, monitorování a dokumentace.

Dalším klíčovým bodem je *komerční využití* open-source modelu. Pokud je open-source model upraven, vylepšen a následně prodáván nebo nabízen jako služba (i když je původní kód zdarma), stává se jeho poskytovatel subjektem, na kterého se vztahují příslušné povinnosti AI Actu. Stejně tak, pokud je open-source model integrován do komerčního produktu nebo služby, je to provozovatel tohoto produktu, kdo nese odpovědnost za soulad. Zde je nutné provést důkladnou analýzu rizik a zajistit soulad s požadavky na transparentnost (čl. 50), které se týkají například generovaného obsahu nebo interakce s lidmi.

Zvláštní pozornost je třeba věnovat *modelům s obecným účelem (GPAI)*. AI Act stanovuje pro poskytovatele GPAI modelů (jako je například LLaMA od Meta nebo GPT od OpenAI) specifické povinnosti v článcích 51, 52 a 54, a to bez ohledu na to, zda jsou modely open-source či nikoli. Tyto povinnosti zahrnují například transparentnost ohledně tréninkových dat, energetické spotřeby a rizik. Pokud je open-source GPAI model dostatečně výkonný na to, aby představoval systémové riziko, vztahují se na něj ještě přísnější požadavky. Více o povinnostech GPAI modelů se dozvíte v našem článku o povinnostech GPAI. A samozřejmě, žádný open-source model nesmí být použit k praktikám zakázaným dle článku 5 AI Actu, jako je například sociální scoring nebo biometrická identifikace v reálném čase na veřejných místech.

Praktické kroky a doporučení pro vývojáře a uživatele open-source AI

Pro vývojáře open-source AI modelů je zásadní jasně definovat účel a rozsah použití jejich modelu. Používejte transparentní a široce uznávané free licence. Zveřejňujte podrobnou dokumentaci o architektuře modelu, tréninkových datech, potenciálních omezeních a rizicích. I když se na vás vztahují výjimky, je dobrým zvykem poskytovat co nejvíce informací, aby uživatelé mohli provést vlastní posouzení rizik. Zvažte také implementaci mechanismů, které umožní uživatelům snadno hlásit zranitelnosti nebo neočekávané chování. To vše přispívá k budování důvěry a zodpovědného ekosystému.

Uživatelé a nasazovatelé open-source AI modelů, zejména ti, kteří je integrují do komerčních produktů nebo vysoce rizikových systémů, musí být mimořádně obezřetní. Pouhá dostupnost modelu pod free licencí neznamená, že je osvobozen od všech povinností. Je nezbytné provést důkladnou due diligence, posoudit, zda model spadá pod definici vysoce rizikového systému, a zajistit, že veškeré povinnosti AI Actu jsou splněny. To zahrnuje testování, validaci, monitorování, dokumentaci a řízení rizik. Integrace open-source AI může výrazně urychlit vývoj, ale odpovědnost za konečný produkt leží vždy na nasazovateli.

Pamatujte, že AI Act je komplexní legislativa s mnoha vzájemně propojenými částmi. Co začíná jako open-source projekt, může se rychle stát regulovaným AI systémem, jakmile je komercializován nebo integrován do kritických aplikací. Zůstaňte informovaní a neváhejte vyhledat odbornou pomoc. Na AIshield.cz vám pomůžeme s analýzou vašich AI systémů a poradíme, jak se připravit na AI Act a zajistit soulad s jeho požadavky.

Závěr: Rovnováha mezi inovací a regulací

AI Act představuje významný milník v globální regulaci umělé inteligence a jeho dopad na open-source komunitu je značný. Cílem EU je najít rovnováhu mezi podporou inovací, které open-source nepochybně přináší, a ochranou občanů před potenciálními riziky. Ačkoliv existují specifické výjimky pro poskytovatele open-source AI modelů, nejsou absolutní a vztahují se na ně přísná kritéria týkající se nekomerčního použití a free licence.

Pro vývojáře i uživatele open-source AI je klíčové aktivně se vzdělávat a rozumět nuancím AI Actu. Ignorování těchto pravidel může vést k vážným následkům, včetně vysokých pokut. Zodpovědný přístup k vývoji a nasazování AI systémů, ať už open-source či proprietárních, je nyní důležitější než kdy jindy. Připravte se včas a zajistěte, aby vaše AI systémy byly nejen inovativní, ale také etické a v souladu se zákonem.

Chcete vědět, jak je váš web nebo AI systém připraven na AI Act a další regulace? Navštivte AIshield.cz/scan a proveďte rychlou analýzu. Získejte přehled o potenciálních rizicích a krocích, které můžete podniknout pro zajištění plného souladu.

Související články

Chcete vědět, jestli se vás AI Act týká?

Zadejte URL vašeho webu — sken je zdarma a trvá 60 sekund.

Skenovat web ZDARMA