← Všechny články

AI Act

AI Act EU 2026 — co musí české firmy splnit a jak se připravit

DoneBy tým··14 min read

AI Act EU 2026 — co musí české firmy splnit a jak se připravit#

AI Act je první ucelený právní rámec pro umělou inteligenci na světě. Platí přímo v celé Evropské unii včetně Česka a část povinností už běží od února 2025. Hlavní vlna pravidel přichází 2. srpna 2026. Pro české firmy s 10–80 zaměstnanci to znamená konkrétní povinnosti — od proškolení zaměstnanců přes označování chatbotů až po audit vysoce rizikových systémů. Tento průvodce vysvětluje, co musíte splnit, do kdy a kolik vás to může stát, pokud to neuděláte.

Proč AI Act řešit právě teď#

Umělá inteligence v českých firmách přestala být okrajová záležitost. Podle Českého statistického úřadu využívalo v roce 2025 některou z technologií umělé inteligence 18 % českých podniků — trojnásobek oproti roku 2023. U velkých firem nad 250 zaměstnanců je to už 54 %. Průzkum České asociace umělé inteligence a Hospodářské komory ČR ukazuje, že s umělou inteligencí v roce 2026 počítá 9 z 10 českých firem.

Jenže používání AI bez pravidel přináší rizika. Podle Gartneru 68 % zaměstnanců používá neschválené AI nástroje — to je takzvaná stínová AI. Celých 43 % uživatelů přiznává, že do AI nástrojů vkládají citlivá firemní data bez vědomí zaměstnavatele. Pouze 37 % organizací má zavedená pravidla pro používání AI.

AI Act na tuto situaci reaguje. Není to budoucnost — je to současnost. Část povinností platí od února 2025, zbytek přichází v srpnu 2026. České firmy, které AI jakkoli používají, se mu nevyhnou.

Pokud teprve zvažujete zavedení umělé inteligence ve firmě, začněte kompletním průvodcem AI ve firmě.

Co je AI Act — základní přehled#

AI Act (nařízení EU 2024/1689) je první ucelená regulace umělé inteligence na světě. Evropský parlament ho schválil v březnu 2024, v platnost vstoupil 1. srpna 2024. Na rozdíl od směrnic, které musí jednotlivé státy přepisovat do vlastních zákonů, nařízení platí přímo. To znamená, že povinnosti z AI Actu se vztahují na českou firmu stejně jako na německou nebo francouzskou — bez čekání na český zákon.

AI Act zavádí takzvaný rizikový přístup. Nesnaží se regulovat všechno stejně. Místo toho třídí AI systémy podle míry rizika, které představují pro lidi, a podle toho odstupňuje povinnosti.

Čtyři kategorie rizika#

KategoriePříkladyCo to znamená
Nepřijatelné rizikoSociální skóring, manipulace zranitelných osob, sledování emocí na pracovištiÚplný zákaz — tyto systémy se nesmí v EU používat
Vysoké rizikoAI pro výběr zaměstnanců, hodnocení úvěrů, přidělování veřejných služebNejpřísnější pravidla — lidský dohled, dokumentace, řízení rizik, registrace
Omezené rizikoChatboty, generátory obsahu, rozpoznávání emocíPovinnost transparentnosti — uživatel musí vědět, že komunikuje s AI
Minimální rizikoInterní shrnutí textů, překlady, brainstormingŽádné specifické povinnosti (jen AI gramotnost a obecné předpisy)

Většina českých malých a středních firem spadá do kategorie omezeného nebo minimálního rizika. Pokud ale ve firmě používáte AI k hodnocení životopisů, rozhodování o úvěrech nebo přidělování práce zaměstnancům — spadáte do kategorie vysokého rizika a povinností přibývá.

Časová osa — co už platí a co přichází#

AI Act se nezavádí naráz. Povinnosti přicházejí ve vlnách a některé už platí.

2. února 2025 — už platí#

  • Zákaz nepřijatelných praktik (článek 5): žádný sociální skóring, žádná manipulace zranitelných osob, žádné sledování emocí zaměstnanců na pracovišti
  • Povinnost AI gramotnosti (článek 4): každá firma používající AI musí zajistit proškolení zaměstnanců

2. srpna 2025 — už platí#

  • Pravidla pro obecné modely AI (takzvané GPAI — ChatGPT, Claude, Gemini a další)
  • Členské státy musí určit příslušné orgány dohledu
  • Systém sankcí musí být zakotven v národním právu

2. srpna 2026 — hlavní vlna#

  • Povinnosti transparentnosti (článek 50): chatboty musí oznamovat, že jsou AI; syntetický obsah (deepfaky) musí být označen
  • Pravidla pro AI systémy s omezeným rizikem
  • Každý členský stát musí mít alespoň jeden regulační sandbox pro testování AI
  • Český zákon o umělé inteligenci by měl nabýt účinnosti

Prosinec 2027 / srpen 2028 — vysoce rizikové systémy#

Původně měla pravidla pro vysoce rizikové systémy platit od srpna 2026. V listopadu 2025 ale Evropská komise navrhla odklad v rámci takzvaného Digital Omnibus. V březnu 2026 Evropský parlament odklad schválil 569 hlasy ku 45. Nové termíny:

  • 2. prosince 2027 pro samostatné vysoce rizikové systémy (příloha III — nábor, úvěry, biometrie)
  • 2. srpna 2028 pro vysoce rizikové systémy zabudované do produktů (příloha I — zdravotnické přístroje, stroje, vozidla)

To dává firmám více času na přípravu, ale neznamená to, že mohou čekat. Transparentnost a AI gramotnost se neposouvají.

Článek 4 — AI gramotnost: co musíte udělat jako první#

Povinnost, která platí od 2. února 2025, a přesto ji většina českých firem neplní. Článek 4 AI Actu říká jasně: každý, kdo AI systémy zavádí nebo používá, musí zajistit „dostatečnou úroveň gramotnosti v oblasti AI" u svých zaměstnanců a všech dalších osob, které se jeho jménem zabývají provozem AI systémů.

Co „dostatečná úroveň" znamená v praxi#

Evropská komise v květnu 2025 upřesnila, co nestačí. Doslova označila za „neefektivní a nedostatečné", pokud firma jen pošle zaměstnancům odkaz na video nebo obecný návod k ChatGPT. Podle výkladu Komise musí školení pokrývat:

  • Jak AI systém funguje a kde má limity — zaměstnanec musí vědět, že AI může generovat nepřesné informace
  • Jak správně posoudit výstupy — nedůvěřovat výsledkům slepě, ověřovat klíčové informace
  • Rizika ochrany dat — jaká data smí do AI vkládat a jaká rozhodně ne
  • Firemní pravidla pro AI — interní směrnice, kdo smí co používat a za jakých podmínek

Kdo musí být proškolen#

Školení se netýká jen IT oddělení. Týká se každého, kdo AI jakkoli používá — obchodníků, účetních, asistentů, vedoucích. Pokud někdo ve firmě otevírá ChatGPT, Copilot nebo jakýkoli jiný AI nástroj, musí projít odpovídajícím školením.

Jak na to prakticky#

  1. Zmapujte, kdo AI ve firmě používá — a to včetně neschválených nástrojů (stínová AI)
  2. Vytvořte interní AI směrnici — co je povolené, co zakázané, jaká data se nesmí zadávat
  3. Proškolte zaměstnance podle rolí — obchodník potřebuje jiné školení než účetní
  4. Dokumentujte — kdo byl kdy proškolen, na co, jakým způsobem
  5. Opakujte — gramotnost není jednorázová akce, ale průběžný proces

Evropská komise zřídila živý repozitář osvědčených postupů pro AI gramotnost — obsahuje příklady školení z různých odvětví a velikostí firem.

Pokud chcete umělou inteligenci ve firmě nasadit systémově a ne jen jako izolovaný nástroj, podívejte se na průvodce zavedením AI ve firmě.

Článek 50 — transparentnost: co přichází v srpnu 2026#

Od 2. srpna 2026 začínají platit povinnosti transparentnosti. Pro většinu českých malých a středních firem jsou nejdůležitější dvě:

Chatboty a virtuální asistenti#

Pokud nasazujete chatbota na web, do zákaznické podpory nebo kamkoli, kde komunikuje s lidmi — musíte jasně sdělit, že jde o AI. Uživatel musí vědět, že nekomunikuje s člověkem, pokud to není zřejmé z okolností.

Co to znamená prakticky: Přidejte na chat jasnou informaci typu „Komunikujete s AI asistentem". Nestačí to schovat do podmínek použití.

Syntetický obsah a deepfaky#

Pokud používáte AI k vytváření obrázků, videí, zvuků nebo textů, které se tváří jako autentické, musíte je označit jako uměle vytvořené. Poskytovatelé AI systémů musí zajistit strojově čitelné označení výstupů.

Výjimka pro běžný firemní obsah: Interní shrnutí, návrhy e-mailů nebo úpravy textů nevyžadují zvláštní označení. Povinnost se týká obsahu, který by mohl být zaměněn za autentický lidský výtvor a zveřejňuje se.

Pokud vás zajímá, co AI agenti reálně dělají oproti chatbotům, přečtěte si vysvětlení AI agentů ve firmě.

Vysoké riziko — kdy se vás týká přísnější režim#

Většina českých malých a středních firem s AI systémy vysokého rizika nepracuje. Ale existují výjimky, které je dobré zkontrolovat. Příloha III AI Actu definuje osm oblastí, kde se AI automaticky považuje za vysoce rizikovou:

  1. Biometrická identifikace — rozpoznávání obličejů, otisky prstů pro přístup
  2. Kritická infrastruktura — řízení energetických sítí, vodovodu, dopravy
  3. Vzdělávání — AI hodnocení studentů, přijímací řízení
  4. Zaměstnávání — třídění životopisů, hodnocení kandidátů, rozhodování o propouštění
  5. Přístup k veřejným službám — sociální dávky, úvěrový skóring
  6. Vymáhání práva — prediktivní policejní činnost
  7. Migrace a kontrola hranic — posuzování žádostí o azyl
  8. Soudnictví — AI asistence při rozhodování soudů

Na co si dát pozor v praxi#

Pokud ve firmě používáte AI nástroj, který třídí životopisy, hodnotí kandidáty nebo boduje zaměstnance — spadáte do kategorie vysokého rizika. To platí i tehdy, pokud jde o nástroj třetí strany (například modul v personálním systému).

Pro firmy s vysoce rizikovými systémy platí od prosince 2027:

  • Povinný lidský dohled nad rozhodnutími AI
  • Dokumentace a řízení rizik
  • Informování dotčených osob (kandidátů, zaměstnanců)
  • Registrace systému v databázi EU

Díky posunu termínů z Digital Omnibus máte čas se připravit. Ale audit toho, zda některý z vašich systémů do kategorie spadá, udělejte co nejdřív.

Sankce — kolik to stojí, když to neuděláte#

AI Act zavádí třístupňový systém pokut:

PorušeníMaximální pokutaProcento obratu
Zakázané praktiky (sociální skóring, manipulace)35 milionů eur7 % celosvětového obratu
Porušení pravidel pro vysoce rizikové systémy15 milionů eur3 % obratu
Nesplnění transparentních a informačních povinností7,5 milionu eur1 % obratu

Jak to funguje pro malé firmy#

U malých a středních podniků se vybírá nižší z obou hodnot — procento obratu, nebo pevná částka. To je zásadní rozdíl oproti velkým firmám, kde se bere vyšší hodnota.

Příklad: Firma s obratem 20 milionů korun (cca 800 tisíc eur) za nesplnění transparentních povinností. Maximální pokuta: 1 % z 800 tisíc = 8 000 eur (asi 200 tisíc korun). To není likvidační, ale ani zanedbatelné.

Příklad 2: Firma s obratem 50 milionů korun (cca 2 miliony eur) za porušení pravidel vysoce rizikových systémů: 3 % z 2 milionů = 60 000 eur (asi 1,5 milionu korun).

Reálně se menší firmy nemusí bát astronomických částek, které míří na velké technologické společnosti. Ale pokuty jsou i tak dostatečně vysoké, aby se vyplatilo povinnosti splnit.

Český zákon o umělé inteligenci — co přidává#

AI Act platí přímo, ale některé věci nechává na členských státech — zejména kdo bude dohlížet a jak budou fungovat sankce v praxi. Proto Ministerstvo průmyslu a obchodu (MPO) připravilo návrh českého zákona o umělé inteligenci.

Kdo bude dohlížet#

Český zákon rozděluje dohled mezi několik institucí:

  • Český telekomunikační úřad (ČTÚ) — hlavní dozorový orgán a kontaktní bod
  • Česká národní banka (ČNB) — dohled nad AI ve finančním sektoru
  • Úřad pro ochranu osobních údajů (ÚOOÚ) — aspekty ochrany dat
  • Veřejný ochránce práv — sleduje diskriminaci způsobenou AI
  • Úřad pro technickou normalizaci (ÚNMZ) — posuzování shody vysoce rizikových systémů
  • Česká agentura pro standardizaci (ČAS) — správa regulačního sandboxu

Regulační sandbox — příležitost pro malé firmy#

Zajímavá novinka: Česká agentura pro standardizaci bude spravovat regulační sandbox — testovací prostředí, kde mohou firmy vyzkoušet AI systémy pod dohledem regulátora. Pro menší firmy je účast bezplatná. Sandbox umožňuje testovat AI na reálných datech a výstupní zpráva urychluje pozdější posouzení shody.

Kdy zákon začne platit#

Zákon by měl nabýt účinnosti v průběhu roku 2026, ideálně souběžně s hlavní vlnou AI Actu v srpnu. Legislativní proces stále probíhá.

Pokud řešíte, jak firemní systémy propojit a nepřepisovat data ručně, přečtěte si průvodce propojením firemních systémů.

Praktický příklad — firma s 30 zaměstnanci#

Představme si českou firmu s 30 zaměstnanci — řekněme instalační firmu nebo agenturu. Používá ChatGPT pro přípravu nabídek, Copilot v e-mailu, chatbota na webu a personální systém s AI modulem pro třídění životopisů.

Co musí udělat#

Do teď (povinnosti z února 2025):

  • Zmapovat všechny AI nástroje — včetně těch, které zaměstnanci používají na vlastní pěst
  • Vytvořit interní AI směrnici: jaké nástroje jsou povolené, jaká data se do nich nesmí zadávat
  • Proškolit zaměstnance: vedení, obchod, administrativa — každý podle své role
  • Dokumentovat školení (kdo, kdy, co)

Do srpna 2026:

  • Označit chatbota na webu jako AI — jasný text viditelný při zahájení konverzace
  • Ověřit, že syntetický obsah generovaný AI je správně označen
  • Zkontrolovat, zda dodavatel chatbota splňuje povinnosti ze strany poskytovatele

Do prosince 2027:

  • Prověřit personální systém: pokud AI třídí životopisy, spadá do vysokého rizika
  • Zajistit lidský dohled nad rozhodnutími AI v náboru
  • Informovat kandidáty, že jejich životopis posuzuje AI
  • Dokumentovat řízení rizik a registrovat systém

Odhad nákladů#

PoložkaOdhad
Interní AI směrnice (zpracování)10 000–50 000 Kč
Školení zaměstnanců (první kolo)5 000–20 000 Kč
Úprava chatbota (označení)0–5 000 Kč
Audit vysoce rizikových systémů20 000–100 000 Kč
Celkem pro typickou malou firmu35 000–175 000 Kč

Srovnejte to s potenciální pokutou za nesplnění — a investice dává smysl.

Kontrolní seznam: 7 kroků pro české firmy#

  1. Zmapujte AI ve firmě — všechny nástroje, včetně neschválených. Kdo co používá, k čemu, s jakými daty.

  2. Vytvořte interní AI směrnici — povolené nástroje, zakázaná data, pravidla pro výstupy, odpovědná osoba.

  3. Proškolte zaměstnance — podle rolí, ne plošně. Obchodník potřebuje jiné školení než účetní. Dokumentujte.

  4. Označte chatboty a AI obsah — do srpna 2026 musí být jasné, že uživatel komunikuje s AI.

  5. Proveďte audit rizikové kategorie — zkontrolujte, zda některý z vašich AI systémů nespadá do vysokého rizika (nábor, hodnocení, skóring).

  6. Ověřte dodavatele — pokud používáte AI nástroje třetích stran, zjistěte, zda poskytovatel plní své povinnosti podle AI Actu.

  7. Sledujte vývoj — český zákon o AI je v legislativním procesu, Digital Omnibus mění termíny. Situace se vyvíjí.

Pokud zvažujete, jestli potřebujete jeden systém místo šesti různých nástrojů, podívejte se na průvodce konsolidací firemního software.

Často kladené otázky #

Co je AI Act a koho se týká?#

AI Act je nařízení Evropské unie (č. 2024/1689), které reguluje vývoj a používání umělé inteligence. Platí přímo ve všech 27 členských státech včetně Česka — bez nutnosti přijímat zvláštní zákon. Týká se každé firmy, která umělou inteligenci jakkoliv používá, tedy i firmy kde zaměstnanci pracují s ChatGPT nebo jinými AI nástroji.

Musí malá firma splňovat AI Act?#

Ano. Povinnost AI gramotnosti zaměstnanců (článek 4) se vztahuje na všechny firmy bez ohledu na velikost — platí od února 2025. U sankcí se zohledňuje velikost a ekonomická situace podniku, takže malé firmy dostávají úměrně nižší pokuty. Většina malých firem ale používá AI s omezeným rizikem, kde stačí interní směrnice a proškolení.

Jaké jsou sankce za nedodržení AI Actu?#

Pokuty se odstupňují podle závažnosti: za zakázané praktiky až 35 milionů eur nebo 7 % obratu, za porušení pravidel vysoce rizikových systémů až 15 milionů eur nebo 3 % obratu, za nesplnění informačních povinností až 7,5 milionu eur nebo 1 % obratu. U malých a středních podniků se vybírá nižší z obou hodnot — procento, nebo částka.

Co je povinnost AI gramotnosti zaměstnanců?#

Článek 4 AI Actu ukládá každé firmě, kde se používá umělá inteligence, aby zajistila dostatečnou úroveň AI gramotnosti u zaměstnanců. Nestačí poslat odkaz na video — Evropská komise to označila za nedostatečné. Jde o proškolení přizpůsobené roli zaměstnance: co AI systém umí a neumí, jaká data do něj smí vkládat a jaká rizika hrozí.

Jak se české firmy mají připravit na AI Act 2026?#

Pět základních kroků: zmapovat všechny AI nástroje ve firmě, vytvořit interní AI směrnici, proškolit zaměstnance podle jejich rolí, označit chatboty jako AI a ověřit, jestli některý z vašich AI systémů nespadá do kategorie vysokého rizika. Nejdůležitější je začít auditem — zjistit, co ve firmě kdo používá.

Chcete systém, který AI gramotnost a transparentnost řeší za vás?#

Firemní systém s AI agenty může usnadnit dodržování AI Actu — každá akce AI agenta je zaznamenána, rozhodnutí jsou transparentní a auditovatelná. Místo toho, abyste řešili každý AI nástroj zvlášť, máte jeden systém s jasnou stopou toho, co AI udělala a proč.

Zjistit, jestli si sedneme →