AI governance ve firmách: Jak to udělat správně, aby nehrozily právní problémy a pokuty
AI governance není luxus – je to právní povinnost, kterou ignorují firmy na vlastní nebezpečí. Regulátoři zvyšují nápor, soudní spory se rozmnožují, pokuty rostou a nejasnost ohledně zodpovědnosti se rapidně zužuje. Pokud ve vaší firmě používáte umělou inteligenci bez jasné governance struktury, podstupujete rizika, která se mohou rychle změnit v milionové náklady, blokaci projektů nebo reputační krizi. V tomto článku se dozvíte, co governance znamená v praxi, co hrozí bez ní, jak ji správně nastavit a kde najít pomoc.
.png)
Obsah článku
- Co je AI governance a proč už není volitelná
- Právníci z ARROWS advokátní kanceláře rozumí regulačnímu tlaku i praktickým operačním výzvám
- Hlavní prvky AI governance v praxi
- Řízení dat a data governance
Zde je shrnutí nejdůležitějších bodů:
- Absence AI governance již není opomenutelný detail : Regulátoři (v EU, USA i ČR) aktivně vymáhají soulad s předpisy; firmy bez dokumentované governance čelí pokutám, sankcím a jsou ve slabší pozici při soudních sporech.
- Governance zahrnuje celý životní cyklus : Od výběru nástrojů, přes kontrolu dat, testování modelů, audit výstupů, incident management až po neustálé monitorování – není to jen papír, ale běžný provoz.
- Právníci z ARROWS advokátní kanceláře vám pomohou nastavit a udržovat governance struktury, řešit compliance otázky a bránit vám před potížemi s regulátory i před haváriemi.
- Chyby jsou drahé : Halucinace v AI, odhalené vážné incidenty bez plánu na řešení, diskriminační výstupy, úniky dat, neplatné kontrakty – vše se platí vysokými pokutami a ztrátou důvěry partnerů i zákazníků.
Co je AI governance a proč už není volitelná
AI governance není jen pojmenování osoby, která se o AI „stará". Je to systematická sada procesů, pravidel a mechanismů, které zajišťují, aby systémy pracující s umělou inteligencí zůstaly bezpečné, legální, etické a efektivní. Jde o kontrolu od prvního dne – od výběru nástrojů přes správu dat, monitoring výstupů až po řešení incidentů.
Světové regulační prostředí se zásadně změnilo. Nařízení Evropského parlamentu a Rady (EU) 2024/1689 ze dne 13. března 2024, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci (dále jen „EU AI Act“), již funguje se stoupajícími povinnostmi: od prosince 2024 se uplatňují zakázané praktiky, od června 2025 povinnosti pro poskytovatele obecných modelů AI a od června 2026 bude plně aplikován na vysokorizikové AI systémy. V USA jednotlivé státy přijímají vlastní zákony – Texas, Utah, Colorado a další.
Česká republika není izolovaná: jako člen EU se řídí EU AI Act a postupně se vyvíjejí i národní rámce. Firmy, které čekají na „federální řešení" nebo „český zákon", už jsou pozadu.
Současně se soudní praxe vyvíjí. Bez jasně dokumentované governance už není možné obhájit se slovy „nevěděli jsme" nebo „model to dělal sám". Soud a regulátor budou chtít vidět, co konkrétně vaše firma věděla, jaké kroky učinila a proč si myslela, že je to bezpečné.
Aby byl AI governance efektivní, musí být součástí běžného provozu. Při nastavování interních pravidel (odpovědnosti, schvalování nástrojů, incident management) se v praxi často řeší i smluvní rámec a vyjednání závazků s dodavateli, s čímž může pomoci tým pro smlouvy a vyjednávání. V první řadě to znamená, že není jenom záležitostí IT oddělení nebo právního týmu – musí být na radě vedení, v pravidlech náboru, v nákupních procesech i v komunikaci s obchodními partnery.
Hlavní prvky AI governance v praxi
Inventarizace a klasifikace AI systémů
Prvním krokem je vědět, jaké AI systémy ve vaší firmě dělají co. Překvapivě se zjišťuje, že mnoho firem nemá jasný přehled. Pokud se inventarizace týká i přeshraničních nástrojů a poskytovatelů (např. cloud, zahraniční mateřská společnost), může být užitečné navázat na zkušenosti z textu Jak nastavit české podnikání na Islandu bez zbytečných rizik Co české firmy nejčastěji řeší. Zaměstnanci používají jistý AI nástroj (např. ChatGPT) bez schválení, jednotlivá oddělení si stavějí vlastní AI nástroje, vývojáři integrují modely do aplikací bez hlášení – to je tzv. shadow AI.
Související otázky k klasifikaci AI systémů:
- Jak zjistím, jakou AI používám, když ji zaměstnanci běžně volí sami? Nemáte-li centrální kontrolu, stane se vám, že se data dostanou do neschválených nástrojů. Praktické řešení je kombinace technické viditelnosti (monitoring sítě, nástroje pro prevenci ztráty dat (DLP)), školení zaměstnanců a zejména poskytnutí schválených alternativ. Pokud totiž zaměstnance zablokujete bez nabídky něčeho užitečného, budou si hledat něco jiného.
- Musím zakázat veřejné AI nástroje typu jistý AI nástroj (např. ChatGPT)? Ne nutně. Záleží na typu dat a kontextu. Ale musíte si jasně říci, do kterých nástrojů zaměstnanci mohou vkládat jaká data a co se stane, pokud poruší toto pravidlo.
- Co se stane, když v inventarizaci něco přehlédnu? Pokud regulátor nebo soud později objeví systém, který jste neměli v přehledu, budou si klást otázky o vaší náležité péči (due diligence) a systematičnosti. To vás oslabuje právně a reputačně. V situaci, kdy se z AI incidentu stane spor s dodavatelem nebo klientem, je na místě včas řešit strategii dokazování a odpovědnost, což typicky spadá do oblasti obchodních a soudních sporů.
Správná praxe tedy zahrnuje: dokumentovaný seznam všech AI systémů, jejich účel, kdo je odpovědný za provoz, jaká data zpracovávají, která rizika nesou a jak se monitorují.
Řízení dat a data governance
AI systémy jsou jen tak kvalitní a bezpečné, jako jsou jejich data. Pokud do modelu vstupují nevhodná, nesprávná nebo diskriminační data, model je bude replikovat. Pokud data nejsou dostatečně chráněna, únik jednoho AI systému se změní v hromadný únik citlivých informací.
Data governance v kontextu AI znamená:
- Klasifikace: Vědět, která data jsou citlivá (osobní údaje, obchodní tajemství, zdravotní informace apod.).
- Přístupová práva: Omezit přístup jen na ty, kdo jej opravdu potřebují.
- Minimalizace: Nesbírat ani neukládat víc dat, než je nutné.
- Provenience a lineage: Sledovat, odkud data pocházejí, jak se transformují a kde skončí.
Mnohé firmy si neuvědomují, že když např. vloží data do nástrojů jako Copilot bez ověření, že jsou správně chráněna, porušují Nařízení Evropského parlamentu a Rady (EU) 2016/679 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů a o volném pohybu těchto údajů a o zrušení směrnice 95/46/ES (GDPR) a vystavují se pokutám.
Právníci z ARROWS advokátní kanceláře mohou pomoci auditem vaší data governance a přípravou pravidel tak, aby odpovídala právním požadavkům.
Testování a validace modelů
Regulátoři a soudy jsou jasní: provozovat AI systém bez předchozího testování a bez kontinuálního monitorování není přípustné. Znamená to:
- Předdeploymentní validace: Ověřit, že model funguje bezpečně na reálných datech, že neprodukuje diskriminační výstupy, že halucinace jsou v přijatelné míře.
- Postdeploymentní monitoring: Sledovat, jak se model chová po nasazení, zda došlo ke driftu (změně chování v čase), zda se jeho přesnost snižuje, zda začal generovat problémový obsah.
- Testování zkreslení (Bias testing): Speciálně testovat, zda model diskriminuje na základě pohlaví, věku, národnosti či jiného chráněného znaku.
Jednoduchý příklad: Firma nasadí AI systém na scoring kredibility žadatelů o půjčku. Nikdo to neotestuje vzhledem k pohlaví žadatelek. Model vygeneruje zkreslené skóry (jedná se o případ z praxe).
Regulátor to zjistí. Firma musí zaplatit pokutu pod GDPR a EU AI Act a čelit skupinové žalobě od postižených žen.
Související otázky k testování:
- Kolik testování je dost? To závisí na rizikovosti systému. Vysokoriziková rozhodnutí (zaměstnávání, půjčky, zdravotnictví) vyžadují velmi důkladné testy. Nízkorisková (např. klasifikace zpráv pro interní analytiku) méně. Právníci z ARROWS vám pomohou určit, co je pro váš případ minimální standard.
- Kdo má testování dělat – interně nebo externě? Ideálně kombinace. Interní testy zkušeného týmu, ale kdykoliv jde o vysoké riziko, externí audit ověří objektivitu. Vysokorizikové AI systémy budou vyžadovat posouzení shody třetí stranou (tzv. oznámeným subjektem) podle EU AI Act.
- Jaké riziko nese, když budu testovat jen jednou a pak se vrátím k provozu?
Modely se časem degradují. Bez monitorování (např. měsíčního) se můžete dozvědět o problému až když regulátor přijde s auditem nebo když se na vás obrátí poškozený zákazník.
Řízení rizik a posouzení dopadů (impact assessment)
EU AI Act, NIST AI Risk Management Framework a národní regulace výslovně vyžadují, aby firmy identifikovaly a dokumentovaly rizika spojená s jejich AI systémy. Jde o víc než jen IT bezpečnost – jde o rizika právní, etická, operační a reputační.
Klíčové je provádění posouzení dopadů AI (AI Impact Assessments), což je podobné posouzení vlivu na ochranu osobních údajů (DPIA) podle GDPR:
- Jaký systém používáte a co dělá?
- Na koho má vliv (zaměstnanci, zákazníci, veřejnost)?
- Jaká je závažnost možných chyb (diskriminace, halucinace, úniky dat)?
- Jaké právní rámce se aplikují?
- Jaká prevence a monitorování je na místě?
- Kdo je zodpovědný, když něco selže?
Bez takového dokumentu nemáte důkaz, že jste problematiku vážně přistupovali. S ním máte obranu v případě, že soud nebo regulátor zaměří pozornost.
Governance struktura a odpovědnost
Právníci z ARROWS advokátní kanceláře viděli spor za sporem, kde se všichni poukazovali: „My jsme si mysleli, že se tím zabývá IT… IT si myslelo, že to řeší právní… právní oddělení si myslelo, že to má na starosti vedení..." Výsledek: nikdo neměl jasnou odpovědnost, chyby se nabalily a postihly všechny. To není dobré.
Správná governance musí mít jasně definované role a odpovědnosti pro všechny zúčastněné strany:
- Vedení/Board: Stanovuje strategii, schvaluje risk toleranci, zajišťuje, že AI governance je součástí podnikových procesů.
- AI Governance Committee (pokud existuje): Koordinuje mezi jednotlivými týmy, schvaluje nasazení systémů, řeší eskalace.
- Data stewards: Zajišťují kvalitu a bezpečnost dat.
- Právní tým: Monitoruje compliance s právními požadavky, připravuje smlouvy s dodavateli.
- IT/Security: Zajišťuje technickou bezpečnost a monitoring.
- Business owners: Nesou operační odpovědnost za konkrétní AI systémy ve svých oblastech.
- Human reviewers: Zajišťují, že kritická rozhodnutí nejsou plně automatizována bez lidské účasti.
Dokumentujte toto rozdělení v psané podobě. Nejlépe v AI governance chartě nebo politice. Bez toho se všichni budou hádat, když se něco pokazí.
Tabulka hlavních rizik a jak pomáhá ARROWS advokátní kancelář
|
Možné problémy |
Jak pomáhá ARROWS (office@arws.cz) |
|
Absence inventarizace AI systémů; regulátor nebo soud objeví systémy, které vaše firma nezadokumentovala. |
Právníci z ARROWS vám pomohou provést audit AI přítomnosti ve firmě a vytvořit centrální inventář všech systémů. Připravíme dokumentaci, která prokáže vaši systematičnost a náležitou péči. |
|
Úniky dat a porušení GDPR kvůli vstupování citlivých informací do neschválených AI nástrojů. |
ARROWS poskytuje revizi vašich data governance a pravidel pro použití AI. Pomáháme nastavit kontroly, školení zaměstnanců a politiky tak, aby se data nedostala na nesprávná místa. |
|
Diskriminační výstupy z AI modelu; pokuty od regulátora a skupinové žaloby od postižených. |
Právníci z ARROWS vás povedou při testování a auditování AI systémů na zkreslení. Pokud se objeví problém, připravíme vám plán nápravy a budeme vás zastupovat v jednáních s regulátory. |
|
Selhání AI systému bez plánu; halucinace, které se dostanou na veřejnost a poškodí reputaci. |
Spolupracujeme s vámi na přípravě plánů reakce na incidenty, monitoringu a dokumentace. Když se problém objeví, jsme schopni vás bránit proti sankcím a mediálnímu tlaku. |
|
Nesprávné smlouvy s dodavateli AI; neurčené odpovědnosti, omezená možnost regresu. |
Právníci z ARROWS zajistí, že vaše smlouvy s dodavateli jasně definují povinnosti, odpovědnost a vaše práva na audit a nápravu. Řešíme i komplexní otázky odškodnění a limitů odpovědnosti. |
Regulační rámec: Odkud se to vzalo a co teď hrozí
EU AI Act – nejvíce závazný předpis
Nařízení EU AI Act vstoupilo v platnost v červnu 2024 a postupně se zavádí:
- Od prosince 2024: Zakázané praktiky (manipulace, exploatace, social scoring bez výjimek) jsou již platné.
- Od června 2025: Povinnosti pro poskytovatele obecných modelů AI (trainingové data summaries, zákaz určitých praktik).
- Od června 2026: Plná aplikace na vysokorizikové AI systémy.
Co to znamená pro praxi? Pokud používáte AI v rozhodování o zaměstnávání, půjčkách, zdravotnictví nebo veřejných službách, máte povinnosti dokumentace, testování, audit logů a hlášení incidentů. Pokud je porušíte, hrozí vám pokuty až 35 milionů EUR nebo 7 % globálního obratu, cokoliv je vyšší.
Pro firmy operující v ČR nebo EU není úniku: i když sídlíte mimo EU, pokud máte EU zákazníky nebo zaměstnance, AI Act se na vás vztahuje.
USA státní regulace
Federální zákon v USA zatím neexistuje, ale jednotlivé státy to neberou lehce:
- Texas (od ledna 2026): Zakázané jsou systémy určené na sebepoškozování, diskriminaci nebo nelegální deepfakes; povinná transparentnost pro vládní a zdravotnické AI.
- Colorado (od června 2026): Požadavky na transparentnost vysokorizikových AI, audit na diskriminaci.
- Utah (již platné): Povinnost jasně komunikovat, že se jedná o AI; firma je odpovědná za nelegální praktiky stejně, jako by je dělala sama.
- Kalifornie (postupné zavedení): Nařízení ADMT (Automated Decision Making Tools) regulující rozhodování o osobách, nová datová práva.
Firma s českými zaměstnanci v USA nebo s americkými zákazníky musí počítat s vícero regulacemi najednou.
Česká republika a mezinárodní prvky
Česká právní úprava se teprve rozvíjí, ale bude automaticky vycházet z EU AI Act. Navíc česká práva (obchodní, pracovní, zdravotnická) se vztahují na všechna AI rozhodnutí, která je ovlivňují – i když nejsou explicitně zmíněny.
Pokud máte klienty nebo partnery v jiných zemích, musíte počítat s tím, že se na každý region aplikují jiná pravidla. Právníci z ARROWS advokátní kanceláře řeší přeshraniční AI governance díky síti ARROWS International – můžeme vám pomoci s koordinací povinností ve více zemích.
Nejčastější otázky k regulačnímu rámci a začínajícímu governance:
- Jak poznám, že AI systém je „vysokorizikový" podle EU AI Act? Vysokorizikové jsou např. systémy pro screening zaměstnanců, vyhodnocování kreditů, řízení dopravy, zdravotnictví. Nižší riziko má třeba chatbot pro FAQ. Není vždy jasné. Právníci z ARROWS vám pomohou klasifikovat vaše konkrétní systémy: office@arws.cz
- Mohu si jen tak nasadit jistý AI nástroj (např. ChatGPT) v HR pro screening kandidátů? Teoreticky ano, ale prakticky je to riskantní bez governance. Musíte testovat na zkreslení, mít auditní záznamy, schopnost lidské kontroly a mechanismy pro nápravu. Pokud to neuděláte a vznikne z toho soud, vaše obrana bude slabá.
- Kdo je zodpovědný za compliance – technologické oddělení nebo právníci?
Oba. Technologie vybuduje systém a monitoring, právníci zajistí, že to splňuje předpisy. Bez jasné spolupráce se věci zkomplikují. Právníci z ARROWS vám pomohou nastavit tu spolupráci: office@arws.cz
Praktická rizika, která AI governance řeší
Halucinace a neurčitost výstupů
Generativní AI modely občas jednoduše lžou – se sebevědomím generují obsah, který vůbec neexistuje. Právník by mohl generovat „precedent", který v databázi neexistuje. HR systém by mohl vytvořit zprávu o kandidátovi, která vůbec nekoresponduje s pravdou.
Bez governance: Chyby projdou do produkce a ublíží klientům nebo partnerům.
S governance: Máte procesy lidské kontroly (human review), máte auditní záznamy, umíte ukázat, že jste se problému věnovali, a můžete bez problémů říci „to byla AI chyba, kterou jsme teď napravili" – a mít na to důkaz.
Diskriminace a zkreslení (bias)
Modely se učí z dat. Pokud historická data reflektují diskriminaci (např. ženy dostávaly horší hodnocení), model se to naučí. Následují havárie: v USA došlo k případům, kdy AI screening na zaměstnávání zásadně diskriminoval ženy a určité menšiny.
Bez governance: Ocítíte se jako důkaz v rámci skupinové žaloby nebo čelíte pokutě od regulátora. Obrana: „nevěděli jsme" neobstojí.
S governance: Testujete na zkreslení před nasazením, máte data o tom, co jste testovali, máte plán nápravy, regulátor vás vidí jako odpovědného hráče. To je mnohem lepší pozice.
Úniky dat a porušení GDPR
Zaměstnanec vloží osobní údaje do jistého AI nástroje (např. ChatGPT), aby si nechal něco sumarizovat. Údaje jsou teď na serveru poskytovatele a mohou se stát součástí trénovacích dat. To je GDPR porušení – pokuta až 20 milionů EUR nebo 4 % globálního obratu.
Bez governance: Nikomu nejsou jasná pravidla, všichni si dělají, co chtějí, úniky se hromadí a nebudete mít ani plán, jak je řešit.
S governance: Máte školení, máte schválené nástroje, máte pravidla pro data, máte monitoring. Když se problém objeví, máte dokumentaci, kterou můžete předložit regulátorovi.
Porušení práv duševního vlastnictví (IP infringement) a copyright
Generativní modely často čerpají obsah z veřejných zdrojů – včetně chráněných děl. Pokud máte model trénovaný tímto způsobem, můžete se dostat do právního sporu nebo musíte zaplatit postihy. A pokud váš model vyprodukuje obsah, který silně připomíná dílo autora, hrozí vám žaloba.
Governance je zde důležitá: Máte audit o tom, co bylo v tréninkových datech, máte politiku, máte možnost to zakázat – pak máte obranu.
Vendor lock-in a dodavatelské riziko
Firma se upíše jednomu dodavateli AI, který změní cenovou politiku nebo svůj model přestane provozovat. Vy jste v pasti.
S governance: Máte ve smlouvách konkrétní požadavky na výkon, máte výstupní klauzule, máte auditní práva a máte plán B. Právníci z ARROWS mohou zajistit, že vaše smlouvy s dodavateli nejsou jednostranné.
Jak nastavit AI governance v praxi – podrobný plán
Fáze 1: Příprava a vzdělání (1–2 měsíce)
- Ujasněte si, kdo je ve vedení odpovědný za AI.
- Seznamte top management s regulačním rámcem a reálnými riziky.
- Školte klíčové lidi z IT, práva, HR, business lines.
- Připravte základní AI governance politiku (nebo si ji nechte připravit ARROWS advokátní kanceláří: office@arws.cz).
Fáze 2: Inventarizace a klasifikace (2–3 měsíce)
- Zmapujte všechny AI systémy ve firmě – interní, nakoupené, shadow AI.
- Klasifikujte je dle rizika (vysoké, střední, nízké) v souladu s .
- Dokumentujte, co dělají, jaká data zpracovávají, kdo je za ně odpovědný.
Fáze 3: Governance struktura a zodpovědnosti (1 měsíc)
- Zřiďte AI Governance Committee (cross-funkční).
- Jasně definujte role: kdo rozhoduje, kdo řeší data, kdo monitoruje, kdo eskaluje.
- Dokumentujte to písemně.
Fáze 4: Testování a audit (průběžné)
- Vysokorizikové AI systémy podrobte nezávislému auditu nebo .
- Testujte na zkreslení, halucinace, bezpečnost dat.
- Nastavte kontinuální monitoring.
- Vytvořte incident response plán.
Fáze 5: Školení a komunikace
- Školte všechny zaměstnance na AI governance pravidla.
- Komunikujte, co je a není povoleno.
- Zajistěte, že lidé vědí, jak hlásit podezření na problémy.
Fáze 6: Pravidelný review a aktualizace
- Alespoň jednou ročně si governance politiky projděte.
- Monitorujte změny v regulaci.
- Adaptujte procesy na nové situace.
Právníci z ARROWS advokátní kanceláře vás mohou provést všemi těmito fázemi – od přípravy politiky, přes audit compliance, až po přípravu na případnou regulační kontrolu. Pojištěni jsme pro případ profesní odpovědnosti s limitem 400 000 000 Kč, takže máte jistotu spolehlivosti: office@arws.cz
Tabulka typických chyb, kterých se firmy dopouštějí – a jak se jim vyhnout
|
Chyba |
Důsledek |
Jak to řešit |
|
Absence psané AI governance politiky; vše je jen „v hlavách" vedoucích. |
Když se změní lidé nebo když přijde regulátor, nemáte na co poukazovat. Soud si bude myslet, že jste to řešili laxně. |
Napište AI governance chartu nebo politiku. Nechte ji pravidelně aktualizovat. Právníci z ARROWS vám pomohou: office@arws.cz |
|
Testování pouze jednou, při nasazení; pak se vrátíte k provozu bez kontroly. |
Model se časem degraduje, začne dělat chyby, nikomu to trvá měsíce, až si všimne. Mezitím způsobí škody. |
Nastavte monitorování – měsíční, čtvrtletní, ročně podle rizika. Máte-li vysokoriziková rozhodnutí, měsíční je minimum. |
|
Neschválené AI v jednotlivých odděleních; vedení neví, co všechno se používá. |
Shadow AI obsahuje data, která neměla být v AI, bezpečnost není kontrolovaná, compliance se nedá zajistit. |
Učiňte AI inventarizaci skutečnou, poskytněte zaměstnancům schválené alternativy, školte a prosazujte politiku. |
|
Žádné jasné rozdělení odpovědnosti; všichni si myslí, že se tím zabývá někdo jiný. |
Když se něco porouchá, je všechno zmíchané, nikdo si nevzal věc na starost, chyby se hromadí. |
Vypracujte matici zodpovědnosti s jménem vlastníka každého AI systému a každé governance funkce. |
|
Smlouvy s dodavateli bez AI-specifických klauzulí; vy nemáte přístup k auditům, modelům, tréninkovým datům. |
Nejste schopni vykazovat compliance, nemáte právo kontrolovat, co dodavatel dělá s vašimi daty, máte omezené možnosti regresu v případě chyby. |
Revidujte všechny smlouvy s dodavateli; přidejte AI-specifické klauzule na audit, hlášení incidentů, zacházení s daty, odškodnění. Právníci z ARROWS vám pomohou: office@arws.cz |
Nejčastější otázky ke governance na pracovišti a v operacích
- Pokud zakážu jistý AI nástroj (např. ChatGPT) a všem přikážu pracovat se schváleným nástrojem, bude to stačit?
Zčásti ano, ale musíte to kombinovat s kontrolou přístupu (DLP nástroje, monitoring), školením a jasnou politikou, na co si dát pozor (nesmíte vkládat obchodní tajemství, osobní údaje apod.). Pouhý zákaz bez alternativy způsobí, že si lidé najdou obcházku. - Kolik stojí správná AI governance? Není to jen pro velké korporace?
Governance se dá škálovat. Pro menší firmu stačí jednoduchá politika, inventář a pravidelné školení. Pro velkou korporaci je to komplexnější struktura a nástroje. V obou případech je to podstatně levnější než likvidace následků – havárie kvůli chybějící governance může stát miliony. Právníci z ARROWS vám pomohou vytvořit governance úměrně vaší velikosti: office@arws.cz - Jaký je nejrychlejší způsob, jak si zajistit základní compliance?
Začněte s AI politikou (lze si vzít jako template), proveďte inventarizaci toho, co používáte, vyškolte lidi a nastavte základní monitoring. Není to ideální, ale je to lépe než nic. Pak pokračujte v hloubce. - Pokud se ve firmě objeví incident s AI (např. úniky dat), měl bych jej hlásit regulátorovi?
Záleží na povaze incidentu. Pokud jde o porušení zabezpečení osobních údajů podle GDPR, pak ano – musíte do 72 hodin od zjištění. V jiných případech závisí povinnost hlášení na konkrétní situaci a regulaci (např. podle EU AI Act se hlásí závažné incidenty u vysokorizikových systémů). Právníci z ARROWS vám pomohou určit povinnosti a připraví vám komunikaci s regulátorem: office@arws.cz
Shrnutí
AI governance není papírové cvičení ani komplexní IT projekt – je to základní součást toho, jak moderní firma provozuje AI systémy tak, aby přinesly prospěch bez právních a operačních rizik. Regulátoři už nečekají a pokuty se zvyšují. Soudní spory se rozmnožují. Všichni se ptají: co máte dokumentováno? Co jste testovali? Jak víte, že váš model není diskriminační? Jak řídíte data? Kdo je za to odpovědný?
Firmy, které governance odmítají, spekulují s vysokými sázkami. Ty, které ji ignorují, si myslí, že není nutná – až do doby, kdy regulátor zavolá nebo soud podá žalobu.
Správně nastavená governance je naopak nejlepší investice. Umožňuje vám bez obav se pustit do AI, znáte svá rizika, máte plán, jak je zvládat, a když se něco stane, máte se jak bránit. Regulátor vidí, že jste odpovědný hráč.
Pokud si nejste jistí, kudy dál, nebo chcete governance zkontrolovat právním pohledem, obraťte se na právníky z ARROWS advokátní kanceláře. Máme zkušenosti s regulačním tlakem v ČR i EU, známe operační výzvy klientů a umíme poradit, co je pro vás minimum a kam až bychom měli jít.
Řešíme audity, přípravu governance politik, smlouvy s dodavateli i zastoupení před regulátory. Napište nám na office@arws.cz a naplánujeme si konzultaci.
Nejčastější otázky k AI governance ve firmách
- Musím AI governance zavést právě teď, nebo mohu počkat?
Čím dříve, tím lépe. Regulace se neustále zpřísňuje, compliance bude dražší, když budete zaostávat. Navíc pokud máte už AI v provozu a pozdě začnete s governance, budete muset zpětně auditovat a případně opravovat věci, které by měly být správně od začátku. Pokud víte, že AI používáte, začněte teď. Kontaktujte ARROWS advokátní kancelář: office@arws.cz - Jaký je rozdíl mezi „AI governance" a „privacy by design" pod GDPR? Privacy by design se zaměřuje na ochranu osobních údajů. AI governance je širší – zahrnuje bezpečnost dat, ale také testování na zkreslení, operační rizika, regulatory compliance, incident management. GDPR je součástí AI governance, ale jen součástí. Oba přístupy se doplňují.
- Mohu si governance vytvořit sám, nebo si ji musím najmout? Můžete si ji vytvořit sám, pokud máte v týmu experty. Ale je riskantní to podcenit – malé chyby v pravidlech se pak rozšiřují. Právníci z ARROWS mohou pomoci s ověřením, auditem a přípravou šablon tak, aby to odpovídalo právnímu rámci: office@arws.cz
- Co když mám AI od externího dodavatele – je za compliance odpovědný on, nebo já? Odpovědní jste oba. Dodavatel je odpovědný za svůj systém; vy (jako provozovatel) jste odpovědní za to, aby byl systém používán správně, aby byl monitorován a aby výstupy byly kontrolovány. Pokud dodavatel selže a vy jste měli povinnost to zohlednit v rámci governance, selhání je i na vás.
Právníci z ARROWS mohou připravit vedení prezentaci o regulačních rizicích: office@arws.cz
Upozornění: Informace obsažené v tomto článku mají pouze obecný informativní charakter a slouží k základní orientaci v problematice dle právního stavu k roku 2026. Ačkoliv dbáme na maximální přesnost obsahu, právní předpisy a jejich výklad se v čase vyvíjejí. Jsme ARROWS advokátní kancelář, subjekt zapsaný u České advokátní komory (náš orgán dohledu), a pro maximální bezpečí klientů jsme pojištěni pro případ profesní odpovědnosti s limitem 400.000.000 Kč. Pro ověření aktuálního znění předpisů a jejich aplikace na vaši konkrétní situaci je nezbytné kontaktovat přímo ARROWS advokátní kancelář (office@arws.cz). Neneseme odpovědnost za případné škody vzniklé samostatným užitím informací z tohoto článku bez předchozí individuální právní konzultace.