
AI již není jen futuristickým nástrojem, ale každodenní realitou, která firmám pomáhá automatizovat procesy a zlepšovat rozhodování. Jenže při její integraci do firemních procesů se objevují i skrytá právní rizika, která mohou firmu stát nejen peníze, ale i pověst. Právní rámce, jako je GDPR nebo nový AI Act, nebyly navrženy pro tuto novou technologii, a jejich neznalost může vést k vážným problémům. Tento report ukazuje, jak se těmto rizikům vyhnout a jak je přetavit v příležitosti. S odborným právním poradenstvím, jaké poskytují specialisté v ARROWS, se vaše firma bude moci orientovat v tomto složitém terénu a získat strategickou výhodu.
Autor článku: ARROWS advokátní kancelář (JUDr. Jakub Dohnal, Ph.D., LL.M., office@arws.cz, +420 245 007 740)
Abychom pochopili rozsah transformace, je nutné si konkretizovat, jaké nástroje AI dnes personalisté reálně využívají. Nejedná se o jediný monolitický systém, ale o celou škálu specializovaných aplikací, které zasahují do všech fází životního cyklu zaměstnance.
Hlavním prodejním argumentem mnoha HR nástrojů s umělou inteligencí je eliminace lidských předsudků a subjektivity z rozhodovacích procesů. Tento příslib je lákavý – představa spravedlivého a čistě na datech založeného výběru či hodnocení je ideálem každého moderního HR oddělení. Zde se však dostáváme k ústřednímu paradoxu, který tento report podrobně rozebírá: tytéž nástroje, pokud nejsou správně řízeny a kontrolovány, mohou předsudky nejen replikovat, ale dokonce je zesílit a systematizovat v bezprecedentním měřítku. Stroj, který se učí z historických dat odrážejících minulé společenské nerovnosti, se stává nikoliv nástrojem objektivity, ale vysoce efektivním nástrojem pro perpetuaci diskriminace.
Tento paradox vytváří zcela novou kategorii rizik, která nejsou na první pohled zřejmá. Rychlost a rozsah, v jakém může AI činit rozhodnutí, znamenají, že jedna jediná chyba v algoritmu nebo zkreslení v trénovacích datech se může projevit v tisících nesprávných rozhodnutí dříve, než si problému kdokoliv všimne.
Je zásadní si uvědomit, že se nejedná o vzdálený problém týkající se pouze technologických gigantů v Silicon Valley. S Národní strategií umělé inteligence a aktivní podporou vývoje AI ze strany české vlády roste tlak i příležitost pro místní firmy, aby tyto technologie adoptovaly a udržely si konkurenceschopnost. Otázka tedy již nezní,
zda firmy budou AI v HR používat, ale jak budou řídit související rizika. Právní tým v ARROWS aktivně sleduje tento vývoj na národní i evropské úrovni, aby mohl klientům poskytovat nejaktuálnější a strategicky nejhodnotnější poradenství.
Rychlé tempo zavádění AI v HR vytváří to, co lze nazvat "pastí nevyhnutelnosti". Společnosti se cítí pod tlakem, aby tyto nástroje zavedly co nejrychleji a udržely krok s efektivitou konkurence. Tento tlak však často vede k uspěchanému nákupu a implementaci, při kterých se obchází důkladné právní a etické prověření. Vedení firem, poháněné obavou, že "zůstanou pozadu", vnímá due diligence jako byrokratickou překážku, která zpomaluje "inovace". Právě tento konkurenční tlak, který pohání adopci, se tak stává primární příčinou neřízeného rizika, se kterým musí firmy jako
ARROWS svým klientům pomáhat. Jedná se o samoudržující se cyklus rizika, kde snaha o ziskovost paradoxně generuje potenciálně katastrofické závazky.
Tato sekce je jádrem celého reportu. Jejím cílem je vytvořit u čtenáře pocit informované naléhavosti a ukázat, že ignorování těchto rizik není udržitelnou strategií.
Nařízení EU o umělé inteligenci (AI Act) je prvním komplexním zákonem o AI na světě. Zavádí přístup založený na míře rizika a co je pro oblast HR naprosto klíčové, explicitně klasifikuje systémy AI používané pro nábor, výběr, povyšování a ukončování pracovního poměru zaměstnanců jako „vysoce rizikové“.
Tato klasifikace není pouhou nálepkou. Spouští kaskádu přísných právních povinností, které musí být splněny ještě předtím, než je nástroj vůbec uveden do provozu. Mezi tyto povinnosti patří:
Nedodržení těchto pravidel může mít pro firmu katastrofální finanční následky. AI Act zavádí pokuty až do výše 35 milionů eur nebo 7 % celosvětového ročního obratu za nejzávažnější porušení, jako je používání zakázaných praktik AI. I nedodržení povinností u vysoce rizikových systémů může vést k pokutám až do výše
15 milionů eur nebo 3 % ročního obratu. Toto je finanční riziko, které musí řešit představenstvo každé společnosti. Právníci v
ARROWS analyzují AI Act od jeho počátečních návrhů a mají unikátní pozici pro to, aby provedli společnosti složitým procesem posuzování shody a přípravy dokumentace, které jsou pro tyto vysoce rizikové systémy vyžadovány.
Jádro problému spočívá v tom, jak se AI učí. Učí se z dat. Pokud historická data o náborech odrážejí minulé společenské nebo organizační předsudky (např. méně žen ve vedoucích pozicích, preference absolventů určitých univerzit), AI se tyto předsudky naučí, zreplikuje je a ve svém automatizovaném rozhodování je ještě zesílí. Může dokonce vytvořit nové, nezamýšlené formy diskriminace tím, že najde falešné korelace v datech, které nemají žádnou souvislost s pracovní výkonností (např. korelace mezi dojezdovou vzdáleností do práce a úspěšností v zaměstnání).
Tato rizika nejsou teoretická. Ilustrují je reálné případy, které slouží jako varování:
Problém dále komplikuje tzv. „black box“ (černá skříňka). Mnoho pokročilých modelů AI je natolik komplexních, že ani jejich tvůrci nedokážou plně vysvětlit, proč bylo učiněno konkrétní rozhodnutí. To znemožňuje obranu proti obvinění z diskriminace, protože společnost nemůže soudu předložit legitimní, nediskriminační důvod pro rozhodnutí, které učinil algoritmus. Vedení sporu o nepřímou diskriminaci je složitá právní výzva.
ARROWS pomáhá klientům provádět audity zaměřené na algoritmické zkreslení a vyvíjet obranné strategie, ale co je důležitější, pomáhá jim implementovat takové rámce řízení, které vzniku podobných žalob předcházejí.
Implementace AI v HR vytváří nové a zesílené výzvy pro dodržování Obecného nařízení o ochraně osobních údajů (GDPR).
Jedním z nejnebezpečnějších mýtů je představa, že odpovědnost za chyby AI nese její výrobce.
Právní rizika spojená s AI v HR nejsou izolovaná. Představují nebezpečnou konvergenci tří odlišných právních oblastí: pracovního práva, práva na ochranu osobních údajů a technologické regulace. Jediné chybné rozhodnutí AI při náboru může současně porušit AI Act (nesprávné použití vysoce rizikového systému), GDPR (nezákonné zpracování údajů) a zákoník práce (diskriminace). Tím pro firmu vzniká scénář "trojího ohrožení", kdy čelí postihu ze tří různých směrů. Řízení takového komplexního rizika vyžaduje multidisciplinární právní tým, jaký má k dispozici ARROWS, který rozumí vzájemným vazbám mezi těmito obory. ARROWS se specializuje na právo informačních technologií a pomáhá klientům vyjednávat smlouvy s dodavateli AI tak, aby rizika byla zmírněna a odpovědnost vhodně rozdělena, namísto slepého přijímání jednostranných obchodních podmínek.
Příklad porušení |
Dotčené předpisy a porušení |
Maximální možná sankce |
Použití neprověřeného AI nástroje pro screening životopisů, který prokazatelně znevýhodňuje starší uchazeče. |
AI Act: Nedodržení povinností u vysoce rizikového systému. Zákoník práce: Diskriminace na základě věku. GDPR: Nespravedlivé zpracování osobních údajů. |
Až 15 mil. € nebo 3 % obratu (AI Act) + náhrada škody v občanskoprávním řízení. |
Nasazení AI pro monitoring výkonu zaměstnanců bez provedení posouzení vlivu na ochranu osobních údajů (DPIA). |
GDPR: Porušení čl. 35 (povinnost DPIA). Zákoník práce: Nepřiměřený zásah do soukromí zaměstnance (§ 316). |
Až 10 mil. € nebo 2 % obratu (GDPR) + pokuta od Inspekce práce. |
Využití AI nástroje pro rozpoznávání emocí kandidátů během online pohovoru. |
AI Act: Použití zakázané praktiky AI. |
Až 35 mil. € nebo 7 % obratu (AI Act). |
Zadání interních mzdových tabulek do veřejně dostupné verze generativní AI pro účely analýzy. |
GDPR: Porušení zabezpečení osobních údajů (data breach). Občanský zákoník: Porušení obchodního tajemství. |
Až 20 mil. € nebo 4 % obratu (GDPR) + náhrada škody. |
Poté, co jsme identifikovali komplexní hrozby, se nyní zaměříme na primární řešení: vytvoření robustního interního rámce řízení. Právě kvalitně zpracované vnitřní předpisy jsou základním kamenem obrany proti právním a finančním rizikům spojeným s AI.
Český zákoník práce definuje dva základní typy interních norem: vnitřní předpis (§ 305 ZP), který stanovuje práva zaměstnanců výhodněji, než stanoví zákon, a pracovní řád (§ 306 ZP), který blíže rozvádí povinnosti zaměstnanců a zaměstnavatele. Tyto dokumenty jsou obvykle vydávány jednostranně zaměstnavatelem a tvoří základ pracovněprávních vztahů ve firmě.
Problém je, že tyto tradiční dokumenty byly navrženy pro svět, kde rozhodnutí činili lidé. Neobsahují žádná ustanovení, která by řešila specifické výzvy AI:
Spoléhat se na stávající pracovní řád pro řízení AI je jako používat mapu z 19. století k navigaci po moderní dálniční síti. Není to jen zastaralé, je to nebezpečně zavádějící.
Vytvoření komplexní směrnice pro řízení AI (AI Governance Policy) je úkolem, který vyžaduje nejen technické, ale především právní znalosti. ARROWS se specializuje na tvorbu těchto nových typů dokumentů, které musí obsahovat následující klíčové komponenty, aby byly efektivní a právně účinné:
Vzniká praktická otázka: má být směrnice o AI samostatným dokumentem, nebo má být integrována do stávajících předpisů, jako je pracovní řád nebo směrnice o ochraně osobních údajů?
Doporučený přístup, který v ARROWS prosazujeme, je hybridní model. Tento přístup kombinuje přehlednost a právní sílu:
Tento integrovaný přístup zajišťuje konzistenci, srozumitelnost a právní vymahatelnost. Tým v ARROWS má odborné znalosti nejen k sepsání klíčové směrnice o AI, ale také k provedení nezbytné revize a novelizace všech souvisejících firemních dokumentů, čímž vytváří bezproblémový a právně neprůstřelný rámec řízení.
Tato závěrečná sekce poskytuje vedení firem jasný a praktický plán, jak přistoupit k bezpečné a efektivní implementaci umělé inteligence.
Než můžete AI efektivně řídit, musíte vědět, jakou AI ve firmě vůbec používáte. Prvním krokem je proto komplexní audit všech stávajících softwarových nástrojů a procesů s cílem identifikovat veškeré vestavěné nebo samostatné nástroje AI. Zvláštní pozornost je třeba věnovat tzv. „stínovému IT“ (shadow IT) – nástrojům, které zaměstnanci používají bez oficiálního schválení.
ARROWS nabízí jako klíčovou službu Audit souladu s AI regulací. Tento audit zahrnuje:
Společnosti často přijímají tvrzení dodavatelů a jejich standardizované smlouvy bez hlubšího zkoumání. V éře AI je tento přístup nepřijatelný a nebezpečný. Důkladná due diligence je naprosto nezbytná a proces nákupu technologií musí nově vždy zahrnovat právní oddělení nebo externí právní poradce.
Následující tabulka slouží jako praktický kontrolní seznam pro vedení firem. Obsahuje klíčové otázky, které je třeba položit každému dodavateli AI nástroje. Tým ARROWS pomáhá klientům nejen s formulací těchto dotazníků, ale především s vyjednáváním smluv tak, aby obsahovaly klíčové doložky o zpracování dat, odpovědnosti, odškodnění a právu na audit.
Kategorie |
Klíčové otázky pro dodavatele AI |
Soulad a certifikace |
Můžete předložit dokumentaci o posouzení shody s AI Actem pro tento vysoce rizikový systém? Jak zajišťujete soulad s GDPR? |
Data a soukromí |
Kde jsou naše data fyzicky uložena? Jsou naše data používána k trénování vašich veřejných modelů? Jaké techniky anonymizace a šifrování dat používáte? |
Zkreslení a spravedlnost |
Jak byl model trénován a jaká data byla použita? Můžete poskytnout výsledky nezávislých auditů zaměřených na algoritmické zkreslení? Jaké mechanismy máte pro zmírnění identifikovaných zkreslení? |
Transparentnost a vysvětlitelnost |
Můžete vysvětlit, jak model dospívá ke svým doporučením? Jakou úroveň lidského dohledu pro tento nástroj doporučujete nebo vyžadujete? |
Odpovědnost a smlouva |
Jaké jsou vaše limity odpovědnosti v případě úniku dat nebo diskriminačního výsledku způsobeného vaším nástrojem? Odškodníte nás v případě žalob třetích stran vyplývajících z používání vašeho produktu? |
Implementace AI není jen o technologii a pravidlech; je především o lidech. Lidský faktor je klíčový jak pro úspěšné využití, tak pro řízení rizik.
Integrace umělé inteligence do HR procesů představuje fundamentální změnu paradigmatu. Nabízí obrovské příležitosti pro zvýšení efektivity a kvality rozhodování, ale zároveň přináší rizika, která mohou ohrozit samotnou existenci firmy. Staré způsoby řízení právních a provozních rizik jsou v této nové éře zastaralé a nedostatečné.
Jak tento report ukázal, hrozby jsou komplexní a vzájemně propojené. Jedná se o konvergenci drakonických pokut podle AI Actu, vysokých sankcí podle GDPR, nákladných občanskoprávních sporů a nenapravitelného poškození reputace. Spoléhat se na to, že se vás tyto problémy netýkají, nebo že odpovědnost nese dodavatel technologie, je strategie odsouzená k neúspěchu.
Proaktivní právní strategie by však neměla být vnímána pouze jako obranné opatření. Je to naopak zdroj konkurenční výhody. Společnosti, které zvládnou řízení AI, budou moci bezpečně a efektivně využívat tyto mocné nástroje, zatímco jejich nepřipravení konkurenti se budou potýkat s právními bitvami, regulačními zásahy a ztrátou důvěry.
Budoucnost HR je inteligentní, ale inteligence bez moudrosti je nebezpečná. Dovolte, aby vám expertní právní tým v ARROWS poskytl strategickou moudrost, kterou vaše podnikání potřebuje k prosperitě v éře umělé inteligence. Kontaktujte nás ještě dnes pro důvěrnou konzultaci a posouzení připravenosti vaší společnosti na výzvy, které AI přináší.
Nechcete tenhle problém řešit sami? Advokátní kanceláři ARROWS věří více než 2000 klientů a jsme oceněni jako Právnická firma roku 2024. Podívejte se ZDE na naše reference a bude nám ctí pomoci vám při řešení vašeho problému. Poptávka je zdarma.