Když o útoku rozhoduje algoritmus Právní odpovědnost za autonomní zbraně

Autonomní zbraňové systémy, které rozhodují o použití síly bez lidského zásahu, představují zásadní právní výzvu. Kdo nese odpovědnost za fatální chybu algoritmu? Stát, výrobce, nebo velitel? V roce 2026 roste právní nejistota s každým novým konfliktem. Pochopení roztříštěného rámce je pro bezpečnost vašeho byznysu klíčové.

Fotografie ukazuje advokáta řešícího problematiku právní odpovědnost za autonomní zbraně.

Rychlé shrnutí

  • Regulace existuje, ale je roztříštěná. Autonomní zbraně podléhají obecnému , ale specifická globálně závazná úmluva stále chybí. Evropská unie v rámci Aktu o umělé inteligenci (EU AI Act) sice vojenské systémy vyjímá, ale technologie dvojího užití (dual-use) podléhají přísné kontrole.
  • Odpovědnost nese primárně stát a velitelé. Podle mezinárodního práva odpovídá za porušení IHL stát, který zbraň nasadil. Trestní odpovědnost fyzických osob (velitelů, operátorů) se řídí principy .
  • Rizika pro dodavatele a investory rostou. I když výrobci zbraní požívají v některých jurisdikcích ochrany, v roce 2026 čelí zvýšenému riziku v oblasti exportních kontrol.
  • Bez compliance strategie hrozí sankce. Společnostem zapojeným do dodavatelského řetězce hrozí při absenci proaktivní právní strategie nejen reputační škody, ale i přímé finanční sankce, zneplatnění kontraktů a vyloučení z investičních portfolií kvůli ESG kritériím.

Autonomní zbraňové systémy: jak se technologie stala právním problémem

Představte si situaci: vyčkávací munice (loitering munition) operuje nad bojištěm. Algoritmus na základě natrénovaných dat identifikuje cíl a samostatně rozhodne o útoku. Vteřinu poté se ukáže, že cílem nebyl bojovník, ale civilista nesoucí předmět připomínající zbraň. Kdo odpovídá za smrt? Programátor? Velitel, který dron vypustil? Stát?

To je podstata problému letálních autonomních zbraňových systémů (LAWS). Jedná se o platformy, které po aktivaci člověkem vybírají a útočí na cíle bez další lidské intervence. 

Rozdíl oproti dřívějším systémům je v kognitivním zpracování dat. Pokud se vývoj nebo nasazení podobných systémů dotýká více jurisdikcí (např. vývoje, testování či dodávek), je vhodné opřít se o mezinárodní právo při nastavení odpovědností a smluvních vztahů. Zatímco dříve naváděcí systém sledoval tepelnou stopu, dnes neurální sítě klasifikují objekty a vyhodnocují taktickou situaci v milisekundách.

Právní tým ARROWS advokátní kanceláře řeší tuto problematiku stále častěji – a to nejen u zbrojařů, ale i u vývojářů softwaru, jejichž algoritmy pro vidění či navigaci mohou být klasifikovány jako zboží dvojího užití.

Mezinárodní humanitární právo a legalita autonomních zbraní

Globálně závazný zákaz autonomních zbraní k roku 2026 neexistuje. Právní rámec je tvořen mozaikou obyčejového práva, Ženevských úmluv a národních předpisů.

Ženevské úmluvy a dodatkové protokoly

Základem zůstávají Ženevské úmluvy z roku 1949 a jejich Dodatkový protokol I z roku 1977. Ty stanovují fundamentální principy IHL:

  • Rozlišování (Distinction): Zbraň musí být schopna rozlišit mezi civilisty a bojovníky.
  • Proporcionalita (Proportionality): Očekávané civilní škody nesmí převýšit přímou vojenskou výhodu.
  • Preventivní opatření (Precaution): Útočník musí učinit vše pro minimalizaci civilních ztrát.

Pokud autonomní systém nedokáže v dynamickém prostředí spolehlivě rozlišit civilistu od vojáka, jeho použití je per se protiprávní. Odpovědnost za nasazení takového systému nese stát. Z pohledu firem, které vyvíjejí modely nebo rozhodovací logiku, je užitečné sledovat i praktické dopady regulace AI na dohled nad algoritmy, jak je rozebráno v textu Generativní AI v taktickém plánování a právní dohled nad algoritmy.

Klíčovým nástrojem je článek 36 Dodatkového protokolu I, který státům ukládá povinnost provést právní přezkum každé nové zbraně. Státy musí certifikovat, že zbraň lze používat v souladu s mezinárodním právem. U AI systémů, které se mohou „učit“ nebo měnit své parametry, je však certifikace podle článku 36 extrémně složitá. Vedle samotného IHL přezkumu často vyvstává i otázka, zda výstupy nebo komponenty spadají pod exportní/dual‑use pravidla a licenční režimy, kde může pomoci tým pro licence ČNB a investice při nastavení regulatorní strategie.

Právní fáze vývoje a compliance

Z pohledu českého i mezinárodního práva musí proces vývoje procházet přísnou kontrolou. ARROWS advokátní kancelář zajišťuje tyto procesy pro své klienty:

  • Fáze 1: Vývoj a Dual-Use klasifikace. Již při návrhu je nutné určit, zda software nespadá pod regulaci zboží dvojího užití. V USA jsou relevantní směrnice , která vyžaduje, aby systémy byly navrženy s možností „přiměřeného lidského úsudku“.
  • Fáze 2: Právní přezkum (Article 36 Review). Před zařazením do výzbroje musí proběhnout testování. Právníci zkoumají chybovost (false positive rate), existenci pojistky (kill switch) a reakci na ztrátu spojení.
  • Fáze 3: Nasazení a Rules of Engagement (ROE). I legální zbraň může být použita nelegálně. Odpovědnost se přesouvá na velitele, který musí rozumět limitům systému.

Úmluva o některých konvenčních zbraních

Diskuze v rámci OSN (skupina GGE při CCW) v Ženevě probíhají již přes deset let. K roku 2026 stále nedošlo k přijetí závazného protokolu zakazujícího LAWS v rámci Úmluvy o některých konvenčních zbraních (CCW), primárně kvůli odporu vojenských velmocí. Tyto státy preferují nezávazné kodexy chování před striktním zákazem. Pro dodavatele technologií je zároveň praktické řešit, jak smluvně ošetřit odpovědnost, licenční ujednání a práci s daty v EU, což shrnuje i článek SaaS platforma v EU: Právní ošetření VOP, GDPR a licenčních ujednání pro AI výstupy.

Naproti tomu Evropský parlament a generální tajemník OSN dlouhodobě volají po zákazu systémů, které postrádají „smysluplnou lidskou kontrolu“.

Související otázky k právní odpovědnosti za autonomní zbraně

1. Jak definovat „smysluplnou lidskou kontrolu“ v praxi? Není to jen přítomnost člověka u tlačítka, ale schopnost operátora v reálném čase pochopit, proč algoritmus cíl vybral, a mít dostatek času i informací k případnému zrušení útoku.

2. Co se stane, když se AI zbraň v poli „přeučí“? Pokud systém změní své parametry po oficiální certifikaci (tzv. článek 36), vzniká právní vakuum; výrobce i stát riskují, že zbraň začne jednat v rozporu s mezinárodním právem, za což nese odpovědnost stát.

3. Jakou roli hraje kybernetická bezpečnost v právním posouzení? Zranitelnost vůči hackingu nebo oklamání senzorů (adversarial attacks) je dnes považována za konstrukční vadu; pokud výrobce podcení zabezpečení, může být odpovědný za následné incidenty z důvodu nedbalosti.

4. Je možné se proti rizikům spojeným s AI zbraněmi pojistit? Standardní pojistky často nekryjí „autonomní rozhodnutí“ algoritmu, proto firmy v obranném průmyslu vyžadují specifické doložky pro AI odpovědnost, aby pokryly extrémní finanční rizika mezinárodních sporů.

Odpovědnost za chyby algoritmu

V právní rovině je nutné rozlišovat mezi odpovědností státu, trestní odpovědností jednotlivce a civilní odpovědností výrobce.

Odpovědnost státu

Podle Návrhu článků o odpovědnosti států za mezinárodně protiprávní chování nese stát absolutní odpovědnost za jednání svých orgánů, včetně ozbrojených sil. Pokud autonomní dron spáchá válečný zločin, odpovídá za to stát, bez ohledu na to, zda šlo o chybu softwaru nebo operátora. Stát je povinen zajistit reparace.

Individuální trestní odpovědnost

Složitější je situace u jednotlivců. Podle Římského statutu (ICC) lze stíhat velitele, pokud věděl, že systém selhává, a přesto jej nasadil, nebo pokud zanedbal kontrolu. Tzv. command responsibility (odpovědnost velitele) se vztahuje i na případy, kdy velitel nezasáhl proti autonomnímu systému, který páchal zločiny.

Argument „počítač rozhodl“ před soudem neobstojí. Velitel má povinnost používat jen takové prostředky, jejichž účinky dokáže kontrolovat.

Odpovědnost výrobce a vývojáře

V oblasti vojenských zakázek je odpovědnost výrobce často smluvně omezena. Nicméně v roce 2026 se právní prostředí v EU mění.

  • Směrnice o odpovědnosti za vadné výrobky: Pokud by vada softwaru byla způsobena hrubou nedbalostí při vývoji, nelze civilní odpovědnost zcela vyloučit, zejména pokud dojde ke škodám mimo ozbrojený konflikt (např. při cvičení) dle .
  • Smluvní odpovědnost: Státy čím dál častěji přenášejí rizika na dodavatele prostřednictvím regresních nároků ve smlouvách o veřejných zakázkách.

Praktická právní rizika pro vaši společnost

Pokud je vaše firma součástí dodavatelského řetězce v obranném průmyslu nebo vyvíjí AI technologie, týkají se vás následující regulace.

Exportní kontrola a sankce

Vývoz technologií souvisejících s autonomií podléhá přísným režimům. Patří sem mezinárodní kontrolní režim Wassenaar Arrangement a Nařízení EU 2021/821. Software pro rozpoznávání obrazu nebo neurální sítě může vyžadovat vývozní povolení, i když není primárně určen pro armádu. Porušení se trestá vysokými pokutami a v ČR i trestním stíháním.

Riziko

Jak pomáhá ARROWS (office@arws.cz)

Zamítnutí vývozní licence

Provedeme klasifikaci zboží a zastoupíme vás v řízení před Licenční správou MPO.

Porušení sankcí

Nastavíme screening obchodních partnerů (Sanctions Screening) dle aktuálních seznamů EU a USA (OFAC).

Trestní odpovědnost vedení

Zavedeme Internal Compliance Program (ICP), který je pro exportéry citlivého materiálu povinný.

ESG a směrnice CSDDD

V roce 2026 je plně účinná směrnice CSDDD (Corporate Sustainability Due Diligence Directive). Velké společnosti musí identifikovat a řešit dopady své činnosti na lidská práva. Vývoj autonomních zbraní bez etických záruk může být vyhodnocen jako porušení standardů, což může vést k vyloučení z dodavatelských řetězců nadnárodních korporací.

Akt o umělé inteligenci

Ačkoliv Nařízení o umělé inteligenci obsahuje výjimku pro systémy určené výlučně pro vojenské účely , hranice je tenká.

Pokud vyvíjíte navigační AI, kterou prodáváte armádě, ale i civilnímu sektoru, spadáte pod plnou regulaci pro vysoce rizikové systémy. To obnáší certifikace CE, řízení rizik a datovou governance.

Lidský prvek a smysluplná kontrola

Právním standardem, ke kterému se upíná mezinárodní společenství, je Smysluplná lidská kontrola (Meaningful Human Control - MHC).

  • Human-in-the-Loop (HITL): Systém vybere cíl, ale člověk musí palbu aktivně schválit. Toto je právně nejbezpečnější režim.
  • Human-on-the-Loop (HOTL): Systém útočí sám, člověk dohlíží a může útok přerušit (veto). Zde je riziko tzv. automation bias , kdy člověk příliš věří stroji a nezasáhne.
  • Human-out-of-the-Loop: Plná autonomie. Právně nejproblematičtější a pro mnoho států eticky nepřijatelná kategorie pro letální sílu.

Pro výrobce je klíčové, aby jejich systémy technicky umožňovaly implementaci HITL nebo HOTL režimů podle požadavků zákazníka (státu) a pravidel nasazení (ROE).

Mezinárodní vývoj a vyhlídky

Ačkoli generální tajemník OSN v roce 2023 vyzval k uzavření dohody o zákazu LAWS do roku 2026, realita je odlišná. Místo globálního zákazu vidíme fragmentaci:

  1. Blok "Regulace": EU a některé státy prosazují přísná pravidla a lidskou kontrolu.
  2. Blok "Status Quo": Velmoci (USA, Rusko) odmítají nové závazné smlouvy s argumentem, že stávající IHL je dostačující.

Pro vaši firmu to znamená nutnost sledovat legislativu v každé zemi exportu zvlášť. Co je legální vyvézt do USA, může být problematické v rámci EU pravidel pro lidská práva.

Doporučení

V roce 2026 se pohybujeme v prostředí právní nejistoty, ale nikoliv v právním vakuu. Existující předpisy (IHL, exportní kontrola, směrnice o odpovědnosti) dopadají na celý životní cyklus autonomních zbraní.

Doporučení pro management:

  1. Audit produktového portfolia: Spadají vaše produkty pod Dual-Use nebo vojenský materiál? Máte správné licence?
  2. Smluvní ochrana: Máte ve smlouvách ošetřenu odpovědnost za škodu způsobenou "rozhodnutím" AI?
  3. Etický kodex a ESG: Máte nastavená pravidla pro vývoj AI v souladu s mezinárodními standardy?

Tým ARROWS advokátní kancelář disponuje experty na mezinárodní právo, compliance v obranném průmyslu a regulaci AI. Pomůžeme vám bezpečně projít tímto složitým právním prostředím.

FAQ – Právní dotazy k autonomním zbraním

1. Je vývoj autonomních zbraní v ČR legální?
Ano, vývoj není zakázán, ale podléhá zákonu č. 38/1994 Sb., o zahraničním obchodu s vojenským materiálem, a dalším předpisům. Musíte mít povolení a licenci. Pokud jde o AI, je nutné posoudit dopady EU AI Act.

2. Kdo nese odpovědnost, když autonomní dron omylem zasáhne civilisty?
Primárně stát dle mezinárodního práva veřejného. Trestněprávně může být stíhán velitel operace. Výrobce může čelit regresním nárokům státu nebo reputační likvidaci, přímá trestní odpovědnost výrobce je méně pravděpodobná, pokud nešlo o podvod.

3. Vztahuje se na vojenské AI systémy nové nařízení EU o AI?
Systémy vyvinuté a používané výlučně pro vojenské účely jsou z působnosti EU AI Act vyňaty. Pozor však na systémy dvojího užití (např. logistický software, simulátory), které mohou pod regulaci spadat.

4. Co je to "článek 36"?
Jedná se o článek Dodatkového protokolu I k Ženevským úmluvám. Ukládá státům povinnost právně přezkoumat každou novou zbraň, zda její použití není v rozporu s mezinárodním právem. V ČR tyto přezkumy provádí příslušné složky Ministerstva obrany.

Upozornění: Informace obsažené v tomto článku mají pouze obecný informativní charakter a slouží k základní orientaci v problematice dle právního stavu k roku 2026. Ačkoliv dbáme na maximální přesnost obsahu, právní předpisy a jejich výklad se v čase vyvíjejí. Jsme ARROWS advokátní kancelář, subjekt zapsaný u České advokátní komory (náš orgán dohledu), a pro maximální bezpečí klientů jsme pojištěni pro případ profesní odpovědnosti s limitem 400.000.000 Kč. Pro ověření aktuálního znění předpisů a jejich aplikace na vaši konkrétní situaci je nezbytné kontaktovat přímo ARROWS advokátní kancelář (office@arws.cz). Neneseme odpovědnost za případné škody vzniklé samostatným užitím informací z tohoto článku bez předchozí individuální právní konzultace.