natoaktual.cz

Aplikace mezinárodního práva a regulace autonomních zbraňových systémů

26. června 2017  13:26
Luděk Jiráček, Asociace pro mezinárodní otázky
Mezinárodní společenství i národní státy stále ještě složitě hledají cestu jak z pohledu mezinárodního práva uchopit kybernetický prostor, a již před nimi stojí nová výzva - jak nadefinovat mezinárodní právo pro autonomní zbraňové systémy, jejichž rozšiřování se postupně zvyšuje.  

V blízké budoucnosti se cvičení kybernetické bezpečnosti mohou obejít bez zásahu lidí. Ilustrační foto ze cvičení Locked Shields v Estonsku. | foto: CCD COE

Umělá inteligence a tvorba legislativního rámce

Umělá inteligence (AI) a věda zabývající se touto problematikou je velmi komplexní a stále poměrně mladou disciplínou. Teprve v roce 2013 se například začala oblast autonomních zbraní projednávat na neformální úrovni na půdě OSN, respektive v rámci Úmluvy o zákazu nebo omezení použití některých konvenčních zbraní. Na hrozby spojené se zneužitím autonomních zbraní upozorňují však nejen neziskové organizace, jako například Stop Killer Robots, ale zejména přední vědci.

Pro definici umělé inteligence je velmi často užívaná definice z roku 1967 (Marvin Minsky), která klasifikuje AI jako „vědu o vytváření strojů nebo systémů, které budou při řešení určitého úkolu užívat takového postupu, který - kdyby ho dělal člověk - bychom považovali za projev jeho inteligence“.

Umělá inteligence je v kurzu

Výrazné investice do AI v současné době však probíhají nejen v soukromém sektoru, ale i ve veřejném, respektive v obranném průmyslu. To potvrzuje i předseda představenstva britské zbrojovky BAE Rogera Carra, podle kterého se snaží vyvíjet autonomní roboty s cílem zabíjet více než 40 zemí.

E. Richová se domnívá, že “umělá inteligence se zabývá tím, jak počítačově řešit úlohy, které dnes zatím zvládají lidé lépe“. Umělá inteligence je však obsáhlou vědní disciplínou, která se rozděluje na několik hlavních podkategorií a metod, a to například na: (1) expertní systémy; (2) genetické algoritmy; (3) multiagentní sítě; či (4) umělé neuronové sítě. Navíc je možné se setkat s AI i v netechnických oborech jako jsou například lingvistika, psychologie či filosofie.

Zavedení legislativních opatření (ex-ante vs. ex-post)

Jednotná a univerzální definice neexistuje a konsensus na tom, co by mělo být přesně regulováno či dokonce jak by daný problém měl být regulován, v současné době také neexistuje. Navíc ani nelze naleznout shodu na jednotné kontrole nad mezinárodním obchodem se zbraněmi. Doposud byla tzv. Arms Trade Treaty ratifikována pouze 88 státy a světové velmoci (př. USA, Čína, Indie, Rusko) smlouvu doposud ani neratifikovaly.

Výrazné investice do AI v současné době však probíhají nejen v soukromém sektoru, ale i ve veřejném, respektive v obranném průmyslu. To potvrzuje i předseda představenstva britské zbrojovky BAE Rogera Carra, podle kterého se snaží vyvíjet autonomní roboty s cílem zabíjet více než 40 zemí.

Výrazné investice v soukromém sektoru potvrzují i nejvýznamnější soukromé společnosti, jako například Google, Microsoft či Facebook. Jelikož využití AI skrývá nejen významný potenciál, ale i značná bezpečnostní rizika, přední vědci doporučují zavést určitá regulační opatření proti zneužití a používání AI zejména v obranném průmyslu.

Změní umělá inteligence bezpečnostní politiku států a mezinárodní vztahy?

Tak, jak je možná aplikace mezinárodní práva v oblasti kybernetické bezpečnosti diskutabilní, u využití AI v ozbrojených konfliktech tomu není a v krátkodobém horizontu ani s největší pravděpodobností nebude jinak.

Mezi hlavními možnými teoretickými otázkami, jež se budou v rámci mezinárodní práva klást, bude patřit, zda budou plně automatizované systémy vůbec schopny dodržovat mezinárodní principy v ozbrojeném konfliktu, jako například princip proporcionality, necílení na civilní obyvatelstvo a civilní objekty.

Otázkou také bude, zda bude lidský operátor vůbec schopen pochopit daný systém a bude mít možnost ověřit, jestli bude takovýto systém schopen vykonávat určitý úkon v souladu s mezinárodním právem. Navíc bude nutné nastavit adekvátní vztah s lidským operátorem, respektive zdali bude nastavená určitá ochrana a možnost potlačit robotické rozhodnutí.

V oblasti kontroly ex-ante je tedy zásadní kontrola již při navrhování daného algoritmu. Z toho důvodu se například v současné době společnost Google DeepMind snaží s předními experty nalézt způsob, jak deaktivovat daný autonomní systém bez toho, aby se dozvěděl o deaktivačním zásahu.

K tomu, aby vznikla určitá shoda pro zavedení univerzálně a právně závazné mezinárodní smlouvy pro regulaci zbrojení, včetně nastavení etických pravidel, je nutná také určitá důvěra a shoda mezi danými aktéry a subjekty.

Mezinárodní vztahy jsou však založeny na nedůvěře. Každý aktér mezinárodních vztahů včetně jednotlivých subjektů v soukromém sektoru bude mít zájem si zachovat konkurenční výhodu či dokonce ji využít pro dosažení stanovených cílů – zvýšení obchodních zisků, udržení a posílení pozic v mezinárodních vztazích, apod.

Další problematikou může být například určení zodpovědnosti za uskutečnění útoku, který nebude v souladu s mezinárodním právem (výrobce, programátor, velitel akce?) a zabránění náhodnému zneužití či selhání systémů.

Zavedení určité regulace během vývoje je však více než spekulativní, a to zejména kvůli diskrétnosti a značné utajovanosti jednotlivých výzkumných fází vývoje. I kdyby se zavedly určité kontrolní mechanismy, problémem bude zmíněný rychlý vývoj nových technologií, díky kterému budou muset být kontrolní mechanismy pravidelně upravovány. Navíc takovéto kontroly jsou technicky náročné a velmi finančně nákladné.

Přečtěte si plné znění textu Luďka Jiráčka:

Určitá kontrola nových zbraní, zbraňových systémů a nový způsob vedení válečných konfliktů, je například již obsažena v článku 36 Dodatkového protokolu I Ženevských úmluv z roku 1977, kdy je přímo uložena povinnost států provést právní přezkum, zdali je využití nových zbraní a zbraňových systémů v souladu s mezinárodním právem.

To je však i v případě využití kybernetických zbraní v současné době stále otevřeným tématem. Navíc samotný mechanismus přezkumu není jednotný a v každé zemi se tak může lišit. Lze tedy očekávat, tak jako u kybernetických hrozeb, že možná legislativní opatření na globální úrovni budou tvořena v okamžiku, kdy bude hmatatelná hrozba.

Luděk Jiráček
autor je spolupracovníkem Výzkumného centra AMO se zaměřením na bezpečnostní politiku a Severoatlantickou alianci

natoaktual.cz
zpět na článek