Umělá inteligence a tvorba legislativního rámce

Vydáno 17.10.2016
Analýza Luďka Jiráčka z Asociace pro mezinárodní otázky
Již v 19. století prohlásil významný britský státník Winston Churchill ve své publikaci ve vztahu k mohamedanismu tezi, že: „Nebýt toho, že křesťanství je chráněno silnými pažemi vědy, té vědy, se kterou marně bojovalo, civilizace moderní Evropy by mohla padnout, stejně jako padla civilizace starého Říma.“ Současný vývoj informačních a komunikačních technologií může však tuto tezi vyvrátit, a to jak z důvodů bezpečnostně-strategických, tak i z důvodů fyziologických. Mnoho vědců a expertů se tak shoduje na tom, že je nutné zavést legislativní opatření - zejména - proti zneužití a používání umělé inteligence v obranném průmyslu. Bude to však vůbec možné?  

Rozvoj umělé inteligence a autonomních systémů je v současné době nezastavitelný, a tedy i neregulovatelný (ilustrační foto) | foto: NATO Photos

Problém definice

Změní umělá inteligence bezpečnostní politiku států a mezinárodní vztahy?

Prvním problémem v oblasti možné regulace autonomních systémů a robotů je otázka „co má být přesně regulováno“. Tak jako neexistuje univerzální a jednotná definice terorismu, proti kterému nejsme schopni bojovat na globální úrovni, na otázku „co je robot“ či „co je umělá inteligence“ neexistuje jednotná a univerzální odpověď, respektive konsensus. Mimo to jsou využívané definice příliš obecné.

Aktuálním příkladem je návrh rezoluce Výboru pro právní záležitosti EU, jenž by upravoval status robotů ve výrobním procesu, respektive zavedl jejich zdanění (sociální pojištění). Tato regulace by dle zástupců výboru měla nejen zamezit výpadkům příjmů státních rozpočtů, ale i vyřešit sociální problémy na regionální úrovni kvůli automatizaci výrobních procesů. Pokud by však někdy došlo ke zdanění robotů, nejprve by bylo nutné zavést jasnou definici robota, tedy toho, co bude znamenat jeden robot, který bude zdaněn.

V praxi totiž může mimo jiné nastat situace, kdy ve výrobním procesu společnosti „A“ bude využíván pouze jeden komplexní autonomní systém, který zajistí vše od složení výrobku přes logistiku oproti menší společnosti „B“, která bude využívat na jednotlivé úkony více systémů, respektive robotů.

Nemožnost vymahatelnosti a globální regulace

Co je to umělá inteligence?

Umělá inteligence je věda o vytváření strojů nebo systémů, které budou při řešení určitého úkolu užívat takového postupu, který - kdyby ho dělal člověk - bychom považovali za projev jeho inteligence. (Minsky, 1967)

Umělá inteligence je však obsáhlou vědní disciplínou, která se rozděluje na několik hlavních podkategorií a metod a to: (1) expertní systémy poskytující doporučení či rozhodnutí na základě vstupních dat; (2) genetické algoritmy; (3) multiagentní sítě; a (4) umělé neuronové sítě, které jsou inspirovány neuronovými sítěmi živých organismů.

Nové technologie a autonomní systémy s obecnou umělou inteligencí pomohou nabízet lepší služby koncovým zákazníkům či dokonce zachraňovat a ulehčovat životy (ne)potřebným. Ruku v ruce může dojít k rozsáhlým sociálním a bezpečnostním problémům, které budou muset národní vlády řešit, a bude pouze otázkou, jaké mantinely budou pro takovýto vývoj autonomních systémů nastaveny.

V minulosti mohly jednotlivé státy využívat jakékoliv prostředky k dosažení svých zájmů ve vztahu k jinému územnímu celku, a to i za pomoci hard power. To však v současné době nepovoluje mezinárodní právo, které je založeno na svrchované rovnosti států.¹

Ta je navíc omezena jednotlivými úmluvami nejen ve vztahu k šíření konvenčních zbraní, respektive vojensky využitelného materiálu, ale i ve vztahu ke zbrojení a odzbrojení. Jednotlivé úmluvy jsou však založené zejména na důvěře mezi státy. Nicméně mezinárodní vztahy jsou založené převážně na nedůvěře, jež vede naopak k dalšímu zbrojení a ohrožování celosvětového míru.

Co se týče univerzální a právně závazné smlouvy, která by řešila otázku kontroly nad mezinárodním obchodem se zbraněmi, v současné době neexistuje. V roce 2014 sice vstoupila v platnost tzv. Arms Trade Treaty, ta byla však ratifikována pouze 84 státy. Světové velmoci jako například Spojené státy, Rusko, Indie či ČLR doposud smlouvu neratifikovaly. Nejednotnost postojů v rámci mezinárodního obchodu můžeme přisoudit převážně ke snaze chránit národní a obchodní zájmy. Z tohoto důvodu není na místě si pokládat otázku, zda-li bude vůbec možné regulovat AI, ale spíše, kdo bude jako první nové technologie ovládat.

Vědci také doporučují regulaci autonomních systémů již během vývoje, tedy ex-ante. Jednotlivé výzkumné fáze jsou však velmi diskrétní a obtížněji analyzovatelné, nežli u dosavadních technologií. Mimo to již nyní se více než 40 zemí světa se snaží vyvíjet roboty, jejichž cílem je zabíjet. Spojené státy americké veřejně deklarují investice v roce 2017 do propojování schopností člověka a robotů 3 mld. dolarů či do výzkumu autonomních systémů 1,7 mld. dolarů. Pokud bude cílem zachovat celosvětový mír, základním předpokladem k lepším zítřkům je participace světových a velkých mocností. Zásadním problémem navíc také zůstává rozdílná právní úprava a přístup v řešení situací v jednotlivých zemích.²

Na druhou stranu nové zbraňové systémy v historii vždy vyvolávaly značné obavy o jejich následcích a například jaderné zbraně, které patří mezi nejúčinnější a nejničivější zbraně hromadného ničení, zamezily od 2. světové války dalšímu globálnímu konfliktu. Bohužel se doposud zcela nepodařilo zabránit použití a šíření zbraní hromadného ničení jako takových (např. biologické a chemické, které jsou na základě mezinárodních dohod zakázány používat, vyvíjet, vyrábět i skladovat). Nemůžeme tedy očekávat, že v případě využívání plně automatizovaných zbraňových systémů, půjde zcela zamezit vývoji a jejich šíření například do rukou teroristických organizací.

Hlavním impulsem pro tvorbu legislativního jednotného rámce může být až hmatatelná hrozba. K její eliminaci v oblasti AI bude zásadní zajistit možnost deaktivace daného systému či robota. Na takovéto technologii již nyní pracuje společnost Google DeepMind, respektive Laurent Orseau, výzkumník z Google DeepMind a Stuart Armstrong, vědec z institutu Feature of Humanity. Jejich cílem je nalézt způsob, aby se budoucí autonomní stroje nedozvěděly o samotném deaktivačním zásahu, kterému by mohl samotný systém zamezit.

Závěr

Rozvoj umělé inteligence a autonomních systémů je v současné době nezastavitelný. Jejich výhody v krátkodobém horizontu zajistí veškerým aktérům v mezinárodních vztazích i v soukromém sektoru výraznou konkurenční výhodu. S určitou regulací můžeme počítat v soukromém či veřejném sektoru. Naopak v obranném průmyslu je jakákoliv regulace pouze utopií. Navíc je z dlouhodobého hlediska tvorba legislativního rámce v současné době téměř neřešitelná, a to zejména kvůli:

  1. neexistující jednotné definici toho, co má být regulováno (AI je v současné době poměrně vágním pojmem);
  2. neochotě participace všech zemí světa se podílet na takovéto tvorbě;
  3. problematice, jakým způsobem by měl být daný problém regulován;
  4. problematice, jak zajistit jednotné řešení sporů, kdy se právní zvyklosti v jednotlivých zemích značně odlišují.

Jak bylo uvedeno v předchozím článku, kvůli současnému stupni vývoje robotiky a umělé inteligence, se není nutné obávat katastrofických scénářů. Podle tzv. Moorova zákona by měly počítače dosáhnout výkonu srovnatelného s lidským mozkem v roce 2029 a až kolem roku 2045 by měla nastat tzv. technologická singularita.

Na druhou stranu dochází kvůli zvyšující se lidské závislosti na moderních technologiích k tzv. intelektuálnímu zlenivění. To může v budoucnu de facto vést k omezení lidských dovedností a v praxi až k trestuhodnému rozhodnutí během krizových situací. Tato závislost může být například podle prof. Kerryho z University of Ottawa více společensky devastující než možné povstání strojů.

1. ONDŘEJ, Jan. Odzbrojení a regulace zbrojení v mezinárodním právu a ve vztahu k suverenitě státu. Mezinárodní vztahy. 1999, vol. 34, no. 2, str. 59.
2. Jedním z aktuálních příkladů je smrt člověka sedícího ve vozu s tzv. autopilotem z května 2016 na Floridě (havárii by však podle expertů nezabránil ani člověk). Tato automobilová havárie výrazně ve veřejných médiích započala diskusi o vytvoření legislativního rámce pro řešení tohoto problému. Ten se však bude výrazně lišit dle právních zvyklostí v jednotlivých zemích. Například zodpovědnost výrobců v USA vůči svým zákazníkům je výrazněji silnější nežli v Evropě.

Luděk Jiráček
autor je spolupracovníkem Asociace pro mezinárodní otázky

natoaktual.cz