natoaktual.cz

Vzpoura robotů nehrozí, zatím. Hrozbu ale nesmíme podcenit, říká expert

3. listopadu 2016  9:02
Vývoj umělé inteligence je nezadržitelný. Svět už začíná uvažovat o tom, jak pro její využívání a také zneužívání vymezit právní rámce. Ačkoliv "vzpoura robotů" zůstává v oblasti sci-fi, pro hrozbu budoucnosti by měla existovat pomyslná záchranná brzda, tvrdí v rozhovoru Luděk Jiráček z Asociace pro mezinárodní otázky.  

Kyberútoky jsou novou bezpečnostní výzvou. | foto: NATO Photos

Když to trochu nadnesu, vzpoura robotů nám sice zatím nehrozí, ale hledání právních rámců pro jisté svázání AI (umělá inteligence) je třeba právě i kvůli tomu, aby k něčemu takovému nedošlo?
Právní rámec v oblasti bezpečnostní politiky má v současné době dvě hlavní roviny. Přední vědci a experti v prvé řadě upozorňují na možnost zneužití AI například ze strany teroristických organizací či diktátorů vůči civilnímu obyvatelstvu, a to již v krátkodobém až střednědobém horizontu. Tomu se zcela jistě nevyhneme.

Z dlouhodobého hlediska přichází na stůl zmíněná hrozba v podobě možné vzpoury robotů, kdy jednotlivé systémy budou schopny fungovat nejen autonomně bez závislosti na lidském faktoru, ale zároveň budou schopny samy sebe vylepšovat (tzv. technologická singularita). Ano, v současné době je to absolutní sci-fi a před lidstvem stojí mnoho dalších hrozeb, které mohou být v krátkodobém až střednědobém horizontu devastující. Na druhou stranu je nutné přemýšlet o určité záchranné brzdě a tuto hrozbu nepodceňovat, jelikož vývoji AI se již nevyhneme.

Automatizace je doslova na každém kroku i v běžných mobilních telefonech za nás přemýšlí procesor. Napadá mě, že podle takzvaného Moorova zákona by měly počítače dosáhnout výkonu srovnatelného s lidským mozkem v roce 2029. Co pak?
To je velice zajímavá otázka, na kterou v současné době asi nedokáže nikdo přesně odpovědět. Není ani zcela jisté, zdali k tomu dojde v roce 2029. V prvé řadě je však nutné si uvědomit, že naše závislost na moderních technologiích je čím dál tím znatelnější, což vede zároveň k tzv. intelektuálnímu zlenivění.

ANALÝZA: Umělá inteligence a tvorba legislativního rámce

Tato závislost negativně ovlivňuje nejen naše rozhodování a chování při krizových situacích, ale de facto omezuje lidské dovednosti. V praxi však bude záležet zejména na nás, jestli budeme využívat nové technologie ve prospěch lidstva a k záchranám životů či nikoliv. Pokud budou jednotlivé systémy zcela autonomní a dosáhnou úrovně, která bude pro lidstvo nebezpečná, bude zásadní zajistit možnost daný systém či robota deaktivovat.

A je obecně vůbec nutné svazovat právními mantinely „něco“, co člověk vytvořil a „jen pro něj pracuje“ nebo se zaměřit na lidi, kteří zařízení či systémy s umělou inteligencí používají a budou používat a případně i zneužívat?
Využití AI skrývá obrovský potenciál, ale i značná bezpečnostní rizika. Na zavedení legislativních opatření proti zneužití AI, zejména v obranném průmyslu, se proto shoduje mnoho vědců. Bohužel regulace v této oblasti je nejen komplikovaná, ale v praxi zejména těžko realizovatelná, a to jak během vývoje, tak i ex-post.

Mezi hlavní důvody patří problematika spjatá s otázkou, jakým způsobem by měl být daný problém regulován. Pokud bychom navíc chtěli zajistit právní mantinely na globální úrovni, což je v této oblasti nezbytné, budeme čelit neochotě některých zemí světa se na určité tvorbě podílet. Mimo to je velmi komplikované zajistit jednotné řešení sporů, když se v praxi právní zvyklosti v jednotlivých zemích značně odlišují.

Existují už nějaké jasné příklady zneužití či pokusů zneužití umělé inteligence v obranném průmyslu?
Rozvoj AI v obranném průmyslu se v současné době nenachází na úrovni, kdy by systémy fungovaly zcela autonomně. Vždy je nutné učinit rozhodnutí k provedení daného úkonu a poté stisknout pomyslné červené tlačítko. Systémy jsou spíše tedy částečně autonomní. Pokud však dojde k masové produkci takovýchto systémů, můžeme očekávat, že dřív nebo později se dostanou na černý trh a tedy i zároveň do rukou zmíněných teroristických organizací.

Stále častěji diskutovaným fenoménem jsou plně automatizované zbraňové systémy. Už jen současné bezpilotní prostředky jsou schopny prakticky autonomně fungovat nad danou oblastí. Je vůbec možné nějak právně jejich použití a tedy i případné zneužití definovat?
Problém definic se nachází u veškerých hrozeb, které ovlivňují naše životy. Pokud se například zúčastníte setkání mezinárodní konference, každý expert či státník vám sdělí odlišnou definici hrozby na dané téma. Co se týče umělé inteligence, není tomu jinak. Nejčastěji využívané definice jsou navíc příliš obecné, a to i přes to, jak je tato problematika rozsáhlá a komplikovaná. I kdybychom se však shodli na jednotné definici a nastavili legislativní rámec pro řešení problémů spojených s AI, zneužití nezabráníme.

Zdá se, že vlastně globálně nejsou nastavena ani etická pravidla a nemyslím jen v oblasti zbraňových systémů?
Je to přesně tak a bohužel nemůžeme ani očekávat, že k nastavení určitých pravidel v nejbližší budoucnosti dojde. Uvědomme si, že již v dnešní době dochází k vývoji a užívání (polo)autonomních systémů. Každý subjekt v soukromém sektoru či aktér v mezinárodních vztazích se bude vždy snažit využít konkurenční výhody a posílit tak svou pozici. Hlavním impulsem pro tvorbu legislativního rámce bude až hmatatelná hrozba. V současné době tedy není ani na místě si pokládat otázku, zda bude vůbec možné regulovat AI, ale spíše, kdo bude jako první nové technologie ovládat a tedy i využívat, respektive zneužívat.

Lubomír Světnička natoaktual.cz
zpět na článek