Smrtící autonomní zbraň - Lethal autonomous weapon

BAE Systems Corax během testování letu

Smrtelné autonomní zbraně ( LAWs ) jsou typem autonomního vojenského systému, který dokáže nezávisle vyhledávat a zabírat cíle na základě naprogramovaných omezení a popisů. ZÁKONY jsou také známé jako smrtící autonomní zbraňové systémy (LAWS), autonomní zbraňové systémy (AWS), robotické zbraně , zabijácké roboty nebo jatka . ZÁKONY mohou fungovat ve vzduchu, na souši, na vodě, pod vodou nebo ve vesmíru. Autonomie současných systémů byla od roku 2018 omezena v tom smyslu, že člověk dává konečný příkaz k útoku - i když u určitých „obranných“ systémů existují výjimky.

Být autonomní jako zbraň

Být „autonomní“ má v různých studijních oborech různé významy. Ve strojírenství se může jednat o schopnost stroje pracovat bez lidské účasti. Ve filozofii se může jednat o jedince, který je morálně nezávislý. V politologii to může odkazovat na schopnost samosprávy dané oblasti . Pokud jde o vývoj vojenských zbraní, identifikace zbraně jako autonomní není tak jasná jako v jiných oblastech. Specifický standard obsažený v pojetí autonomie se může mezi různými učenci, národy a organizacemi velmi lišit.

Různí lidé mají mnoho definic toho, co představuje smrtící autonomní zbraň. Heather Roff, spisovatelka Právnické fakulty Univerzity Case Western Reserve , popisuje autonomní zbraňové systémy jako „ozbrojené zbraňové systémy schopné učit se a přizpůsobovat své„ fungování v reakci na měnící se okolnosti v prostředí, ve kterém jsou [nasazeny] “jako jsou také schopni samostatně rozhodovat o palbě. " Tato definice autonomních zbraňových systémů je poměrně vysoký práh ve srovnání s definicemi učenců, jako jsou definice Petera Asara a Marka Gubruda uvedené níže.

Učenci jako Peter Asaro a Mark Gubrud se snaží nastavit práh níže a více zbraňových systémů považovat za autonomní. Věří, že jakýkoli zbraňový systém, který je schopen uvolnit smrtící sílu bez operace, rozhodnutí nebo potvrzení lidského dozorce, lze považovat za autonomní. Podle Gubruda je zbraňový systém fungující částečně nebo zcela bez zásahu člověka považován za autonomní. Tvrdí, že zbraňový systém nemusí být schopen samostatně se rozhodovat, aby mohl být nazýván autonomním. Místo toho by mělo být považováno za autonomní, pokud aktivně zahrnuje jednu nebo více částí „přípravného procesu“, od nalezení cíle až po konečnou střelbu.

Jiné organizace však nastavují standard autonomního zbraňového systému na vyšší pozici. Ministerstvo obrany (United Kingdom) definuje autonomní zbraňové systémy jako „systémy, které jsou schopny rozumět vyšší stupeň úmysl a směr. Z tohoto porozumění a jeho vnímání svého prostředí, jako je systém schopen přijmout příslušná opatření k dosažení požadovaného Je schopen rozhodnout o dalším postupu z řady alternativ, aniž by závisel na lidském dohledu a kontrole - takové zapojení člověka do systému však může být stále přítomno. Zatímco celková aktivita autonomního bezpilotního letadla bude předvídatelné, individuální akce nemusí být. “

V důsledku toho vyžaduje složení smlouvy mezi státy běžně přijímané označení toho, co přesně představuje autonomní zbraň.

Automatické obranné systémy

Nejstarší automaticky spuštěnou smrtící zbraní je pozemní mina používaná nejméně od 16. století a námořní miny používané nejméně od 17. století. Protipěchotní miny jsou v mnoha zemích zakázány smlouvou z Ottawy z roku 1997 , včetně USA, Ruska a velké části Asie a Blízkého východu.

Některé současné příklady ZÁKONŮ jsou automatizované aktivní ochranné systémy „hardkill“ , jako jsou radarem naváděné systémy CIWS používané k obraně lodí, které se používají od 70. let minulého století (např. Americký Phalanx CIWS ). Takové systémy mohou autonomně identifikovat a útočit na protijedoucí rakety, rakety, dělostřeleckou palbu, letadla a povrchová plavidla podle kritérií stanovených lidským operátorem. Podobné systémy existují pro tanky, jako je ruská aréna , izraelská trofej a německý AMAP-ADS . V Jižní Koreji a Izraeli se používá několik typů stacionárních hlídkových zbraní , které mohou střílet na lidi a vozidla. Mnoho systémů protiraketové obrany , jako je Iron Dome , má také schopnosti autonomního cílení. Automatické věže instalované na vojenských vozidlech se nazývají vzdálené zbraňové stanice .

Hlavním důvodem, proč v těchto systémech není „člověk ve smyčce“, je potřeba rychlé reakce. Obvykle se používají k ochraně personálu a zařízení před přicházejícími střelami.

Autonomní útočné systémy

Systémy s vyšším stupněm autonomie by zahrnovaly drony nebo bezpilotní bojová letecká vozidla , např .: „Neozbrojený prototyp bojového dronu BAE Systems Taranis s proudovým pohonem může vést k Future Combat Air System, který dokáže samostatně vyhledávat, identifikovat a lokalizovat nepřátele, ale může zapojte se do cíle pouze tehdy, když to povolí velení mise. Může se také bránit proti nepřátelským letadlům “(Heyns 2013, §45). Northrop Grumman X-47B robot může startovat a přistávat na letadlových lodích (což bylo prokázáno v roce 2014); je nastaven tak, aby byl vyvinut do systému Unmanned Carrier-Launched Airborne Surveillance and Strike (UCLASS).

Srbský tažný přívěs Land Rover Defender s pásovým bojovým robotem „Miloš“

Podle The Economist , jak technologie postupuje, budoucí aplikace bezpilotních podmořských vozidel mohou zahrnovat odstraňování min, kladení min, protiponorkové senzorové sítě v napadených vodách, hlídkování s aktivním sonarem, zásobování ponorek s posádkou a stává se levnou raketovou platformou. V roce 2018 americký Nuclear Posture Review tvrdil, že Rusko vyvíjí „nové mezikontinentální, jaderně vyzbrojené, podmořské autonomní torpédo“ s názvem „ Status 6 “.

Ruská federace se aktivně rozvíjí uměle inteligentní střely , bezpilotní letouny , bezpilotní vozidla , vojenské roboty a zdravotník roboty.

Izraelský ministr Ayoob Kara v roce 2017 uvedl, že Izrael vyvíjí vojenské roboty, včetně robotů malých jako mouchy.

V říjnu 2018 měl Zeng Yi, vrchní ředitel čínské obranné firmy Norinco , projev, ve kterém řekl, že „v budoucích bitevních oblastech nebudou bojovat žádní lidé“ a že použití smrtících autonomních zbraní ve válčení je „ nevyhnutelný". V roce 2019 americký ministr obrany Mark Esper kritizoval Čínu za prodej dronů schopných vzít život bez lidského dohledu.

Britská armáda nasadila v roce 2019 nová bezpilotní vozidla a vojenské roboty.

US Navy se vyvíjí „duchy“ flotily bezpilotních lodí .

V roce 2020 dron Kargu 2 dopadl a zaútočil na lidský cíl v Libyi , uvádí se ve zprávě z panelu odborníků Rady bezpečnosti OSN pro Libyi, zveřejněné v březnu 2021. Toto mohlo být vůbec poprvé ozbrojeným robotem zabijáckého robota smrtícími zbraněmi zaútočili na lidské bytosti.

Etické a právní otázky

Standard používaný v politice USA

Současná politika USA uvádí: „Autonomní ... zbraňové systémy budou navrženy tak, aby velitelům a operátorům umožňovaly přiměřenou míru lidského úsudku ohledně použití síly.“ Tato politika však vyžaduje, aby autonomní zbraňové systémy, které zabíjejí lidi nebo používají kinetickou sílu, vybírají a zabírají cíle bez dalšího lidského zásahu, byly certifikovány jako vyhovující „odpovídajícím úrovním“ a dalším normám, nikoli že tyto zbraňové systémy nemohou tyto standardy splňovat a jsou proto zakázáno. „Poloautonomní“ lovci-zabijáci, kteří samostatně identifikují a útočí na cíle, dokonce nevyžadují certifikaci. Náměstek ministra obrany Robert Work v roce 2016 řekl, že ministerstvo obrany „nebude delegovat smrtící autoritu na stroj, který by rozhodl“, ale možná to bude muset přehodnotit, protože „autoritářské režimy“ to mohou dělat. V říjnu 2016 prezident Barack Obama uvedl, že na začátku své kariéry byl obezřetný vůči budoucnosti, ve které americký prezident využívající válčení dronů „může vést věčné války po celém světě a mnoho z nich je skrytých, bez jakékoli odpovědnosti nebo demokratická debata “. V USA spadá AI související s bezpečností od roku 2018 do kompetence Národní bezpečnostní komise pro umělou inteligenci. Dne 31. října 2019 zveřejnila Rada pro obrannou inovaci ministerstva obrany USA návrh zprávy, která nastiňuje pět zásad pro vyzbrojování AI a 12 doporučení pro etické využití umělé inteligence ministerstvem obrany, která by zajistila, že lidský operátor bude vždy schopen nahlédnout do „černé skříňky“ a porozumět procesu zabíjecího řetězce. Velkou obavou je, jak bude zpráva implementována.

Možná porušení etiky a mezinárodních aktů

Stuart Russell , profesor počítačových věd z Kalifornské univerzity, Berkeley uvedl, že jeho obavy ze ZÁKONŮ spočívají v tom, že jeho názor je, že je neetický a nelidský. Hlavním problémem tohoto systému je, že je těžké rozlišit mezi bojovníky a nebojovníky.

Někteří (např. Noel Sharkey 2012) mají obavy z toho, zda by ZÁKONY porušovaly mezinárodní humanitární právo , zejména zásadu rozlišování, která vyžaduje schopnost diskriminovat bojovníky od nebojujících osob, a zásadu proporcionality , která vyžaduje poškození civilistů je úměrná vojenskému cíli. Tato obava je často vyvolávána jako důvod k úplnému zákazu „zabijáckých robotů“ - je však pochybné, že tato obava může být argumentem proti ZÁKONŮM, které neporušují mezinárodní humanitární právo.

Zpráva Americké kongresové výzkumné služby z roku 2021 uvádí, že „neexistují žádné vnitrostátní ani mezinárodní právní zákazy vývoje používání ZÁKONŮ“, ačkoli uznává probíhající jednání v Úmluvě OSN o některých konvenčních zbraních (CCW).

ZÁKONY někteří říkají, že stírají hranice toho, kdo je zodpovědný za konkrétní zabití. Filozof Robert Sparrow tvrdí, že autonomní zbraně jsou kauzálně, ale ne morálně zodpovědné, podobně jako dětští vojáci. V každém případě tvrdí, že existuje riziko zvěrstev, ke kterým by došlo bez příslušného subjektu, který by byl odpovědný, což porušuje ius in bello . Thomas Simpson a Vincent Müller tvrdí, že mohou usnadnit zaznamenávání toho, kdo dal jaký příkaz. Podobně Steven Umbrello , Phil Torres a Angelo F. De Bellis tvrdí, že pokud jsou technické kapacity ZÁKONŮ přinejmenším stejně přesné jako lidské vojáky, pak vzhledem k psychologickým nedostatkům lidských vojáků ve válce zaručuje, že by měly být používány pouze tyto typy etických ZÁKONŮ. použitý. Podobně navrhují použít přístup založený na hodnotově citlivém designu jako potenciální rámec pro navrhování těchto zákonů tak, aby byly v souladu s lidskými hodnotami a mezinárodním humanitárním právem . Potenciální porušení MHP ze strany ZÁKONŮ je dále - podle definice - použitelné pouze v prostředích konfliktů, které vyžadují rozlišování mezi bojovníky a civilisty. Jakýkoli scénář konfliktu bez přítomnosti civilistů - tj. Ve vesmíru nebo na širém moři - by tak nenarazil na překážky, které představuje MHP.

Kampaně zakazující ZÁKONY

Možnost ZÁKONŮ vyvolala značnou debatu, zejména o riziku „zabijáckých robotů“, kteří se potulují po Zemi - v blízké nebo daleké budoucnosti. Skupina Kampaň za zastavení robotů zabijáků vznikla v roce 2013. V červenci 2015 podepsalo přes 1 000 odborníků na umělou inteligenci dopis varující před hrozbou závodů ve zbrojení s umělou inteligencí a vyzývající k zákazu autonomních zbraní. Dopis byl uveden v Buenos Aires na 24. Mezinárodní společná konference o umělé inteligence (IJCAI-15) a byl společně podepsali Stephen Hawking , Elon Musk , Steve Wozniak , Noam Chomsky , Skype spoluzakladatele Jaan Tallinn a Google DeepMind ko- mimo jiné zakladatel Demis Hassabis .

Podle PAX For Peace (jedna ze zakládajících organizací Kampaně za zastavení zabijáckých robotů) plně automatizované zbraně (FAW) sníží práh vstupu do války, protože vojáci budou odstraněni z bitevního pole a veřejnost bude distancována od prožívání války, dát politikům a dalším osobám s rozhodovací pravomocí větší prostor při rozhodování, kdy a jak jít do války. Varují, že jakmile budou FAW nasazeny, ztíží demokratickou kontrolu války - něco, před čím varoval autor knihy Kill Decision - románu na toto téma - a také IT specialista Daniel Suarez : podle něj by to mohlo znovu centralizovat moc do velmi málo rukou vyžadující velmi málo lidí jít do války.

Existují webové stránky, které protestují proti vývoji ZÁKONŮ tím, že předkládají nežádoucí důsledky, pokud bude pokračovat výzkum využití umělé inteligence k označování zbraní. Na těchto webových stránkách jsou zprávy o etických a právních problémech neustále aktualizovány, aby si návštěvníci mohli shrnout nejnovější zprávy o mezinárodních setkáních a články z výzkumu týkající se ZÁKONŮ.

Svatý stolec vyzval mezinárodní společenství, aby zákaz používání zákonů při několika příležitostech. V listopadu 2018 arcibiskup Ivan Jurkovic , stálý pozorovatel Svaté stolice při OSN, uvedl, že „Aby se předešlo závodům ve zbrojení a nárůstu nerovností a nestability, je nezbytně nutné jednat okamžitě: nyní je čas zabránit tomu, aby se ZÁKONY staly realitou zítřejší války. “ Církev se obává, že tyto zbraňové systémy mají schopnost nevratně změnit povahu války, vytvořit odtržení od lidské svobody jednání a zpochybnit lidskost společností.

Dne 29. března 2019 většina vlád zastoupených na zasedání OSN k projednání této záležitosti upřednostnila zákaz ZÁKONŮ. Proti zákazu se postavila menšina vlád, včetně vlád Austrálie, Izraele, Ruska, Velké Británie a USA.

Žádný zákaz, ale regulace

Třetí přístup se zaměřuje na regulaci používání autonomních zbraňových systémů namísto zákazu. Vojenská kontrola zbraní AI bude pravděpodobně vyžadovat institucionalizaci nových mezinárodních norem zakotvených v účinných technických specifikacích v kombinaci s aktivním monitorováním a neformální diplomací („Track II“) ze strany komunit odborníků spolu s procesem legálního a politického ověřování.

Viz také

Reference

Další čtení

  • Heyns, Christof (2013), „Zpráva zvláštního zpravodaje o mimosoudních, souhrnných nebo svévolných popravách“, Valné shromáždění OSN, Rada pro lidská práva, 23 (3), A/HRC/23/47.
  • Krishnan, Armin (2009), Killer robots: Legalita a etika autonomních zbraní (Aldershot: Ashgate)
  • Müller, Vincent C. (2016), „Autonomní zabijácké roboty jsou pravděpodobně dobrou zprávou“ , v Ezio Di Nucci a Filippo Santoni de Sio (eds.), Drones and zodpovednosť: Právní, filozofické a sociálně-technické pohledy na používání dálkově kontrolované zbraně, 67-81 (Londýn: Ashgate).
  • Kampaň Stuarta Russella proti ZÁKONŮM
  • Sharkey, Noel E (2012), `` Automating Warfare: lekcí získaných z dronů``, Journal of Law, Information & Science , 21 (2).
  • Simpson, Thomas W a Müller, Vincent C. (2016), 'Just war and robots' killings ' , The Philosophical Quarterly 66 (263), 302–22.
  • Singer, Peter (2009), Wired for war: The robotics revolution and conflict in the 21st Century (New York: Penguin)
  • Ministerstvo obrany USA (2012), „směrnice 3000.09, Autonomie ve zbraňových systémech“. <2014 Killer Robots Policy Paper Final.docx>.
  • Ministerstvo obrany USA (2013), „Integrovaná cestovní mapa bezobslužných systémů FY2013-2038“. < http://www.defense.gov/pubs/DOD-USRM-2013.pdf%3E .
  • Seminář The Ethics of Autonomous Weapons Systems (2014) at UPenn < https://www.law.upenn.edu/institutes/cerl/conferences/ethicsofweapons/schedule-required-readings.php >