Etika umělé inteligence - Ethics of artificial intelligence

K etika umělé inteligence je větev etiky techniky jsou specifické pro uměle inteligentních systémů. Někdy se to dělí na zájem o morální chování lidí při navrhování, výrobě, používání a ošetřování uměle inteligentních systémů a zájem o chování strojů v etice strojů . Zahrnuje také problém možné singularity díky superinteligentní AI .

Přístupy etických oborů

Robotická etika

Pojem „robotická etika“ (někdy „roboetika“) označuje morálku toho, jak lidé roboty navrhují, konstruují, používají a zacházejí s nimi. Etika robotů se protíná s etikou AI. Roboti jsou fyzické stroje, zatímco AI může být pouze software. Ne všechny roboty fungují prostřednictvím systémů AI a ne všechny systémy AI jsou roboty. Robotická etika zvažuje, jak mohou být stroje používány k poškozování nebo prospívání lidí, jejich dopad na autonomii jednotlivce a jejich účinky na sociální spravedlnost.

Strojní etika

Strojová etika (nebo strojová morálka) je oblast výzkumu zabývajícího se navrhováním umělých morálních agens (AMA), robotů nebo uměle inteligentních počítačů, které se chovají morálně nebo jakoby morálně. Abychom vysvětlili povahu těchto agentů, bylo navrženo zvážit určité filozofické myšlenky, jako jsou standardní charakteristiky agentury , racionální agentury , morální agentury a umělé agentury, které souvisejí s konceptem AMA.

Isaac Asimov zvažoval problém v padesátých letech ve svém já, robot . Na naléhání svého redaktora Johna W. Campbella mladšího navrhl tři zákony robotiky , kterými se budou řídit uměle inteligentní systémy. Velká část jeho práce byla poté věnována testování hranic jeho tří zákonů, aby se zjistilo, kde se porouchají nebo kde vytvoří paradoxní nebo neočekávané chování. Jeho práce naznačuje, že žádný soubor pevných zákonů nedokáže dostatečně předvídat všechny možné okolnosti. V poslední době akademici a mnohé vlády zpochybňují myšlenku, že sama AI může být zodpovědná. Panel svolaný Spojeným královstvím v roce 2010 revidoval Asimovovy zákony, aby objasnil, že za umělou inteligenci nesou odpovědnost buď její výrobci, nebo její vlastník/provozovatel.

V roce 2009, v průběhu experimentu v laboratoři inteligentních systémů v Polytechnická Fédérale z Lausanne ve Švýcarsku , robotů, které byly naprogramovány tak, aby vzájemně spolupracují (při vyhledávání ven příznivý zdroj a vyhnout se jedovaté jeden), nakonec se naučili leží k sobě další ve snaze hromadit prospěšný zdroj.

Někteří odborníci a akademici zpochybnili používání robotů pro vojenské boje, zvláště když takoví roboti dostávají určitý stupeň autonomních funkcí. Americké námořnictvo financovalo zprávu, která naznačuje, že jak se vojenští roboti stávají komplexnějšími, měla by být věnována větší pozornost důsledkům jejich schopnosti samostatně rozhodovat. Předseda Asociace pro rozvoj umělé inteligence zadal studii, která se bude touto otázkou zabývat. Ukazují na programy, jako je zařízení pro získávání jazyků, které mohou emulovat lidskou interakci.

Vernor Vinge naznačil, že může nastat okamžik, kdy jsou některé počítače chytřejší než lidé. Říká tomu „ jedinečnost “. Navrhuje, že to může být pro lidi poněkud nebo možná velmi nebezpečné. Toto je diskutováno filozofií nazvanou Singularitarianism . Machine Intelligence Výzkumný ústav navrhl nutnost budovat „ Friendly AI “, což znamená, že zálohy, které jsou již vyskytující se u AI by měla také zahrnovat úsilí, aby AI skutečně přátelský a humánní.

Diskutuje se o vytváření testů, aby se zjistilo, zda je AI schopná činit etická rozhodnutí . Alan Winfield dochází k závěru, že Turingův test je chybný a požadavek, aby AI prošel testem, je příliš nízký. Navrhovaný alternativní test je test nazvaný Ethical Turing Test, který by zlepšil současný test tím, že více rozhodčích rozhodne, zda je rozhodnutí AI etické nebo neetické.

V roce 2009 se akademici a techničtí experti zúčastnili konference pořádané Asociací pro rozvoj umělé inteligence, kde diskutovali o potenciálním dopadu robotů a počítačů a dopadu hypotetické možnosti, že by se mohli stát soběstačnými a schopni činit vlastní rozhodnutí . Diskutovali o možnosti a rozsahu, v jakém by počítače a roboti mohli získat jakoukoli úroveň autonomie, a do jaké míry by takové schopnosti mohli použít k potenciálnímu ohrožení nebo ohrožení. Poznamenali, že některé stroje získaly různé formy poloautonómie, včetně schopnosti samostatně najít zdroje energie a schopnosti samostatně si vybrat cíle k útoku se zbraněmi. Rovněž poznamenali, že některé počítačové viry se mohou vyhnout eliminaci a dosáhly „inteligence švábů“. Poznamenali, že sebeuvědomění, jak je znázorněno ve sci-fi, je pravděpodobně nepravděpodobné, ale že existují další potenciální nebezpečí a úskalí.

Existuje však zejména jedna technologie, která by skutečně mohla do reality přenést možnost robotů s morálními kompetencemi. V dokumentu o získávání morálních hodnot roboty zmiňuje Nayef Al-Rodhan případ neuromorfních čipů, jejichž cílem je zpracovávat informace podobně jako lidé, nelineárně a s miliony propojených umělých neuronů. Roboti s integrovanou neuromorfní technologií se mohli učit a rozvíjet znalosti jedinečným způsobem jako lidé. Nevyhnutelně to vyvolává otázku, v jakém prostředí by se takoví roboti učili o světě a čí morálku by zdědili-nebo pokud by se u nich nakonec rozvinuly také lidské „slabosti“: sobectví, postoj k přežití, váhání atd.

Ve hře Moral Machines: Teaching Robots Right from Wrong docházejí Wendell Wallach a Colin Allen k závěru, že pokusy učit roboty správně od špatného pravděpodobně posílí porozumění lidské etice motivací lidí k řešení mezer v moderní normativní teorii a poskytnutím platformy pro experimentální vyšetřování. Jako jeden příklad zavedla normativní etiky do kontroverzního problému, jaké konkrétní učební algoritmy použít ve strojích. Nick Bostrom a Eliezer Yudkowsky argumentovali pro rozhodovací stromy (jako ID3 ) nad neuronovými sítěmi a genetickými algoritmy s odůvodněním, že rozhodovací stromy dodržují moderní sociální normy transparentnosti a předvídatelnosti (např. Stare decisis ), zatímco Chris Santos-Lang tvrdil opak směr s odůvodněním, že normám jakéhokoli věku musí být umožněno měnit se a že přirozené selhání plně vyhovět těmto konkrétním normám bylo zásadní pro to, aby se lidé stali méně zranitelnými vůči zločinným „ hackerům “.

Podle zprávy Centra pro správu umělé inteligence na Oxfordské univerzitě z roku 2019 se 82% Američanů domnívá, že roboti a AI by měli být pečlivě řízeni. Citované obavy sahaly od toho, jak se AI používá při sledování a šíření falešného obsahu online (známé jako falešné, když obsahují zfalšované video snímky a zvuk generovaný pomocí AI) až po kybernetické útoky, porušení ochrany osobních údajů, zaujatost při najímání, autonomní vozidla a drony, které nevyžadují lidský ovladač.

Etické principy umělé inteligence

Při revizi 84 etických pokynů pro AI bylo shledáno 11 principů: transparentnost, spravedlnost a férovost, neexistence malficence, odpovědnost, soukromí, dobročinnost, svoboda a autonomie, důvěra, udržitelnost, důstojnost, solidarita.

Luciano Floridi a Josh Cowls vytvořili etický rámec principů AI stanovený čtyřmi principy bioetiky ( prospěšnost , neexistence malficence , autonomie a spravedlnost ) a další zásadou umožňující AI-vysvětlitelností.

Transparentnost, odpovědnost a otevřený zdroj

Bill Hibbard tvrdí, že protože AI bude mít tak hluboký účinek na lidstvo, vývojáři AI jsou zástupci budoucího lidstva, a proto mají etickou povinnost být ve svém úsilí transparentní. Ben Goertzel a David Hart vytvořili OpenCog jako open source framework pro vývoj AI. OpenAI je nezisková společnost zabývající se výzkumem umělé inteligence vytvořená Elonem Muskem , Samem Altmanem a dalšími za účelem vývoje AI s otevřeným zdrojovým kódem prospěšné pro lidstvo. Existuje mnoho dalších vývojů AI s otevřeným zdrojovým kódem.

Díky tomu, že je kód open source, není srozumitelný, což podle mnoha definic znamená, že kód AI není transparentní. IEEEnormalizační úsilí o AI transparentnosti. Úsilí IEEE identifikuje více měřítek průhlednosti pro různé uživatele. Kromě toho existuje obava, že uvolnění plné kapacity současné AI do některých organizací může být veřejným problémem, tj. Napáchat více škody než užitku. Microsoft například vyjádřil znepokojení nad umožněním univerzálního přístupu ke svému softwaru pro rozpoznávání tváří, a to i pro ty, kteří za něj mohou platit. Společnost Microsoft na toto téma zveřejnila mimořádný blog s žádostí o vládní regulaci, která by pomohla určit správnou věc.

Nejen společnosti, ale i mnoho dalších vědců a obhájců občanů doporučuje vládní regulaci jako prostředek k zajištění transparentnosti a prostřednictvím ní i lidské odpovědnosti. Tato strategie se ukázala kontroverzní, protože se někteří obávají, že zpomalí rychlost inovací. Jiní tvrdí, že regulace vede k systémové stabilitě, která je schopna dlouhodobě podporovat inovace. OECD , OSN , EU a mnohé země jsou v současné době pracuje na strategii pro regulaci AI a nalezení vhodných právních rámců.

Dne 26. června 2019 zveřejnila skupina odborníků Evropské komise na vysoké úrovni pro umělou inteligenci (AI HLEG) „Politická a investiční doporučení pro důvěryhodnou umělou inteligenci“. Toto je druhý výstup AI HLEG po zveřejnění „Etických pokynů pro důvěryhodnou AI“ v dubnu 2019. Červnová doporučení AI HLEG pokrývají čtyři hlavní témata: lidi a společnost jako celek, výzkum a akademickou obec, soukromý sektor a veřejný sektor. Evropská komise tvrdí, že „doporučení HLEG odrážejí zhodnocení příležitostí pro technologie AI k podpoře hospodářského růstu, prosperity a inovací, jakož i potenciálních souvisejících rizik“, a uvádí, že EU si klade za cíl vést při vytváření politik, jimiž se řídí AI mezinárodně.

Etické výzvy

Předpojatosti v systémech AI

Americký senátor Kamala Harris hovoří o rasové předpojatosti v umělé inteligenci v roce 2020

AI je stále více součástí systémů rozpoznávání obličeje a hlasu . Některé z těchto systémů mají skutečné obchodní aplikace a přímo ovlivňují lidi. Tyto systémy jsou citlivé na zkreslení a chyby zavedené jeho lidskými tvůrci. Také data použitá k výcviku těchto systémů AI mohou mít zkreslení. Například algoritmy rozpoznávání obličeje vytvořené společnostmi Microsoft, IBM a Face ++ měly při zjišťování pohlaví lidí zkreslení; Tyto systémy AI dokázaly detekovat pohlaví bílých mužů přesněji než pohlaví mužů s tmavší pletí. Studie z roku 2020 dále přezkoumala systémy rozpoznávání hlasu od společností Amazon, Apple, Google, IBM a Microsoft, které zjistily, že při přepisování hlasů černých lidí mají vyšší chybovost než běloši. Kromě toho společnost Amazon ukončila používání najímání a náboru AI, protože algoritmus upřednostňoval mužské kandidáty před ženskými. Důvodem bylo, že systém Amazonu byl vyškolen s údaji shromážděnými za 10 let, které pocházely převážně z mužských kandidátů.

Předpojatost se může do algoritmů vkrádat mnoha způsoby. Například Friedman a Nissenbaum identifikují tři kategorie předpojatosti v počítačových systémech: stávající předpojatost, technická předpojatost a vznikající předpojatost. Při zpracování přirozeného jazyka mohou problémy vyvstat z textového korpusu - zdrojového materiálu, který algoritmus používá ke zjištění vztahů mezi různými slovy.

Velké společnosti jako IBM, Google atd. Vynaložily úsilí na průzkum a řešení těchto předsudků. Jedním řešením pro řešení zkreslení je vytvoření dokumentace pro data používaná k trénování systémů AI.

Problém předpojatosti ve strojovém učení se pravděpodobně stane závažnějším, protože technologie se šíří do kritických oblastí, jako je medicína a právo, a jak je jejím zaváděním pověřeno více lidí bez hlubokého technického porozumění. Někteří odborníci varují, že algoritmické zkreslení je již všudypřítomné v mnoha průmyslových odvětvích a že téměř nikdo se nesnaží jej identifikovat nebo opravit. Existuje několik nástrojů od občanských společností s otevřeným zdrojovým kódem, které se snaží přinést větší povědomí o předpojaté AI.

Práva robota

„Práva robota“ je koncept, že lidé by měli mít vůči svým strojům morální povinnosti, podobné lidským právům nebo právům zvířat . Bylo navrženo, že práva robotů (jako je právo na existenci a plnění vlastního poslání) by mohla být spojena s povinností robota sloužit lidstvu, podobně jako propojení lidských práv s lidskými povinnostmi před společností. Mohlo by to zahrnovat právo na život a svobodu, svobodu myšlení a projevu a rovnost před zákonem. Problémem se zabýval Institut pro budoucnost a britské ministerstvo obchodu a průmyslu .

Odborníci se neshodují na tom, jak brzy budou konkrétní a podrobné zákony na toto téma nutné. Glenn McGee oznámil, že do roku 2020 se mohou objevit dostatečně humanoidní roboti, zatímco Ray Kurzweil stanoví datum na rok 2029. Další skupina vědců, kteří se sešli v roce 2007, předpokládala, že uplyne nejméně 50 let, než bude existovat jakýkoli dostatečně pokročilý systém.

Pravidla soutěže Loebnerovy ceny za rok 2003 počítala s možností robotů mít vlastní práva:

61. Pokud v kterémkoli roce získá veřejně přístupný open-source příspěvek přihlášený University of Surrey nebo Cambridge Center stříbrnou medaili nebo zlatou medaili, pak medaile a Cash Award budou uděleny orgánu odpovědnému za vývoj tohoto záznamu. Pokud nelze identifikovat žádný takový orgán nebo pokud dojde k neshodě mezi dvěma nebo více uchazeči, budou medaile a Cash Award drženy v tajnosti až do doby, kterou může Entry legálně vlastnit, a to buď ve Spojených státech amerických, nebo v USA. místo konání soutěže, Cash Award a Zlatá medaile sama o sobě.

V říjnu 2017 bylo androidi Sophii uděleno „čestné“ občanství v Saúdské Arábii , ačkoli někteří to považovali spíše za reklamní trik než za smysluplné právní uznání. Někteří viděli toto gesto jako otevřeně očerňující lidská práva a právní stát .

Filozofie sentimentismu uděluje stupně morální ohleduplnosti všem vnímajícím bytostem, především lidem a většině nehumánních zvířat. Pokud umělá nebo mimozemská inteligence prokáže, že jsou vnímaví , tato filozofie tvrdí, že by jim měl být prokázán soucit a přiznaná práva.

Joanna Bryson tvrdila, že vytváření umělé inteligence, která vyžaduje práva, se lze vyhnout, a že by bylo samo o sobě neetické, a to jak jako zátěž pro agenty umělé inteligence, tak pro lidskou společnost.

Ohrožení lidské důstojnosti

Joseph Weizenbaum v roce 1976 tvrdil, že technologie AI by neměla být používána k nahrazování lidí na pozicích, které vyžadují respekt a péči, jako například:

  • Zástupce zákaznického servisu (technologie AI se již dnes používá pro interaktivní systémy hlasové odezvy založené na telefonu )
  • Chůva pro seniory (jak uvedla Pamela McCorduck ve své knize Pátá generace )
  • Voják
  • Soudce
  • Policejní důstojník
  • Terapeut (jak navrhl Kenneth Colby v 70. letech)

Weizenbaum vysvětluje, že od lidí v těchto pozicích vyžadujeme autentické pocity empatie . Pokud je nahradí stroje, ocitneme se odcizení, devalvovaní a frustrovaní, protože uměle inteligentní systém by nebyl schopen simulovat empatii. Pokud se umělá inteligence používá tímto způsobem, představuje hrozbu pro lidskou důstojnost. Weizenbaum tvrdí, že skutečnost, že si v těchto pozicích užíváme možnosti strojů, naznačuje, že jsme zažili „atrofii lidského ducha, která pochází z myšlení o nás jako o počítačích“.

Pamela McCorduck namítá, že když mluví za ženy a menšiny „Raději bych riskoval s nestranným počítačem“, poukazuje na to, že existují podmínky, kdy bychom raději měli automatizované soudce a policii, které nemají vůbec žádnou osobní agendu. Nicméně, Kaplan a Haenlein zdůrazňují, že AI systémy jsou jen tak chytrý, jak údaje použité k jejich vlak, protože jsou ve své podstatě nic víc než fantazie strojů na prokládání křivkami; Využití AI k podpoře soudního rozhodnutí může být velmi problematické, pokud minulá rozhodnutí vykazují zaujatost vůči určitým skupinám, protože tyto předsudky jsou formalizovány a zaplněny, což je ještě obtížnější odhalit a bojovat proti nim.

Weizenbaumovi také vadilo, že vědci AI (a někteří filozofové) byli ochotni pohlížet na lidskou mysl jako na nic jiného než na počítačový program (pozice nyní známá jako výpočetní technika ). Weizenbaumovi tyto body naznačují, že výzkum AI znehodnocuje lidský život.

Zakladatel AI John McCarthy nesouhlasí s moralizujícím tónem Weizenbaumovy kritiky. „Když je moralizace vehementní a vágní, vyvolává autoritářské zneužívání,“ píše. Bill Hibbard píše, že „Lidská důstojnost vyžaduje, abychom se snažili odstranit naši nevědomost o povaze existence, a AI je pro toto úsilí nezbytná“.

Odpovědnost za samořiditelná auta

Vzhledem k tomu, že se stále častěji rozšiřuje používání autonomních automobilů, je třeba se vypořádat s novými výzvami plně autonomních vozidel. V poslední době se vedou debaty o právní odpovědnosti odpovědné strany, pokud by se tato auta dostala do nehod. V jedné zprávě, kde auto bez řidiče srazilo chodce, byl řidič uvnitř auta, ale ovládací prvky byly plně v rukou počítačů. To vedlo k dilematu nad tím, kdo byl viníkem nehody.

Při dalším incidentu 19. března 2018 byla Elaine Herzbergová zasažena a zabita samořiditelným Uberem v Arizoně. V tomto případě byl automatizovaný vůz schopen detekovat auta a určité překážky za účelem autonomní navigace po vozovce, ale nemohl předvídat chodce uprostřed silnice. To vyvolalo otázku, zda by za její smrt měli nést odpovědnost řidič, chodec, automobilka nebo vláda.

V současné době jsou samořiditelná auta považována za poloautonomní, což vyžaduje, aby řidič dával pozor a byl připraven v případě potřeby převzít kontrolu. Je tedy na vládách, aby regulovaly řidiče, který se příliš spoléhá na autonomní funkce. také je poučte, že jsou to jen technologie, které, i když jsou pohodlné, nejsou úplnou náhradou. Než se autonomní auta začnou široce používat, je třeba tyto problémy řešit novými zásadami.

Weaponizace umělé inteligence

Někteří odborníci a akademici zpochybnili používání robotů pro vojenské boje, zvláště když těmto robotům je poskytován určitý stupeň autonomie. Dne 31. black box 'a porozumět procesu zabijáckého řetězce. Velkou obavou však je, jak bude zpráva implementována. Americké námořnictvo financovalo zprávu, která naznačuje, že jak se vojenští roboti stávají komplexnějšími, měla by být věnována větší pozornost důsledkům jejich schopnosti samostatně rozhodovat. Někteří vědci uvádějí, že autonomní roboti mohou být humánnější, protože by mohli rozhodovat efektivněji.

V tomto posledním desetiletí probíhal intenzivní výzkum autonomní moci se schopností učit se s využitím přidělené morální odpovědnosti. „Výsledky mohou být použity při navrhování budoucích vojenských robotů k ovládání nechtěných tendencí přidělovat robotům odpovědnost.“ Z konsekvencionalistického pohledu existuje šance, že si roboti rozvinou schopnost činit vlastní logická rozhodnutí o tom, koho zabít, a proto by měl existovat pevný morální rámec, který AI nemůže přepsat.

Nedávno došlo k protestům ohledně konstrukce zbraní umělé inteligence, které zahrnovaly myšlenky na převzetí lidstva robotem. Zbraně AI představují druh nebezpečí odlišný od toho, jaké používají zbraně ovládané lidmi. Mnoho vlád začalo financovat programy na vývoj zbraní AI. Námořnictvo Spojených států nedávno oznámilo plány na vývoj autonomních zbraní dronů , které jsou obdobnými oznámeními Ruska a Koreje. Vzhledem k tomu, že se zbraně AI stávají nebezpečnějšími než zbraně ovládané lidmi, Stephen Hawking a Max Tegmark podepsali petici „Budoucnost života“ za zákaz zbraní AI. Zpráva, kterou zveřejnili Hawking a Tegmark, uvádí, že zbraně AI představují bezprostřední nebezpečí a že je nutné v blízké budoucnosti zabránit katastrofickým katastrofám.

„Pokud se nějaká významná vojenská velmoc prosadí s vývojem zbraní AI, globální závod ve zbrojení je prakticky nevyhnutelný a konečný bod této technologické trajektorie je zřejmý: z autonomních zbraní se stanou kalašnikovy zítřka,“ uvádí se v petici, která zahrnuje Skype co -zakladatel Jaan Tallinn a profesor lingvistiky MIT Noam Chomsky jako další podporovatelé proti AI zbraní.

Fyzik a astronom Royal Sir Martin Rees varoval před katastrofickými případy, jako jsou „tupí roboti, kteří darebají nebo síť, která rozvíjí vlastní mysl“. Huw Price , Reesův kolega z Cambridge, vyslovil podobné varování, že lidé nemusí přežít, když inteligence „uniká omezením biologie“. Tito dva profesoři vytvořili Centrum pro studium existenčního rizika na univerzitě v Cambridge v naději, že se vyhnou této hrozbě pro lidskou existenci.

Pokud jde o potenciál vojenského využití chytřejších systémů, než je lidský, projekt Otevřená filantropie píše, že tyto scénáře „se zdají potenciálně stejně důležité jako rizika související se ztrátou kontroly“, ale výzkum zkoumající dlouhodobý sociální dopad UI strávil relativně dlouho. málo času na toto znepokojení: „tato třída scénářů nebyla hlavním zaměřením pro organizace, které byly v tomto prostoru nejaktivnější, jako je Institute of Intelligence Research Institute (MIRI) a Future of Humanity Institute (FHI), a zdá se, že o nich bylo méně analýz a debat “.

Neprůhledné algoritmy

Přístupy, jako je strojové učení s neuronovými sítěmi, mohou mít za následek, že počítače dělají rozhodnutí, která oni a lidé, kteří je naprogramovali, nedokážou vysvětlit. Pro lidi je obtížné určit, zda jsou taková rozhodnutí spravedlivá a důvěryhodná, což může vést k předpojatosti systémů AI, které zůstanou nezjištěny, nebo lidé, kteří používání takových systémů odmítají. To vedlo k prosazování a v některých jurisdikcích zákonných požadavků na vysvětlitelnou umělou inteligenci .

Jedinečnost

Mnoho vědců tvrdilo, že prostřednictvím „výbuchu inteligence“ by se self-zdokonalená AI mohla stát tak silnou, že by jí lidé nemohli zabránit v dosažení jejích cílů. Ve svém příspěvku „Etické problémy v pokročilé umělé inteligenci“ a následné knize Superintelligence: Cesty, nebezpečí, strategie filozof Nick Bostrom tvrdí, že umělá inteligence má schopnost přinést vyhynutí člověka. Tvrdí, že obecná superinteligence by byla schopná nezávislé iniciativy a vytváření vlastních plánů, a proto může být vhodněji považována za autonomního agenta. Protože umělý intelekt nemusí sdílet naše lidské motivační tendence, bylo by na designérech superinteligence, aby specifikovaly její původní motivace. Protože superinteligentní AI by byla schopná přinést téměř jakýkoli možný výsledek a zmařit jakýkoli pokus zabránit realizaci jejích cílů, mohlo by dojít k mnoha nekontrolovaným nezamýšleným důsledkům . Mohlo by to zabít všechny ostatní agenty, přesvědčit je, aby změnili své chování, nebo zablokovat jejich pokusy o rušení.

Bostrom však místo toho, aby přemohl lidskou rasu a vedl k naší destrukci, také tvrdil, že superinteligence nám může pomoci vyřešit mnoho obtížných problémů, jako jsou nemoci, chudoba a ničení životního prostředí, a mohla by nám pomoci „vylepšit“ se.

Velká složitost systémů lidských hodnot velmi ztěžuje vytváření motivací AI pro lidi. Pokud nám morální filosofie neposkytne bezchybnou etickou teorii, užitková funkce AI by mohla umožnit mnoho potenciálně škodlivých scénářů, které jsou v souladu s daným etickým rámcem, ale ne „selským rozumem“. Podle Eliezera Yudkowského není žádný důvod předpokládat, že by uměle navržená mysl měla takovou adaptaci. Výzkumníci AI jako Stuart J. Russell , Bill Hibbard , Roman Yampolskiy , Shannon Vallor , Steven Umbrello a Luciano Floridi navrhli strategie návrhu pro vývoj prospěšných strojů.

Aktéři v etice AI

Existuje mnoho organizací zabývajících se etikou a politikou umělé inteligence, veřejné a vládní i korporátní a společenské.

Amazon , Google , Facebook , IBM a Microsoft založily neziskovou organizaci The Partnership on AI to Benefit People and Society, to formulate best practices on umělých inteligenčních technologií, podporovat porozumění veřejnosti a sloužit jako platforma o umělé inteligenci . Apple se připojil v lednu 2017. Členové společnosti budou skupině poskytovat finanční a výzkumné příspěvky a zároveň budou spolupracovat s vědeckou komunitou, aby do představenstva zapojili akademiky.

IEEE dát dohromady celosvětové iniciativy pro etiku autonomních a inteligentních systémů, které bylo vytváření a revizi pokynů pomocí veřejného zadávání, a přijímá za členy mnoho odborníků z uvnitř i vně jeho organizaci.

Tradičně, vláda byla od společnosti používají k zajištění etika jsou sledovány prostřednictvím právních předpisů a policejní. Národní vlády i nadnárodní vládní a nevládní organizace nyní vyvíjejí mnoho úsilí, aby zajistily etickou aplikaci AI.

Mezivládní iniciativy:

  • Evropská komise má skupina na vysoké úrovni odborníků na umělou inteligenci. Dne 8. dubna 2019 byly zveřejněny „Etické pokyny pro důvěryhodnou umělou inteligenci“. Evropská komise má také oddělení pro inovace a excelence v oblasti robotiky a umělé inteligence, které dne 19. února 2020 zveřejnilo bílou knihu o excelenci a důvěře v inovace umělé inteligence.
  • OECD vytvořila observatoře OECD AI zásad.

Vládní iniciativy:

  • Ve Spojených státech Obamova administrativa dát dohromady plán pro AI politiku. Obamova administrativa vydala dvě prominentní bílé knihy o budoucnosti a dopadu AI. V roce 2019 pověřil Bílý dům prostřednictvím výkonné zprávy známé jako „americká iniciativa AI“ NIST (Národní institut pro standardy a technologie), aby zahájil práci na federálním zapojení norem AI (únor 2019).
  • V lednu 2020 zveřejnila Trumpova administrativa ve Spojených státech návrh výkonného nařízení vydaného Úřadem pro řízení a rozpočet (OMB) „Pokyny pro regulaci aplikací umělé inteligence“ („Memorandum OMB AI“). Toto nařízení zdůrazňuje je třeba investovat do aplikací AI, posílit důvěru veřejnosti v AI, omezit překážky ve využívání AI a udržet americkou technologii AI v konkurenceschopnosti na globálním trhu. Potřeba ochrany osobních údajů kývne, ale žádné další podrobnosti ohledně vymáhání. pokroky americké technologie AI se zdají být středem pozornosti a prioritou. Kromě toho jsou federální subjekty dokonce vybízeny k tomu, aby využily příkaz k obejití všech státních zákonů a předpisů, které by trh mohl považovat za příliš náročné na plnění.
  • Computing Community Consortium (CCC) zváží s návrhem zprávy o 100-plus strana - A 20-Year společenství Plán výzkumu umělé inteligence ve Spojených státech
  • Centrum pro bezpečnost a nově vznikající technologie radí američtí zákonodárci o dopadech zabezpečení rozvíjejících se technologií, jako je AI.
  • Non-Human Party běží na volby v Novém Jižním Walesu , s politikou kolem udělování práv na roboty, zvířata a obecně, ne-lidské bytosti, jejichž inteligence byla přehlížena.

Akademické iniciativy:

Role a dopad fikce v etice AI

Role fikce s ohledem na etiku AI je složitá. Lze rozlišit tři úrovně, na nichž fikce ovlivnila vývoj umělé inteligence a robotiky: Historicky fikce předznamenávala společné tropy, které nejen ovlivnily cíle a vize AI, ale také nastínily etické otázky a společné strachy s tím spojené. Během druhé poloviny dvacátého a prvních desetiletí jednadvacátého století populární kultura, zejména filmy, televizní seriály a videohry, často odrážela zaujetí a dystopické projekce kolem etických otázek týkajících se AI a robotiky. V poslední době jsou tato témata také čím dál častěji zpracovávána v literatuře mimo oblast sci -fi. A jak poznamenává Carme Torras, profesorka výzkumu na Institut de Robòtica i Informàtica Industrial (Institut robotiky a průmyslové výpočetní techniky) na Technické univerzitě v Katalánsku, ve vysokoškolském vzdělávání se sci-fi stále častěji používá i při výuce etických otázek souvisejících s technologiemi v technologické stupně.

Dějiny

Historicky vzato, zkoumání morálních a etických důsledků „myslících strojů“ sahá přinejmenším k osvícenství: Leibniz si již klade otázku, zda bychom inteligenci mohli připsat mechanismu, který se chová, jako by to byla cítící bytost, a stejně tak Descartes , který popisuje, co by se dalo považovat za ranou verzi Turingova testu.

Romantická doba má několikrát představil umělé bytosti, které unikají kontrolu jejich tvůrce mít neblahé následky, nejvíce skvěle v Mary Shelley ‚s Frankenstein . Rozšířená starost o industrializaci a mechanizaci v 19. a na počátku 20. století však přinesla do popředí fikce etické důsledky nepřehledného technického vývoje: RUR - Rossum's Universal Robots , hra vnímavých robotů Karla Čapka obdařená emocemi používanými jako otrocká práce je připisován nejen vynálezem výrazu „robot“ (odvozeno z českého slova pro nucené práce, robota ), ale měl také mezinárodní úspěch poté, co měl premiéru v roce 1921. Hra George Bernarda Shawa Zpět do Metuselahu , vydaná v roce 1921, otázky na jeden bod platnost myslících strojů, které se chovají jako lidé; Fritz Langův film Metropolis z roku 1927 ukazuje androida, který vede povstání vykořisťovaných mas proti represivnímu režimu technokratické společnosti.

Dopad fikce na technologický rozvoj

Zatímco očekávání budoucnosti, kterému dominuje potenciálně nezkrotná technologie, dlouhodobě podporuje představivost spisovatelů a filmařů, méně často se analyzuje jedna otázka, a sice, do jaké míry hraje fikce roli při poskytování inspirace pro technologický rozvoj. Bylo například zdokumentováno, že mladý Alan Turing viděl a ocenil hru GB Shawa Back to Metuselah v roce 1933 (pouhé 3 roky před vydáním jeho prvního klíčového článku, který položil základy digitálního počítače), a pravděpodobně by byli si alespoň vědomi her jako RUR , který měl mezinárodní úspěch a byl přeložen do mnoha jazyků.

Dalo by se také položit otázku, jakou roli hrála sci -fi při určování principů a etických důsledků rozvoje AI: Isaac Asimov pojal své Tři zákony robotiky v povídce „ Runaroundz roku 1942 , která je součástí sbírky povídek Já, robot ; Krátký film Arthura C. Clarka „ The Sentinel “, na kterém je založen film Stanleyho Kubricka 2001: Vesmírná odysea , byl napsán v roce 1948 a publikován v roce 1952. Dalším příkladem (mimo jiné) bude řada povídek a románů Philipa K. Dickse - zejména Sní androidi o elektrických ovcích? „Publikováno v roce 1968 a představující vlastní verzi Turingova testu, Voight-Kampffova testu , k měření emočních reakcí androidů k ​​nerozeznání od lidí. Román se později stal základem vlivného filmu Blade Runner z roku 1982 od Ridleyho Scotta.

Sci-fi byl potýká s etickými dopady vývoje AI po celá desetiletí, a tedy za předpokladu plán pro etické otázky, které se mohou objevit po něčem podobá obecné umělé inteligence bylo dosaženo: Spike Jonze 2013 filmové Její ukazuje, co se může stát v případě, kdy uživatel spadá zamilovaný do svůdného hlasu svého operačního systému pro chytré telefony; Ex Machina si naopak klade těžší otázku: kdybychom byli konfrontováni s jasně rozpoznatelným strojem, který by byl pouze člověkem pomocí obličeje a empatického a smyslného hlasu, byli bychom stále schopni navázat emocionální spojení, přesto bychom byli svedeni to ? (Film odráží téma již přítomné o dvě století dříve, v povídce z roku 1817 „ Sandmann “ od ETA Hoffmanna. )

Téma soužití s ​​umělými vnímajícími bytostmi je také tématem dvou nedávných románů: Stroje jako já od Iana McEwana , publikované v roce 2019, zahrnují (kromě mnoha jiných věcí) milostný trojúhelník zahrnující umělého člověka i lidský pár. Klára a Sun by Nobelova cena vítěz Kazuo Ishiguro , publikoval v roce 2021, je first-person popis Klara, o ‚AF‘ (umělý přítel), který se snaží ve svém vlastním způsobem, aby pomohl dívce ona žije s , který poté, co byl „zvednut“ (tj. podroben genetickým vylepšením), trpí podivnou nemocí.

Televizní seriál

Přestože etické otázky spojené s umělou inteligencí jsou ve sci -fi literatuře a celovečerních filmech uváděny po celá desetiletí, vznik televizního seriálu jako žánru umožňujícího delší a složitější příběhové linie a vývoj postav vedl k některým významným přínosům, které se zabývají etickými důsledky. technologie. Švédská série Real Humans (2012–2013) se zabývala komplexními etickými a sociálními důsledky spojenými s integrací umělých cítících bytostí do společnosti. Britská série dystopických sci -fi antologií Black Mirror (2013–2019) byla obzvláště pozoruhodná pro experimentování s dystopickým fiktivním vývojem spojeným s celou řadou odporných technologických vývojů. Jak francouzská série Osmosis (2020), tak britská série The One se zabývají otázkou, co se může stát, pokud se technologie pokusí najít pro člověka ideálního partnera.

Budoucí vize ve fikci a hrách

Film Třinácté patro naznačuje budoucnost, kde jsou simulované světy s vnímajícími obyvateli vytvářeny konzolami počítačových her za účelem zábavy. Film Matrix naznačuje budoucnost, kde jsou dominantní druhy na planetě Zemi vnímavými stroji a s lidstvem je zacházeno s maximálním Speciesismem . Povídka „ The Planck Dive “ naznačuje budoucnost, kde se lidstvo proměnilo v software, který lze duplikovat a optimalizovat, a příslušný rozdíl mezi typy softwaru je vnímavý a necitlivý. Stejná myšlenka je možné nalézt v záchranné Hologramu z hvězdné lodi Voyager , která je zjevně vnímavý kopie snížené podmnožiny vědomí svého tvůrce, Dr. Zimmerman , který, pokud jde o nejlepší motivy, vytvořil systém dát lékařské pomoc v případě nouze. Filmy Bicentennial Man a AI pojednávají o možnosti vnímajících robotů, kteří by mohli milovat. Já, Robot, jsem prozkoumal některé aspekty tří Asimovových zákonů. Všechny tyto scénáře se snaží předvídat možná neetické důsledky vytváření vnímajících počítačů.

Etika umělé inteligence je jedním z několika klíčových témat v sérii her BioWare Mass Effect . Zkoumá scénář civilizace, která náhodně vytvořila AI prostřednictvím rychlého nárůstu výpočetní síly prostřednictvím neuronové sítě v globálním měřítku . Tato událost způsobila etický rozkol mezi těmi, kdo cítili, že udělování organických práv nově vnímajícímu Gethovi bylo vhodné, a těmi, kteří je nadále považovali za jednorázové stroje a bojovali za jejich zničení. Kromě počátečního konfliktu je dalším pokračujícím tématem celého příběhu složitost vztahu mezi stroji a jejich tvůrci.

V průběhu doby, debaty mají tendenci soustředit se méně a méně na možnosti a na vhodnost , jak je zdůrazněno v „Cosmist“ a „Terran“ debaty iniciován Hugo de Garis a Kevin Warwick . Kosmista se podle Huga de Garise ve skutečnosti snaží vybudovat inteligentnější nástupce lidského druhu.

Odborníci z University of Cambridge tvrdili, že AI je v beletrii a literatuře faktu zobrazována v drtivé většině jako rasově bílá, a to způsoby, které narušují vnímání jejích rizik a výhod.

Viz také

Poznámky

externí odkazy