Efekt ELIZA - ELIZA effect

ELIZA efekt , v informatice , je tendence k nevědomě předpokládat, počítačové chování jsou analogické s lidským chováním; tj. antropomorfizace .

Přehled

Ve své specifické podobě efekt ELIZA odkazuje pouze na „náchylnost lidí číst mnohem více porozumění, než jaké je zaručeno do řetězců symbolů - zejména slov - navlečených do počítačů“. Triviální příklad specifické formy efektu Eliza, který uvedl Douglas Hofstadter , zahrnuje bankomat, který na konci transakce zobrazuje slova „DĚKUJEME“. (Velmi) náhodný pozorovatel by si mohl myslet, že stroj ve skutečnosti vyjadřuje vděčnost; stroj však tiskne pouze předprogramovaný řetězec symbolů.

Obecněji efekt ELIZA popisuje jakoukoli situaci, kdy uživatelé pouze na základě výstupu systému vnímají počítačové systémy jako „vnitřní vlastnosti a schopnosti, kterých software řídící (výstup) nemůže dosáhnout“ nebo „předpokládají, že [výstupy] odrážejí větší kauzalita, než ve skutečnosti dělají “. Ve své specifické i obecné formě je účinek ELIZA pozoruhodný, i když si uživatelé systému jsou vědomi rozhodující povahy výstupu produkovaného systémem. Z psychologického hlediska je efekt ELIZA výsledkem jemné kognitivní disonance mezi povědomím uživatele o programových omezeních a jeho chováním vůči výstupu programu . Objev efektu ELIZA byl důležitým vývojem v oblasti umělé inteligence , který demonstroval princip použití sociálního inženýrství spíše než explicitního programování k úspěšnému absolvování Turingova testu .

Původ

Efekt je pojmenován pro chatbot ELIZA z roku 1966 , který vyvinul počítačový vědec MIT Joseph Weizenbaum . Při provádění Weizenbaumova skriptu DOCTOR ELIZA parodovala rogeriánského psychoterapeuta , a to do značné míry přeformulováním odpovědí „pacienta jako otázky:

Člověk: No, můj přítel mě donutil sem přijít.
ELIZA: Přivedl tě sem tvůj přítel?
Člověk: Říká, že jsem většinu času v depresi.
ELIZA: Je mi líto, že máte depresi.
Člověk: Je to pravda. Jsem nešťastný.
ELIZA: Myslíte si, že příchod sem vám pomůže, abyste nebyli nešťastní?

Přestože byl skript ELIZA DOCTOR navržen striktně jako mechanismus podpory „přirozené jazykové konverzace“ s počítačem, byl překvapivě úspěšný při vyvolávání emocionálních reakcí od uživatelů, kteří v průběhu interakce s programem začali připisovat porozumění a motivaci výstup programu. Jak Weizenbaum později napsal: „Neuvědomil jsem si ... že extrémně krátká expozice relativně jednoduchému počítačovému programu může u normálních lidí vyvolat silné klamné myšlení.“ Kód společnosti ELIZA ve skutečnosti nebyl navržen tak, aby evokoval tuto reakci. Na základě pozorování vědci zjistili, že uživatelé nevědomky předpokládají, že otázky ELIZA naznačují zájem a emoční zapojení do diskutovaných témat, i když vědomě věděli, že ELIZA emulace nesimuluje .

Důležitost automatizované práce

ELIZA přesvědčila některé uživatele, aby si mysleli, že stroj je člověk. Tento posun v interakci člověk-stroj znamenal pokrok v technologiích emulujících lidské chování. William Meisel rozlišuje dvě skupiny chatbotů jako „obecné osobní asistenty “ a „specializované digitální asistenty“. Do osobních zařízení byli integrováni obecní digitální asistenti, kteří mají dovednosti jako odesílání zpráv, psaní poznámek, kontrola kalendářů a nastavování schůzek. Specializovaní digitální asistenti „pracují ve velmi specifických doménách nebo pomáhají s velmi konkrétními úkoly.“ Digitální asistenti, kteří jsou naprogramováni tak, aby podporovali produktivitu předpokládáním chování analogického k lidem.

Joseph Weizenbaum se domníval, že ne každá část lidského myšlení může být redukována na logické formalizmy a že „existují určité myšlenkové akty, které by se měly pokoušet pouze lidé“. Poznamenal také, že se stroji rozvíjíme emoční zapojení, pokud s nimi komunikujeme jako s lidmi. Když jsou chatboti antropomorfizováni, mají tendenci zobrazovat genderové rysy jako způsob, kterým navazujeme vztahy s touto technologií. „genderové stereotypy jsou instrumentalizovány k řízení našeho vztahu s chatboty“, když je lidské chování naprogramováno do strojů.

Feminizovaná práce nebo práce žen automatizovaná antropomorfními digitálními asistenty posiluje „předpoklad, že ženy mají přirozenou afinitu ke službě a emoční práci“. Při definování naší blízkosti k digitálním asistentům prostřednictvím jejich lidských atributů se chatboti stávají genderovými entitami.

Viz také

Poznámky

  1. ^ a b Hofstadter, Douglas R. (1996). „Předmluva 4 Neaktivní Elísin efekt a jeho nebezpečí, epilog“ . Fluidní koncepty a kreativní analogie: Počítačové modely základních mechanismů myšlení . Základní knihy. p. 157. ISBN 978-0-465-02475-9.
  2. ^ Fenton-Kerr, Tom (1999). „GAIA: Experimentální pedagogický agent pro zkoumání multimodálních interakcí“. Výpočet pro metafory, analogie a agenty . Přednášky z informatiky. 1562 . Springer. p. 156. doi : 10.1007 / 3-540-48834-0_9 . ISBN 978-3-540-65959-4. Ačkoli zde Hofstadter zdůrazňuje textový režim, „efekt Elizy“ lze vidět téměř ve všech režimech interakce člověka s počítačem.
  3. ^ Ekbia, Hamid R. (2008). Umělé sny: Pátrání po nebiologické inteligenci . Cambridge University Press. p. 8 . ISBN 978-0-521-87867-8.
  4. ^ King, W. (1995). Antropomorfní agenti: Friend, Foe, or Folly (technická zpráva). University of Washington. M-95-1.
  5. ^ Rouse, William B .; Boff, Kenneth R. (2005). Organizační simulace . Wiley-IEEE. 308–309. ISBN 978-0-471-73943-2. Jedná se o konkrétní problém v digitálních prostředích, kde „Eliasův efekt“, jak se mu někdy říká, způsobuje, že interagující předpokládají, že systém je inteligentnější, než je, předpokládají, že události odrážejí větší kauzalitu, než ve skutečnosti činí.
  6. ^ Ekbia, Hamid R. (2008). Umělé sny: Pátrání po nebiologické inteligenci . Cambridge University Press. p. 156 . ISBN 978-0-521-87867-8. Lidé však chtějí věřit, že tento program „vidí“ fotbalový zápas na nějaké věrohodné úrovni abstrakce. Slova, která (program) manipuluje, jsou tak plná asociací pro čtenáře, že NEMOHOU být zbaveni všech svých obrazů. Collins samozřejmě věděl, že jeho program se nezabýval ničím, co by připomínalo dvojrozměrný svět hladce se pohybujících teček (natož zjednodušených lidských těl), a pravděpodobně si myslel, že si to uvědomí i jeho čtenáři. Nemohl však tušit, jak silný je účinek Elizy.
  7. ^ Trappl, Robert; Petta, Paolo; Payr, Sabine (2002). Emoce u lidí a artefakty . Cambridge, Massachusetts: MIT Press. p. 353. ISBN 978-0-262-20142-1. „Efekt Eliza“ - tendence lidí zacházet s programy, které na ně reagují, jako by měli více inteligence, než ve skutečnosti mají (Weizenbaum 1966), je jedním z nejsilnějších nástrojů, které mají tvůrci virtuálních postav k dispozici.
  8. ^ Güzeldere, Güven; Franchi, Stefano. "dialogy s barevnými osobnostmi raného věku" . Archivovány od originálu na 2011-04-25 . Citováno 2007-07-30 .
  9. ^ Weizenbaum, Joseph (leden 1966). „ELIZA - počítačový program pro studium komunikace přirozeným jazykem mezi člověkem a strojem“ . Komunikace ACM . Massachusetts Institute of Technology . 9 : 36. doi : 10,1145 / 365153,365168 . Citováno 2008-06-17 .
  10. ^ Suchman, Lucy A. (1987). Plány a situované akce: Problém komunikace člověk-stroj . Cambridge University Press. p. 24. ISBN 978-0-521-33739-7. Citováno 2008-06-17 .
  11. ^ Weizenbaum, Joseph (1976). Síla počítače a lidský rozum: od úsudku k výpočtu . WH Freemane. p. 7 .
  12. ^ Billings, Lee (2007-07-16). „Rise of Roboethics“ . Seed . Archivovány od originálu na 2009-02-28. (Joseph) Weizenbaum neočekávaně zjistil, že i když si lidé budou plně vědomi toho, že mluví s jednoduchým počítačovým programem, budou s nimi zacházet jako s reálnými, myslícími bytostmi, které se starají o jejich problémy - fenomén nyní známý jako Efekt Eliza '.CS1 maint: nevhodná URL ( odkaz )
  13. ^ a b Dale, Robert (září 2016). "Návrat chatbotů" . Přirozené jazykové inženýrství . 22 (5): 811–817. doi : 10.1017 / S1351324916000243 . ISSN  1351-3249 .
  14. ^ Weizenbaum, Joseph (1976). Síla počítače a lidský rozum: od úsudku k výpočtu . San Francisco, Kalifornie ISBN 0-7167-0464-1. OCLC  1527521 .
  15. ^ Costa, Pedro. Ribas, Luisa. Konverzace s ELIZOU: o genderu a umělé inteligenci. Od (6. konference o výpočtu, komunikaci, estetice a X 2018) zpřístupněna v únoru 2021
  16. ^ Hester, Helen. 2016. „Technologie se jí stává.“ Nové průhledy 3 (1): 46-50.

Reference

  • Hofstadter, Douglas. Předmluva 4: Neaktivní Elísin efekt a jeho nebezpečí. (z Fluid Concepts and Creative Analogies : Computer Models of the Fundamental Mechanismy of Thought , Basic Books: New York, 1995)
  • Turkle, S., Eliza Effect: tendence přijímat počítačové odpovědi jako inteligentnější, než ve skutečnosti jsou ( Life on the screen - Identity in the Age of the Internet , Phoenix Paperback: London, 1997)
  • Efekt ELIZA , z Jargon File , verze 4.4.7. Přístupné 8. října 2006.