Přeskočit navigaci
Společnost, politika, kultura, filosofie
20.listopadu 2019
Ještě nejste členem Glos? Zaregistrujte se.
 

Přirozené a umělé myšlení jako filosofický problém - Ivan M. Havel

Publikován 3.prosince 2004, text čítá cca 38133 slova. 37709 přečtení  |  8 reakcí

4 Umělá inteligence jako motivační zdroj pro filosofii

Souběžně s tím, jak umělá inteligence procházela různými stadii svého vývoje a potkávala se s úspěchy i neúspěchy při modelování specifických intelektuálních schopností, optimismus příznivců se konfrontoval se skepsí odpůrců. Debatovalo se nejen o její praktické použitelnosti, ale i o otázce, zda umělá inteligence (disciplína) je správnou, či dokonce jedinou správnou cestou k "umělé inteligenci" (cíli). Vyskytly se i pochybnosti o tom, zda vůbec smíme po této cestě pokračovat (Weizenbaum, 1976).

Bylo by nad možnosti této studie třeba i jen utřídit rozmanité, někdy i konfliktní vstupy do této debaty.15 Omezím se proto jen na vybrané vzorky. Nejprve se v tomto oddíle zaměřím hlavně na tradiční a stále převládající směr v umělé inteligenci (s novějšími směry se setkáme v oddílech 5 a 6).

4.1 "Umělá" logika a gödelovský argument

Zatímco o přirozené logice se mluví zcela běžně, mluvit o umělé logice je poněkud nezvyklé. Přitom je to právě logické uvažování, které ze všech výkonů lidské mysli má nejblíže k realizaci v podobě mechanických procedur. Totéž lze vlastně říci i opačně: kdykoliv myslíme přísně logicky, pak se vlastně chováme jako stroj (či funkcionalisticky řečeno: pak jsmestroj). V tomto smyslu lze považovat za umělou logiku třeba i klasickou sylogistiku, protože nabízí schémata k "mechanizaci" logického usuzování (Bendová, 1998).

Není nic překvapivého na tom, že teoreticky nejzávažnější obory umělé inteligence jsou založeny na formální logice: automatické dokazování, řešení úloh, plánování, některé přístupy k reprezentaci znalostí, logické programování. Úspěchy právě v těchto oborech byly svého času (unáhleně) považovány za argument na podporu projektu umělého myšlení. Důsledně vzato je však logicky formalizovatelné myšlení jen "povrchovým" projevem mysli; například generování formálních důkazů teorémů přímo nesouvisí s tím, jak vůbec lidská mysl důkazy objevuje a jak jim při čtení rozumí. První vlna debat o uskutečnitelnosti projektu umělé inteligence proběhla začátkem 60. let, kdy J. R. Lucas upozornil, že Gödelovu větu o neúplnosti aritmetiky je možno použít k vyvrácení tzv. mechanistické teze, tj. názoru, že lidskou mysl lze simulovat strojem (Lucas, 1961). Ostatně i sám Gödel soudil, že jeho věta o neúplnosti je příspěvkem do debaty o rozdílech mezi člověkem a strojem:

Buď je lidská mysl schopna odpovědět na více číselně-teoretických otázek, než kterýkoliv stroj, anebo existují číselně-teoretické otázky, na které lidská mysl odpovědět nedovede.16

Gödel mluví o "lidské mysli" (a podobně my o "člověku") v jednotném čísle, zatímco o strojích se zpravidla mluví v množném čísle (je mnoho různých strojů). V tom je obsažen implicitní - poněkud diskutabilní - předpoklad, že co do své matematické a logické kompetence náleží všichni lidé do téže kategorie, jejímž je náš "člověk" abstraktním reprezentantem.

Jaká je tedy souvislost Gödelovy věty o neúplnosti s poměřováním přirozeného a umělého myšlení? Je známo, že počítače - či lépe programy17 - lze při vhodné interpretaci chápat jako reprezentanty formálních systémů. Pro nástin Lucasova argumentu stačí, když si zavedeme pojem rozhodovacího programu: je to program, který na vstupní otázky, týkající se (Peanovy) aritmetiky, odpovídá buď "ano" nebo "ne" (nebo nedovede odpovědět), přičemž

  • (a) na axiómy této aritmetiky odpovídá "ano",
  • (b) respektuje logické vyplývání (kdykoliv je odpověď na jednu otázku logickým důsledkem odpovědi na jinou otázku, pak program odpovídá v souladu s touto závislostí),
  • (c) je bezesporný, čili jednotlivé odpovědi si vzájemně logicky neodporují.

Vyjdeme-li z hypotézy, že lidské myšlení je bezesporné, že se řídí logickými zákony a že považuje axiómy aritmetiky za pravdivé, pak jsou uvedené předpoklady nutné k tomu, aby nějaký program takové myšlení potenciálně modeloval. Tytéž předpoklady však též stačí k tomu, aby dotyčný program již podléhal Gödelově větě o neúplnosti.

Řekneme, že otázka (o vlastnostech čísel) je zodpověditelná, když člověk je principiálně schopen na ni správně odpovědět (neuvažuje se, s jakou námahou). Gödelovu větu lze pak volně přeformulovat takto:

Ke každému rozhodovacímu programu existuje zodpověditelná otázka, na kterou tento program nedovede odpovědět.

Trik důkazu spočívá v tom, že i otázky o strojích lze (důmyslně) převést na otázky o přirozených číslech, a tak lze strojům klást choulostivé otázky o jejich vlastním chování.

Zdálo by se tedy, že člověk má jistou formální "převahu" nad strojem. Věc však není tak jednoduchá. Gödelova věta je v rozporu pouze s následující silnou variantou mechanistické teze:

Existuje program, který odpoví na všechny zodpověditelné otázky.

Neplatí však ani její protiklad, který lze nazvat mentalistickou tezí:

Existuje zodpověditelná otázka, na kterou žádný program nedovede odpovědět.

Čistě logická stránka problému spočívá v tom, že k sebedokonalejšímu (konkrétnímu) stroji vždy existuje zodpověditelná otázka, na kterou tento stroj již nemůže odpovědět (dotyčnou otázku umíme vždy efektivně zkonstruovat metodou užitou v Gödelově důkazu), ale současně ke každé takové otázce existuje ještě o něco dokonalejší stroj, který ji už zase vyřešit může (stačí do něj zabudovat naši odpověď ). Vznikají tak dvě nekonečné hierarchie: stále dokonalejších strojů a stále složitějších problémů.

Nelze předpokládat, že člověk je schopen řešit libovolně složitý problém, avšak jistá jeho převaha tkví v tom, že věci rozumí natolik, že je schopen (metaforicky řečeno) zahlédnout celou nekonečnou hierarchii najednou.

Lucasův citovaný článek obsahuje množství úvah a námětů, které stojí za uvedení. Píše např.:

Říkáme-li, že vědomá bytost něco ví, neříkáme tím jen, že to ví, ale též, že ví, že to ví, a že ví, že ví, že to ví atd. [...] setkáváme se zde s nekonečnem, ale nikoliv s nekonečným regresem s jeho negativními aspekty [...]

A dále:

Vědomá bytost může zacházet s Gödelovými otázkami tak, jak stroj nemůže, protože vědomá bytost může uvažovat sebe a své projevy, aniž by se lišila od zdroje těchto projevů.

K Lucasovu argumentu o lidské převaze se po letech vrátil R. Penrose, který jej užívá na podporu své teze, že jen v rámci nové a netradiční fyzikální teorie budeme mít šanci vědecky vysvětlit lidskou mysl, případně i vědomí (Penrose, 1994).

Je tu ovšem otázka, zda a do jaké míry argumentace založená na Gödelově větě o neúplnosti opravdu umožňuje činit závěry o převaze člověka nad počítačem. Především by bylo možno poukázat na skutečnost, že i my, podobně jako stroje, podléháme neúplnosti - i my totiž nedovedeme odpovědět na některé choulostivé otázky (jen zkuste odpovědět na otázku: Odpovíš na tuto otázku nesprávně?18).

Zajímavý argument (ve prospěch umělé inteligence) uvádí Hofstadter (Hofstadter, 1979, s. 577 ): I když obecně platí, že algoritmy, včetně těch, které jsou užity v umělé inteligenci, podléhají gödelovskému omezení, týká se to pouze jejich nejnižší rozlišovací úrovně. Avšak již dnes mají systémy pro umělou inteligenci řadu vyšších úrovní, přičemž to, co je důležité, se odehrává až na nejvyšších úrovních.

Je nutno poznamenat, že "hierarchie úrovní" u Hofstadtera není chápána čistě jen v programátorském slova smyslu (kdy programy nižší úrovně hrají roli elementárních příkazů v programech vyšší úrovně), nýbrž i tak, že čím vyšší úroveň, tím jsou programy flexibilnější, neurčitější, méně exaktní a bez přísného kritéria vnitřní bezespornosti (logický spor je sice možný, avšak v běžných výpočtech prakticky nedosažitelný). Podle Hofstadtera je "sídlem" inteligence nejvyšší, nejméně formální úroveň, kde se "operuje s obrazy, formulují analogie, zapomínají myšlenky, zaměňují koncepty, smazávají rozdíly."

Pokud se na zmíněné nejvyšší úrovni vyskytnou i přesné logické postupy (podobné jako u lidí), například odvozování ve výrokové logice, nemusí to být proto, že byly předem implementovány programátorem. Mohou vzniknout emergentně jako jeden z důsledků daleko obecnější "inteligence" programu (Hofstadter, 1979, kap. 20). Jde o příklad zacyklené hierarchie: výchozí úroveň (řeč je o klasických číslicových počítačích) je založena na exaktních, formálně logických principech, a jako taková je tato úroveň výsledkem záměru konstruktéra. Ale současně na nejvyšší úrovni se mohou vyskytnout stejné formálně-logické principy (ať už záměrem programátora, či "samy od sebe"), přičemž na mezilehlých úrovních tyto principy nehrají žádnou (explicitní) roli.

4.2 Co je přirozené a co umělé

Člověk se obklopuje umělými věcmi. Na jedné straně je obyvatelem přirozeného světa, jehož je navíc i součástí, na druhé straně do něho svým chováním a svými výtvory neustále vnáší něco nového, ne-přirozeného, umělého. Nelze proto obecně klást ostrou hranici mezi přirozenájsoucna a umělájsoucnav nejširším smyslu těch slov.

Pokud se slova 'umělý' explicitně užívá jako přívlastku (umělá květina, umělé jezírko, umělý drahokam, umělá ledvina, umělá hmota, umělá družice, umělé osvětlení, umělé oplodnění, umělé dýchání, umělý jazyk), je to zpravidla tehdy, když jednou ta a jednou ona látková, tvarová nebo funkční komponenta reality je na zvolené úrovni popisu nahrazena artefaktem, produktem lidské činnosti (jde-li o modelování, je touto úrovní základní úroveň analogie). Vždy tu jde o něco, co může být také (a především) přirozené (neříkáme přece umělý krb, umělé brýle). Přišel člověk a vyrobil či způsobil totéž, jenže jinak, z něčeho jiného a jen v jistém aspektu - v jakém, to se případ od případu liší. Předpokládá se však něco víc, než že u toho byl člověk - je tu vždy vědomý záměr, čili apriorní explicitní představa na straně tvůrce o tom, co ono umělé má dělat či jak má vypadat či co má nahradit. Lze pak i objektivně posuzovat, do jaké míry realizace plní původní záměr.

V obecnějším pojetí nemusí realizace ani nést příznaky toho, že je opravdu umělá (umělé jezírko nemusí být rozlišitelné od přirozeného jezírka). Podle Birnbachera (Birnbacher, 1995) lze umělé chápat v adverbiálním smyslu, kdy jde jen o způsob, jak došlo k realizaci (případ jezírka), nebo v adjektivním smyslu, kdy (navíc) jde o to, jaká realizace je, že k ní bylo totiž užito nepřirozeného materiálu či prostředí (umělá květina, umělé myšlení).

To vše platí i o umělém myšlení, vnímání, rozhodování, řešení úloh a další činnosti, na něž se zaměřuje umělá inteligence (což je jen souhrnné označení pro snahy to vše realizovat19).

V jedné monografii o umělé inteligenci (Rich, Knight, 1991) je tato disciplína definována jako studium možností, "jak přimět počítače dělat to, co lidé dosud dělají lépe". Všimněme si, že tu jde o dvě různé věci: jednak (něco) dělat a jednak přimět (někoho něco) dělat. Povaha obou výkonů a rozdíl mezi nimi je třeba mít v patrnosti, kdykoliv tvrdíme, že nějaká činnost je umělá.

Velmi obecně řečeno, abychom o nějaké věci (vlastnosti, činnosti) mohli tvrdit, že je umělá, měly by být splněny přinejmenším tři podmínky:

  1. existuje nějaká přirozená věc, logicky připouštějící duplikaci (v našem případě je to například lidské myšlení, vnímání, rozhodování apod.),
  2. existuje záměr člověka (nebo týmu) vytvořit duplikát oné přirozené věci,
  3. došlo k provedení záměru, čili proběhl intencionální proces vedoucí od záměru k jeho realizaci (v našem případě byla dotyčná věc například implementována na počítači).

Provedení záměru je intencionální akt člověka a rozdíl mezi samotným záměrem a jeho provedením odpovídá rozdílu mezi předběžnou intencí a intencí v akci (Searle, 1983). Součástí obou intencí je jasná apriorní představa cíle intencionálního aktu; tím je pak i dána možnost hodnotit jeho úspěšnost.

Obojí intenci (předběžnou i intenci v akci) je třeba předpokládat, chceme-li mluvit o čemkoliv jako o něčem umělém a v obou případech hraje roli ona apriorní představa cíle - nazývejme ji (jde-li o konstrukci nějakého produktu) projektem. Budu-li bubnovat prsty na klávesnici počítače v domnění, že jde o klavír, a tímto způsobem náhodou "vybubnuji" program, který je (řekněme) schopen myslet, nebudu tvrdit, že jde o umělé myšlení, stejně jako bych to netvrdil, kdyby klávesami pohyboval náhodný generátor či třeba kočka. Co chybělo, byl projekt (myšlení).

Každý projekt vyžaduje objektivně srozumitelnou specifikaci směrodatných vlastností cílového produktu. Konstrukce (výroba, programování) je "vnější" aktivita, neprobíhá v něčí fantazii, nýbrž ve vnějším (byť někdy jen symbolickém) světě, a proto ony směrodatné vlastnosti musí být popsány "zvenku", například tak, aby realizace mohla být zadána i někomu jinému.

Diskuse o možnostech algoritmické umělé inteligence se většinou zajímají o výsledné produkty (programy, jejich implementace a vlastnosti), méně se již zaměřují na způsob, jak vznikaly, tj. na účast člověka při jejich vzniku a na existenci projektu. Takto se můžeme setkat s poněkud jiným typem problému: jak se stavět k naší principiální neschopnosti popsat to, co vlastně od programu žádáme. Některé aspekty lidské mysli totiž nelze zadat jako konstrukční projekt: nevíme například, jak objektivně a zvnějšku popsat to, co spočívá ve vnitřním, subjektivním prožívání.

Mluvit o umělém myšlení (v hlubším smyslu slova 'umělý' ) má tedy smysl, když se omezíme jen na některé jeho výkony (či projevy), totiž ty, které jsou - předběžně řečeno - objektivní. Zdá se ovšem vhodnější přitom nevést dělítko mezi různými mentálními výkony (jak jsou například pojímány v přirozeném jazyku, popřípadě v tradiční psychologii), nýbrž napříč každým z nich zvlášť. Rozlišujme proto (teoreticky) dvě komponenty mentálních procesů: to, co je na daném procesu objektivně, "zvnějšku" popsatelné, nazveme jeho performační komponentou a to, co přitom subjekt "vnitřně" prožívá, nazveme jeho fenomenální komponentou20.

Lze tedy shrnout: umělá (v našem smyslu) realizace nějakého mentálního procesu či výkonu se může vztahovat pouze na jeho performační komponentu.

Rozlišení obou komponent je spíše jen teoretické; v praktickém životě je nerozlišujeme a většinou by to ani nebylo snadné. Přesto je takové rozlišení intuitivně celkem přirozené, což lze ilustrovat zejména na těch mentálních aktivitách, u nichž je fenomenální komponenta snadno odmyslitelná. Jsou to především činnosti, které provádíme sice vědomě, ale více méně "mechanicky", tj. podle návodu, jehož podstatě ani nemusíme rozumět (například aritmetické operace s většími čísly, řešení stereotypních problémů či jednoduché dedukce), dále dokonale nacvičené dovednosti, vše co je odsunuto do podvědomí, až po vrozené dispozice (syntax mateřské řeči, rozpoznávání tváří, umělecké schopnosti, intuitivní reakce). Ve všech těchto případech se fenomenální komponenta redukuje nanejvýš na pasivní evidování dotyčné činnosti. Později (například v závěru odst. 4.4) se setkáme s dalšími příklady rozlišení obou typů komponent. Mnohé diskuse o možnostech umělé inteligence by se vyřešily, kdyby si jejich účastníci předem vyjasnili, zda jim jde čistě o performační komponentu výkonu, o kterém debatují (například vizuální percepce, hraní šachu apod.), nebo zda mají na mysli obě komponenty současně (čili nerozlišují je).

Je třeba si uvědomit, že čím je pro určitý typ činnosti důležitější fenomenální komponenta, tím více se umělá verze této činnosti bude odchylovat od verze přirozené - což je případ metaforických modelů ve smyslu odst. 3.4.

4.3 Počítačová metafora a "silná" umělá inteligence

Jakýkoliv pokus o přirovnání některých aspektů lidské mysli (počínaje funkční organizací mozku a konče kognitivními procesy) k vnitřní organizaci, výpočetním procedurám, či vnějším projevům počítače lze považovat za (vědomé nebo neuvědoměné) užití takzvané počítačové metafory, která výrazně ovlivnila post-behavioristickou psychologii padesátých let a stala se východiskem pro dodnes vládnoucí paradigma kognitivní vědy. Jak později uvidíme, vedla i k novému oživení filosofie mysli.

Von Neumannova architektura číslicových počítačů, ke které až donedávna neexistovala výrazná alternativa, je spojena s představou sériového diskrétního výpočtového procesu, který je řízen programem uloženým (spolu se vstupními a pracovními daty) v paměti počítače. Program (v konkrétním smyslu) je syntakticky korektní a na daném typu počítače realizovatelný zápis nějakého (abstraktního) algoritmu v dohodnutém programovacím jazyce.

Technicky lze u počítačů hovořit o rozmanitých úrovních, od nejnižší, fyzikální úrovně (elektronika, logické obvody, mikroprocesory, atp.), až po nejvyšší úroveň, která operuje se symbolickými objekty pomocí programů a která je schopna komunikovat s uživatelem (či prostředím). Všechny úrovně jsou přitom součástí téhož konstrukčního projektu a je teoreticky myslitelné, aby je navrhoval jediný konstruktér. (V praxi je však dnes již téměř nemožné se zabývat všemi úrovněmi najednou, protože se v průběhu let s rozvojem softwarových systémů na jedné straně a miniaturizací na straně druhé obě krajní úrovně od sebe velmi vzdálily. Vznikly přitom další meziúrovně, jimiž se zabývají i rozdílné technické disciplíny.)

I na pojmy úroveň a hierarchie úrovní (s nimiž jsme se již setkali v závěru odst. 4.1) lze pohlížet z hlediska počítačové metafory. I když jde obecně o pojmy velmi vágní a v konkrétních instancích dosti libovolné, u umělých systémů, jako jsou počítače, mají celkem jasnou technickou interpretaci. Analogicky se pak snažíme vidět hierarchické uspořádání i u přirozených systémů. Je ovšem třeba si uvědomit, že je to vždy do jisté míry důsledek naší zúžené schopnosti vidět svět holisticky, jako jeden celek.

Pro pochopení počítačové metafory je důležité i rozlišení mezi hardwarem a softwarem. Vztah mezi nimi je dán poněkud vágním, avšak filosoficky významným pojmem implementace, což je způsob, jak zajistit, aby daný softwarový program řídil reálný průběh příslušného výpočtového procesu v daném typu hardwaru. Podstata softwarových programů totiž tkví v jejich kauzální potenci (schopnosti řídit dotyčné procesy), která je invariantní k té či oné konkrétní implementaci; v tomto smyslu lze i říci, že programy "přežívají hardwarovou smrt".

Tato nezávislost softwarových objektů (programů) na hardwarové implementaci je hlavním motivem počítačového funkcionalismu, též označovaného jako "silná" umělá inteligence (Searle, 1984). Je to názor, který lze vyjádřit touto tezí:

Povaha mysli je algoritmická, přičemž není podstatné, v jakém mediu jsou algoritmy (programy) implementovány.

Nezáleží tedy na tom, zda tímto mediem je mozek, počítač či třeba armáda Číňanů. Počítače by proto mohly (dokonce musely) mít myšlenky, pocity, porozumění apod., pokud by v nich byl implementován vhodný počítačový program s vhodnými vstupy a výstupy. Teze počítačového funkcionalismu, hojně zastávaná v kruzích tradiční umělé inteligence, není v rozporu s materialismem (implementace je nakonec vždy nutná pro realizaci), přičemž však - na rozdíl od materialistických či fyzikalistických teorií mysli - nepřisuzuje mozku nijak podstatnější roli, než kterémukoliv jinému myslitelnému implementačnímu mediu (více o tom viz oddíl 7.3).

Dle silné umělé inteligence je tedy principiálně možno replikovat lidskou mysl v počítači. Na rozdíl od toho "slabá" umělá inteligence aspiruje jen na modelování mysli, případně jejích dílčích projevů, přičemž se orientuje na nejvyšší, logicko-symbolickou úroveň, která je tak pro ni základní úrovní analogie (ve smyslu odst. 3.4).

Pokud jde o aplikační umělou inteligenci, je vhodné zdůraznit, že i když jí jde více o účel a efektivnost než o napodobení člověka, některé její algoritmické struktury a metody mají určitou vypovídací hodnotu i jako metafory pro přirozené myšlení. Jako příklad lze uvést sémantické sítě (viz kap. 4 v prvním dílu této knihy (Zdráhal, 1993)) a jiné metody reprezentace znalostí, nebo učení na principu posilování.

Existuje ovšem i mnoho případů, kdy jsou algoritmy založeny právě na těch procedurách, které užívá člověk (jednoduché sylogismy, některé aritmetické operace, klasifikace a třídění, kognitivní mapy a všechny další případy, kdy se vědomě řídíme nějakým algoritmem). Vlastně i samotná von Neumannova architektura počítačů byla motivována Turingovým teoretickým modelem univerzálního výpočtového stroje (Turing, 1936), při jehož návrhu Turing nejspíše vycházel z reflexe, jak on sám, matematik, by postupoval při řešení matematického problému nebo při provádění výpočtu (Dennett, 1991a, s. 212). Za relevantní přirozeně považoval jen tu část řešení, která je v zorném poli vědomí, kde se jeví jako sériový proces, a to nezávisle na nepochybně paralelní povaze procesů na neuronové úrovni. Není divu, že organizace počítače a některé běžně užívané algoritmy nám tolik připomínají přirozené myšlení.

4.4 Turingův test a čínská komora

V diskusích o povaze a možnostech umělé realizace či napodobování mysli filosofové často navrhují hypotetické situace, které mají sloužit buď jako test úspěšnosti nějakého projektu anebo jako argument pro nebo proti některé teorii či názoru. Příkladem prvého je slavný Turingův test (Turing, 1950), příkladem druhého neméně slavný Searlův experiment s "čínskou komorou" (Searle, 1980), na který se zde hlavně zaměřím.

Nejdříve však je třeba upozornit na některé obecné vlastnosti (a záludnosti) myšlenkových experimentů. Z pohledu logiky lze rozlišit myšlenkové experimenty realizovatelné (alespoň principiálně) a sporné (které vedou k paradoxům a slouží k vyvrácení nějaké hypotézy). Každá hypotetická konstrukce má nutně dvě explicitní komponenty: jednou komponentou je její předpokládané pozadí, čímž se obvykle rozumí ta část aktuálního světa, kterou známe a považujeme za samozřejmou; druhou komponentou je právě ta nová, myšlenkově konstruovaná skutečnost, kterou explicitně popisujeme, někdy záměrně tak, aby se od samozřejmého odchylovala. Často se však zapomíná, že tyto dvě komponenty nevyčerpávají vše. Je tu ještě neurčitá (a neurčitelná) oblast všeho, co nebylo uvažováno a co bylo opomenuto. Protože v této třetí oblasti může (ale též nemusí!) dojít k vzájemným nesrovnalostem, tj. ztrátě koherence konstruované skutečnosti s předpokládaným pozadím, nazývám ji koherenční mezerou (Havel, 1999c).

Záludnost myšlenkových experimentů tkví v tom, že vlivem koherenční mezery může myšlenkový experiment zcela ztratit svou argumentační sílu: nic nedokáže a nic nevyvrátí. Proto je namístě opatrnost (ostatně opatrnost podobného typu jako při návrhu a interpretaci experimentů reálných).

V roce 1950 uveřejnil Alan Turing úvahu "Computing Machinery and Intelligence" (Turing, 1950), která je někdy považována za symbolický počátek umělé inteligence jako oboru. Turing navrhuje test, jak rozhodnout, zda stroj může myslet. Představte si dvě komory, v jedné z nichž je uzavřen stroj, ve druhé člověk. Vnější experimentátor má na základě dialogu s oběma komorami rozhodnout, kdo je kde. Stroj se přitom bude vydávat za člověka, člověk též. Otázka zní, zda experimentátor bude (v průměru) rozhodovat stejně, jako kdyby (například) v prvé místnosti byl muž a ve druhé žena.

Turingův test je příkladem realizovatelného experimentu (byl i brán v úvahu při návrhu dialogových systémů pro přirozený jazyk). Ač velmi populární, z filosofického hlediska příliš inspirativní není: vychází totiž z čistě behavioristického pojetí myšlení (charakteristického pro tehdejší psychologii) a nebere v potaz procesy uvnitř systému, tím méně fenomenální aspekty mysli. Navíc nemůže dost dobře vyhovět těm, jimž záleží na vědecké objektivitě - výsledek totiž může podstatně záviset na důvtipu a nápaditosti experimentátora (a též na tom, že sám je člověkem), což jsou vlastnosti, které nelze formalizovat. A poslední věc: testuje se vlastně něco velmi speciálního, totiž umění stroje předstírat, že není stroj.

Třicet let po Turingovi formuloval John Searle myšlenkový experiment (Searle, 1980), který se napohled zdá být variantou Turingova testu, nejde v něm však o test, nýbrž o argument proti počítačovému funkcionalismu (viz předchozí odstavec) a zdůraznění vnitřních aspektů mysli, včetně intencionality. Searlův záměr je sympatický (aspoň mně): zpochybnit tvrzení, že počítač s implementovaným správným dialogovým programem se správnými vstupy a výstupy opravdu rozumí jazyku, v němž probíhá dialog. "Správný" program je například takový, který by uspěl v Turingově testu - takové programy tehdy již (skoro) existovaly pro tematicky vymezené oblasti (Schank, Abelson, 1977).

Řekněme, že v uzavřené komoře sedí John (Searle - autor mluví o sobě, což má, jak uvidíme, jistý význam; k odlišení od Searla-autora budu Searla-v-komoře nazývat Johnem), který nerozumí čínštině, a za pomoci rozsáhlého manuálu (v angličtině, které rozumí) vybírá - čistě podle tvaru - jedny čínské znaky jako odpovědi na jiné čínské znaky, které mu do komory vsouvá vnější experimentátor (jsou to otázky, týkající se smyslu nějakého dříve vsunutého, rovněž čínského textu). Předpokládejme, že dotyčný manuál je přepisem správného programu pro dialog v čínštině ("správného" ve shora uvedeném smyslu), takže experimentátor - budiž jím rodilý Číňan - nepozná, že původce odpovědí není rovněž Číňan. Poučení: John i počítač jsou stejně úspěšní, avšak John čínským textům nerozumí - proč by jim tedy měl rozumět počítač s implementovaným stejným programem?

Searlův myšlenkový experiment s čínskou komorou svého času vyvolal rozsáhlou diskusi. Dle mého soudu není tak přesvědčivý, jak to o něm sám Searle tvrdí, každopádně však skýtá bohatý materiál k dalším úvahám. Některé z nich zde naznačím.

S námitkou, která nás možná napadne jako první, Searle již počítal a označil ji jako "systémovou": V experimentu má přece John jen dílčí zásluhu na přesvědčivých odpovědích, je tu ještě ten manuál. Jestliže John nerozumí čínštině, neznamená to, že systém jako celek (John + manuál) nerozumí. Searle odpovídá: Dobrá, aniž by se cokoliv změnilo na argumentaci, můžeme předpokládat, že John se prostě celý manuál naučí nazpaměť - ani tak nebude rozumět.

Tento předpoklad by dokonce zjednodušil uspořádání experimentu (na úkor jeho realizovatelnosti), otevírá však další námět k úvaze: řekněme, že se naučím zpaměti návod k nějaké složité činnosti (například k násobení velkých čísel) a pak tuto činnost realizuji - a to vědomě, ovšem jen na úrovni jednotlivých pokynů návodu. Jak dalece musím znát význam oněch pokynů,abych mohl říci, že smyslu dotyčné činnosti rozumím?

Dalším tématem k zamyšlení je důležitý předpoklad, že John v komoře je ve všech relevantních aspektech srovnatelný s počítačem. Searlův argument totiž spočívá v této úvaze: nahradíme počítač Johnem, který bude na jisté, pro implementaci algoritmů relevantní úrovni provádět tytéž úkony jako počítač, čili bude realizovat tentýž algoritmický proces, jaký realizuje počítač. To počítačovému funkcionalismu musí stačit k závěru, že počítač rozumí tehdy a jen tehdy, když rozumí John. (Pak už jen stačí doplnit: protože John nerozumí, nerozumí ani počítač.) Je to opravdu tak, že když dva dělají totéž, je to totéž?

To lze zkoumat z různých hledisek. Především je třeba si uvědomit dva hlubší rozdíly mezi Johnem a počítačem - přesněji mezi Johnem a centrálním procesorem počítače, protože John vlastně simuluje pouze ten. Za prvé, John rozumí manuálu (v angličtině) a uvědomuje si, co má dělat, tj. manipulovat s nesrozumitelnými symboly, možná to dokonce chce dělat (aby vyhověl Searlovi, svému mysliteli). Toto rozumění, uvědomování si a případné chtění se neodvažujeme předpokládat u centrálního procesoru počítače, od něhož čekáme spíše jen kauzální chování poslušné zákonům fyziky. Tento rozdíl Searlovu argumentaci asi neohrozí, protože není pro (předpokládaný) počítačový funkcionalismus relevantní. Je to však názorný příklad koherenční mezery v myšlenkovém experimentu.

Za druhé se v popisu experimentu od Johna explicitně vyžaduje (v zájmu hlavní argumentace) svědectví o tom, že nerozumí čínským znakům (zde si Searle - ale jen pro sebe - zjednodušuje situaci tím, že si do komory sedá sám). Nic takového se nepředpokládá od Johnem simulovaného centrálního procesoru (Lakoff, Johnson, 1999, s. 264). I toto je případ koherenční mezery. Otázkou pak je, zda John, který realizuje jen triviální úlohu centrálního procesoru, je kompetentní k tomuto svědectví.

Existují tedy určité Johnovy vlastnosti, které s ním nemusí sdílet počítač. Ostatně kdyby je počítač měl, asi by to nebyl počítač, který má počítačový funkcionalismus na mysli. Pokud by je neměl, znamenalo by to, že John v něčem přesahuje simulovaný počítač. Lakoff a Johnson to pokládají za nepřiznaný metaforický prvek v experimentu.

Zkusme na to jít i v jistém smyslu obráceně. John totiž simuluje pouze algoritmickou úroveň počítače a neuvažuje se logicky myslitelný případ, že tentokrát počítač může mít nějaké další, nečekané vlastnosti, například schopnost něčemu rozumět či nerozumět. Kdyby John simuloval chování některých (třeba i důležitých) neuronů v mozku rodilého Číňana, plynulo by z toho, že dotyčný Číňan, stejně jako John, nerozumí čínskému dialogu? Mohu být i konkrétnější. Zkusme považovat porozumění za emergentní stav mysli, který sice (u sebe sama) eviduji, nesmím se však násilně vměšovat do přirozeného a autonomního procesu, který k němu vede, obdobně jako se nesmím vměšovat do svých obranných reflexů. Jak jsem poznamenal výše, reálný výpočtový proces v počítači je na nejnižší úrovni založen na přirozeném kauzálním běhu věcí ve shodě se zákony fyziky. A tu chceme od Johna, aby ve své komoře intencionálně, svobodně a vědomě tento autonomní proces simuloval ručně. Z toho, že John neregistruje známky porozumění na vyšší než manipulační úrovni, logicky nic neplyne o porozumění nebo neporozumění na straně počítače.

Tím se vlastně oklikou dostávám k Dennettovu argumentu proti Searlovu experimentu (Dennett, 1991a, s. 438). Searle podle něj příliš bagatelizuje nároky na skutečnou počítačovou realizaci systémů, od nichž se čeká úspěch v čínské variantě Turingova testu. Takový systém by totiž musel mít tak rozsáhlou datovou bázi s tolika vnitřními vazbami, že by mohlo dojít k emergentním jevům na vyšších úrovních popisu. Pak by bylo (dle Dennetta) legitimní mluvit o pravém porozumění u počítače, třeba i takového, jehož centrální procesor je simulován nic netušícím Johnem. První část tohoto pohledu by bylo i možno podpořit připomenutím jisté konvergence mezi reprezentačními prostředky umělé inteligence a konekcionistickými systémy, o čemž se zmíním později (odst. 5.4).

Sluší se tyto úvahy shrnout. Vraťme se k minimálnímu poučení ze Searlova experimentu: John nemusí rozumět čínsky, aby si v čínském dialogu vedl stejně dobře jako počítač, a ani skutečnost, že přitom oba realizují stejný program, nestačí k tvrzení, že dotyčný počítač rozumí čínsky. Zde se slovo 'rozumí' vyskytuje dvakrát a problém vzniká tehdy, když si nerozmyslíme, zda jej v obou případech užíváme ve stejném významu či nikoliv. Rozdíl může být tento: John v komoře ví sám, že nerozumí čínsky (protože to Searle ví o sobě), zatímco to, zda počítač rozumí nebo nerozumí, chceme posuzovat zvenku (Turingovým testem, znalostí programu apod.). Počítačový funkcionalista, pokud by chtěl být konzistentní, by nesměl tento rozdíl brát v úvahu a Johnovo subjektivní svědectví o tom, že nerozumí čínsky, by musel ignorovat.Podle mého názoru v celé debatě, včetně některých Searlových výroků, lze odhalit občasné a nenápadné opomenutí rozdílu mezi performační a fenomenální komponentou mentálních procesů, o nichž jsem se zmínil v odst. 4.2. Tento rozdíl se obecně vztahuje i na vlastnosti dotyčných procesů a na způsob, jak o těchto vlastnostech mluvíme: buď v 1. osobě (o fenomenálních aspektech), nebo v 3. osobě (o performačních aspektech). Lidé z umělé inteligence a funkcionalističtí filosofové (např. Dennett) mluví o mentálních stavech jen ve 3. osobě a fenomenální komponentu se snaží eliminovat nebo ignorovat (protože se vzpírá objektivnímu zkoumání). Není divu, že si pak nerozumějí se Searlem, který považuje řeč v 1. osobě za filosoficky relevantní - a dokonce rozlišuje 1. a 3. osobu jako dvě různé ontologické kategorie (Searle, 1992).

To, že počítač dovede násobit, hrát šach, rozumět příběhům (leccos i lépe než člověk) neznamená, že počítač prožívá násobení, hru a porozumění stejně jako je prožívá člověk, když násobí (z hlavy), hraje šach (s chutí) a rozumí příběhům (bez manuálu). Zajisté, i člověk, podobně jako počítač, dovede násobit (dle návodu), hrát šach (podle pravidel) a rozumět (v čínské komoře), ale to mluvíme jen o performační, nikoliv fenomenální komponentě příslušné činnosti. Ale i tak zůstává otázka, jakou roli přisoudit skutečnosti, že to dělá vědomě, a to nejen jako náhodný pozorovatel, ale jako účastník: proč to dělá a také, s čím zachází (byť mechanicky) - že čísla jsou čísla, pozice na šachovnici jsou situace hry, obrázky jsou čínské znaky.

 << Předchozí: Cesty k poznání lidské mysli << >> Následující: Konekcionistická alternativa >>
1 Souslovím 'umělá inteligence' budu označovat výhradně existující disciplínu (též označovanou AI, česky UI) - pokud půjde o pojem, případně o projekt (realizace inteligence umělými prostředky), použiji uvozovky.
1a O kognitivní vědě viz závěr odst. 1.2.1
2 V zevšednělém významu slova filosofie, jako je např. "filosofie výroby mýdla".
3 Při psaní jsem místy těžil z některých svých dřívějších prací (někdy včetně úryvků textu), a to zejména z (Havel, 1988, 1992, 1993, 1998), (Havel, Hájek, 1982), a z některých svých úvodníků v časopisu Vesmír.
4 Stručnou rekapitulaci historie umělé inteligence čtenář nalezne v úvodu k prvnímu dílu této knihy (Mařík a kol., 1993).
5 Někdy se záměrně mluví o kognitivních vědách (v plurálu).
6 Viz např. kap (Štěpánková, 1993) v prvním dílu sborníku Umělá inteligence.
7 Viz např. (Havel, 1980) a kap. 9. v druhém dílu sborníku Umělá inteligence (Lažanský a kol., 1997)
8 Viz kap (Lažanský, Kubalík, 1999) ve třetím dílu sborníku Umělá inteligence
9 Užívám termín "paradigma", tak jak se dnes užívá; tj. ve slabším smyslu, než jej užil Kuhn (u něhož změna paradigmatu má charakter vědecké revoluce).
10 O neuronových sítích se podrobně dočtete v 9. kap. prvního dílu sborníku UI (Hořejš, 1993), o distribuované umělé inteligenci a agentových systémech ve 4. kap. druhého dílu (Štěpánková a kol., 1997) a v kapitolách (Kelemen, 1999; Mařík a kol., 1999) třetího dílu.
11 Přehled literatury na toto téma
12 Angl. slovo experience má v češtině nejméně tři významy: prožívání (v našem smyslu), zážitek a zkušenost.
13 Slovo 'symbolický' zde užívám ve smyslu "operující se symboly, tj. s objekty, které jsou nositeli dohodnutého významu". Někteří autoři užívají termín ' symbolový' .
14 V kap. (Kelemen, 1999) třetího dílu sborníku UI (Umělá inteligence) je rozlišení "shora" vs. "zdola" míněno spíše funkcionálně: zda postupujeme od složitých funkcí (schopností) k jednodušším anebo opačně.
15 Viz např. (Boden, 1990; Dreyfus, 1979; Graubard, 1988; Haugeland, 1985; Lucas, 1961; Searle, 1980, 1997).
16 Citováno dle (Webb, 1980), s. 112.
17 Zvolíme-li jeden pevný počítač. Bez újmy na přesnosti lze v obecných úvahách této stati nerozlišovat mezi pojmy "algoritmus", "program" a "stroj" (počítač).
18 (Hofstadter, 1979, s. 476). Jde o autoreferenční otázku podobného typu, jakého je užito v Gödelově důkazu.
19 Podobně je 'umělý život' souhrnným označením pro snahy uměle realizovat vybrané přírodní procesy (jako kolektivní chování, růst, samoreprodukci, rozmnožování, evoluci apod.). Viz kapitolu (Csonto, 1999) ve třetím díle sborníku UI.
20 Fenomenální komponenty mentálních stavů se často nazývají qualia.
21 Angl. 'connections' - odtud název konekcionismus.
21a Výběr z prací K. H. Pribrama nedávno vyšel v česko-slovenském překladu (Pribram, 1999).
22 Srov. však pojem homunkulárního funkcionalismu v odst. 7.2.
23 Zobecněná emergentistická teze bude formulována v odst. 6.2.
23a Newell definuje symboly jako fyzické tvary, které se mohou vyskytovat jako komponenty složitějších výrazů; ač termín ' symbol' předjímá naši interpretaci, není zde omezen na lidské symbolové systémy (viz Newell, Simon, 1976, spec. (Boden, 1990), s. 109)).
24 Pojem 'blízkosti' úrovní, stejně jako sám pojem úrovně, je ovšem velmi relativní a záleží dílem na tom, co nabízí zkoumaná skutečnost, dílem na našem rozhodnutí. Srov. též poznámku na konci odstavce 6.1.
25 Spekulaci (v pozitivním slova smyslu) považuji za důležitou komponentu vědy (Havel, 1999a).
26 Jde o zobecnění psychofyzického paralelismu (jakožto jevu, nikoliv filosofického názoru - viz odst. 7.2)
27 Škálové hierarchie (scalar hierarchies) se typicky vztahují k distinkci část-celek na rozdíl od tzv. specifikačních hierarchií (specification hierarchies), založených na distinkci speciální-obecné (Salthe, 1991).
28 V rámci této domény si vysvětlujeme své vlastní chování a chování druhých jako výsledek domněnek, tužeb, obav, představ, očekávání a cílů - jde o tzv. psychologický folklor (folk psychology), odpovídající běžnému užívání mentalistických výrazů v přirozeném jazyku (Stich, 1983).
29 Citováno podle (Hofstadter, 1985), s. 656.
30 S obyčejným sklem mají spinová skla společnou jen amorfnost vnitřní struktury.
31 Angl. embodied cognition, viz (Varela a kol., 1991), s. 173. Srov. též (Dreyfus, 1979; Lakoff, 1999).
32 Angl. enaction. Běžný význam anglického to enact je 'ustanovit (zákonem)' či 'ztvárnit (herecky)' . Varela, Thompson a Roschová (cit. d., s. 9, 140, 147a) užívají různé tvary tohoto slova - (cognition as) enaction, enactment (of world), enactive (cognition, approach,cognitive science), enacting (significance). České sloveso zjednat (zjednávat) volím proto, že nejlépe vyjadřuje proces, o který zde jde - chápeme-li slovo 'jednat' spíše ve smyslu 'konat' (angl. act), nikoliv 'rokovat' . Podobnost dvojice act - enact a dvojice jednat - zjednat je případná, stejně jako náznak reciprocity, obsažený v českém slovu 'zjednat' .
33 (Varela, Thompson, Rosch, 1991)
34 Slova v závorkách nejsou zcela souznačná.
35 Což mj. ilustruje podstatnou odlišnost práce ve filosofii a v matematice. Na to, jak filosofii může škodit, když podlehne lákadlům exaktní matematické metody, poukázal (význačný matematik) Gian-Carlo Rota (Rota, 1999).
36 O fenomenologické filosofii viz např. (Patočka, 1993), jako úvod do analytické filosofie lze uvést (Peregrin, 1992).
37 První osoba singuláru má (zde i jinde) naznačovat spíše subjektivní přístup k nějakému jevu.
38 Slovo "jev" je v některých situacích vhodným ekvivalentem angl. event (možná vhodnějším než "událost"); pokud se zdůrazňuje vnitřní nazírání, mluví se o "fenoménech".
39 Searle (viz např. Searle, 1999, s. 70) zmíněnou neomylnost zpochybňuje.
40 V jejich pojetí existují nikoliv dva, nýbrž tři vzájemně interagující světy - fyzický, mentální a kulturní.
41 Termín 'materialismus' má ve filosofii mysli poněkud specifičtější význam, než obecně ve filosofii. Například již vícekrát citovaný J. Searle je velmi kritický k materialismu v tomto specifickém významu, jakkoliv jeho 'biologický naturalismus' je konec konců rovněž materialismem jistého (emergentistického) typu.
42 Čínskou čistě proto, že je početná. S experimentem s čínskou komorou to nemá co dělat.
43 Původně Searle mluvil o souběhu kauzality a realizace: "...příčinou mentálních jevů jsou procesy, které se odehrávají v mozku na úrovni nervových buněk a jejich skupin, přičemž se v systému složeném z buněk zároveňrealizují." (Searle, 1984/1994 s.23), v pozdějších pracích mu jde o kauzalitu a podporu (sustaining) vědomí: "některé extrémně složité nervové systémy jsou schopny způsobit a podpořit vědomé stavy a procesy" (Searle, 1992, s. 89). V novější formulaci: "mozkové procesy způsobují vědomí, ale vědomí je samo vlastností mozku [což] nám skýtá řešení tradičního problému mysli a těla, řešení, které se vyhýbá jak dualismu tak materialismu, aspoň jak jsou tradičně chápány." (Searle, 1997, s. 8), kurzívy všude moje.
44 Na tuto mezeru v Searlově pojetí též upozorňuje McGinn (McGinn, 1999).
45 Journal of Consciousness Studies (Imprint Academic), Consciousness and Cognition (Academic Press).
46 Je to tentýž Crick, který v r. 1962 získal spolu s J. D. Watsonem Nobelovu cenu za objev struktury DNA (viz Vesmír 42 (1963) 3, s. 81).
47 Jako například výměny názorů mezi Johnem Searlem a druhými (Searle, 1997).
48 Angl. multiple drafts model.
49 V původním významu (v přírodním kultu voodoo) je zombie mrtvola, kterou nějaká nadpřirozená síla vybavila vnějšími projevy života, nikoliv však vůlí a řečí.
50 Viz též (Chalmers, 1995). Rozsáhlá diskuse k Chalmersově pojetí "těžkého problému" proběhla v časopise Journal of Consciousness Studies, Vol. 2 (1995), No. 3; Vol 3 (1996), Nos 1, 3, 4.

Literatura

Poznámka: V českém (a slovenském) jazyku existuje poměrně málo knižních publikací, které se vztahují k tématu této kapitoly, a stěží lze jejich výběr považovat za reprezentativní pro tento obor. Z poslední doby jsou to např.: (Gál, Kelemen, 1992), (Kelemen, 1994), (Searle, 1994), (Flanagan, 1995), (Minsky, 1996), (Crick, 1997), (Dennett, 1997), (Nosek, 1997), (Pstružina, 1998), (Pribram, 1999). Volnější souvislost mají (Sacks, 1993), (Ruyer, 1994), (Koukolík, 1995), (Jirků, Kelemen, 1996), neuronovými sítěmi se zabývá monografie (Novák a kol., 1988).

Kromě prací citovaných na příslušných místech jsem v tomto textu (hlavně v posledních dvou oddílech) čerpal též z těchto monografií: (Margolis, 1984), (Gregory, 1987), (Lycan, 1990), (Jacquette, 1994), (Guttenplan, 1994), (Honerich, 1995), (Franklin, 1995), (Nakonečný, 1995), (Rey, 1997) a z různých prací v časopise Journal of Consciousness Studies (Imprint Academic).

Anzenbacher A.: Úvod do filozofie. SPN, Praha, 1991.
Armstrong D.: A Materialist Theory of the Mind. Routledge and Kegan, London, 1968.
Axelrod R.: The Evolution of Cooperation. Harper and Collins, 1984.
Bechtel W., Abrahamsen, A.: Connectionism and the Mind. Basil Blackwell, Cambridge, Mass., 1991.
Bendová K.: Sylogistika. Karolinum, Praha 1998.
Berkeley G.: Pojednání o základech lidského poznání (přel. J. Brdíčko). Svoboda, Praha, 1610/1995.
Birnbacher D.: Artificial Consciousness. In: (Metzinger, 1995), s. 489- 503.
Block N.: Troubles with functionalism. In: Minnesota Studies in the Philosophy of Science 9, University of Minnesota Press, Mineapolis, 1978 s. 261- 326.
Boden M. (editorka): The Philosophy of Artificial Intelligence. Oxford University Press, Oxford, 1990.
Bringsjord S.: Is the connectionist-logicist clash one of AI's wonderful red herrings? Journal of Experimental and Theoretical Artificial Intelligence 3, 1991, s. 319-349.
Brooks R. A.: Intelligence without representation. Artificial Intelligence 47, 1991, s. 139-160.
de Bruijn N. G.: A model for associative memory, a basis for thinking and consciousness. In: J.Wiederman et al. (editoři): Automata, Languages and Programming, Springer, Berlin, 1999, s. 74- 89.
Campbell K.: Body and Mind. Univ. of Notre Dame, Indiana, 1970.
Cragg B.G., Temperley H.N.V.: The organisation of neurones: A cooperative analogy. EEG Clinical Neurophysiology 6, 1954, s. 37.
Crick F.: Věda hledá duši (Překvapivá domněnka). Mladá fronta, Praha 1997.
Csonto J.: Umělý život. In: Umělá inteligence 3
de Bruijn N. G.: A model for associative memory, a basis for thinking and consciousness. In: J.Wiederman et al. (editoři): Automata, Languages and Programming, Springer, Berlin, 1999, s. 74- 89.
Dennett D. C.: Consciousness Explained. Little, Brown and Co., Boston, 1991a.
Dennett D.C.: Mother Nature versus the Walking Encyclopedia: A western drama. In: (Ramsey, Stich, Rumelhart, 1991), 1991b, s. 21-30.
Dennett D. C.: Druhy myslí. K pochopení vědomí. Archa, Bratislava 1997.
Descartes R.: Meditácie o prvej filozofii. Chronos, Bratislava 1641/1997.
Domany E., van Hemmen J.L., Schulten, K. (editoři): Models of Neural Networks. Springer-Verlag, Berlin, 1991.
Dreyfus H.: What Computers Can't Do. (2. vydání) New York: Harper & Row 1979.
Eccles J.: How the Self Controls Its Brain. Springer-Verlag, Berlin, 1994.
Flanagan O.: Vedomie. Archa, Bratislava 1995.
Fodor J.A.: The mind-body problem. Scientific American, January 1981, s. 124- 132.
Fogel L.J., Owens A. J., Walsh M. J.: Artificial Intelligence through Simulated Evolution. New York, 1966.
Franklin S.: Artificial Minds. The MIT Press, Cambridge, Mass., 1995.
Freeman W.: Societies of brains (diskuse s Jean Burnsovou). Journal of Consciousness Studies 3, 1996, s. 172-180.
Gál E., Kelemen J. (editoři): Myse'e5/telo/stroj. Bradlo, Bratislava 1992.
Graubard S.R. (editor): The Artificial Intelligence Debate: False Starts, Real Foundations. Cambridge, MA: The MIT Press 1988.
Gregory R.L. (editor): The Oxford Companion to the Mind. Oxford University Press, Oxford, 1987.
Grim J.: Pravděpodobnostní neuronové sítě. In: Umělá inteligence 3
Guttenplan S. (editor): A Companion to the Philosophy of Mind.
Haugeland J.: Artificial Intelligence: The Very Idea. Cambridge, MA: The MIT Press 1985.
Havel I. M.: Neuronové počítače a jejich inteligence. In: SOFSEM'88, 1988, s. 83-118.
Havel I. M.: Connectionism and Unsupervised Knowledge Representation. In: R.Trappl (editor): Cybernetics and Systems'90. Singapore: World Scientific, 1990.
Havel I. M.: Artificial Intelligence and Connectionism. In: Advanced Topics in AI (Mařík, Štěpánková, Trappl, editoři), Lecture Notes in Artificial Intelligence, Springer-Verlag 1992, s. 25-41.
Havel I. M., Scale Dimensions in Nature. Int. Journal of General Systems 24 No. 3, 1996, s. 295-324.
Havel I. M.: Artificial Thought and Emergent Mind. In: Proceedings IJCAI'93, Morgan Kaufman Professional Book Center, Denver, CO, USA, 1993, s. 758-766.
Havel I. M.: Otevřené oči a zvednuté obočí. Nakladatelství Vesmír, Praha 1998.
Havel I. M.: Třetí život badatelů. Vesmír 78, 1999, č. 6, s. 303 (1999a).
Havel I. M.: Jitro kyberkultury. Světová literatura, 1999, č. 1(1999b).
Havel I.M.: Living in Conceivable Worlds. In: Proceedings Conf. on Paraconsistent Logic, Foundations of Science, Kluwer Academic Publishers, 1999c.
Havel I. M., Hájek P.: Filozofické aspekty strojového myšlení. In: SOFSEM'82, 1982, s. 171-211.
Hegel G. W. F.: Fenomenologie ducha (přel. J. Patočka). NČSAV, Praha 1806/1960.
Heylighen F., Bollen J.: The World-Wide Web as a Super-Brain: from metaphor to model. In: R.Trappl (editor): Cybernetics and Systems '96. Austrian Society for Cybernetics, 1996, s. 917-922.
Hillis W.D.: Intelligence as an emergent bahavior; or, the songs of Eden. In: (Graubard, 1988), s. 175-190.
Hinton G.E., Sejnowski TJ.: Learning and relearning in Boltzmann machines. In: Rumelhart a kol., Parallel Distributed Processing, Vol. 1., The MIT Press, Cambridge, Mass., 1986, s. 282-317.
Hodgson D.: The Mind Matters: Consciousnes and Choice in a Quantum World. Oxford University Press, Oxford, 1991.
Hofstadter D.R.: Gödel, Escher, Bach: An Eternal Golden Braid. Harvester Press, Brighton, 1979.
Hofstadter D.R.: Waking up from Boolean dream, or, subcognition as computation. In: (Hofstadter, 1985), s. 631-665.
Hofstadter D.R.: Metamagical Themas: Questing for the Essence of Mind and Pattern. Bantam Books, Toronto, 1985.
Honderich T. (editor): The Oxford Companion to Philosophy. Oxford University Press, Oxford, 1995.
Hopfield J.J.: Neural networks and physical systems with emergent collective computational abilities. Proc. Nat. Acad. Sci USA 79, 1982, s. 2554-2558.
Hořejš J.: Neuronové sítě. In: (Mařík a kol., 1993), s. 217- 241.
Höschl C: Biologická psychiatrie roku 2000. Psychiatrie, 1, 1997, 3-4, s. 107-116.
Chalmers D.J.: The puzzle of conscious experience, Scientific American, Dec. 1995, s. 80- 86.
Chalmers D.J. The Conscious Mind: In Search of a Fundamental Theory. Oxford University Press. 1996.
Churchland P. S.: Neurophilosophy: Toward a Unified Science of the Mind/Brain. The MIT Press, Cambridge, Mass., 1986.
Jacquette D.: Philosophy of Mind. Prentice Hall, Englewood Cliffs, NJ, 1994.
Jirků P., Kelemen J.: Kapitoly z kognitivní vědy. Vysoká škola ekonomická, Praha, 1996.
Kauffman S.A.: Antichaos and Adaptation. Scientific American, August '91, s. 78-84 (1991).
Kelemen J.: Strojovia a agenty. Archa, Bratislava, 1994.
Kelemen J.: Reaktivní agenty. In: Umělá inteligence 3
Klír J., Valach M., Kybernetické modelování. SNTL, Praha, 1965.
Koch C.: Biophysics of Computation: Information Processing in Single Neurons. Oxford University Press, 1998.
Koch C., Segev I. (editoři): Methods in Neuronal Modeling: From Ions to Networks. 2nd ed., The MIT Press, Cambridge, Mass., 1998.
Kolb B., Whishaw I.Q.: Fundamentals of Human Neuropsychology. W.H.Freeman, New York, 1990.
Koukolík F.: Mozek a jeho duše. Makropulos, 1995.
Kůrková V.: Aproximace funkcí neuronovými sítěmi. In: Umělá inteligence 3
Lakoff G., Johnson M.: Philosophy in the Flesh: The Embodied Mind and its Challenge to Western Thought. Basic Books, New York, 1999.
Langton C. G.: Artificial life. In: Langton C. G. (ed.): Artificial Life. Addison-Wesley, 1989, s. 1-47.
Lashley K. S.: Brain Mechanisms and Intelligence. University of Chicago Press, Chicago, 1929.
Lažanský a kol. Aplikace metod umělé inteligence. In: (Mařík a kol., 1997), s. 310-356.
Lažanský J., Kubalík J.: Genetické algoritmy. In: Umělá inteligence 3
Little W.A.: The evolution of non-Newtonian views of brain function. Concepts in Neuroscience 1, 1990, s. 149-164.
Lucas J. R.: Minds, machines and Gödel. Philosophy 36, 1961, s. 112-127.
Lycan W.G.: Consciousness. Cambridge, MA: The MIT Press 1987.
Lycan W. G. (editor): Mind and Cognition: A Reader. Basil Blackwell, Cambridge, Mass., 1990.
Margolis J.: Philosophy of Psychology. Prentice-Hall, Englewood Cliffs, NJ, 1984.
Mařík V. a kol. Umělá inteligence I. Academia, Praha, 1993.
Mařík V. a kol. Umělá inteligence II. Academia, Praha, 1997.
Mařík V. a kol. Umělá inteligence III. Academia, Praha, 1999.
Mařík V. a kol.: Koordinace a kooperace v multiagentních systémech. In: Umělá inteligence 3
McCulloch W.S., Pitts W.: A logical calculus of the ideas immanent in nervous activity. Bull. Math. Biophys. 5, 115-133 (1943). Též In: (Boden, 1990), s. 22- 39.
McGinn C.: Can we ever understand consciousness? The New York Review, June 10, 1999, s. 44- 48.
Melzack R., Phantom Limbs. Scientific American, Apr., 1992, s. 120- 126.
Merleau-Ponty M.: The Structure of Behvior. (překl. do angl. A. Fischer) Beacon Press, Boston, 1963.
Metzinger T. (editor): Conscious Experience. Imprint Academic, 1995.
Minsky M.: The Society of Mind. Simon & Schuster, New York, 1985.
Minsky M.: Konštrukcia mysle. Archa, Bratislava, 1996.
Nakonečný M.: Lexikon psychologie. Vodnář, Praha, 1995.
Newell A.: Physical symbol systems. Cognitive Science 4, 1980, s. 135-183.
Newell A., Simon, H.A.: Computer science as empirical enquiry: symbols and search. Communications of the ACM 19 (1976); též In: (Boden, 1990), s. 105-132.
Nosek J.: Mysl a tělo v analytické filosofii. Nakl. Filosofického ústavu AV ČR, Praha 1997.
Novák M. a kol.: Umělé neuronové sítě - teorie a aplikace. C.H.Beck, Praha 1998.
Osherson D.N.: The study of cognition. In: An Invitation to Cognitive Science, Vol. 1 (D. N. Osherson, ed.), The MIT Press, Cambridge, Mass., 1995, s. xi- xviii.
Patočka J.: Úvod do fenomenologické filosofie. OIKOYMENH, Praha, 1993.
Penrose R.: The Emperor's New Mind. Oxford University Press, Oxford, 1989.
Penrose R.: Shadows of the Mind: A Search for the Missing Science of Consciousness. The Oxford University Press, Oxford, 1994.
Peregrin J.: Úvod do analytické filosofie. Herrmann a synové, Praha, 1992.
Peregrin J.: Internet: dobro nebo zlo? Filosofický časopis 46, 1998, č. 1, s. 12.
Popper K.R., Eccles J.C.: The Self and Its Brain. Springer-Verlag, Berlin, 1977.
Pribram K.: Languages of the Brain: Experimental Paradoxes and Principles in Neuropsychology. Prentice-Hall, Englewood Cliffs, NJ, 1971.
Pribram K.: Brain and Perception: Holonomy and Structure in Figural Processing. Lawrence Erlbaum Associates, New Jersey, 1991.
Pribram K. (editor): Rethinking Neural Networks: Quantum Fields and Biological Data. Lawrence Erlbaum Associates, Hillsdale, NJ, 1993.
Pribram K.: Karl H. Pribram - Mozek a mysl, Holonomní pohled na svět (výběr prací, uspoř. J. Fiala). Gallery, Praha, 1999.
Priest S.: Theories of the Mind. Penguin Books, London, 1991.
Pstružina K.: Svět poznávání. K filosofickým základům kognitivní vědy. Nakladatelství Olomouc, 1998.
Putnam H.: The mental life of some machines; též The nature of mental states. In: Philosophical papers Vol. 2, Cambridge University Press, 1975 (pův. publ. v r. 1967).
Ramsey W. a kol.: Connectionism, Eliminativism, and the future of folk psychology. In: (Ramsey, Stich, Rumelhart, 1991), s. 199-228.
Ramsey W., Stich S. P., Rumelhart D. E. (ed.): Philosophy and Connectionist Theory. Lawrence Erlbaum Ass., Hillsdale, NJ, 1991.
Rey G.: Contemporary Philosophy of Mind. Blackwell, Cambridge, Mass., 1997.
Rich E., Knight K.:, Artificial Intelligence. 2nd ed. McGraw-Hill, New York, NY, 1991.
Rosenblatt F.: Principles of Neurodynamics: Perceptrons and the Theory of Brain Mechanisms. Spartan Books, Washington, D.C., 1962.
Rota Gian-Carlo: O zhoubném vlivu matematiky na filosofii. Vesmír 78, (1999), 6, s. 345- 349.
Rumelhart D. E. a kol.: Parallel Distributed Processing: Explorations in the Microstructure of Cognition. (2 vols.), The MIT Press, Cambridge, Mass. 1986.
Ruyer R.: Paradoxy vědomí - Expresivita. Ped. fak. UK, Praha 1994.
Ryle G.: The Concept of Mind. Barnes and Noble Books, New York, 1949.
Sacks O.: Muž, který si pletl manželku s kloboukem. Mladá fronta, Praha, 1993.
Salthe S.N.: Two forms of hierarchy theory in Western discourses. International Journal on General Systems 18, 1991, s. 251-264.
Scott A.: Stairway to the Mind. Springer-Verlag, NY. 1995.
Searle J.R.: Minds, Brains, and Programs. Behavioral and Brain Sciences 3, 1980, s. 63-108 (1980). Též In: (Boden, 1990) s. 67- 88.
Searle J.R.: Intentionality. Cambridge University Press, Cambridge, Cambridge, 1983.
Searle J.R.: The Rediscovery of the Mind. The MIT Press, Cambridge, Mass. 1992.
Searle J. R.: Mysl, mozek a věda. Mladá fronta (Váhy), Praha 1994 (angl. originál Harvard University Press, 1984).
Searle J.R.: The Mystery of Consciousness. Granta Books, London, 1997.
Searle J.R.: I married a computer. The New York Review, April 8, 1999, s. 34- 38.
Sherrington D., Kirkpatrick S.: Spin glasses. Phys. Rev. Letters 35, 1975, s. 1792.
Schank R.C., Abelson R.P.: Scripts, Plans, Goals, and Understanding. Erlbaum, Hillsdale, NJ, 1977.
Schweber S. S.: Physics, community and the crisis in physical theory. Physics Today, Nov. 1993, s.34- 40.
Skinner B.F.: Science and Human Behavior. Macmillan, 1933.
Smolensky P.: Neural processing in dynamical systems: Foundation of harmony theory. In: (Rumelhart a kol., 1986), Vol. 1, s. 194-281.
Smolensky P.: Connectionist AI, symbolic AI and the brain. Artificial Intelligence 1, 1987.
Smolensky P.: On the proper treatment of connectionism. Behavioral and Brain Sciences 11, 1988, s. 1-74.
Stapp H. P.: Mind, Matter, and Quantum Mechanics. Springer-Verlag, Berlin, 1993.
Steels L. and Brooks R. A., (editoři): The Artificial Life Route to Artificial Intelligence - Building Embodied, Situated Agents. Lawrence Erlbaum Assoc., Hillsdale, NJ, 1995.
Stich, S.: From Folk Psychology to Cognitive Science. The Case Against Belief. The MIT Press, Cambridge, Mass., 1983.
Štěpánková O. a kol.: Distribuovaná umělá inteligence. In: (Mařík a kol., 1997), s. 142- 177.
Thomas L.: Buňka, medúza a já. Mladá fronta, Praha 1981, s.214.
Turing A.: On computable numbers with an application to the Entscheidungsproblem. Proc. London Math. Soc., Ser. 2, Vol. 42, 1936, s. 230- 265.
Turing A.: Computing machinery and intelligence. Mind LIX, no. 2236, 1950, s. 433- 460. Též In: (Boden, 1990) s. 40- 66.
Valiant L.: Circuits of the Mind. Oxford University Press, Oxford, 1994.
Varela F.J.: The re-enchantment of the concrete. In: (Steels, Brooks, 1995), s. 11- 22.
Varela F. J., Thompson E., Rosch, E.: The Embodied Mind: Cognitive Science and Human Experience. The MIT Press, Cambridge, Mass., 1991.
Vinař O.: Průlinčitý mozek - komunikují neurony pouze synapsemi? Vesmír 78, 1999, č. 9, s. 492- 494.
Warwick K.: Úsvit robotů, soumrak lidstva. Nakladatelství Vesmír, Praha 1999.
Watson J. B.: Psychology as the behaviorist views it. Psychological Review, 20, 1913, s. 158- 177.
Webb J.C.: Mechanism, Mentalism, and Metamathematics. D.Reidel, Dordrecht 1980.
Weizenbaum J.: Computer Thought and Human Reason. W.H.Freeman, San Francisco, 1976.
Wiederman J.: Towards Machines that Can Think. In: Proceedings SOFSEM' 97, Lecture Notes in Computer Science, Springer-Verlag, Berlin, 1997.
Zdráhal Z.: Reprezentace znalostí. In: (Mařík a kol., 1993).

Ivan M. Havel - O autorovi Ivan M.HavelDoc. Ing. Ivan M. Havel, CSc., Ph.D. získal doktorát v oboru Computer Science na univerzitě v Berkeley, Kalifornie.
Zabývá se teoretickou počítačovou vědou, umělou inteligencí, kognitivní vědou a filosofickými otázkami, spojenými s těmito oblastmi.
Přednáší na Univerzitě Karlově, je ředitelem Centra pro teoretická studia, členem Academia Europeana a šéfredaktorem měsíčníku Vesmír.

Další odkazy:
Osobní stránky
Jak citovat tento textHavel, Ivan M.. Přirozené a umělé myšlení jako filosofický problém [online]. Glosy.info, 3.prosince 2004. [cit. 20.listopadu 2019].
Dostupné na WWW: <http://glosy.info/texty/prirozene-a-umele-mysleni-jako-filosoficky-problem/>. ISSN 1214-8857.
Klíčová slova
inteligence. umělá inteligence. kybernetika. počítačové vědy. mysl. myšlení. robot. Turingův test. kognitivní věda. Gödelova věta o neúplnosti. intence. čínská komora. Searle John. neuronové sítě. emergentismus. zjednávací přístup. kognitivismus. psychofyzický problém. .

Diskuse k tématu

Číst celou diskusi
Příspěvek byl smazán
Anonym (3.6.2006 23:27:26)
Tento příspěvek smazal/-a Martin Schlemmer 4.6.2006 16:16:19.
Důvod: Komentářový spam.
Tohle jsem napsal na www.okoun.cz v sekci duchovno :
Klovatina (10.3.2006 11:03:32)
"ma totiz krome vedomych vedomosti jeste podvedome"

A to je presne to co sem chtel slyset. Podle mne je to totiz ten buh v nas, ktery je stastnejsi kdyz o necem nemusi premyslet ( snazi se to zautomatizovat a nevenovat se tomu ) a proto si to uklada do podvedomi. Existuje jeste neco jineho ve vesmiru co by nebylo bozi soucasti ? Pak je otazkou co vlastne hledame, ze ...

Zamysleme se nad tim, proc se snazime vytvaret a resit tyto umele problemy ( hledani boha, vyspela technika, AI ... ) Podle mne jen mame proste snahu vyskocit z duality a myslime si ze jejich vyresenim se automaticky presuneme do pomyslneho raje.
Re: Ivan M.Havel
L.Ouda (20.11.2005 19:01:41)
Přečetl jsem celé a zapomněl se vrátit a reagovat. Tudíž nyní reaguji opožděně, ale jen na pár bodů přímo z článku a z Vaší reakce.

Ad Berkeley – nejsem natolik ve filozofii zběhlý, ale mám dojem, že Berkeley objektivitu jsoucen vlastně uzná, protože říká, že všechna jsou v „mysli Boha“ a tedy z našeho pohledu jsou „ti druzí“ právě tak skuteční jako my (a pokud by nás Bůh nemyslel, tak zmizíme). Protože naše já, je stejně vzniklé jako vše ostatní, tak z ryze praktického hlediska vlastně není s materialismem ve sporu (pokud pomineme ten poslední odkaz na Boha, proto jsem dodal „z praktického hlediska“) Nihilismus však nechápu jako mentalismus, subjekt neexistuje právě tak jako objekt (neboli z tohoto pohledu si Descartes za základní bod nepochybné jistoty zvolil přelud, a měl ve svém rčení zůstat jen u toho „Myslím“ a nedodávat nic. Protože v –tedy jsem- se už vlastně odvolání se na objektivní záruku, která přijít nemusí).
Nedivím se, že jste vynechal z eseje teologické záležitosti, protože by se dostala obsahově někam jinam (a krom krátkého historizujícího pojednání je celé orientované jinak), ale pochopitelně pak např. u dualismu krom předzjednané harmonie, Popperovské kauzality, atd., chybí úvahy Descarta na téma – zařizuje někdo třetí – tj. paralelnost mezi mentálními stavy a materiálním světem neustále synchronizuje bůh (či programátor Matrixu, také možné). Což už je ale de facto trialismus.

Ad kauzální domény – Připomíná universa, která užívá prof.Vopěnka, ale mně osobně je bližší, protože nevyvolává pocit „světů“ vedle sebe, ale prolnutí – domény jsou v sobě, není tedy nutné bytí tříštit na jednotlivé světy (ačkoliv naopak domény mohou znamenat že bytí je roztříštěné zcela). Snad bych mohl intuitivně lépe vyjádřit, že pojem universa na mne budí dojem možného "multialismu" (se všemi problémy – viz ono „jak spolu komunikují“ - , které dua – a více mají), zatímco kauzální domény budí spíše dojem vnitřně (více či méně) roztříštěného monismu. Ale pravda je, že takto být ani jedno chápané nemusí, možná je věc mého jazykového citu, chápání různých úrovní pak máte podobné.

Ad klasická emergence, docela zajímavá (avšak čistě spekulativně-scifistická a víceméně mimo naše možnosti) může být úvaha protáhnout dále. Složitě propojená síť neuronů je podkladem mentálních stavů jako svého emergentního jevu. Složitě propojená síť mentálních stavů jako svůj emergentní jev má ---??? Na tohle téma naráží nenápadná dobově ovlivněná česká sci-fi z 80.let - Ve jménu Metanoona (v době, kdy termín noosféra byl v některých zemích populární).

Jinak je opravdu možné, že časem budeme něco „umět“, ačkoliv nebudeme „rozumět“. Tj., ačkoliv nebudeme fenomální stránku vědomí moci popsat jinak než jako Dennettovský literární mýtus (ani to nemusí být tak málo), může se stát, že budeme mít počítače s vlastními prožitky a záměry. A bude-li odlišné od našeho chápání, ani nemusíme poznat (a oni na nás – viz zjednání si vlastního světa). Na druhé straně, pokud bude nám blízké, takže zjednáme (téměř) stejný svět, můžeme hodnotit zvenku – tj. „jednají jako my - vypadá to, jako kdyby mentální stavy měli“. Stejnětak může být možné (může, ale třeba nebude) nakopírovat člověka např. do virtuální reality (a uznáme „to“ alespoň pocitově za člověka, protože výsledné „to“ s námi bude komunikovat od člověka nerozlišitelně, včetně výpovědi o svých mentálních stavech), aniž bychom uměli objektivně fenomenální stránku vědomí popsat. A jednotlivé budoucí verze dnešních hypotéz se budou zároveň dále přít, pro kterou více svědčí. Konečně, spor vždy být nezbytně nemusí, např. ve vámi uvedených tezích – silná konekcionistická a symbolického paradigmatu, záleží co budu považovat za „opravdu symbolový systém. Pokud např. tezi symb. paradigmatu doplním druhou větou – opravdu symbolovým systémem je jen takový systém, který je podložen dostatečně složitým konekcionistickým systémem, oboje se spojí. (ostatně, neoperují se stejným výrazem – obecně inteligentní činnost a mentální stavy není nutně totéž, respektive při srovnání těchto dvou tezí vedle sebe objevuje opět ona koherentní mezera).

A ad Searle – na mne jeho pojetí trochu budilo dojem přirovnání 1. a 3.osoby jako stavů bytí, k pojetí v kvantové fyzice, vlna i částice (i to lze nazvat dualismem stavů). Překvapilo mne, že nakonec tak bezvýsledně řešil filozofickou otázku determinismu a svobodné vůle, ačkoliv z jeho předkládané úvahy se řešení dle mého přímo nabízí. Svobodná vůle 1.osoby jako determinismus 3.osoby, dva různé stavy téhož.

P.S. S „nemrtvými“ jsem si dělal trochu legraci, vzpomněl jsem si totiž, jak mi jeden známý z Př.F.UK říkal, že např. Prof.Zdeněk Neubauer hrával Dragon&Dungeon, je vlastně hezké, jak můžeme něco takového nenápadně odhalit z užití jazykového rodu nějakého slova :-)
V každém případě, velmi pěkná, přehledná esej.
Reakce autora
Ivan M. Havel (28.9.2005 11:32:35)
Re: Švorcová
Děkuji za pochvalu. Kde (a u koho) píšete bakalářskou práci?

Re: Ouda
1) V literatuře o teorii mysli se místo o nihilismu hovoří o subjektivním idealismu (a la Berkeley).
2) V podstatě máte pravdu, ale to ja právě to dilemma subjektovosti. Že jsme na tom jako lidi stejně, o tom nás také "přesvědčuje" přirozený jazyk, který je společný a 1. osoba singuláru v něm nedělá problém.
PS) U přejatých slov si čeština musí rozhodnout buď dle koncovky (což zde nefunguje), nebo s významu (což zde taky nefunguje, máme-li být politicky korektní), nebo se to prostě nějak ujme. Já užívám maskulinum asi proto, že robot, android apod. jsou taky maskulina.

Re: Pokojný
Máte zajímavou myšlenku, že emergence by neměla být jen "zdola-nahoru", ale i "shora-dolů". Díváme-li se na lidský mozek jako na kolektivní systém (interagující kolektiv neuronů nebo neuronových souborů) a současně na lidskou společnost jako na kolektivní systém, pak nějaký jev v mozku (mysli) vzniknout emergentně na základě nějakého děje ve společnosti, vyžadujícího interakci mnoha jedinců. Raději bych neužíval slov "opačný proces", protože by to předpokládalo jen dva možné směry. (Trochu improvizuji, bylo by třeba to promyslet.)

Přidat komentář