Access the full text.
Sign up today, get DeepDyve free for 14 days.
J. McCarthy (1987)
SOME PHILOSOPHICAL PROBLEMS FROM THE STANDPOINT OF ARTI CIAL INTELLIGENCEMachine intelligence
Jürgen Finger (1987)
Exploiting constraints in design synthesis
Jarek Gryz (2013)
The Frame Problem in Artificial Intelligence and Philosophy, 21
H. Simon (1960)
Heuristic problem solving.
J. McCarthy (1996)
From Here to Human-Level AIArtif. Intell., 171
E. Feigenbaum, B. Buchanan, J. Lederberg (1970)
On generality and problem solving: a case study using the DENDRAL program
D. Lenat, E. Feigenbaum (1987)
On the thresholds of knowledgeProceedings of the International Workshop on Artificial Intelligence for Industrial Applications
E. Shortliffe (1976)
Computer-based medical consultations: mycin (elsevier north holland
A. Samuel (1967)
Some Studies in Machine Learning Using the Game of CheckersIBM J. Res. Dev., 44
A. Andrew (1985)
Computation and Cognition: Towards A Foundation for Cognitive Science, by Zenon W. Pylyshyn, MIT Press, Cambridge, Mass., xxiii + 292 pp., £26.15Robotica, 3
N. Nilsson (2006)
Human-Level Artificial Intelligence ? Be Serious !
J. McCarthy (1987)
Applications of Circumscription to Formalizing Common Sense KnowledgeArtif. Intell., 28
K. Ford, Z. Pylyshyn (1996)
The Robot's Dilemma Revisited: The Frame Problem in Artificial Intelligence
L. Huesmann, B. Raphael (1977)
The thinking computer : mind inside matterAmerican Journal of Psychology, 90
H. Dreyfus (2007)
Why Heideggerian AI Failed and How Fixing it Would Require Making it More HeideggerianPhilosophical Psychology, 20
J. Searle (1980)
Minds, brains, and programsBehavioral and Brain Sciences, 3
B. Copeland (1993)
Artificial Intelligence: A Philosophical Introduction
T. Winograd (1974)
Understanding natural language
R. Brooks (1991)
Intelligence without RepresentationArtif. Intell., 47
Lars-Erik Janlert (1996)
The frame problem: freedom or stability? With pictures we can have both
H. Gelernter (1995)
Realization of a geometry theorem proving machine
A. Newell, H. Simon (1976)
Computer science as empirical inquiry: symbols and searchCommun. ACM, 19
D. Ferrucci, E. Brown, Jennifer Chu-Carroll, James Fan, David Gondek, Aditya Kalyanpur, Adam Lally, J. Murdock, Eric Nyberg, J. Prager, Nico Schlaefer, Chris Welty (2010)
Building Watson: An Overview of the DeepQA ProjectAI Mag., 31
H. Dreyfus (1986)
Mind Over Machine
B. Webb (2008)
Chapter 1 Using Robots to Understand Animal BehaviorAdvances in The Study of Behavior, 38
Przegld Filozoficzny Nowa Seria R. 22: 2013, Nr 2 (86), ISSN 12301493 DOI: 10.2478/pfns-2013-0032 Maszyny, jzyk, inferencje Jarek Gryz Slowa kluczowe: filozofia umyslu, sztuczna inteligencja, kognitywistyka, maszyna mylca, reprezentacja wiedzy, robotyka 1. Pocztki Umysl to komputer. Teza ta, która nawet w tak niedoprecyzowanej formie jest dla wielu z nas nie do przyjcia, legla u podstaw sztucznej inteligencji1, jednej z najbardziej fascynujcych i kontrowersyjnych dziedzin nauki zapocztkowanych w ubieglym stuleciu. Byla to dziedzina, która bodaj jako pierwsza wyodrbnila si z informatyki jako osobna poddziedzina, ale miala ambicje daleko poza informatyk wykraczajce. Przycignla ona najtsze umysly matematyki, ekonomii, psychologii i filozofii, ale skonsumowala te ogromne (prawdopodobnie najwiksze w informatyce) fundusze badawcze. Jej zadufanie i bombastyczne obietnice z pierwszych lat istnienia z czasem ustpily przesadnej wrcz skromnoci i chci zdegradowania dziedziny przez nazywanie jej racjonalnoci obliczeniow zamiast sztuczn inteligencj (Russell i Norvig 2010). W artykule tym postaram si przeledzi dyskusj metodologiczn towarzyszc sztucznej inteligencji od pocztku jej istnienia a po dzi. Z koniecznoci bdzie to opis bardzo skrótowy, bo w samej tylko filozofii wyprodukowano dotd blisko 3000 publikacji na temat sztucznej inteligencji (Dietrich 2012). W istocie najbardziej interesowa nas tu bdzie wlanie filozoficzna dyskusja nad podstawami sztucznej inteligencji, albowiem kluczowe w tej dziedzinie 1 Termin sztuczna inteligencja jest dwuznaczny, bo uywa si go zarówno do okrelania dziedziny badawczej, jak i jej potencjalnego produktu. Aby tej dwuznacznoci unikn, bdziemy uywa tego terminu tylko w pierwszym znaczeniu, rezerwujc dla drugiego pojcia okrelenie ,,maszyna mylca". Jarek Gryz kwestie, takie jak relacja mózgu i umyslu czy racjonalno ludzkiego dzialania i mylenia, dyskutowane byly przez filozofów na dlugo zanim zbudowano pierwszy komputer. Chcielibymy równie spróbowa okreli rónic czy te relacj midzy sztuczn inteligencj a kognitywistyk (bdzie to o tyle trudne, e jak si zdaje, sztuczna inteligencja ju nie wie, a kognitywistyka jeszcze nie wie, czym jest). Pierwszy amerykaski komputer, ENIAC, zostal uruchomiony w 1945 roku. Jego zastosowania byly czysto wojskowe i dotyczyly symulacji wybuchu i potencjalnych zniszcze spowodowanych przez projektowan wówczas bomb wodorow. W powszechnym mniemaniu komputer to bylo po prostu szybkie liczydlo (nawet nie kalkulator, bo tych oczywicie wtedy nie uywano), zdolne wylcznie do manipulowania liczbami. Warto o tym pamita, bo trzeba bylo nie lada geniuszu, by wyobrazi sobie inne zastosowania dla owego li tylko ,,liczydla". Geniuszem tym wykazal si Herbert Simon, który pracowal wówczas nad komputerow symulacj obrony powietrznej w RAND Corporation: Mialem ju wówczas styczno z komputerem (...), ale laboratorium obrony powietrznej to bylo olnienie: mieli to wspaniale urzdzenie do symulacji map na maszynach liczcych. (...) Nagle stalo si dla mnie jasne, e nie musimy ogranicza si do manipulowania liczbami mona wyliczy pozycj, któr chciale, i wydrukowa to potem na papierze (McCorduck 2004: 148). Tak oto narodzil si paradygmat komputera jako maszyny do przetwarzania informacji: komputer operuje na symbolach odnoszcych si do obiektów istniejcych realnie. Std byl ju tylko krok do funkcjonalnego zidentyfikowania komputera i ludzkiego umyslu. Simon wspomina: Kiedy po raz pierwszy zauwaylem, e mona postrzega komputer jako urzdzenie do przetwarzania informacji, a nie tylko liczb, wtedy metafora umylu jako czego, co zbiera przeslanki, przetwarza je i generuje konkluzje, zaczla przeistacza si w przekonanie, e umysl to program, który dostaje jakie dane na wejciu, przetwarza je i generuje dane na wyjciu. Jest wic bezporedni zwizek, w pewnym sensie bardzo prosty, midzy tym wczeniejszym pogldem, e umysl to maszyna logiczna, a pogldem póniejszym, e umysl to komputer (McCorduck 2004: 151). Zanim spróbujemy przeanalizowa argumenty logiczne, które doprowadzily do wniosku, e umysl to komputer, zwrómy uwag na pewne istotne argumenty psychologiczne. Dotycz one kilku niezwykle jak na tamte czasy spektakularnych osigni inynierskich dokonanych w sztucznej inteligencji w latach 50. Niemal od pierwszej chwili, kiedy odkryto, e komputer moe przetwarza dowolne symbole (a nie tylko liczby), usilowano stworzy program, który pokazalby moliwoci maszyny w tej dziedzinie. Oczywistym zastosowaniem byly szachy: gra, której reguly latwo jest opisa w jzyku symbolicznym, a w której jak si pocztkowo wydawalo szybko przetwarzania symboli (pozycji na szachownicy i ich ,,wartoci") miala kluczowe znaczenie dla pokazania przewagi maszyny nad czlowiekiem. Wnet jednak okazalo si, e ,,bezmylne" przeszukiwanie wszystkich sekwencji ruchów na szachownicy dla znalezienia takiej, która prowadzilaby nieodzownie do wygranej, jest nierealne. Claude Shannon oszacowal liczb moliwych posuni na 10120, co znaczy, e przy weryfikacji jednej sekwencji w cigu jednej milionowej sekundy pierwszy ruch na szachownicy wykonany bylby po 1095 latach2. Herbert Simon i wspólpracujcy z nim wówczas Allen Newell nie zamierzali oczywicie tak dlugo czeka. Zmienili wic dziedzin i postanowili napisa program, który dowodzilby twierdze logiki. Cho zloono obliczeniowa takiego programu jest duo mniejsza ni gry w szachy, to i w tym przypadku konieczne bylo sformulowanie regul i metod efektywnego poszukiwania dowodu, a nie proste weryfikowanie, czy dowolnie wygenerowany cig znaków spelnia wymogi dowodu w sensie logicznym. Program, który w ten sposób powstal, Logic Theorist (Newell and Simon 1956), byl wic w pewnym sensie ,,kreatywny", bo generowal dowody, których jego autorzy si nie spodziewali. Innymi slowy, cho program spelnial wymagania postawione przez jego autorów, jego zachowania nie mona bylo (przynajmniej w latwy sposób) przewidzie. Sukces programu byl spektakularny: dowiódl on 38 z 52 twierdze drugiego rozdzialu Principia Mathematica Russella i Whiteheada. Co wicej, dowód twierdzenia 2.85 sformulowany przez Logic Theorist okazal si bardziej elegancki ni ten z Principia. Russell byl pod wielkim wraeniem owego sukcesu, ale ju ,,The Journal of Symbolic Logic" odmówil publikacji dowodu, którego autorem byla maszyna. Tak oto Newell i Simon pokazali, e maszyna zdolna jest do wykonywania zada, które wymagaly wyobrani, inteligencji i kreatywnoci, a wic cech uwaanych powszechnie za zastrzeone dla czlowieka. Nic zatem dziwnego, e w styczniu 1956 roku Simon oglosil, i stworzona zostala pierwsza w historii maszyna mylca. Nie byl w tym przekonaniu odosobniony. Pod koniec lat 50. stworzono jeszcze dwa programy komputerowe, które przewyszaly moliwoci przecitnego czlowieka w rozumowaniu abstrakcyjnym. Arthur Samuel pracowal ju od koca lat 40. nad programem do gry w warcaby (Samuel 1959). Zwycistwo Deep Blue nad szachist Kasparowem w 1997 roku bylo moliwe midzy innymi dlatego, e uniknito tam prostego przeszukiwania przestrzeni moliwych ruchów (Campbell, Hoane, Hsu 2002). Jarek Gryz Cho warcaby s gr prostsz ni szachy, a przestrze moliwych do wykonania sekwencji ruchów jest duo mniejsza, nie jest to jednak gra trywialna. Co wicej, program napisany przez Samuela potrafil si uczy, a wic zawieral kolejny element mylenia, zastrzeony jak si dotd wydawalo wylcznie dla ludzi. Kiedy trafial na pozycj, któr napotkal ju w poprzednich grach, ocenial jej warto na podstawie rezultatów osignitych poprzednio, zamiast szacowa t warto ,,w ciemno". W 1961 roku program Samuela zwycial ju rutynowo z mistrzami warcabów. Sukcesem mógl si równie pochwali Herbert Gelernter, którego program (Gelernter 1959) potrafil skonstruowa nowe, nietypowe dowody twierdze geometrii dwuwymiarowej. Te wczesne, niewtpliwe sukcesy sztucznej inteligencji sklonily wielu ówczesnych naukowców zarówno do przeceniania wlasnych osigni, jak i do stawiania hurra-optymistycznych prognoz na przyszlo. Powiem wprost, cho bdzie to moe dla niektórych szokiem, e s ju na wiecie maszyny, które myl, ucz si i tworz. Co wicej, ich umiejtnoci rozwijaj si na tyle szybko, e w niedalekiej przyszloci bd rozwizywa problemy, do których dotd potrzebny byl ludzki umysl. (...) Zaprojektowalimy program komputerowy zdolny do mylenia nienumerycznego i tym samym rozwizalimy odwieczny problem relacji ciala i umyslu (Simon and Newell 1958: 8). W cigu dwudziestu lat maszyny bd w stanie wykona kad czynno, któr dzi wykonuje czlowiek (Simon 1965: 96). Oczywicie badacze sztucznej inteligencji zdawali sobie spraw, e z faktu, i pewne elementy ludzkiego mylenia mog by imitowane czy realizowane przez komputer, nie wynika, e dotyczy to elementów wszystkich. Potrzebny byl wic argument pokazujcy, co dla mylenia jest istotne, a co jest tylko przypadkowe. Przypadkowe byloby wic na przyklad fizyczne umiejscowienie procesów mylowych w mózgu; zastpienie jednego czy wrcz wszystkich neuronów przez elementy mechaniczne (takie jak obwody elektryczne) o tej samej funkcji nie powinno mie wplywu na procesy mylowe. W istocie teza taka stawiana byla niemal natychmiast po pojawieniu si pierwszych komputerów. W artykule napisanym w 1947 roku, a opublikowanym dopiero po 22 latach, Alan Turing pisal: ,,Obwody elektryczne uywane w komputerach wydaj si mie wlasnoci istotne dla neuronów. Zdolne s one do przesylania i przechowywania informacji" (Turing 1969). W podobnym duchu wypowiadal si John von Neumann, który definiujc obowizujc do dzi architektur systemu komputerowego, uywal terminów takich jak ,,pami" czy organy ,,zarzdzania". Omawiajc czci komputera, pisal równie: ,,Trzy odrbne czci (...) odpowiadaj neuronom asocjacyjnym w ludzkim systemie ner- wowym. Pozostaje nam omówi odpowiedniki neuronów sensorycznych, czyli dorodkowych, i motorycznych, czyli odrodkowych" (Goldstine 1972). Co zatem stanowi o istocie mylenia i co pozwala nam ignorowa konkretn realizacj procesów mylowych? Newell i Simon sformulowali to jako slynn hipotez systemu symboli: ,,Fizyczny system symboli to warunek konieczny i wystarczajcy dla inteligentnego dzialania" (Newell i Simon 1976: 116). Manipulacja czy te obliczanie (ang. computation) przy uyciu tych symboli to wlanie mylenie. Zenon Pylyshyn, jeden z obroców tej hipotezy, pisze: Idea procesu mylowego jako obliczania to waka hipoteza empiryczna. (...) Umysl jest (...) zajty szybkim, w duej mierze niewiadomym przeszukiwaniem, zapamitywaniem i rozumowaniem, czyli ogólnie mówic manipulowaniem wiedz. (...) [Ta wiedza] zakodowana jest jako wlasnoci mózgu w ten sam sposób, jak zakodowana jest semantyczna zawarto reprezentacji w komputerze przez fizycznie urzeczywistnione struktury symboli (Pylyshyn 1984: 55, 193, 258). Warto zauway, e w powyszej wersji hipotezy (tzw. wersji silnej) ludzki umysl musi by takim systemem symboli (w przeciwnym razie nalealoby mu bowiem odmówi moliwoci mylenia). W takiej wersji zbudowanie maszyny mylcej przy uyciu komputera jest oczywicie teoretycznie wykonalne, z tej prostej przyczyny, e ludzki umysl to po prostu komputer3. Wersja silna hipotezy ma jeszcze jedn istotn konsekwencj, a mianowicie, e badajc dzialania komputera (czy cile rzecz biorc zainstalowanego w nim programu), moemy dowiedzie si czego nowego na temat dzialania mózgu. Na zaloeniu tym ufundowana zostala kognitywistyka (Thagard 2008). Zauwamy na koniec, e dla uzasadnienia celów sztucznej inteligencji wystarczy slaba wersja hipotezy, mianowicie, e manipulacja symboli jest wystarczajca, ale niekonieczna dla mylenia. 2. Rozwój Lata 60. i 70. to zloty wiek sztucznej inteligencji. Gwaltownie wzrosla ilo badaczy zajmujcych si t dziedzin, a take funduszy przeznaczonych na badania. Wikszo rozwiza algorytmicznych i systemowych, które weszly do kanonu dziedziny, pochodzi wlanie z tamtych czasów. Co wicej, sukcesy sztucznej inteligencji przestaly ju by tylko wewntrzn spraw naukowców. Media zapowiadaly cywilizacyjn rewolucj, która lada dzie dokona si miala 3 W sztucznej inteligencji przyjlo si uywa terminu komputer czy maszyna tam, gdzie naprawd chodzi o program (podobne rozrónienie czyni si midzy ,,mózgiem" a ,,umyslem"). Oczywicie trudno byloby zmieni w tej chwili uzus jzykowy i mówi o programie mylcym, ale warto o tym nieladzie pamita. Jarek Gryz za spraw budowanych wlanie maszyn mylcych (Darrach 1970). Ale za t efektown fasad pojawily si te pierwsze pknicia. Zdawano sobie ju wczeniej spraw z ulomnoci i ogranicze budowanych systemów, ale dopiero teraz zaczto wyranie rozpoznawa problemy. Jak si póniej okazalo, wielu z nich nie dawalo si rozwiza za pomoc usprawnie technologicznych, bo wynikaly one z dokonanych wczeniej zaloe metodologicznych czy te filozoficznych, na których opierala si sztuczna inteligencja. Zanim przejdziemy do analizy tych problemów, przedstawmy dwa projekty z zakresu robotyki z tamtego okresu: SHRDLU i Shakey. Wówczas oba te projekty wydawaly si sukcesami, a dzi slu raczej do ilustracji problemów, jakie staj przed sztuczn inteligencj. Celem SHRDLU bylo zbudowanie robota, który potrafilby porozumiewa si z czlowiekiem, rozumowa i przeprowadza proste dzialania. I tak SHRDLU dysponowal chwytakiem, przy pomocy którego mógl on manipulowa rozrzuconymi na stole klockami o rónych kolorach i ksztaltach. W istocie zarówno rodowisko, jak i sam robot byly tylko symulacjami: badaczy nie interesowalo w tym przypadku rozwizywanie technologicznego problemu konstrukcji mechanicznego robota, a tylko jego moliwoci rozumowania. Komunikacja midzy takim ,,robotem" a czlowiekiem odbywala si przy pomocy klawiatury do zadawania pyta i wydawania polece, oraz monitora, na którym pokazany byl stól z klockami i odpowiedzi robota. Kiedy wydawano robotowi polecenie uloenia klocków w jakiej konfiguracji, SHRDLU wymylal plan dzialania i wirtualnie go wykonywal. SHRDLU potrafil zrozumie jzyk potoczny i do pewnego stopnia rozumial swoje motywy. Oto przyklad interakcji midzy SHRDLU a czlowiekiem (jest to skrócona wersja autentycznego dialogu opisanego w ksice Winograda 1972: 815). Odpowiedzi SHRDLU zaznaczone s kursyw: Podnie czerwony klocek. OK. [SHRDLU podnosi klocek] Znajd klocek wyszy ni ten, który trzymasz, i wló go do pudelka. Zakladam, e przez `go' rozumiesz klocek, który trzymam. [SHRDLU wklada wlaciwy klocek do pudelka] Co jest w pudelku? Niebieska piramida i niebieski klocek. Czy stól moe podnosi klocki? Nie. Czy mona postawi piramid na piramidzie? Nie wiem. Postaw piramid na piramidzie. Nie mog. [SHRDLU próbuje, ale mu si nie udaje] Niebieska piramida jest moja. Rozumiem. Czy jest w pudelku co, co jest moje? Tak, niebieska piramida. Na pierwszy rzut oka dialog ten sprawia wraenie, jakby rzeczywicie rozmawialo si z maszyn mylc, która rozumie, co si do niej mówi. Ale zdanie ,,Rozumiem" w powyszym dialogu nie ma znaczenia przez nas mu przypisywanego. Po otrzymaniu informacji ,,Niebieska piramida jest moja" SHRDLU po prostu dodaje do swej ,,wewntrznej reprezentacji" niebieskiej piramidy informacj o jej przynalenoci do rozmówcy. Kiedy jest o ni pytany, sprawdza, czy ta ,,wewntrzna reprezentacja" ma oczekiwan wlasno, i stosownie do tego odpowiada. SHRDLU nie rozumie, co znaczy ,,posiada"; tak naprawd SHRDLU nic nie rozumie. Najlepiej wida to na przykladzie innego dialogu z SHRDLU, którego autorem jest John Haugeland (cytowany w Copeland 1993: 92): Zbuduj wie kocieln. Nie wiem, co to jest ,,wiea kocielna". Wiea kocielna to dwa klocki szecienne, jeden na drugim, z piramid na szczycie. Rozumiem. Zamieni twoj wie kocieln na trzy czerwone klocki. Nie rozumiem, co znaczy ,,zamieni". ,,Zamiana" to swobodna wymiana wlasnoci. Nie rozumiem, co znaczy ,,swobodna". Przykro mi, ale wydawale mi si mdrzejszy. Nie rozumiem, co znaczy ,,mdrzejszy". W drugiej polowie lat 60. zbudowano te pierwszego prawdziwie mobilnego robota o imieniu Shakey (Raphael 1976). W projekcie tym powizano rozwijane do tej pory niezalenie systemy wizji komputerowej, analizy jzyka naturalnego i planowania. Po otrzymaniu instrukcji, na przyklad: ,,Przesu przedmiot A z pozycji B na pozycj C w pokoju D", Shakey ocenial swoje poloenie, planowal tras dotarcia do pokoju D, a po dotarciu tam wykonywal powierzone mu zadanie. Repertuar moliwych dziala, które mógl wykona Shakey, byl jednak niewielki: przemieszczanie si z pokoju do pokoju, otwieranie drzwi, zapalanie wiatla czy przesuwanie przedmiotów. Co wicej, wiat, w którym funkcjonowal Shakey, byl cile zdefiniowany: kilka pokojów ze stolami i krzeslami. Ani SHRDLU, and Shakey nie staly si zalkami wikszych projektów. Terry Winograd stwierdzil wprost, e SHRDLU to byla lepa uliczka. ARPA (Advanced Research Projects Agency)4 wycofala si z finansowania prac nad ARPA finansowala wówczas gros bada nad sztuczn inteligencj w USA. Jarek Gryz Shakey'em i nikt ju nie wrócil do prób skonstruowania robota ogólnego przeznaczenia. Na czym polegal problem? Otó wszystkie programy stworzone do tej pory w sztucznej inteligencji stosowaly si do tzw. mikrowiatów (ang. microworlds), a wic cile zdefiniowanych i dokladnie opisanych wycinków rzeczywistoci. Tak wic Logic Theorist dowodzil tylko twierdze logiki, SHRDLU manipulowal tylko klockami na stole, a nawet Shakey mimo e nazywano go robotem ogólnego przeznaczenia potrafil porusza si i wykonywa proste czynnoci tylko w obrbie kilku pokoi. Wszelkie próby rozcignicia zastosowa tych programów na szersze dziedziny, zdefiniowane nie tak cile jak logika czy gra w warcaby, koczyly si fiaskiem. Bariery byly dwojakiego rodzaju: pierwsza dotyczyla zloonoci obliczeniowej, druga wiedzy potocznej. Warto od razu podkreli, e adnej z tych barier nie udaje si pokona za pomoc doskonalszych algorytmów, bardziej skomplikowanych programów czy szybszych komputerów. Zmiany wymaga jak si wydaje sam paradygmat sztucznej inteligencji. Przyjrzyjmy si zatem bliej kadej z wymienionych barier. 3. Problemy Zadania, jakie wykona ma program komputerowy, s zaimplementowane w postaci algorytmów. Efektywno programu zaley zarówno od fizycznych wlasnoci komputera (wielkoci pamici, szybkoci CPU itd.), jak i iloci operacji, jakie wykona musi algorytm. Ten drugi czynnik zaley z kolei od iloci danych na wejciu (latwiej znale maksimum z 10 liczb ni z 1000 liczb) oraz od skomplikowania samego algorytmu (latwiej znale maksimum z 10 liczb, ni je posortowa). Zloono obliczeniowa to wlanie miara tego skomplikowania, a definiuje si j po prostu jako funkcj matematyczn f(n), gdzie n jest iloci danych na wejciu. I tak, algorytm dla znajdowania maksimum z n liczb ma zloono liniow, f(n) = n, bo wystarczy raz przejrze wszystkie liczby, czyli wykona n operacji, by znale ich maksimum. Algorytmy sortowania maj zloono (zalenie od typu algorytmu) f(n) = n log(n) lub f(n) = n2, bo w tym przypadku naley wykona n log(n) lub n2 operacji porównywania. Algorytmy o podobnej zloonoci organizuje si w klasy; mówi si wic o zloonoci wielomianowej, gdzie f(n) = nx , bd wykladniczej f(n) = xn (w obu przypadkach x jest dowoln stal). Okazuje si, e wlanie te dwie klasy zloonoci algorytmów róni si dramatycznie, jeli chodzi o ilo operacji, a wic i czas potrzebny do wykonania algorytmu. Wemy prosty przyklad. Niech x = 3, czyli funkcja wielomianowa ma posta f(n) = n3, a funkcja wykladnicza f(n) = 3n. Zalómy, e jedna operacja wykonywana jest w cigu mikrosekundy i porównajmy wartoci tych funkcji dla dwóch rónych war- toci n (wielkoci danych). Czas wykonywania algorytmu o zloonoci wielomianowej dla n = 10 wynosi 0,001 sekundy, a dla algorytmu o zloonoci wykladniczej jest to 0,059 sekundy. Jeli jednak n = 60, to algorytm pierwszy zakoczy prac po 0,216 sekundach, a drugiemu zabierze to 1,3 × 1013 stuleci. Algorytmy o zloonoci wykladniczej s wic w praktyce nieobliczalne; mog one by wykorzystywane wylcznie do rozwizywania problemów o malej skali (tzn. dla niewielkiego n). Takie wlanie problemy rozwizywano w mikrowiatach: SHRDLU manipulowal tylko kilkoma klockami, Shakey, planujc swoje dzialania, mial do dyspozycji tylko kilka czynnoci. Wykorzystanie tych samych programów, czy te cilej mówic tych samych algorytmów, do rozwizywania realistycznych problemów jest po prostu niemoliwe. Wydawa by si moglo, e tego dylematu mona jednak unikn: skoro barier s algorytmy o zloonoci wykladniczej, dlaczego nie zastosowa innych, prostszych algorytmów dla rozwizywania tych samych problemów? Otó jednym z najwikszych osigni teorii informatyki ostatniego wieku byla obserwacja, e prostszych algorytmów dla wikszoci problemów sztucznej inteligencji najprawdopodobniej nie ma! Udalo si do dzi zidentyfikowa kilkaset problemów, które okrela si mianem NP (ang. non-polynomial) (Garey i Johnson 1979), a które maj dwie wspólne im wlasnoci. Po pierwsze, dla adnego z tych problemów nie udalo si do tej pory znale rozwizania o prostszej ni wykladnicza zloonoci. Po drugie, znalezienie prostego, a wic wielomianowego rozwizania dla jednego z nich rozwizuje w ten sam sposób je wszystkie5. Dla sztucznej inteligencji byl to wynik szczególnie dotkliwy, bo wikszo problemów, które usilowano w sztucznej inteligencji rozwiza, naley wlanie do klasy NP (problem planowania, który rozwizywal Shakey, okazal si nalee do klasy o zloonoci wyszej nawet ni NP). Dla wielu krytyków byl to argument za tym, e sztuczna inteligencja oparta na rozwizaniach algorytmicznych, czyli obliczeniowych, jest niemoliwa. Drugi powany problem, który napotkano w sztucznej inteligencji, dotyczyl opisu wiedzy potocznej. Jeli maszyna mylca ma wchodzi w interakcje z ludmi i funkcjonowa w ich rodowisku, musi choby czciowo podziela ich obraz wiata. Wiedza potoczna, która ten obraz wiata opisuje, musi by zatem w jaki sposób reprezentowana w jzyku maszyny. Prawdopodobnie nikt nie zdawal sobie sprawy, jak trudny to moe by problem, a do czasu publikacji artykulu, w którym McCarthy i Hayes (1969) zdefiniowali tzw. problem ramy (ang. frame problem). Autorów interesowalo sformalizowanie mylenia zdroworozsdkowego na uytek planowania dziala przez robota. Do tej pory nie znaleziono co prawda dowodu, e problemy z klasy NP nie maj rozwiza wielomianowych, ale znakomita wikszo badaczy nie wtpi, e taki dowód zostanie przeprowadzony. Jarek Gryz Skonstruowany w tym celu tzw. rachunek sytuacji pozwalal opisywa rezultaty dziala i przeprowadza stosowne wnioskowania. Na przyklad ponisze zdanie: (1) (Zachodzi[Na(x,y), S] & Zachodzi[Pusty(x), S]) Zachodzi([Pusty(y), Rezultat( , S)]) charakteryzuje nastpujce dzialanie: jeli w sytuacji S obiekt x jest na obiekcie y i x jest pusty (tzn. nic na nim nie ma), to w rezultacie zdjcia obiektu x z obiektu y w sytuacji S, obiekt y równie bdzie pusty. A co z kolorem obiektu y? Czy zmieni si on w wyniku zdjcia go z x? Dla nas odpowied jest jasna: nie. Ale odpowied ta nie jest wcale oczywista z punktu widzenia opisywanej teorii. Sytuacja, która powstala w wyniku zdjcia obiektu x z obiektu y, jest inn sytuacj ni sytuacja S. Dopóty, dopóki nie stwierdzimy explicite, e kolor obiektów nie zmienia si w wyniku ich przenoszenia, nie wiemy, czy obiekt zachowal swój kolor. Problem wydaje si trywialny, ale bynajmniej nie ma trywialnego rozwizania na gruncie formalizmu logicznego. Dodanie tzw. aksjomatów ramy, a wic twierdze typu ,,obiekt nie zmienia swego koloru w wyniku jego przenoszenia" jest nie do przyjcia z trzech powodów. Po pierwsze, w warunkach realnego wiata takich aksjomatów byloby nieprzewidywalnie wiele, a mianowicie tyle, ile jest rónych par dzialanie-wlasno (,,obiekt nie zmienia ksztaltu w wyniku przenoszenia", ,,obiekt nie zmienia koloru w wyniku przekrcania" itp.). Dodawanie nowych wlasnoci i nowych dziala do opisu wiata wymagaloby nieustannego dodawania takich aksjomatów. Po drugie, prawdziwo takich aksjomatów zaley od kontekstu. Jeli jeden robot przenosi klocki, a drugi je maluje, to powyszy aksjomat jest falszywy. Wreszcie, jeli aksjomaty ramy mialyby opisywa sposób mylenia czlowieka w sytuacjach takich, jak opisana powyej, to na pewno opisuj j falszywie. Klasyczny problem ramy mona wic sformulowa tak oto: jak opisa w zwizly sposób, co si zmienia, a co pozostaje takie samo w wyniku naszych dziala. Problem ramy okazal si jednym z najtrudniejszych do rozwizania problemów sztucznej inteligencji (Gryz 2013). Napisano na jego temat dziesitki, jeli nie setki artykulów naukowych i jemu wylcznie powicono kilka naukowych konferencji (Pylyshyn 1987; Ford, Pylyshyn 1996). Problem ten sprowokowal gorce debaty na temat metodologii sztucznej inteligencji i sklonil wielu badaczy do odrzucenia logiki jako jzyka zdolnego sformalizowa mylenie zdroworozsdkowe; adne z proponowanych rozwiza problemu nie bylo bowiem w pelni satysfakcjonujce (Morgenstern 1996). W istocie wikszo badaczy sdzi, e problem ramy to tylko symptom innego, ogólniejszego problemu i e to ten problem powinien by rozwizany najpierw. ,,Nie ma sensu «rozwizywa» problemu ramy, jeli oznaczaloby to «od-rozwizanie» jakiego innego problemu" (Janlert 1996). Zanim przejdziemy do próby analizy tego innego problemu, omówmy jeszcze krótko dwa inne problemy zidentyfikowane w kontekcie planowania, które s w praktyce nie do rozwizania na gruncie reprezentacji logicznej. Pierwszy z nich to problem rozgalzionych efektów (ang. ramification problem) (Finger 1988). Problem dotyczy trudnoci, a wlaciwie niemoliwoci wyliczenia wszystkich skutków naszych dziala. Wyobramy sobie, e wchodzimy do biura i stawiamy teczk kolo kaloryfera. W teczce bylo niestarannie zapakowane niadanie, które pod wplywem ciepla zaczyna rozplywa si poród znajdujcych si w teczce notatek. Byly to notatki przygotowane na referat habilitacyjny, który mamy wyglosi za pól godziny. Notatki nie daj si odczyta, nasz referat koczy si klap, rada wydzialu odmawia nam habilitacji. Takie opónione czy odlegle konsekwencje naszych dziala s bardzo trudne do zidentyfikowania i opisania. Okazuje si, e nie tylko skutków, ale równie warunków naszych dziala nie jestemy w stanie wyliczy. Klasyczny przyklad to próba uruchomienia samochodu. Spodziewamy si, e wystarczy do tego przekrci kluczyk w stacyjce. Okazuje si, e to nieprawda: akumulator musi by naladowany, w baku musi by benzyna, rura wydechowa nie moe by zatkana kartoflem, nikt w nocy nie ukradl nam silnika itp. Trudno oczekiwa, e bylibymy w stanie poda wszystkie warunki niezbdne do podjcia jakiegokolwiek dzialania. Które z nich powinnimy zatem wyspecyfikowa dla zdefiniowania dziala dostpnych dla robota? To problem uszczególowienia warunków (ang. qualification problem) (McCarthy 1986). Wszystkie trzy wymienione wyej problemy pojawily si w kontekcie prób kodyfikacji wiedzy potocznej. Do tej pory próba ta w sztucznej inteligencji si nie powiodla6. Jack Copeland wymienia trzy warunki, jakie powinna spelnia taka kodyfikacja (Copeland 1993: 91). Po pierwsze, po to, eby wiedza potoczna byla dla maszyny mylcej uyteczna, musi by przechowywana w zorganizowany sposób. Trudno sobie wyobrazi, e cala dostpna baza danych bdzie sprawdzana za kadym razem, kiedy maszynie potrzebna jest jedna konkretna informacja. Po drugie, aktualizacja tej wiedzy musi odbywa si niezwykle sprawnie, zarówno pod wzgldem czasu, jak i poprawnoci. Przesunicie krzesla nie powinno wywolywa lawiny wnioskowa na temat moliwych zmian jego wlasnoci (poza poloeniem), ale powinno uruchomi natychmiastow aktualizacj stanu szklanki z herbat na nim stojcej. WreszW 1984 roku zainicjowano ogromny projekt CYC, którego celem bylo stworzenie bazy danych zawierajcej du cz naszej wiedzy potocznej (Lenat i Feigenbaum 1991). Nie rozwizywalo to jednak w aden sposób problemów dyskutowanych powyej. Jarek Gryz cie, maszyna postawiona przed konkretnym problemem do rozwizania musi by w stanie okreli, jaka cz dostpnej jej wiedzy jest istotna dla rozwizania problemu. Brak reakcji silnika na przekrcenie kluczyka w stacyjce wymaga by moe sprawdzenia stanu akumulatora, ale nie obecnej fazy ksiyca. Jak zatem my, ludzie, przechowujemy i wykorzystujemy wiedz potoczn? Otó nie wiemy tego, bo w ogromnej wikszoci przypadków wiadome rozumowanie jest tu nieobecne. Stosowna wiedza dociera do naszej wiadomoci tylko wtedy, gdy popelnilimy bld (przesunlimy krzeslo ze szklank wylewajc przy tym herbat) albo gdy próbujemy zaplanowa co nietypowego (wnie pianino po wskich schodach). Ale nawet wtedy introspekcja jest bezuyteczna, bo nic nam nie mówi na temat mechanizmów, jakich wówczas uywamy. Wedle Daniela Dennetta (1987) wielkim odkryciem sztucznej inteligencji bylo spostrzeenie, ze robot (komputer) to slynna tabula rasa. eby maszyna mylca mogla funkcjonowa w rzeczywistym wiecie, musi mie cal potrzebn jej wiedz podan explicite. Co wicej, wiedza ta musi by tak zorganizowana, by zapewni maszynie sprawny do niej dostp. Wyzwanie, jakie stoi przed sztuczn inteligencj, mona wic sformulowa tak oto: w jaki sposób, uywajc formalizmu logicznego, uchwyci holistyczn, otwart i wraliw na kontekst natur wiedzy potocznej? Do tej pory zupelnie nie wiemy, jak to zrobi. 4. Rozpad Najsurowsza krytyka sztucznej inteligencji nadeszla ze strony filozofii, glównie za spraw Johna Searle'a i Huberta Lederera Dreyfusa. Slynny argument ,,Chiskiego Pokoju" Searle'a (1980) zdawal si pokazywa, e niemoliwe jest, aby program komputerowy cokolwiek ,,rozumial" czy te mial ,,wiadomo". Tym samym program budowy maszyny mylcej przy uyciu programów komputerowych jest skazany na niepowodzenie. Argument Searle'a jest w istocie argumentem przeciwko funkcjonalizmowi i komputacjonizmowi w filozofii umyslu, a uderza w sztuczn inteligencj, bo ta przyjla obie te tezy filozoficzne w swoich zaloeniach. Tymczasem krytyka Dreyfusa skierowana jest wprost przeciwko sztucznej inteligencji i podwaa jej pozostale, by moe nawet istotniejsze zaloenia. I tak Dreyfus zarzuca badaczom sztucznej inteligencji, e bez wikszej refleksji ,,przejli od Hobbesa tez, e rozumowanie to liczenie, od Kartezjusza reprezentacje umyslowe, od Leibniza ide «prawd pierwotnych» zbioru podstawowych elementów, za pomoc których mona wyrazi cal wiedz, od Kanta tez, e pojcia to zasady, od Fregego formalizacj takich zasad i od Wittgensteina postulat atomów logicznych z Trakta- tu" (Dreyfus 1992: 1137). Ten baga filozoficzny mona wyloy w postaci nastpujcych zaloe, które wedlug Dreyfusa poczynila sztuczna inteligencja (Dreyfus 1992): · · · · Zaloenie biologiczne: mózg to mechanizm manipulujcy symbolami, podobnie jak komputer. Zaloenie psychologiczne: umysl to mechanizm manipulujcy symbolami, podobnie jak komputer. Zaloenie epistemologiczne: inteligentne zachowanie mona sformalizowa i tym samym skopiowa przy uyciu maszyny. Zaloenie ontologiczne: wiat sklada si z niezalenych, nieciglych faktów. Dreyfus odrzuca wszystkie te zaloenia7, korzystajc z argumentów wzitych z filozofii Martina Heideggera i Maurice'a Merleau-Ponty'ego. Wskazuje trzy aspekty inteligentnych zachowa, które jego zdaniem zostaly calkowicie pominite w sztucznej inteligencji. Po pierwsze, wikszo naszych codziennych zachowa wykonywana jest w oparciu o umiejtnoci, czyli wiedz, jak, a nie uwiadomion wiedz, e. Po drugie, cialo jest integralnym elementem inteligentnych zachowa; nasza zdolno stawiania czola nowym sytuacjom wymaga ulokowanego w tych sytuacjach fizycznego ciala. Po trzecie, zachowanie ludzkie nie jest nastawione po prostu na cel, ale na wartoci, i jako takie zawsze zaley od kontekstu czy sytuacji. Dreyfus przekonujco argumentuje, e aden z tych aspektów ludzkiej inteligencji nie moe by skopiowany, czy nawet symulowany, w tradycyjnej sztucznej inteligencji. Dreyfus mial status swego rodzaju enfant terrible w sztucznej inteligencji i w pewnym momencie byl niemal powszechnie ignorowany. Nie pomoglo mu na pewno odwolywanie si do fenomenologii (dla badaczy o nastawieniu inynierskim to byl po prostu belkot) ani skrajno w wyraaniu pogldów: ,,[Sztuczna inteligencja] to paradygmatyczny przypadek tego, co filozofowie nauki nazywaj wyrodniejcym programem badawczym" (Dreyfus 1992: IX). Z drugiej strony, wiele diagnoz Dreyfusa si sprawdzilo. W szczególnoci jego podkrelenie roli ciala i kontekstu (sytuacji) dla wyjaniania inteligentnych zachowa zostalo w póniejszym okresie z sukcesem wykorzystane (Brooks 1991). Lata 80. przyniosly pierwsze próby komercjalizacji rozwiza dokonywanych w sztucznej inteligencji. Jedn z najbardziej popularnych aplikacji byly tzw. systemy eksperckie, rozwijane w oparciu o udane prototypy akademickie: DENDRAL (Feigenbaum, Buchanan, Lederberg 1971) i MYCIN (Shortliffe Wydaje si, e trudno byloby dzi znale badaczy, którzy zgadzaliby si z zaloeniem biologicznym. Z drugiej strony, bez zaloenia ontologicznego opis wiata przy pomocy jzyka bylby chyba niemoliwy. Jarek Gryz 1976). Celem pierwszego z nich bylo odgadywanie struktury molekularnej próbek chemicznych w oparciu o dane ze spektrometru. Najwikszym wyzwaniem przy budowie tego systemu bylo sformalizowanie wiedzy posiadanej przez chemików-praktyków. Okazalo si bowiem, e podrcznikowa wiedza z chemii tu nie wystarczala: ,,Szukalimy nie tylko twardych faktów z dziedziny chemii o wartociowoci czy stabilnoci (...) procesów, ale take mikkich faktów: jak konkretny naukowiec podejmuje konkretn decyzj, kiedy nie jest pewien, kiedy dostpne s róne wiadectwa i gdy sporo jest niejasnoci" (Feigenbaum w: McCorduck 2004: 329). MYACIN, zaprojektowany w celu diagnozowania infekcji krwi, musial poradzi sobie w dwójnasób z problemami napotykanymi w poprzednim projekcie. Po pierwsze, nie istnial model teoretyczny opisujcy przyczyny i symptomy infekcji krwi, który pozwalalby formulowa reguly wnioskowania w tej dziedzinie. Po drugie, reguly takie musialy uwzgldnia niepewno i wzgldny charakter wiadectw dostpnych w kadym konkretnym przypadku. Mimo tych przeszkód, MYACIN okazal si duym sukcesem, bo jego diagnozy byly znacznie lepsze ni dokonywane przez niedowiadczonych lekarzy i czsto równie dobre jak dokonywane przez ekspertów. Komercyjne systemy eksperckie budowane w latach 80. ju takimi sukcesami nie byly. Zdobycie, sformalizowanie, a nastpnie wlaciwe wykorzystanie specjalistycznej wiedzy w jakiej dziedzinie bylo problemem nie tylko technicznym, ale dotykalo znowu problemu wiedzy potocznej. Po raz kolejny obietnice dokonywane w sztucznej inteligencji, tym razem w wydaniu komercyjnym, nie sprawdzily si. Okres od koca lat 80., charakteryzujcy si utrat wiary, ale take zainteresowania sztuczn inteligencj, czsto nazywany jest ,,zim" tej dziedziny. Wtedy te sztuczn inteligencj ogarnl trwajcy a do dzi kryzys tosamoci. Dla wikszoci badaczy stalo si oczywiste, e postp, jaki dokonal si w cigu 40 lat przy projekcie zbudowania maszyny mylcej, a wic takiej, która przeszlaby test Turinga, byl znikomy. Ogrom pracy, funduszy i ludzkich talentów zaangaowanych w t dziedzin byl niewspólmierny do osignitych efektów. Co wicej, wielu badaczy mialo poczucie, e droga, któr obrano, prowadzi donikd. Obrazowo podsumowal to Stuart Dreyfus: ,,Dzisiejsze zapewnienia i nadzieje na postp (...) w dziedzinie budowy inteligentnych maszyn s jak przekonanie, e kto, kto wszedl na drzewo, dokonal postpu w drodze na Ksiyc" (Dreyfus, Dreyfus 1986: 10). Z drugiej strony, nawet najzagorzalsi krytycy programu sztucznej inteligencji musieli przyzna, e w niemal kadej z jej poddziedzin dokonania byly znaczce. Nic zatem dziwnego, e to wlanie w tych poddziedzinach koncentruje si dzi wysilek badaczy. Poczwszy od lat 90., ze sztucznej inteligencji wyodrbnila si robotyka, wizja komputerowa, przetwarzanie jzyka naturalnego, teoria decyzji i wiele innych. Kada z tych dziedzin organizuje swoje wlasne konferencje i wydaje pisma naukowe, w niewielkim tylko stopniu wchodzc w interakcje z innymi dziedzinami. Tak oto, dla wikszoci badaczy, podniosly cel zbudowania maszyny mylcej stal si celem ulotnym czy wrcz nieistotnym. Czy jest zatem co, co spaja dziedzin nazywan wi jeszcze sztuczn inteligencj? Jaki cel przywieca tym wszystkim, którzy usiluj zbudowa systemy percepcji, podejmowania decyzji, wnioskowania czy uczenia si? Wydaje si, e wyróni mona co najmniej trzy stanowiska w tej sprawie. Pierwsz postaw reprezentuj ci, którzy nadal uwaaj, e celem sztucznej inteligencji jest zbudowanie maszyny imitujcej zachowanie (a wic i mylenie) czlowieka. Nazywaj ten nurt sztuczn inteligencj na poziomie ludzkim (ang. human-level AI). Cho nale do tego nurtu nestorzy sztucznej inteligencji: McCarthy (2007), Nilsson (2005) czy Minsky, to niewtpliwie stanowi oni dzi mniejszo wród badaczy. Druga postawa apeluje o odrzucenie ludzkiego zachowania i mylenia jako wzorca dla sztucznej inteligencji: ,,Naukowym celem sztucznej inteligencji jest zrozumienie inteligencji jako metody obliczeniowej, a jej celem inynierskim jest zbudowanie maszyn, które przewyszaj ludzkie zdolnoci umyslowe w jaki uyteczny sposób" (Ford, Hayes 1998). Dla uzasadnienia skutecznoci tej metody badacze przywoluj przyklad aeronautyki, która odniosla sukces dopiero wówczas, gdy przestala w konstrukcji samolotów imitowa ptaki. Trzecia wreszcie postawa, najbardziej, jak si wydaje, powszechna, to calkowite porzucenie idei budowy maszyny mylcej. Zamiast tego proponuje si budow ,,racjonalnych agentów" (ang. rational agents), a wic czego, co zachowuje si w taki sposób, który maksymalizuje zadan miar wydajnoci. ,,Standard racjonalnoci jest matematycznie dobrze zdefiniowany. (...) z drugiej strony, ludzkie zachowanie jest dobrze dostosowane do jednego tylko typu rodowiska, a zdefiniowane jest, no có, przez wszystko, co ludzie robi" (Russell, Norvig 2010: 5). Obrocy tego podejcia konsekwentnie sugeruj wic zmian nazwy dziedziny ze ,,sztucznej inteligencji" na ,,racjonalno obliczeniow". Druga z opisanych wyej postaw jest najblisza programowi kognitywistyki. Badamy procesy poznawcze ludzkie, zwierzce czy maszynowe nie po to, by zbudowa imitacj czlowieka, ale po to, by go zrozumie. Wykorzystujemy w tym celu dane z kadej nauki, która nam na ten temat co moe powiedzie: psychologii, neurofizjologii, lingwistyki czy wlanie sztucznej inteligencji w ostatnim rozumieniu. Projektowanie robotów nie musi by ju celem samym w sobie, ale rodkiem do zrozumienia zachowa i procesów mylowych ludzi i zwierzt (Webb 2008). Wielu badaczy obarcza test Turinga odpowiedzialnoci za wyznaczenie nieosigalnego, niepotrzebnego i niewiele znaczcego wzorca dla sztucznej inteligencji. Jarek Gryz Test [Turinga] doprowadzil do powszechnego niezrozumienia wlaciwych celów naszej dziedziny. (...) Zamiast ogranicza zakres bada (...) do prób imitacji ludzkich zachowa, moemy osign duo wicej badajc, jak zorganizowane s systemy obliczeniowe, które wykazuj si inteligencj (Ford, Hayes 1998). Wydaje si wic, e HAL8 na dlugo pozostanie tylko filmow fantazj. Bibliografia Brooks R. (1991), Intelligence Without Representation, ,,Artificial Intelligence" 47, s. 139159. Campbell M., Hoane A.J. Jr., Hsu F.-H. (2002), Deep Blue, ,,Artificial Intelligence" 134, no. 12 (January), s. 5783. Copeland J. (1993), Artificial Intelligence: A Philosophical Introduction, Blackwell. Darrach B. (1970), Meet Shakey, The First Electronic Person, ,,Life", 20 November 1970. Dennett D. (1987), Cognitive Wheels: The Frame Problem of AI, w: Pylyshyn (ed.) 1987, s. 4164. Dietrich E. (ed.) (2012), Philosophy of Artificial Intelligence, http://philpapers. org/browse/philosophy-of-artificial-intelligence. Dreyfus H.L. (1992), What Computers Still Can't Do, MIT Press. Dreyfus H.L. (2007), Why Heideggerian AI Failed and How Fixing It Would Require Making It More Heideggerian, ,,Artificial Intelligence" 171, nr 18, s. 11371160. Dreyfus H.L., Dreyfus S.E. (1986), Mind Over Machine, New York: Macmillan/Free Press. Feigenbaum E.A., Buchanan B.G., Lederberg J. (1971), On Generality and Problem Solving: A Case Study Using the DENDRAL Program, ,,Machine Intelligence", Vol. 6, Edinburgh University Press. Ferrucci D. i in. (2010), Building Watson: An Overview of the DeepQA Project, ,,AI Magazine" 31, nr 3, s. 5979. Finger J.J. (1988), Exploiting Constraints in Design Synthesis, Technical Report STAN-CS-88-1204, Computer Science, Stanford University. Ford K.M., Hayes P.J. (1998), On Computational Wings: Rethinking the Goals of Artificial Intelligence, ,,Scientific American Presents" 9, no. 4 (Winter), s. 7883. HAL musial uzna wyszo czlowieka. Czytelnik, który nie potrafi zidentyfikowa HAL-a, musi uzna wyszo maszyny. Program Watson (Ferrucci i in. 2010), który zwyciyl w popularnym teleturnieju ,,Jeopardy", bez trudu odgadlby jego tosamo. Ford K.M., Pylyshyn Z.W. (1996), The Robot's Dilemma Revisited: The Frame Problem in Artificial Intelligence, Westport, CT: Ablex Publishing Corporation. Garey M.R., Johnson D.S. (1979), Computers and Intractability, W.H. Freeman. Gelernter H. (1959), Realization of a Geometry-Theorem Proving Machine, International Conference on Information Processing, Paris, s. 273282. Goldstine H. (1972), The Computers from Pascal to von Neumann, Princeton, NJ: Princeton University Press. Gryz J. (2013), The Frame Problem in Artificial Intelligence and Philosophy, ,,Filozofia Nauki", R. XXI, nr 2 (82), s. 1530. Janlert L.-E. (1996), The Frame Problem: Freedom or Stability? With Pictures We Can Have Both, w: Ford, Pylyshyn 1996, s. 3548. Lenat D.B., Feigenbaum E.A. (1991), On the Tresholds of Knowledge, ,,Artificial Intelligence" 47, s. 185230. McCarthy J. (1986), Applications of Circumscription to Formalizing Commonsense Knowledge, ,,Artificial Intelligence" 28, s. 86116. McCarthy J. (2007), From Here to Human-Level AI, ,,Artificial Intelligence" 171, s. 11741182. McCarthy J., Hayes P. (1969), Some Philosophical Problems from the Standpoint of Artificial Intelligence, w: B. Meltzer, D. Mitchie (eds), Machine Intelligence, Edinburgh: Edinburgh University Press, s. 463502. McCorduck P. (2004), Machines Who Think, 2nd ed., A.K. Peters Ltd. Morgenstern L. (1996), The Problem with Solutions to the Frame Problem, w: Ford, Pylyshyn 1996, s. 99133. Newell A., Simon H.A. (1956), The Logic Theory Machine, ,,IRE Transactions on Information Theory" (September). Nilsson N.J. (2005), Human-Level Artificial Intelligence? Be Serious!, ,,AI Magazine" 26, nr 4, s. 6875. Pylyshyn Z.W. (1984), Computation and Cognition: Towards a Foundation for Cognitive Science, Cambridge: MIT Press. Pylyshyn Z.W. (ed.) (1987), The Robot's Dilemma: The Frame Problem in Artificial Intelligence, Norwood, NJ: Ablex Publishing Corporation. Raphael B. (1976), The Thinking Computer: Mind Inside Matter, San Francisco: W.H. Freeman. Russell S.J., Norvig P. (2010), Artificial Intelligence. A Modern Approach, Prentice Hall. Samuel A.L. (1959), Some Studies in Machine Learning Using the Game of Checkers, ,,IBM Journal of Research and Development" 3, no. 3, s. 210229. Searle J. (1980), Minds, Brains and Programs, ,,Behavioral and Brain Sciences" 3, nr 3, s. 417457. Jarek Gryz Shortliffe E.H. (1976), Computer-Based Medical Consultations: MYCIN, Elsevier/North-Holland. Simon H.A. (1965), The Shape of Automation: For Man and Management, New York: Harper & Row. Simon H.A., Newell A. (1958), Heuristic Problem Solving: The Next Advance in Operations Research, ,,Operations Research" 6, s. 110. Simon H.A., Newell A. (1976), Computer Science as Empirical Inquiry: Symbols and Search, ,,Communications of the ACM" 19, no. 3, s. 113126. Thagard P. (2008), Cognitive Science, w: Stanford Encyclopedia of Philosophy, http://plato.stanford.edu/archives/fall2008/entries/cognitive-science/. Turing A. (1969), Intelligent Machinery, ,,Machine Intelligence", Vol. 5, Edinburgh: Edinburgh University Press. Webb B. (2008), Using Robots to Understand Animal Behavior, ,,Advances in the Study of Behavior" 38, s. 158. Winograd T.A. (1972), Understanding Natural Language, Academic Press. Streszczenie Sztuczna inteligencja pojawila si jako dziedzina badawcza ponad 60 lat temu. Po spektakularnych sukcesach na pocztku jej istnienia oczekiwano pojawienia si maszyn mylcych w cigu kilku lat. Prognoza ta zupelnie si nie sprawdzila. Nie do, e maszyny mylcej dotd nie zbudowano, to nie ma zgodnoci wród naukowców, czym taka maszyna mialaby si charakteryzowa, ani nawet, czy warto j w ogóle budowa. W artykule staralem si przeledzi dyskusj metodologiczn towarzyszc sztucznej inteligencji od pocztku jej istnienia i okreli relacj midzy sztuczn inteligencj a kognitywistyk.
Przeglad Filozoficzny - Nowa Seria – de Gruyter
Published: Jun 1, 2013
You can share this free article with as many people as you like with the url below! We hope you enjoy this feature!
Read and print from thousands of top scholarly journals.
Already have an account? Log in
Bookmark this article. You can see your Bookmarks on your DeepDyve Library.
To save an article, log in first, or sign up for a DeepDyve account if you don’t already have one.
Copy and paste the desired citation format or use the link below to download a file formatted for EndNote
Access the full text.
Sign up today, get DeepDyve free for 14 days.
All DeepDyve websites use cookies to improve your online experience. They were placed on your computer when you launched this website. You can change your cookie settings through your browser.