Sieć semantyczna

Teorie kategoryzacji

Jednym ze sposobów rozpatrywania systemów wiedzy są formalne mechanizmy klasyfikacji i kategoryzacji obiektów. Graficznie, typowa ontologia przypomina hierarchiczną taksonomię – chociaż, technicznie rzecz biorąc, jest to skierowany graf acykliczny, co oznacza, że pojęcia mogą mieć więcej niż jednego „rodzica”, jak również wiele „rodzeństw” i „dzieci”. (Ontologie mogą również wspierać inne rodzaje relacji pojęciowych, ale relacja subsumpcji jest bezpośrednio aksjomatyzowana w semantyce OWL, podobnie jak kilka innych relacji). W takich systemach stosowanie pojęć polega na spełnianiu przez obiekty warunków koniecznych i wystarczających dla przynależności do klasy. Ten ogólny model dobrze zgadza się z szeroką tradycją stosowania kategorii sięgającą Arystotelesa. Jednakże ontologie mają być maszynowo zorientowanymi reprezentacjami konceptualizacji, mającymi jedynie analogiczny związek z mentalnymi modelami poznawczymi. Co zatem można uzyskać ze współczesnych teorii kategoryzacji?

Od lat 60. ubiegłego wieku proponowane są alternatywne modele tego, jak umysłowe pojęcia są organizowane i stosowane. Podobnie jak ontologie, sieci semantyczne, których pionierem był Quillian (1967), modelują kognitywne sieci pojęciowe jako grafy skierowane, z pojęciami połączonymi jednokierunkowymi powiązaniami asocjacyjnymi. W przeciwieństwie do ontologii, te powiązania nie implikują żadnego logicznego (lub innego) rodzaju relacji pomiędzy pojęciami – jedynie to, że istnieje ogólne powiązanie. Sieci semantyczne zostały zaadaptowane do wczesnych systemów reprezentacji wiedzy, takich jak systemy ramowe, które wykorzystują tę samą graficzną strukturę węzłów i powiązań konceptualnych: Możemy myśleć o ramce jako o sieci węzłów i relacji” (Minsky 1974). Minsky wyraźnie zauważa również podobieństwo między systemami ramowymi a paradygmatami Kuhni’ego – co wynika z konstrukcji systemu ramowego jako punktu widzenia wycinka świata. Przez rozszerzenie, sieci semantyczne mogą być postrzegane jako proto-paradygmaty w sensie kuhniańskim, choć nie jest jasne, jakie mogą być granice między jedną siecią a drugą – analogia ta nie powinna więc być nadmiernie naciągana.

Cechą sieci semantycznych jest brak leżącego u ich podstaw formalizmu logicznego. Podczas gdy systemy ramowe Minskiego i inne analogie w latach 70. zostały „zaktualizowane” o formalne warstwy semantyczne, zwłaszcza poprzez rozwój logiki opisu w latach 80., według Minsky’ego brak formalnej aparatury jest raczej „cechą” niż „błędem” – narzucenie kontroli spójności, na przykład, nakłada nierealistyczne ograniczenia na próby reprezentowania ludzkich rodzajów wiedzy, właśnie dlatego, że ludzie rzadko są konsekwentni w używaniu pojęć (Minsky 1974). W najlepszym przypadku wymaga się od nich spójności w odniesieniu do zlokalizowanej części ich kognitywnej sieci semantycznej, istotnej dla danego problemu oraz związanych z nim pojęć i rozumowania wymaganego do poradzenia sobie z nim. Podobnie autorzy modeli sieci semantycznych zauważają trudność w założeniu, że uporządkowane grafy modelują mentalną organizację pojęciową: „Definicje słownikowe nie są zbyt uporządkowane i wątpimy, by ludzka pamięć, która jest o wiele bogatsza, była nawet tak uporządkowana jak słownik” (Collins i Quillian 1969). Sieci semantyczne reprezentują wczesny i trwały model poznania, który nadal wywiera wpływ na uaktualnione modele, takie jak sieci neuronowe i równoległe przetwarzanie rozproszone (Rogers i McClelland 2004). Takie sieci wykazują również dwie cechy istotne dla przyjętej tu teorii: po pierwsze, nacisk na strukturalne, koneksjonistyczne modele poznania – pojęcia nie są jedynie gromadzone ilościowo jako hasła w słowniku poznawczym, ale są również wzajemnie powiązane, tak że dodanie nowych pojęć powoduje jakościową różnicę w sposobie stosowania istniejących pojęć; po drugie, implikowana spójność sieci, która sugeruje, że pojęcia nie są jedynie przypadkowo ułożone, ale tworzą spójne i wyjaśniające schematy lub struktury.

W połowie lat 70. zaproponowano teorię prototypów, kolejny model poznawczy, który ma opisywać użycie pojęć. Opierając się na opracowaniu przez Wittgensteina „gier językowych” (Wittgenstein 1967), Rosch (1975) wykazał poprzez serię eksperymentów empirycznych, że proces klasyfikowania obiektów pod etykietami pojęciowymi nie jest na ogół podejmowany poprzez poszukiwanie koniecznych i wystarczających warunków dla istnienia pojęcia. Raczej pojęcia są stosowane na podstawie podobieństw między postrzeganym obiektem a pojęciowym „prototypem” – typową lub wzorcową instancją pojęcia. Posiadanie koniecznych i wystarczających atrybutów jest słabszym wskaźnikiem włączenia obiektu do kategorii niż zbliżenie wartości szczególnie istotnych atrybutów – wyznaczników rodzinnego podobieństwa – do wartości idealnego członka kategorii. Na przykład, kandydat na psa może zostać zaklasyfikowany na podstawie bliskości kluczowych atrybutów percepcyjnych do tych, które w umyśle postrzegającego stanowią idealnego „psa” – futro, liczba nóg, rozmiar, kształt głowy itd. Stosowanie kategorii raczej na podstawie podobieństw rodzinnych niż atrybutów krytycznych sugeruje, że – przynajmniej w codziennych okolicznościach – stosowanie pojęć jest sprawą niejasną i podatną na błędy, kierującą się raczej rozmytą heurystyką niż ścisłym przestrzeganiem warunków definicyjnych. Ponadto, w domyśle, stosowanie pojęć jest częścią procesu uczenia się – wielokrotne użycie pojęć skutkuje prototypami, które są bardziej spójne z tymi, których używają inni użytkownicy pojęć. Sugerowałoby to silny normatywny i konsensualny wymiar używania pojęć. Wreszcie, Rosch (1975) postulował istnienie „kategorii semantycznych poziomu podstawowego”, zawierających pojęcia najbardziej zbliżone do ludzkiego doświadczenia i poznania. Kategorie nadrzędne mają mniej cech kontrastowych, podczas gdy kategorie podrzędne mają mniej cech wspólnych – stąd kategorie podstawowe są zwykle tymi, których prototypowe przypadki są wyraźniej identyfikowalne, a więc mają tendencję do bycia uprzywilejowanymi w uczeniu się i używaniu pojęć.

Choć modele sieci semantycznej i prototypu dostarczają sugestywnych teorii opisowych, które wydają się uchwycić bardziej intuicyjne cechy kategoryzacji, dostarczają one stosunkowo niewiele przyczynowych wyjaśnień tego, jak poszczególne skupiska pojęć są organizowane poznawczo. W latach 80. powstało kilka nowych teorii kładących większy nacisk na wyjaśnienie (Komatsu 1992). Na przykład Medin i Schaffer (1978) proponują opartą na przykładach teorię „kontekstu”, konkurencyjną wobec teorii prototypów, która odrzuca nieodłączny naturalizm identyfikacji kategorialnej na „poziomie podstawowym” na rzecz bardziej aktywnej roli poznania w opracowywaniu „strategii i hipotez” podczas pobierania zapamiętanych przykładów kategorii. Używanie pojęć oznacza zatem, że agenci nie tylko poruszają się po hierarchii pojęciowej lub obserwują percepcyjne podobieństwa rodzinne, gdy stosują pojęcia; aktywnie formułują oni również teorie wywodzące się z aktualnego kontekstu i czerpią z asocjacyjnych powiązań między kandydatami na pojęcia a innymi powiązanymi pojęciami. W tym modelu używanie pojęć wiąże się z naukowym teoretyzowaniem; w późniejszych wariantach model ten staje się „teorią teorii” (Medin 1989). Jak ujął to jeden ze zwolenników:

W szczególności dzieci rozwijają abstrakcyjne, spójne systemy bytów i reguł, zwłaszcza bytów i reguł przyczynowych. To znaczy, rozwijają teorie. Teorie te pozwalają dzieciom przewidywać nowe dowody, interpretować dowody i wyjaśniać dowody. Dzieci aktywnie eksperymentują i badają świat, testując przewidywania teorii i zbierając odpowiednie dowody. Niektóre dowody przeciwne do teorii są po prostu reinterpretowane w kontekście teorii. W końcu jednak, gdy wiele przewidywań teorii zostaje sfalsyfikowanych, dziecko zaczyna poszukiwać alternatywnych teorii. Jeśli alternatywa lepiej radzi sobie z przewidywaniem i wyjaśnianiem dowodów, zastępuje istniejącą teorię (Gopnik 2003, s. 240).

Badania empiryczne nad rozwojem poznawczym dzieci (Gopnik 2003) oraz międzykulturowe porównania organizacji pojęciowej i preferencji (Atran i in. 1999; Medin i in. 2006; Ross i Medin 2005) wykazały silne poparcie dla kont „teorii teorii”. Quine’owski pogląd na naukę jako „samoświadomy zdrowy rozsądek” stanowi kolejną formę filozoficznego poparcia dla tego poglądu.

Dla celów niniejszego opracowania mocną stroną rachunku „teorii teorii” jest jego orientacja na holizm pojęciowy i schematyzm – według tego poglądu pojęcia nie odnoszą się jedynie do obiektów w świecie (choć z pewnością to również czynią); znajdują się one również w dynamicznym aparacie wyjaśniającym, wraz z innymi pojęciami, relacjami i regułami. Co więcej, teorie są używane przez agentów nie tylko do wyjaśniania zjawisk sobie samym, ale także innym; użycie pojęć odgrywa więc rolę zarówno we własnym tworzeniu sensu świata, jak i w tym, jak ktoś opisuje, wyjaśnia, uzasadnia i komunikuje się z innymi. Krótko mówiąc, pojęcia są rozumiane jako pozostające nie tylko w relacji do obiektów w świecie, jak chciałaby tego teoria korespondencji; pozostają one w relacji do siebie nawzajem, tworząc przynajmniej lokalnie spójne mentalne wyjaśnienia, a także łączą uczestniczących w nich użytkowników w społeczności i kultury. Przedstawione tu ujęcie podobnie czerpie z uzupełniających koherentystycznych i konsensualnych pojęć prawdy, by wyjaśnić współmierność.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.