Cechy sceny wizualnej

Minimalnym warunkiem subiektywnego doświadczenia widzenia jest zarejestrowanie (spostrzeżenie) kształtu figury płaskiej (dwuwymiarowej) lub trójwymiarowego obiektu w przestrzeni znajdującej się w polu widzenia obserwatora. Nie rozstrzygam tutaj, czy najpierw widzimy rzeczy w dwóch czy w trzech wymiarach, ponieważ spór w tej sprawie wciąż nie jest rozstrzygnięty (np. Marr, 1982; Pizlo, 2008). Niezależnie jednak od tego, ów kształt, równie dobrze może być prosty, np. punkt lub kontur figury geometrycznej, jak i złożony, np. przejeżdżający samochód.

W naturalnych warunkach niezwykle rzadko mamy do czynienia z sytuacją, w której nie widzimy żadnego kształtu w polu widzenia, czyli czegoś, co granicząc z czymś innym, ujawnia swoją odrębność. Przebywanie w gęstej, nieprzeniknionej ciemności lub we mgle może prowadzić do wniosku, że nic nie widzimy. Owo „nic” oznacza to po prostu nieobecność jakiegokolwiek kształtu. Kształt jest podstawową cechą definicyjną każdej figury lub obiektu i ich części, a także cechą tła i przestrzeni, w jakiej się one znajdują, czyli cechą definicyjną każdej sceny wizualnej (Bagiński i Francuz, 2007; Francuz i Bagiński, 2007). Kształty widzianych rzeczy są najważniejszym kryterium ich kategoryzacji (Francuz, 1990) oraz stanowią podstawę wiedzy o wyglądach świata (Barsalou, 1999). Mogą wyznaczać granice rzeczy nazwanych, ale również nienazwanych.

O ile doświadczenie nieobecności jakichkolwiek kształtów w polu widzenia w naturalnych warunkach jest raczej dość rzadkie, o tyle sztuka współczesna dostarcza wielu modelowych przykładów obrazów, które stawiają odbiorcę wobec takiego doświadczenia.

W 1951 roku Robert Rauschenberg wystawił serię prowokacyjnych obrazów zatytułowanych Białe płótna, na których nie było po prostu nic namalowane (ryc. 6). Nawet granice obrazów były wyznaczone tylko przez cienie rzucane na ścianę przez blejtramy.

Rycina 6. Robert Rauschenberg, Białe płótna (1951)

Rycina 6. Robert Rauschenberg, Białe płótna (1951). San Francisco Museum of Modern Art, San Francisco, USA [182,9 x 274,3 cm]

Białe płótna Rauschenberga ujawniają dwie subtelne granice, pierwszą – między widzeniem sceny, której elementem jest obraz a oglądaniem obrazu i drugą – między oddolnymi i odgórnymi procesami przetwarzania danych sensorycznych. Z jednej strony, obraz na ryc. 6 nie zawiera żadnej treści, choć treścią sceny wizualnej, w której się on znajduje, są trzy pomalowane na biało, prostokątne płótna. Z drugiej strony właśnie dlatego, że te obrazy nie zawierają żadnych kształtów prowokują umysł odbiorcy do wypełnienia ich dowolnymi treściami. Do podobnych wniosków w dziedzinie muzyki doszedł przyjaciel Rauschenberga, John Cage, który w 1952 roku skomponował i wykonał słynny utwór „4,33” na orkiestrę symfoniczną. Podczas wykonania tego utworu nie zabrzmiał ani jeden instrument. Kształt, podobnie jak dźwięki utworu muzycznego są zatem kategoriami, które odnoszą się zarówno do tego co rejestrują zmysły (oczy lub uszy), jak i do tego, co wytwarza umysł obserwatora lub słuchacza.

Drugą własnością każdej sceny wizualnej jest barwa (color), czyli konkretna jakość zmysłowa, która przysługuje figurze lub obiektowi wyznaczonemu przez jego kształt albo tłu. Barwę można opisać za pomocą trzech wymiarów: odcienia (hue), czyli inaczej tego, co na ogół rozumiemy pod pojęciem koloru czerwonego lub niebieskiego, jasności (lightness, brightness, value), zwanej także luminancją (luminance) lub walorem barwy (color value), charakteryzującym jej jasność na kontinuum między czernią a bielą oraz nasycenia (saturation, chroma), czyli tego, co odbieramy jako intensywność barwy. Czasem dodaje się jeszcze połysk (gloss), który jest pochodną charakteru powierzchni lub materiału pokrytego barwą. Spostrzegane różnice między płaszczyznami obrazu w zakresie jasności (luminancji) oraz odcienia są ważnymi wskazówkami dotyczącymi kształtów figur lub obiektów w scenie wizualnej. Oprócz wymienionych własności zmysłowych, barwom przypisywane są także różne wartości symboliczne, które mogą modyfikować znaczenia widzianych rzeczy (Gage, 2010; Popek, 2012; Zieliński, 2008).

Trzecią charakterystyką sceny wizualnej jest jej przestrzenna organizacja w dwóch lub w trzech wymiarach. Jeżeli konstytutywną cechą sceny jest spostrzeżenie w niej co najmniej jednego kształtu, który sugeruje obecność jakiejś rzeczy i oddziela ją od tła, to naturalnie ta rzecz musi znajdować się w określonym miejscu w przestrzeni. Odwołanie się do pojęcia miejsca rzeczy w scenie wizualnej uświadamia, że jest ona przedstawieniem oglądanym z jakiegoś punktu widzenia oraz, że jest ona ograniczona przez zakres pola widzenia obserwatora lub ramy obrazu.

Określenia miejsca rzeczy takie jak, np. „z prawej” lub „z lewej strony”, „wyżej” lub „niżej”, a także „bliżej” lub „dalej” zarówno od obserwatora, jak i od siebie nawzajem, zawsze są zrelatywizowane do punktu, z jakiego dany układ rzeczy jest widziany oraz do ram kadru. W takim samym stopniu dotyczy to całych scen wizualnych, jak i obrazów. Waga pozycji obserwatora w stosunku do widzianej przez niego sceny jest tak duża, że można nawet mówić o jego egocentrycznej pozycji w świecie oglądanych rzeczy (Goodale i Milner, 2008). Owo uprzywilejowanie bierze się z faktu, że w scenie wizualnej obserwator nie tylko widzi rzeczy, ale widzi również relacje między nimi. Spostrzegane w płaszczyźnie prostopadłej do osi widzenia relacje między rzeczami w scenie wizualnej i w obrazie są intuicyjnie ustalane w odniesieniu do stron ciała obserwatora i naturalnych ram, wyznaczonych przez zakres jego pola widzenia, a także przez ramy obrazu. Z kolei dostrzeżenie relacji między rzeczami wzdłuż linii równoległych do osi widzenia, czyli w głąb, nie jest już tak oczywiste i wymaga stosowania specjalnych procedur przetwarzania danych siatkówkowych i wiedzy o wskaźnikach głębi, w celu ich uchwycenia.

Czwartą i zarazem ostatnią cechą sceny wizualnej jest jej dynamika. Jest ona pochodną szybkości, zmienności, przyspieszenia i trajektorii ruchu, zarówno przedmiotów wewnątrz sceny wizualnej, jak i obserwatora. Ruch rzeczy znajdujących się w scenie wizualnej destabilizuje relacje przestrzenne między nimi. Dodatkowo obserwator może zmieniać swoje położenie względem danej sceny, zmieniając tym samym punkt jej widzenia. I nie chodzi tu tylko o przemieszczanie się obserwatora w przestrzeni (np. oglądanie wystaw sklepowych podczas spaceru), ale również o ruch jego oczu, który powoduje przenoszenie osi widzenia na różne fragmenty sceny. Krótko mówiąc, ruch przedmiotów w scenie wizualnej i ruch obserwatora podczas jej oglądania w najwyższym stopniu komplikują analizę subiektywnego doświadczenia widzenia. Zgodnie z wcześniejszą zapowiedzią, zagadnienie ruchu w obrazie, czyli wewnątrz kadru nie jest przedmiotem tej książki, natomiast ruch obserwatora, a w szczególności ruch jego gałek ocznych podczas oglądania obrazu, oczywiście – tak.

Wymienione cztery cechy sceny wizualnej: kształt, barwa, organizacja przestrzenna i dynamika, w gruncie rzeczy dają się sprowadzić do dwóch kategorii, chociaż nie są to kategorie rozłączne. Pierwszą, stanowią te własności sceny, które pozwalają obserwatorowi rozpoznać znajdujące się w niej przedmioty i orzec coś o ich formach i barwach. Jest to kategoria rzeczy. Percepcyjna analiza egzemplarzy tej kategorii na ogół nie zależy ani od tego, gdzie się one znajdują w stosunku do obserwatora, ani też od tego czy znajdują się one w ruchu czy też są ustabilizowane.

Z kolei organizacja przestrzenna i ruch obiektów w scenie wizualnej niemal zawsze odnoszą się do czegoś, o czym możemy powiedzieć, że ma jakiś kształt i barwę. Dostrzeżenie rzeczy, jako znajdującej się, np. z prawej strony sceny wizualnej wynika z jej położenia względem ciała obserwatora. Cechy te mają jednak nie tylko wyraźny związek z reprezentacją jego ciała, ale także z motoryką. Ogólnie rzecz biorąc organizacja przestrzenna i ruch obiektów w scenie wizualnej tworzą kategorię relacji.

Wymienione kategorie cech sceny wizualnej nie są rozłączne, ponieważ istnieją takie doświadczenia wizualne, które leżą na ich styku. Bardzo szybko poruszający się obiekt lub obserwator, poprzez całkowite zatarcie się linii konturowych, a nawet barw rzeczy znajdujących się w scenie wizualnej, mogą wywołać doświadczenie widzenia ruchu, który nie jest ruchem rzeczy o określonym kształcie. Ze względu na dużą szybkość, z jaką obserwator może się poruszać, jak również ze względu możliwości w zakresie kreowania obrazów za pośrednictwem mediów elektronicznych, liczba takich doświadczeń stale rośnie. Jak dotąd ewolucja nie wykształciła sprawnych mechanizmów radzenia sobie z takimi sytuacjami. Najlepszym tego przejawem są niewyjaśnione mechanizmy wielu iluzji optycznych w zakresie percepcji ruchu, wytworzone za pomocą cyfrowych technik wizualizacji (zob. np. strona Michaela Bacha, Optical Illusions & Visual Phenomena), a także złudzenia, jakim ulegają, np. piloci samolotów odrzutowych (Bednarek, 2011).

Widzenie, jako akt kreacji

Znakomite wprowadzenie do problematyki funkcjonowania neuronalnego systemu analizy zawartości sceny wizualnej zawiera artykuł Margaret Livingstone i Davida Hubela (laureata nagrody Nobla z dziedziny fizjologii i medycyny w roku 1981), opublikowany w 1988 roku w Science. Chociaż od jego wydania minęło już ćwierćwiecze, a wyniki badań w dziedzinie neuronauki poznawczej zweryfikowały większość formułowanych w nim hipotez, dotyczących przetwarzania danych wzrokowych, to nadal stanowi on aktualne i wiarygodne źródło informacji na temat struktury i funkcji poszczególnych elementów składowych szlaku wzrokowego.

Podstawowym ustaleniem dotyczącym funkcji szlaku wzrokowego w formowaniu się subiektywnego doświadczenia widzenia jest stwierdzenie, że poczynając od komórek nerwowych znajdujących się w siatkówkach obu oczu obserwatora, a kończąc na różnych strukturach jego mózgu, wymienione w poprzednim paragrafie cechy sceny wizualnej takie, jak: kształt, barwa, orientacja przestrzenna dwu- i trójwymiarowa oraz ruch, są analizowane przez cztery, częściowo niezależnie od siebie ścieżki (podsystemy) neuronalne. Stwierdzenie to ma fundamentalne znaczenie dla zrozumienia, w jaki sposób dochodzi do powstania doświadczenia widzenia sceny i znajdujących się w niej rzeczy. Otóż wynika z niego, że zarejestrowane przez fotoreceptory dane dotyczące rozkładu światła wpadającego w danym momencie do oka, na przeważającej części szlaku wzrokowego są przedmiotem częściowo niezależnych od siebie analiz, prowadzonych przez cztery wyspecjalizowane podsystemy nerwowe. Celem ich aktywności jest zinterpretowanie tych danych ze względu na cechy przedmiotów i/lub ich fragmentów, które aktualnie znajdują się w polu widzenia obserwatora w świetle posiadanych doświadczeń wizualnych.

Doświadczenie widzenia kompletnej sceny wizualnej nie jest efektem prostego odzwierciedlenia obrazu rzutowanego na siatkówkę oka (jak, np. w camera obscura), ale zachodzi w dwóch zasadniczych fazach: (1) dekompozycji, polegającej na analitycznym i względnie niezależnym od siebie badaniu wymienionych cech sceny wizualnej, po uprzednim wyabstrahowaniu ich z siatkówkowego obrazu oraz (2) kompozycji, czyli integrowaniu (syntetyzowaniu) wyników analiz przeprowadzonych w fazie pierwszej, z uwzględnieniem danych zapisanych już uprzednio w pamięci wizualnej.

Obecność obu wymienionych faz w każdym akcie widzenia prowadzi do wniosku, że wynik integracji sensorycznej zawsze (w mniejszym lub większym stopniu) odbiega od zarejestrowanych danych źródłowych. Oznacza to, że treści doświadczenia wizualnego są stale raczej wytwarzane przez system wzrokowy, a nie – jak mogłoby się wydawać – odtwarzane z obrazów siatkówkowych. W tym sensie widzenie jest aktem kreacji, podczas którego dochodzi do skonstruowania obrazu rzeczywistości zarejestrowanej przez system fotoreceptorów, znajdujących się w siatkówkach oczu obserwatora.

Wczesny system analizy zawartości sceny wizualnej

Fotoreceptory umieszczone w siatkówce wewnątrz oka rejestrują rozkład wpadającego doń światła. Jest to pierwszy etap procedury analizy zawartości sceny wizualnej. Najważniejsze struktury neuronalne, które biorą udział w rejestracji i organizacji danych sensorycznych na wczesnych etapach szlaku wzrokowego zostały przedstawione na ryc. 7.

Rycina 7. Struktury neuronalne zaangażowane w analizę zawartości sceny wizualnej na wczesnych etapach szlaku wzrokowego (rzut z boku i z dołu)

Rycina 7. Struktury neuronalne zaangażowane w analizę zawartości sceny wizualnej na wczesnych etapach szlaku wzrokowego (rzut z boku i z dołu). Opracowanie graficzne P.A.

Wczesny system analizy zawartości sceny wizualnej zasadniczo składa się z dwóch odrębnych struktur: oka (eye), a w szczególności układu optycznego, czyli soczewki, która znajduje się w przedniej jego części i siatkówki (retina), zlokalizowanej na tylnej ścianie, wewnątrz oka oraz ciała kolan­ko­watego bocznego (lateral geniculate nucleus; LGN), leżącego mniej więcej w połowie drogi między oczyma a korą mózgu, w miejscu zwanym wzgórzem (thalamus).

W siatkówkach oczu znajdują się między innymi tzw. komórki zwojowe (ganglion cells). Ich aksony, czyli wypustki, po których jak po drucie telefonicznym biegną sygnały nerwowe w głąb mózgu, tworzą nerw wzrokowy (optic nerve). Na odcinku między oczyma a LGN, znajduje się skrzyżowa­nie wzrokowe (optic chiasm), miejsce, w którym wiązka aksonów odprowadzających sygnały nerwowe z każdego oka rozdziela się na dwie części. Połowa aksonów z lewego oka łączy się z połową aksonów z prawego oka (podobnie druga połowa aksonów komórek zwojowych wychodząca z jednego i z drugiego oka) i dalej biegną razem do prawej i do lewej półkuli mózgu. Odcinek między skrzyżowaniem wzrokowym a LGN nazywa się traktem wzrokowym (optic tract).

Z LGN impulsy nerwowe są przekazywane do tzw. pierwotnej kory wzrokowej (primary visual cortex lub striate cortex) w płacie potylicznym mózgu za pośrednictwem aksonów dużej grupy komórek, których ciała znajdują się w LGN. Ten odcinek nazywa się promienistością wzrokową (optic radiation) i z grubsza domyka on pierwszy etap przesyłania i przetwarzania danych sensorycznych na szlaku wzrokowym.

Oko – metafora aparatu fotograficznego

Pod wieloma względami budowa oka i aparatu fotograficznego są do siebie podobne. Zanim wskażę na zasadnicze różnice między nimi, warto przyjrzeć się tej analogii (ryc. 8).

Rycina 8. Schematyczna budowa aparatu fotograficznego i oka

Rycina 8. Schematyczna budowa aparatu fotograficznego i oka. Opracowanie graficzne P.A. na podstawie Groves i Schlesinger (1979)

Szlak wzrokowy rozpoczyna się w oku. Podobnie, jak aparat fotograficzny, oko składa się ze szczelnej i sztywnej obudowy. W oku nazywa się ją twar­dówką (sclera). Jej funkcją jest ochrona gałki ocznej przed uszkodzeniami mechanicznymi oraz stabilizacja jej kształtu.

W przedniej części oka znajduje się układ optyczny, czyli biologiczny odpowiednik obiektywu w aparacie fotograficznym. Najbardziej na zewnątrz wysunięta jest przezroczysta rogówka (cornea), która podobnie, jak twardówka zabezpiecza oko przed uszkodzeniem mechanicznym. Pełni ona również funkcję swego rodzaju filtra ochronnego i soczewki o stałej ogniskowej. Tuż za rogówką znajduje się otwór obiektywu, zwany źrenicą (pupil), którego średnica jest regulowana za pomocą przysłony, czyli tęczówki (iris).

Nawiasem mówiąc, w odróżnieniu od przysłony w aparacie fotograficznym, tęczówka jest barwna: najczęściej brązowa (w różnych odcieniach), ale może być również szara, zielona lub niebieska (ryc. 8.1).

Rycina 8.1. Barwy tęczówek oczu w zależności od ilości pigmentu

Rycina 8.1. Barwy tęczówek oczu w zależności od ilości pigmentu. Opracowanie na podstawie Franssen, Coppens, van den Berg (2008)

Za tęczówką leży zmiennoogniskowa soczewka (lens), jeden z najbardziej zdumiewających narządów w naszym ciele. Ralf Dahm (2007) nazywa ją „kryształem biologicznym”. Soczewka oka ma dwie własności, które odróżniają ją od układu optycznego w aparacie fotograficznym. Po pierwsze, ma znakomitą przezroczystość, dzięki czemu przepuszcza do wnętrza oka niemal 100% światła, oczywiście pod warunkiem, że jest w pełni sprawna. Soczewka oka jest również zmiennoogniskowa, co pozwala obserwatorowi na wyraźne oglądanie rzeczy znajdujących się w różnej odległości od niego. Mechanizm zmiany ogniskowej soczewki oka w niczym nie przypomina zmiany ogniskowej w obiektywie fotograficznym.

Utrzymywanie ostrości widzenia obiektów znajdujących się w różnej odległości od układu optycznego oka jest zagwarantowane przez możliwość zmiany kształtu soczewki oka. Im obiekt jest bliżej oczu obserwatora tym grubsza staje się soczewka, a im dalej, tym jest cieńsza (ryc. 9).

Rycina 9. Akomodacja soczewki oka do różnych odległości od obiektu, na którym koncentruje się wzrok

Rycina 9. Akomodacja soczewki oka do różnych odległości od obiektu, na którym koncentruje się wzrok. Opracowanie graficzne P.A.

Soczewka jest przyczepiona do wewnętrznej części gałki ocznej za pomocą mięśni rzęskowych (ciliary muscles), które kurcząc się rozciągają soczewkę, przez co staje się ona cieńsza, a rozluźniając – sprawiają, że soczewka pęcznieje w środkowej części. Efekt skupiania promieni świetlnych na tylnej ścianie gałki ocznej, czyli ogniskowania, jest związany ze zmianą kąta załamywania się promieni świetlnych na soczewce o różnej grubości. Grubsza soczewka załamuje promienie świetlne pod większym kątem niż cieńsza. Zjawisko to nazywa się akomodacją (accomodiation) oka.

Na przeciwległej ścianie układu optycznego oka leży światłoczuła matryca, czyli siatkówka (retina). Wyściela ona ok. 70% wewnętrznej powierzchni gałki ocznej. Światło odbite od przedmiotów znajdujących się w scenie wizualnej lub emitowane przez nie oświetla dno oka i tworzy jej siatkówkowe odwzorowanie, Charakteryzuje się ono tym, że jest: sferyczne, pomniej­szo­ne i odwrócone „do góry nogami” w stosunku do oryginału (oczywiście zakładając, że wiemy, jak wygląda oryginał). Tak czy inaczej, dla mózgu takie zniekształcenia nie stanowią większego problemu.

Jeżeli obserwator ma w pełni sprawny układ optyczny to cały obraz sceny wizualnej jest rzutowany na powierzchnię siatkówki z bardzo dużą dokładnością. Jest ostry i wyraźny. Niestety, bynajmniej nie oznacza to, że siatkówka odzwierciedla go w każdym miejscu z taką samą jakością, z jaką jest na nią rzutowany. Ze względu na sposób, w jaki analizowany jest rozkład światła padającego na siatkówkę, można porównać ją do mocno podniszczonego ekranu kinowego, który w wielu miejscach jest pofałdowany, zanieczyszczony, a miejscami nawet podziurawiony. Krótko mówiąc, o ile ze względu na budowę, oko i aparat fotograficzny mają wiele wspólnych cech, o tyle funkcjonowanie tych urządzeń jest niemal całkowicie odmienne (Duchowski, 2007). Sensory w matrycy aparatu fotograficznego zarejestrują każdy parametr światła z taką samą jakością, fotoreceptory w siatkówce oka – nie.

W siatkówce występują dwa rodzaje fotoreceptorów, czyli komórek światłoczułych. Są to: czopki (cones) i pręciki (rods). Nazwy tych receptorów pochodzą od ich kształtów: czopki przypominają nieco stożki, a pręciki – walce (ryc. 10). Pręciki są nieporównywalnie bardziej wrażliwe na światło wpadające do oka niż czopki, dlatego czopki pracują w ciągu dnia a w nocy „zasypiają” zaadaptowane do ciemności. Z kolei pręciki, przeciwnie – „śpią” w dzień zaadaptowane do światła, a w nocy są aktywne (Młodkowski, 1998).

Rycina 10. Pręcik i czopek

Rycina 10. Pręcik i czopek. Opracowanie graficzne P.A. na podstawie Matthews (2000) i Nolte (2011)

Czopki z różną siłą reagują na różne długości fal elektromagnetycznych w zakresie światła widzialnego, czyli mniej więcej od 400 do 700 nanometrów. Między długością fali elektromagnetycznej a widzeniem barw istnieje ścisła zależność (ryc. 11). Czopki reagują także na intensywność fali świetlnej. Z kolei pręciki nie różnicują barw, ale są szczególnie wyczulone na jasność (intensywność) światła. Obraz odzwierciedlany przez pręciki jest achromatyczny. Oznacza to tyle, że kiedy się ściemnia i pręciki przejmują kontrolę nad widzeniem przestajemy różnicować barwy, różnicując nadal odcienie szarości. Oczywiście zasada ta odnosi się wyłącznie do barw pokrywających powierzchnie, od których odbija się światło, a nie tych, które je emitują. W nocy widzimy kolorowe neony, ponieważ emitowane przez nie światło pobudza czopki. Możemy jednak nie dostrzec różnicy między zielenią i czerwienią lakierów dwóch stojących obok siebie samochodów w ciemnej ulicy, ponieważ w słabych warunkach oświetleniowych odbijają one mniej więcej tyle samo światła i pręciki zareagują na nie podobnie.

Rycina 11. Długości fal elektromagnetycznych w zakresie światła widzialnego w wersji chromatycznej (barwnej) i achromatycznej

Rycina 11. Długości fal elektromagnetycznych w zakresie światła widzialnego w wersji chromatycznej (barwnej) i achromatycznej, w kontekście innych długości fal elektromagnetycznych; m – metr, nm – nanometr, mm – milimetr, km – kilometr. Własne opracowanie graficzne

Widzenie w warunkach bardzo dobrego oświetlenia nazywa się widzeniem fotopowym (photopic) i biorą w nim udział przede wszystkim czopki, natomiast widzenie w warunkach słabego oświetlenia to widzenie skotopowe (scotopic) i jest ono wynikiem aktywności pręcików.

Podczas zmierzchu, wczesnym rankiem lub księżycową nocą pracują obydwa rodzaje fotoreceptorów. Im jest ciemniej, tym słabsza staje się reakcja czopków, a pręciki wybudzają się z dziennego letargu i reagują coraz intensywniej. Z kolei, im jest jaśniej wówczas czopki zaczynają intensywniej reagować na światło, a pręciki – coraz mniej. Mamy wówczas do czynienia z tzw. widzeniem mezopowym (mesopic) (ryc. 12). To szczególnie niebezpieczny czas dla kierowców, ponieważ żaden z systemów siatkówkowych nie działa wówczas na 100%. Jasność, która jest warunkiem aktywizacji określonego systemu widzenia wyraża się za pomocą jednostek zwanych kandelami na metr kwadratowy. Nie wchodząc w szczegóły definicyjne, jedna kandela odpowiada mniej więcej światłu o zmierzchu, już po zachodzie słońca.

Oglądanie obrazów jest możliwe przede wszystkim za pomocą czopków, które są odpowiedzialne za widzenie w dobrych warunkach oświetleniowych i dlatego im będziemy przyglądali się szczególnie uważnie.

Rycina 12. Trzy systemy widzenia: skotopowy, mezotopowy i fotopowy z zaznaczoną aktywnością pręcików i czopków w odniesieniu do różnych wielkości oświetlenia sceny wizualnej

Rycina 12. Trzy systemy widzenia: skotopowy, mezotopowy i fotopowy z zaznaczoną aktywnością pręcików i czopków w odniesieniu do różnych wielkości oświetlenia sceny wizualnej; jasność jest wyrażona w liczbie kandeli na m2 [cd/m2]. Własne opracowanie graficzne na podstawie Schubert (2006)

Rozmieszczenie czopków w siatkówce

W siatkówce oka dorosłego człowieka można doliczyć się ok. 4,6 miliona czopków (Curcio, Sloan, Kalina i Hendrickson, 1990). Największe ich skupisko znajduje się w miejscu przecięcia siatkówki przez oś widzenia (visual axis). Jej drugi koniec przecina z kolei miejsce, na którym koncentrujemy wzrok. Oś widzenia jest nachylona pod kątem ok. 5o w stosunku do osi optycznej oka (optic axis), przebiegającej przez środki wszystkich elementów układu optycznego oka, czyli rogówki, źrenicy i soczewki (ryc. 13).

Rycina 13. Oś optyczna oka i oś widzenia zilustrowane na horyzontalnym przekroju prawego oka (widok z góry)

Rycina 13. Oś optyczna oka i oś widzenia zilustrowane na horyzontalnym przekroju prawego oka (widok z góry). Opracowanie graficzne P.A.

Punkt przecięcia osi widzenia z siatkówką to niewielki obszar w kształcie elipsy o cięciwach ok. 1,5 mm w pionie i 2 mm w poziomie oraz o powierzchni ok. 2,4 mm2 (Niżankowska, 2000). Miejsce to nazywa się plamką żółtą (macula) i jest tam upakowanych ponad pół miliona czopków, czyli ponad 200 tys./mm2. Dla porównania, na 1 mm2 powierzchni ekranu LCD o rozdzielczości 1920 x 1200 znajdują się zaledwie 3-4 piksele. To 50 tys. razy mniej niż w centralnej części oka!

Wewnątrz plamki żółtej znajduje się jeszcze mniejszy obszar o powierzchni ok. 1 mm2, zwany dołkiem centralnym (fovea). W jego środku tzw. dołeczku (foveola) liczba czopków może osiągnąć nawet 324 tys./mm2. U dorosłego człowieka jest ich w tym miejscu średnio ok. 199 tys./mm2 (Curcio i in., 1990), a im dalej od dołka centralnego tym jest ich mniej (ryc. 14).

Rycina 14. Średnia gęstość występowania czopków i pręcików na powierzchni siatkówki

Rycina 14. Średnia gęstość występowania czopków i pręcików na powierzchni siatkówki. Na zdjęciach zagęszczenie czopków (większe) i pręcików (mniejsze) w zależności od odległości od dołka centralnego. Własne opracowanie graficzne na podstawie Curcio i in. (1990)

Gdyby można było wykorzystać czopki z okolicy środka dołka centralnego do zbudowania małoobrazkowej matrycy o wymiarach 36 x 24 mm z przeznaczeniem dla cyfrowego aparatu fotograficznego, to jej rozdzielczość wynosiłaby nie 12, czy nawet 30 megapikseli, ale ok. 280 Mpix! Dokładność obrazu rejestrowanego przez komórki znajdujące się w okolicy dołka centralnego jest niewyobrażalnie duża. Na ryc. 15 można zobaczyć powiększoną 900 razy powierzchnię siatkówki w okolicy środka dołka centralnego, z widocznymi czopkami w kształcie plamek (Ahnelt, Kolb i Pflug, 1987). Mniej więcej w taki sposób wygląda powierzchnia całej siatkówki-ekranu, na który rzutowany jest obraz znajdujący się naprzeciwko oka. W różnych miejscach może być tylko nieco inne zagęszczenie fotoreceptorów. To czego mózg dowiaduje się na temat świata za pośrednictwem oczu jest bezpośrednio związane z aktywnością tych niewielkich punktów ekranowych.

Rycina 15. Powiększony 900 razy fragment siatkówki oka w okoli-cy środka dołka centralnego

Rycina 15. Powiększony 900 razy fragment siatkówki oka w okolicy środka dołka centralnego. Własne opracowanie graficzne na podstawie Ahnelt, Kolb i Pflug (1987)

Powierzchnia dołka centralnego stanowi zaledwie 0,1% powierzchni całej siatkówki, zaś powierzchnia plamki żółtej – 0,3% (Młodkowski, 1998). Nie ma tam w ogóle pręcików, a znajdujące się w tym obszarze czopki stanowią 1/8 wszystkich czopków znajdujących się w siatkówce. Pozostałe 4-5 milionów czopków rozkłada się na 99,7% powierzchni siatkówki wokół plamki żółtej. Oznacza to, że na 1 mm2 siatkówki poza plamką żółtą przypada ich średnio ok. 7 tys. (Hofer, Carroll i Williams, 2009). To nadal całkiem sporo, ale na przeważającej części siatkówki jest ich jednak prawie trzydzieści razy mniej niż w dołku centralnym.

Jak nietrudno się domyślić, bezpośrednią konsekwencją opisanego rozkładu fotoreceptorów na siatkówce jest to, że w zależności od miejsca jej oświetlenia, rzutowany obraz jest przetwarzany z inną rozdzielczością przestrzenną. Innymi słowy, z miejsc o większym zagęszczeniu fotoreceptorów mózg czerpie znacznie więcej danych, które pozwalają mu wyraźniej zrekonstruować obraz sceny wizualnej, niż na podstawie danych pochodzących z tych części siatkówki, które są uboższe w fotoreceptory.

Kilka zdań na temat pręcików

Jak zostało to już zasygnalizowane, oprócz czopków, w siatkówce ludzkiego oka znajdują się jeszcze inne fotoreceptory, czyli pręciki. Ich liczba waha się od 78 do 107 milionów w zależności od człowieka (średnio ok. 92 miliony). Pręcików jest zatem ponad 20 razy więcej niż czopków (Curcio i in., 1990). Oznacza to, że siatkówka jest znacznie gorzej wyposażona „hardwareowo” do oglądania świata w barwach przy pełnym oświetleniu niż monochromatycznie i w ciemności. Najprawdopodobniej jest to pozostałość po naszych drapieżnych przodkach, którym niespecjalnie zależało na oglądaniu świata w kolorach i zdecydowanie preferowali polowanie nocą niż w ciągu dnia. No cóż, widzenie barwne odziedziczyliśmy po naszych małpich przodkach, którzy woleli spożywać posiłki w ciągu dnia, uważnie przyglądając się barwie skórki od banana lub mango. Miało to decydujące znaczenie, co najmniej w kwestii niestrawności.

W dołku centralnym nie ma pręcików a pierwsze pojawiają się dopiero na obrzeżach plamki żółtej. Im dalej od plamki żółtej tym jest ich więcej, a największa liczba pręcików znajduje się w odległości ok. 20o od dołka centralnego i jest porównywalna do liczby czopków w plamce żółtej, czyli ok. 150 tys./mm2 (ryc. 14). Przesuwając się jeszcze dalej w kierunku peryferii siatkówki liczba pręcików stopniowo zmniejsza się i na jej krawędziach jest ich już o połowę mniej, czyli ok. 75 tys./mm2.

Taki rozkład pręcików powoduje, że w słabych warunkach oświetleniowych, możemy dostrzec coś w miarę wyraźnie nie patrząc wprost tylko „kątem oka”, a dokładniej, przesuwając środek układu optycznego oka o ok. 20o kątowych od miejsca, które chcemy dokładnie zobaczyć. Dopiero wtedy obraz rzutowany na siatkówkę zostanie zinterpretowany z największą możliwą rozdzielczością.

Dziura w siatkówce

Na koniec jeszcze kilka zdań, dotyczących drobnego szczegółu konstrukcyjnego siatkówki. Mniej więcej w odległości 15o od dołka centralnego, w przynosowej części siatkówki każdego oka znajduje się dosłownie „dziura” o średnicy 1,5 mm i powierzchni ok. 1,2 mm2. To miejsce nazywa się plam­ką ślepą (blind spot) lub tarczą nerwu wzrokowego (optic disc) i nie ma w tym miejscu ani jednego fotoreceptora. Tamtędy przechodzi nerw wzrokowy, po którym biegną sygnały o stanie pobudzenia fotoreceptorów do wnętrza mózgu, a także naczynia krwionośne, niezbędne do dotlenienia komórek wewnątrz oka. W tym miejscu obraz rzutowany na dno oka trafia w pustkę. Bardzo łatwo można się o tym przekonać. Wystarczy zamknąć prawe oko i lewym patrzeć na jeden z krzyżyków, znajdujący się po prawej stronie na ryc. 16, a następnie powoli zbliżać się i oddalać od niego. W którymś położeniu głowy stwierdzimy, że leżące po lewej stronie kółko staje się niewidoczne, a przerwa w linii znika. Dzieje się tak ponieważ obraz punktu lub przerwy w linii jest rzutowany na plamkę ślepą.

Rycina 16. Test na plamkę ślepą w siatkówce lewego oka

Rycina 16. Test na plamkę ślepą w siatkówce lewego oka. Własne opracowanie graficzne na podstawie Hurvich (1981)

Na szczęście mamy dwoje oczu i to znacznie zmniejsza problemy związane z niewidzeniem fragmentu obrazu w obrębie plamki ślepej. Ponieważ oczy są odsunięte od siebie, dlatego na ich siatkówki w punkcie tarczy nerwu wzrokowego rzutowane są nieco inne fragmenty sceny wizualnej. W rezultacie, ten fragment, którego nie widzi jedno oko, widzi drugie i vice versa. Ostatecznie mózg i tak analizuje dane dostarczone mu równocześnie z obu oczu.

Wyspecjalizowane komórki zwojowe

Oddolna analiza zawartości sceny wizualnej na wczesnych etapach szlaku wzrokowego jest możliwa dzięki obecności w siatkówkach oczu obserwatora nie tylko fotoreceptorów, ale również różnych typów komórek nerwowych, z których szczególnie ważną rolę pełnią wspomniane już komórki zwojowe (ganglion cells). Specjalizują się one w przetwarzaniu danych, dotyczących: (1) długości fali światła widzialnego, co stanowi podstawę widzenia barw, (2) kontrastów jasności światła, dzięki czemu widzimy, m.in. krawędzie rzeczy lub ich części, czyli generalnie rzecz biorąc – kształty, (3) zmienności oświetlenia w czasie, która stanowi podstawę widzenia ruchu i (4) rozdzielczości przestrzennej, która leży u podłoża ostrości widzenia.

Wśród wielu rodzajów komórek zwojowych można zidentyfikować takie, które są szczególnie wrażliwe, np. na częstotliwość fali światła widzialnego odpowiadającego barwie zielonej. Oznacza to mniej więcej tyle, że jeżeli te komórki zwojowe wysyłają – niczym alfabetem Morse’a – impulsy nerwowe w kierunku kory mózgu, wówczas obserwator doświadcza widzenia czegoś zielonego. A jeśli zaktywizują się komórki odpowiedzialne za detekcję ruchu, to mózg „dowiaduje się”, że coś się zmienia przed oczyma obserwatora, choć na podstawie tych informacji jeszcze nie „wie” czy to coś się rusza w scenie wizualnej, czy porusza się obserwator, czy też jedno i drugie. Ale i tego szybko „się dowie” analizując dane płynące z innych zmysłów. Dość powiedzieć, że widzenie takiej czy innej własności obrazu bezpośrednio wynika z kondycji neuronalnych przetworników i przekaźników danych sensorycznych. Ich uszkodzenie może spowodować, że jakiejś cechy obrazu po prostu nie dostrzegamy, jakby jej nie było.

Kiedy przyjrzymy się budowie anatomicznej komórek zwojowych okazuje się, że zasadniczo dzielą się one na trzy grupy. Pierwszą, stanowią komórki karłowate (midget ganglion cells), o drobnych ciałach i stosunkowo niewielkiej liczbie odgałęzień, czyli drzew dendrytycznych oraz aksonu. Druga grupa to komórki parasolowe (parasol ganglion cells), o dużych ciałach i znacznie większej ilości odgałęzień (ryc. 17). Trzecią grupę tworzą komórki pyłkowe (bistratified ganglion cells), o maleńkich ciałach i nieproporcjonalnie dużych rozgałęzieniach w stosunku do wielkości ich ciała, choć i tak znacznie mniejszych niż rozgałęzienia komórek parasolowych, a nawet karłowatych (Dacey, 2000).

Rycina 17. Ciała i rozgałęzienia komórek zwojowych karłowatych i parasolowych w zależności od odległości od dołka centralnego

Rycina 17. Ciała i rozgałęzienia komórek zwojowych karłowatych i parasolowych w zależności od odległości od dołka centralnego. Własne opracowanie graficzne na podstawie Wandell (1995)

Chociaż komórki karłowate są mniejsze niż parasolowe, to ich wielkość, a zwłaszcza ilość i rozłożystość drzew dendrytycznych, które umożliwiają im odbieranie impulsów nerwowych od innych komórek, zależy od odległości, w jakiej znajdują się one od dołka centralnego. Im bliżej znajdują się dołka centralnego, tym jedne i drugie są mniejsze.

Oprócz dendrytów, każda komórka nerwowa ma również akson, czyli takie odgałęzienie, które odprowadza impulsy nerwowe z ciała danej komórki do innej. To właśnie aksony wszystkich trzech rodzajów komórek zwojowych tworzą zasadniczy zrąb nerwu wzrokowego (opitc nerve). Składa się on z ok. 1 miliona (od 770 tysięcy do 1,7 miliona) aksonów komórek zwojowych (Jonas, Schmidt, Müller-Bergh, Schlötzer-Schrehardt i in., 1992) i przypomina nieco przewód elektryczny, złożony z miedzianych drucików.

Ilość aksonów trzech wymienionych typów komórek zwojowych w nerwie wzrokowym nie jest taka sama. Najwięcej, bo ok. 80% stanowią aksony komórek karłowatych, a tylko po ok. 10% stanowią aksony komórek parasolowych i pyłkowych. Włókna komórek małych (tzn. karłowatych i pyłkowych) stanowią zatem ok. 90% wszystkich aksonów tworzących nerw wzrokowy. Oznacza to, że z jakiś powodów dane przesyłane przez mniejsze komórki zwojowe są ważniejsze dla mózgu niż dane docierające doń za pośrednictwem aksonów większych (parasolowych) komórek zwojowych.

Ciała komórek zwojowych znajdują się w siatkówce oka. Ich dendryty odbierają dane z fotoreceptorów, za pośrednictwem jeszcze innych komórek, ale nimi zajmiemy się później. W każdym razie, ze względu na mniejszą ilość dendrytów, komórki karłowate łączą się ze znacznie mniejszą ilością fotoreceptorów i innych komórek w siatkówce, niż komórki parasolowe, które mają duże drzewa dendrytyczne. Ważne jest natomiast to, że małe komórki zwojowe (karłowate i pyłkowe) łączą się przede wszystkim z fotoreceptorami znajdującymi się w centralnej części siatkówki. Są one więc znacznie wrażliwsze na rozdzielczość przestrzenną oświetlenia siatkówki niż komórki parasolowe. Dzięki komórkom karłowatym możemy zatem z wielką dokładnością odróżniać od siebie kształty jednych rzeczy od innych. Pewien problem stanowi tylko to, że największe ich skupisko pokrywa stosunkowo niewielki obszar siatkówki, a w rezultacie – niewielki zakres pola widzenia.

Inną własnością małych komórek zwojowych jest ich wrażliwość na długości fal świetlnych. Ponad 90% z nich specjalizuje się w tym zakresie, dając początek procesom widzenia i różnicowania barw. Niemal wszystkie komórki karłowate znakomicie różnicują długości fali elektromagnetycznej, odpowiadającej barwie zielonej i czerwonej, natomiast znacznie gorzej radzą sobie z opozycją barw żółtej i niebieskiej. Ale to zadanie wykonują komórki pyłkowe. To one odgrywają podstawową rolę w przetwarzaniu danych dotyczących różnicowania barwy niebieskiej i żółtej (Dacey, 2000).

W przeciwieństwie do małych komórek zwojowych, komórki zwojowe typu parasolowego nie różnicują długości fali świetlnej, ale za to są znacznie wrażliwsze na wykrywanie krawędzi między płaszczyznami o podobnej jasności, niż komórki karłowate. Są one w stanie zarejestrować 1-2-procentową różnicę w jasności płaszczyzn leżących obok siebie, a 10-15-procentowe różnice w jasności kodują bez problemów (Shapley, Kaplan i Soodak, 1981).

Komórki karłowate wymagają znacznie większej różnicy w zakresie jasności leżących obok siebie płaszczyzn, żeby ją zarejestrować. Ponadto, komórki parasolowe pokrywają dużo większy obszar siatkówki oka niż komórki karłowate. Obie te cechy dużych komórek zwojowych znakomicie uzupełniają ograniczenia małych komórek w zakresie detekcji konturów rzeczy znajdujących się w polu widzenia obserwatora poza dołkiem centralnym oraz w odniesieniu do relacji przestrzennych między nimi.

Jest jeszcze jedna ważna różnica między komórkami małymi i dużymi. Otóż duże komórki mają znacznie grubsze aksony niż komórki małe i dlatego przesyłają impulsy nerwowe dwukrotnie szybciej, tj. z prędkością ok. 4 m/sek., niż komórki karłowate. Ta własność komórek parasolowych ma kluczowe znaczenie dla detekcji zmian w oświetleniu siatkówki, co pozwala obserwatorowi dostrzegać ruch. Wzrokowa detekcja ruchu przedmiotu (a także ruchu obserwatora) jest równoznaczna z przesuwaniem się tego samego lub podobnego układu światła i cienia po siatkówce oka w czasie. Tempo i kierunek przesunięć obrazu na siatkówce jest wskaźnikiem szybkości i kierunku ruchu.

Kończąc tę funkcjonalną charakterystykę wielkich i drobnych komórek nerwowych warto również zauważyć, że podobnie jak cechy niemal każdej sceny wizualnej również i one dają się połączyć w dwie kategorie. Otóż komórki karłowate i pyłkowe, są szczególnie wrażliwe na barwę i rozdzielczość przestrzenną światła, która stanowi podstawę widzenia kształtów rzeczy w scenie wizualnej i różnicowania ich od siebie. Można powiedzieć, że to dzięki ich aktywności mamy szansę oddzielać od siebie i od tła przedmioty, które tworzą scenę wizualną. To najbardziej podstawowa funkcja widzenia i właśnie dlatego aksony komórek karłowatych i pyłkowych są tak licznie reprezentowane w nerwie wzrokowym.

Z kolei komórki parasolowe, dzięki dużej szybkości przesyłania sygnałów oraz znacznie większej wrażliwości na różnicowanie odcieni jasności w scenie wizualnej, niż komórki małe, umożliwiają widzenie ruchu i organizacji przestrzennej oglądanej sceny, a także bardzo skutecznie wspomagają proces identyfikacji konturów rzeczy.

Tak oto z budowy anatomicznej i fizjologii komórek zwojowych wynikają określone ich funkcje, a z nich zaczynają wyłaniać się zręby subiektywnego doświadczenia widzenia obrazu. Obrazy widzimy bowiem tak jak widzimy, ponieważ taki mamy biologiczny hardware, a nie dlatego, że one takie są.

Od siatkówki do ciała kolankowatego bocznego

Pierwszą strukturą w mózgu, do której docierają informacje z siatkówek oczu jest znajdujące się we wzgórzu, ciało kolankowate boczne (LGN). Już w latach 20. XX wieku Mieczysław Minkowski, szwajcarski neurolog polskiego pochodzenia odkrył, że aksony małych i wielkich komórek zwojowych łączą się z LGN w zaskakująco uporządkowany sposób (Valko, Mumenthaler i Bassetti, 2006).

Budowa LGN przypomina ziarno fasoli, po przecięciu którego ujawnia się sześć wyraźnie oddzielonych od siebie warstw komórek nerwowych o dwóch różnych wielkościach (ryc. 18).

Ciemniejsze warstwy komórek oznaczone cyframi 1 i 2, odbierają impulsy nerwowe za pośrednictwem aksonów parasolowych komórek zwojowych. Ponieważ ciała komórek tworzących te warstwy w LGN również mają stosunkowo duże rozmiary, dlatego warstwy te są zwane – wielkokomór­kowymi (magnocellular layers), typu M (magno) lub typu Y.

Rycina 18. Przekrój ciała kolankowatego bocznego (LGN) z zaznaczonymi warstwami

Rycina 18. Przekrój ciała kolankowatego bocznego (LGN) z zaznaczonymi warstwami: 1 i 2 – wielkokomórkowymi (czerwone strzałki wskazujące na ciemne paski), 3-6 – drobnokomórkowymi (białe strzałki wskazujące na ciemne paski) i 7 – pyłkokomórkową (żółta strzałka wskazująca na jasny pasek między warstwą 2 i 3). Własne opracowanie graficzne na podstawie notatek do wykładów Lery Boroditsky

Warstwy oznaczone cyframi 3-6 odbierają sygnały z aksonów małych komórek zwojowych, a ponieważ same również składają się z komórek o niewielkich ciałach, dlatego te warstwy zwane są – drobnokomórkowymi (parvocellular layers), typu P (parvo) lub typu X. Budowa anatomiczna i cechy funkcjonalne małych i dużych komórek zwojowych zlokalizowanych w siatkówkach oczu oraz komórek tworzących poszczególne warstwy ciała kolankowatego bocznego, są niemal identyczne. Dlatego też wśród badaczy zajmujących się problematyką widzenia jest zgoda, co do tego, że parasolowe komórki zwojowe, a w dwóch warstwach LGN – komórki typu M są częścią tzw. wielkokomórkowego szlaku wzrokowego (magnocellular path­way), natomiast karłowate komórki zwojowe, a w czterech warstwach LGN – komórki typu P wyznaczają, tzw. drobnokomórkowy szlak wzrokowy (parvocellular pathway).

Na ryc. 18 zaznaczono także warstwę siódmą, która znajduje się między warstwami wielko- i drobnokomórkowymi, czyli drugą i trzecią. W tej warstwie znajdują się komórki pyłkowe (koniocellular cells) lub inaczej – typu K, które odbierają projekcje ze zwojowych komórek pyłkowych. W związku z istnieniem tej warstwy w LGN, do dwóch poprzednich, należy dodać trzeci szlak wzrokowy, tzw. pyłkokomórkowy (koniocellular pathway). Ponieważ komórki na szlaku pyłkokomórkowym stanowią zaledwie ok. 10% wszystkich komórek zwojowych oraz z uwagi na to, że pełnią one analogiczne funkcje do funkcji pełnionych przez komórki karłowate, dlatego szlak pyłkokomórkowy traktuje się jako część szlaku drobnokomórkowego.

Podsumowując własności drobno- i wielkokomórkowego szlaku wzrokowego warto rzucić okiem na poniższe zestawienie.

 Charakterystyka  Szlak wielko­komórkowy  Szlak drobno­komórkowy
Wielkość ciała komórek zwojowych duże małe
Wielkość pola recepcyjnego komórek zwojowych duże małe
Szybkość transmisji impulsów nerwowych szybka wolna
Ilość aksonów w nerwie wzrokowym i trakcie optycznym mała duża
Różnicowanie barw nie tak
Wrażliwość na kontrast mała duża
Rozdzielczość przestrzenna mała duża
Rozdzielczość czasowa i wrażliwość na ruch duża mała
Wrażliwość na różnicowanie jasności płaszczyzn leżących obok siebie duża mała

Podział warstw w LGN ze względu na skrzyżowanie wzrokowe

Warstwy LGN dzielą się nie tylko na pyłkowe, drobne i wielkie, ale również na prawe i lewe. Podobnie jak większość struktur mózgowych, LGN jest ciałem parzystym, tzn. występuje zarówno po prawej, jak i po lewej stronie mózgu. U naczelnych, w tym także u człowieka, między siatkówkami oczu a LGN znajduje się wspomniane już skrzyżowanie wzrokowe (ryc. 19). Jest to miejsce podziału wiązek aksonów komórek zwojowych na dwie części. To bardzo sprytny wynalazek ewolucji, ponieważ dzięki niemu utrata jednego oka nie pociąga za sobą całkowitego wyłączenia którejś części mózgu z przetwarzania danych wzrokowych. Po skrzyżowaniu się wiązek nerwu wzrokowego, do LGN, leżącego po tej samej stronie co oko, trafiają dane z zewnętrznej (skroniowej) części siatkówki tego oka oraz dane z przynosowej części siatkówki drugiego oka.

W wyniku podziału aksonów nerwu wzrokowego na dwie części, warstwy LGN oznaczone na ryc. 18 numerami 1, 4 i 6 odbierają sygnały z oka leżącego po przeciwnej stronie głowy, a warstwy 2, 3 i 5 – z oka znajdującego się po tej samej stronie głowy co LGN. Ta sama zasada dotyczy obu struktur LGN, znajdujących po prawej i po lewej stronie głowy.

Rycina 19. Schemat połączeń siatkówek prawego i lewego oka z prawo- i lewopółkulowym LGN za pośrednictwem aksonów komórek zwojowych tworzących nerw wzrokowy (do skrzyżowania wzrokowego) i pasmo wzrokowe między skrzyżowaniem a LGN

Rycina 19. Schemat połączeń siatkówek prawego i lewego oka z prawo- i lewopółkulowym LGN za pośrednictwem aksonów komórek zwojowych tworzących nerw wzrokowy (do skrzyżowania wzrokowego) i pasmo wzrokowe między skrzyżowaniem a LGN. Opracowanie graficzne P.A.

Warto zapamiętać, że LGN pełni funkcję organizującą dane sensoryczne dotyczące różnych cech sceny wizualnej. Po niemal chaotycznej plątaninie dendrytów i aksonów rozlicznych komórek, z których zbudowana jest siatkówka oka, od tego miejsca już znacznie łatwiej można się zorientować, po których przewodach płyną dane źródłowe dotyczące barw, konturów rzeczy, ich ruchu i organizacji przestrzennej. Ponadto ich uporządkowanie pozwala przewidzieć, nie tylko z której strony ciała one napływają, ale także z której części oka. Widzenie jest poważnym przedsięwzięciem logistycznym dla mózgu i dlatego dobra organizacja danych jest podstawą sukcesu, czyli zbudowania trafnej reprezentacji sceny wizualnej.

Promienistość wzrokowa

Ostatni etap wczesnego szlaku przetwarzania danych wzrokowych kończy się na tzw. promienistości wzrokowej (optic radiation). Za jej pośrednictwem, dane o rozkładzie światła w scenie wizualnej są dostarczone do kory wzrokowej (visual cortex) w płacie potylicznym (occipital lobe), a ściślej mówiąc do tzw. bruzdy ostrogowej (calcarine sulcus), znajdującej się po wewnętrznej stronie tych płatów. Promienistość w istocie jest pasmem aksonów komórek, których ciała tworzą poszczególne warstwy w LGN. Swoją oryginalną nazwę bierze ze specyficznego układu włókien, które szerokim łukiem rozkładają się wśród ciasno upakowanych struktur leżących pod korą mózgu (ryc. 20).

Rycina 20. Promienistość wzrokowa – połączenie między poszczególnymi warstwami LGN i pierwotna korą wzrokową w płacie potylicznym

Rycina 20. Promienistość wzrokowa – połączenie między poszczególnymi warstwami LGN i pierwotna korą wzrokową w płacie potylicznym. Z lewej strony obraz anatomiczny mózgu wykonany post mortem, z prawej obraz wykonany techniką traktografii. Własne opracowanie graficzne na podstawie Wandell i Winawer (2011)

Frenologiczny punkt widzenia na funkcje kory mózgu w procesie widzenia

Jeszcze pod koniec XIX dominującą koncepcją neuropsychologiczną była frenologia (phrenology). Zgodnie z założeniami jej twórcy, niemieckiego fizyka Franza Josefa Galla, istnieje ścisły związek między budową anatomiczną i lokalizacją różnych struktur kory mózgu a realizowanymi przez nie funkcjami psychicznymi, czyli umysłem. Jakkolwiek obecnie frenologia jest traktowana jako pseudonauka, to w istocie była ona niezwykle trafną intuicją, która leży u podstaw współczesnej neuronauki (Fodor, 1983).

Ze względu na brak odpowiednich narzędzi diagnostycznych, a także metodologii badań neuropsychologicznych, frenologowie dość swobodnie kojarzyli funkcje psychiczne z różnymi częściami kory mózgu. W odniesieniu do widzenia nie mieli jednak wątpliwości, że jest ono realizowane przez korę czołową, nad- i okołooczodołową. Całą tę część kory określono jako percepcyjną i różnym jej fragmentom przypisano funkcje widzenia: kształtu (form, pole 23), wielkości (size, pole 24) i barwy (coloring, pole 26), a także odczuwania ciężaru (weight, pole 25). W okolicach skroniowych oczodołów lokalizowali funkcje związane z percepcją liczb (number, pole 28) i zdolnościami obliczeniowymi (order, calculation, pole 29), a w korze zaoczodołowej – funkcje językowe (language, pole 33). W strukturach czołowych znalazła również swoją lokalizację wyobraźnia (imitation, pole 21) (ryc. 21).

Frenologowie nawet się nie domyślali, że widzenie jest procesem, który angażuje najbardziej oddalone od oczu struktury kory mózgu, czyli płat potyliczny. Tym częściom mózgu byli raczej skłonni przypisać takie funkcje, jak płodność, miłość rodzicielską i miłość do dzieci w ogóle (philoprogenitiveness, pole 2), przyjaźń i przywiązanie (adhesiveness, pole 4), umiłowanie domu i ojczyzny (inhabitativeness, pole 3a), a także zdolność do koncentracji uwagi, zwłaszcza w zadaniach intelektualnych (concentrativeness, pole 3).

Interesujące są także funkcje przypisywane przez frenologów płatom skroniowym, które – jak dzisiaj już wiemy – także odgrywają istotną rolę w widzeniu. Raczej lokalizowali w nich podstawę przebojowości (combativeness, pole 5), siły (destructiveness, pole 6) i powściągliwości (secretiveness, pole 7).

Wyniki badań w obszarze neuronauki ujawniły całkowicie odmienną od frenologicznej lokalizację struktur odpowiedzialnych za różne funkcje psychiczne, a w szczególności za widzenie.

Rycina 21. Strona z Webster's Academic Dictionary z 1895 roku z ilustracją i opisem korowych lokalizacji funkcji psychicznych

Rycina 21. Strona z Webster’s Academic Dictionary z 1895 roku z ilustracją i opisem korowych lokalizacji funkcji psychicznych

Kora wzrokowa w świetle neuronauki

Przetwarzaniem danych sensorycznych na wyższych piętrach szlaku wzrokowego, zajmuje się ok. 4-6 miliardów komórek nerwowych w płacie potylicznym, ciemieniowym, skroniowym, a nawet czołowym. W sumie, dane zarejestrowane przez fotoreceptory znajdujące się w siatkówkach oczu angażują ok. 20% całej powierzchni kory mózgu człowieka (Wandell, Dumoulin i Brewer, 2009). Ze względu na szczególnie ważną rolę, jaką w procesie widzenia odgrywają płaty potyliczne, obszar ten nazywa się także korą wzrokową (visual cortex) (ryc. 22).

Rycina 22. Kora wzrokowa i inne struktury korowe zaangażowane w widzenie

Rycina 22. Kora wzrokowa i inne struktury korowe zaangażowane w widzenie. Opracowanie graficzne P.A. na podstawie Logothetis (1999) i Zeki (2003)

 Ze względu na budowę anatomiczną, korę wzrokową można podzielić na dwie części: korę prążkową (striate cortex) i korę pozaprążkową (extrasrtriate cortex). Kora prążkowa znajduje się w miejscu, zwanym bruzdą ostrogową (calcarine sulcus), na samym końcu płata potylicznego, w jego części przyśrodkowej (ryc. 23 A). Zgodnie z klasyfikacją obszarów mózgu zaproponowaną w 1907 roku przez niemieckiego neurologa, Korbiniana Brodmanna, jest to pole 17. Oprócz bruzdy ostrogowej obejmuje ono także fragment zewnętrznej części płata potylicznego (ryc. 23B). Pole 17 jest również określane, jako pierwszorzę­dowa kora wzrokowa (primery visual cortex) lub obszar V1 (od pierwszej litery angielskiego słowa vision i podkreślenia, że jest to pierwszy korowy etap szlaku wzrokowego).

W obu półkulach mózgu, w obszarze V1 znajduje się ok. 300 milionów neuronów, czyli 40 razy więcej niż liczba neuronów w LGN (Wandell, 1995). Do V1 płyną impulsy nerwowe wzdłuż promienistości wzrokowej, czyli po aksonach komórek, których ciała znajdują się w LGN.

Rycina 23. Bruzda ostrogowa z zaznaczonym polem 17, czyli korą prążkową (V1) od strony: A – wewnętrznej, lewego płata potylicznego i B – zewnętrznej, prawego płata potylicznego

Rycina 23. Bruzda ostrogowa z zaznaczonym polem 17, czyli korą prążkową (V1) od strony: A – wewnętrznej, lewego płata potylicznego i B – zewnętrznej, prawego płata potylicznego. Własne opracowanie graficzne na podstawie Horton i Hoyt (1991)

Pozostałe części kory wzrokowej nazywa się korą pozaprążkową. Zasadniczo obejmuje ona brodmannowskie pola 18 i 19, lub zgodnie z inną notacją, obszary: V2, V3, V3A, V4 i V5 (ryc. 22). W analizie danych wzrokowych biorą również udział struktury korowe, znajdujące się we wszystkich płatach mózgu: w płacie ciemieniowym, np. V7 lub bruzda śródciemieniowa (intraparietal sulcus; IPS), w płacie skroniowym, np. dolna kora skroniowa (inferior temporal cortex; ITC) lub górna bruzda skroniowa (superior temporal sulcus; STS) oraz w płacie czołowym, np. korowy ośrodek skoja­rzo­nego spojrzenia w bok (frontal eye field; FEF).

Żeby zrozumieć, co mózg robi ze światłem pobudzającym fotoreceptory w siatkówkach oczu trzeba przeanalizować budowę i funkcje wszystkich tych jego części korowych, które są zaangażowane w widzenie.

Skąd się biorą prążki na powierzchni kory V1?

Kora prążkowa bierze swoją nazwę od wyglądu powierzchni, przypominającej nieco umaszczenie zebry (ryc. 24). Ciemniejsze prążki widoczne na jej powierzchni powstały w wyniku wybarwienia komórek za pomocą techniki oksydazy cytochromowej (cytochrome oxidase; COX). Odbierają one sygnały płynące z oka leżącego po przeciwnej stronie głowy niż dany fragment kory V1 (LeVay, Hubel i Wiesel, 1975; Sincich i Horton, 2002). Jak pamiętamy, po skrzyżowaniu wzrokowym, poszczególne warstwy komórek w prawym i w lewym LGN odbierają sygnały płynące zarówno z oka leżącego po tej samej, jak i po przeciwnej stronie głowy. Podobnie jest w korze V1. Do obu jej części, czyli z prawej i z lewej strony mózgu płyną impulsy nerwowe  z oczu leżących po obu stronach głowy.

Rycina 24. Zdjęcie powierzchni kory prążkowej lewego płata potylicznego; widok z góry po rozłożeniu bruzdy ostrogowej na płaszczyźnie i wybarwieniu jej za pomocą techniki oksydazy cytochromowej; ciemniejsze prążki wskazują na położenie tych komórek, które odbierają sygnały z oka leżącego po przeciwnej, czyli po prawej stronie głowy

Rycina 24. Zdjęcie powierzchni kory prążkowej lewego płata potylicznego; widok z góry po rozłożeniu bruzdy ostrogowej na płaszczyźnie i wybarwieniu jej za pomocą techniki oksydazy cytochromowej; ciemniejsze prążki wskazują na położenie tych komórek, które odbierają sygnały z oka leżącego po przeciwnej, czyli po prawej stronie głowy. Własne opracowanie graficzne na podstawie Sincich i Horton (2002)

Żeby zrozumieć skąd się biorą prążki na powierzchni pierwszorzędowej kory wzrokowej trzeba zajrzeć do jej wnętrza przecinając ją w poprzek (ryc. 25). Na pierwszy rzut oka, na przekroju kory wzrokowej widać tylko trzy paski, dwa nieco jaśniejsze i jeden ciemniejszy znajdujący się między nim. Ten ciemniejszy zwany jest prążkiem Gennariego (stria of Gennari), od nazwiska jego odkrywcy, włoskiego studenta medycyny, Francesco Gennariego. Bez mikroskopu nie widać innych szczegółów budowy wewnętrznej pierwszorzędowej kory wzrokowej.

Rycina 25. Poprzeczny przekrój kory prążkowej przez bruzdę ostrogową. A – zdjęcie z wyraź-nie widoczną jasną wstążką kory prążkowej z ciemniejszym prążkiem Gennariego i B – schematyczne odwzorowanie zdjęcia A z zaznaczonym zakresem kory V1

Rycina 25. Poprzeczny przekrój kory prążkowej przez bruzdę ostrogową. A – zdjęcie z wyraź-nie widoczną jasną wstążką kory prążkowej z ciemniejszym prążkiem Gennariego i B – schematyczne odwzorowanie zdjęcia A z zaznaczonym zakresem kory V1. Własne opracowanie graficzne na podstawie Andrews, Halpern i Purves (1997)

Jeśli jednak obejrzymy ją pod mikroskopem – a zwłaszcza po uprzednim wybarwieniu znajdujących się tam komórek – wówczas zobaczymy coś, co przypomina uporządkowaną strukturę warstw w LGN. Komórki w korze V1 są ułożone w 6 poziomych warstw, oznaczanych rzymskimi cyframi, od I do VI. Najszersza jest warstwa IV, która dzieli się jeszcze na cztery cieńsze warstwy: IVA, IVB, IVCα i IVCβ (ryc. 26).

Widoczny na ryc. 25 ciemny prążek Gennariego to właśnie fragment IV warstwy, a ściślej obszar, w którym znajdują się połączenia między warstwami IVB a IVCα. Warstwa IV pełni funkcję bramy wejściowej do kory wzrokowej mózgu. To przez nią, a zwłaszcza przez warstwy IVCα i IVCβ, docierają do pierwotnej kory wzrokowej impulsy nerwowe z LGN, a wcześniej z siatkówek obu oczu, za pośrednictwem promienistości wzrokowej. Dopiero z warstwy IV dane sensoryczne są rozsyłane dalej do komórek znajdujących się w innych warstwach kory V1.

Rycina 26. Przekrój poprzeczny kory prążkowej makaka z wybarwionymi warstwami komórek metodą: A – Nissla i B – Golgiego. Barwny pas na poziomie warstwy IVB i IVCα wskazuje na położenie prążka Gennariego

Rycina 26. Przekrój poprzeczny kory prążkowej makaka z wybarwionymi warstwami komórek metodą: A – Nissla i B – Golgiego. Barwny pas na poziomie warstwy IVB i IVCα wskazuje na położenie prążka Gennariego. Własne opracowanie graficzne na podstawie Lund (1973)

Islamska architektura kory V1

Następną ciekawostką związaną z budową pierwotnej kory wzrokowej jest to, że komórki, które tworzą poszczególne jej warstwy łączą się ze sobą w wyraźne kolumny. Dobrze je widać na zdjęciu wykonanym metodą Golgiego na ryc. 26. Drzewa dendrytyczne komórek znajdujących się w I warstwie są niczym głowice kolumn, których bazę stanowią komórki znajdujące się w warstwie VI, a trzon – komórki leżące w warstwach od II do V.

Patrząc na prążkowaną powierzchnię pierwotnej kory wzrokowej na ryc. 24 widzimy zatem tylko głowice poszczególnych kolumn. Jeżeli jednak zostaną wybarwione kolumny komórek, które odbierają impulsy nerwowe tylko z jednego oka, wówczas wszystkie głowice tych kolumn także przyjmą tę barwę, a na powierzchni kory wzrokowej zobaczymy ciemniejsze prążki (ryc. 27). Wskazują one na miejsca, gdzie w korze wzrokowej znajdują się rzędy komórek odbierających i przetwarzających sygnały z prawego lub lewego oka. Tworzą one coś w rodzaju kolumnad takich, jakie możemy podziwiać w Wielkim Meczecie w Kordobie. Tuż obok jednej kolumnady biegnie następny rząd neuronalnych kolumn, odbierających sygnały z drugiego oka itd.

Rycina 27. Kolumnady neuronów w korze prążkowej, odbierające sygnały z prawego i z lewego oka

Rycina 27. Kolumnady neuronów w korze prążkowej, odbierające sygnały z prawego i z lewego oka. Opracowanie graficzne P.A.

Zorientowane komórki

Odkrycie następnej własności pierwotnej kory wzrokowej zakończyło się przyznaniem Nagrody Nobla w 1981 roku dwóm neurofizjologom Davidowi Hubelowi i Torstenowi Wieselowi. Eksperymentując z korą wzrokową kota stwierdzili oni, że stojące obok siebie kolumny komórek, które reagują na dane płynące z jednego oka są wyspecjalizowane w zakresie orientacji przestrzennej fragmentów konturów rzeczy rejestrowanych przez to oko. Oznacza to, że wewnątrz kory V1 kolumny komórek są uporządkowane w dwóch płaszczyznach.

Jedną płaszczyznę wyznaczają komórki reagujące niezależnie od siebie na dane płynące z prawego i lewego oka. Z kolei druga płaszczyzna leży w poprzek tamtej i obejmuje komórki, które reagują na różne kąty, pod jakimi spostrzegany jest fragment konturu widzianej rzeczy, niezależnie od tego, za pomocą którego oka został on zarejestrowany. Opisując tę zdumiewającą strukturę pierwszorzędowej kory wzrokowej Hubel i Wiesel (1972) zaproponowali funkcjonalny model uporządkowania kolumn komórek w V1, znany jako model kostek lodu (ice-cube model) (ryc. 28).

Rycina 28. Funkcjonalny model kostek lodu ilustrujący wrażliwość kolumn neuronów tworzących pierwotną korę wzrokową na dane pochodzące z prawego i z lewego oka oraz na dane dotyczące kąta nachylenia konturu zarejestrowanego w danym fragmencie siatkówki oka

Rycina 28. Funkcjonalny model kostek lodu ilustrujący wrażliwość kolumn neuronów tworzących pierwotną korę wzrokową na dane pochodzące z prawego i z lewego oka oraz na dane dotyczące kąta nachylenia konturu zarejestrowanego w danym fragmencie siatkówki oka. Opracowanie graficzne P.A. na podstawie Hubel (1988)

 Oczywiście nie należy tego modelu traktować dosłownie, choćby z tego powodu, że – jak przekonaliśmy się oglądając powierzchnię kory V1 – rzędy kolumn neuronów reagujących na sygnały płynące z jednego lub drugiego oka bynajmniej nie są ułożone wzdłuż linii prostych. Tym niemniej model ten znakomicie ilustruje ogólną zasadę funkcjonalnego uporządkowania wewnętrznej struktury pierwotnej kory wzrokowej.

Otóż wygląda na to, że już na wstępnym etapie szlaku wzrokowego, obraz rzutowany na siatkówkę oka jest dzielony przestrzennie na tysiące małych kawałków. Każdy z tych kawałków zawiera informację o swoim położeniu na siatkówce oraz o orientacji krawędzi leżących na styku płaszczyzn różniących się ze względu na intensywność oświetlenia. W pierwotnej korze wzrokowej analizowana jest zawartość wszystkich tych kawałków i w zależności od miejsca na siatkówce oraz od orientacji zarejestrowanych krawędzi, aktywizowana jest określona grupa kolumn komórek. W ten sposób najprawdopodobniej kodowana jest informacja o kształtach rzeczy. Na dalszych etapach szlaku wzrokowego jest ona wykorzystywana do rekonstrukcji obiektów tworzących całą scenę wizualną.

Na pierwszy rzut oka może się wydawać czymś całkowicie irracjonalnym, żeby otrzymując na siatkówce oka kompletny obraz sceny wizualnej, system wzrokowy najpierw rozkładał go na czynniki pierwsze, a następnie z tych elementów składał go ponownie. Otóż po głębszym zastanowieniu musimy jednak dojść do wniosku, że trudno byłoby wymyśleć bardziej ekonomiczny system przetwarzania danych wzrokowych. Wystarczy tylko wziąć pod uwagę niewyobrażalną ilość danych dostarczanych do mózgu przez pobudzane czopki i pręciki w każdej sekundzie, gdy nasze oczy są otwarte. Innymi słowy złożoność i zmienność scen wizualnych w czasie wymagają od systemu wzrokowego podejścia systemowego, opartego na kilku czytelnych zasadach. Sprowadzają się one do analizy danych wzrokowych ze względu na najważniejsze własności zarówno sceny wizualnej, jak i urządzenia które je rejestruje, czyli siatkówki.

Jeżeli bowiem niezliczone kształty wszystkich widzianych rzeczy można wyznaczyć za pomocą różnic w jasności dwuwymiarowych płaszczyzn, na styku których zarysowuje się kontur kształtu, to nieporównywalnie łatwiej jest kodować te kształty za pomocą stosunkowo niewielkiej ilości komórek wrażliwych na orientację konturów w zakresie od 0 do 180o, niż za pomocą niemożliwej do oszacowania ilości komórek i ich połączeń, które pamiętałyby każdy kształt ze wszystkimi jego wyglądami. Chociaż i ten wariant jest „poważnie brany pod uwagę” przez mózg, również ze względów ekonomicznych.

Okazuje się bowiem, że nawet pojedyncze komórki mogą kodować kształty złożonych rzeczy, ale tylko tych, które są bardzo dobrze znane i silnie utrwalone w strukturach mózgu. Oczywiście nie w korze V1, tylko na dalszych etapach korowego szlaku wzrokowego. Są to tzw. komórki babcine (grandmother cells), które reagują wybiórczo na konkretne rzeczy lub ludzi (Gross, 2002; Kreiman, Koch i Fried, 2000; Quiroga, Kraskov, Koch i Fried (2009); Quiroga, Mukamel, Isham, Malach i in (2008). Warto w tym miejscu przypomnieć, że możliwość kodowania złożonych kształtów przez pojedyncze komórki odkrył i opisał już w latach 60. XX wybitny polski neurofizjolog, Jerzy Konorski (1967). Komórki te nazywał neuronami gnostycznymi (gnostic neurons). Zgodnie z jego koncepcją stanowiły one najwyższe piętro przetwarzania danych o kształtach widzianych rzeczy, rejestrowanych przez pole gnostycz­ne (gnostic fields), złożone z wielu komórek na wcześniejszych etapach szlaku wzrokowego.

Wracając do równie znakomitych odkryć Hubela i Wiesela warto dodać, że zidentyfikowali oni nie jeden, ale dwa rodzaje komórek tworzących kolumny w korze V1. Oprócz kolumn komórek uwrażliwionych na kąt nachylenia konturów, tzw. komórek prostych (simple cells), stwierdzili również obecność komórek, które reagują na kierunek ruchu. Są to tzw. komórki złożone (complex cells). W ramach niniejszej monografii, ruch rzeczy w scenie wizualnej nie będzie przedmiotem analizy, dlatego nie rozwijam tutaj tego wątku.

Retinotopowa mapa w korze prążkowej

Przedstawiony w poprzednim rozdziale opis niezwykłych własności pierwotnej kory wzrokowej bynajmniej nie jest jeszcze kompletny. Znając już nieco wewnętrzną budowę kory V1, wróćmy ponownie na jej powierzchnię. I tu czeka na nas kolejna niespodzianka.

Otóż, rzędy kolumn komórek, które odbierają sygnały z siatkówek prawego i lewego oka odzwierciedlają uporządkowanie znajdujących się w nich fotoreceptorów. Nie jest to odwzorowanie 1:1, ale znany jest algorytm pozwalający przewidzieć, które kolumny neuronów w pierwszorzędowej korze wzrokowej zareagują w odpowiedzi na stymulację określonej części siatkówki. Algorytm złożonej transformacji logarytmicznej (complex logarithm transformation) został opracowany przez Erica L. Schwartza (1980) na podstawie anatomicznej lokalizacji połączeń między komórkami zwojowymi, które zbierają informacje z różnych części siatkówki a różnymi częściami kory V1 w prawym i lewym płacie potylicznym (ryc. 29).

Rycina 29. Model retinotopowej organizacji kolumn neuronów w pierwotnej korze wzrokowej: A – odróżnione od siebie barwne części powierzchni siatkówki oka i B – powierzchnie kory V1 zabarwione odpowiadającym im barwnym powierzchniom siatkówki

Rycina 29. Model retinotopowej organizacji kolumn neuronów w pierwotnej korze wzrokowej: A – odróżnione od siebie barwne części powierzchni siatkówki oka i B – powierzchnie kory V1 zabarwione odpowiadającym im barwnym powierzchniom siatkówki. Opracowanie graficzne P.A. na podstawie Hubel (1988)

Z ryc. 29 wynika, że ok. 30% kolumn neuronów w pierwszorzędowej korze wzrokowej odbiera dane pochodzące z obszaru plamki żółtej, która obejmuje pole widzenia w zakresie do 5o (barwa żółta). Następna, trzecia część kolumn neuronów w V1 zajmuje się obszarem siatkówki między 5o a 20o pola widzenia (barwa czerwona) i wreszcie pozostałym obszarem siatkówki tj. między 20o a 90o pola widzenia, zajmuje się pozostała część neuronów kory w polu 17 (barwa zielona, jasno- i ciemnoniebieska).

Ponieważ – jak pamiętamy – najwięcej danych płynie wzdłuż aksonów komórek karłowatych i pyłkowych, czyli tzw. szlakiem drobnokomórkowym, dlatego w korze V1 najwięcej kolumn komórek odbiera właśnie te dane. Jeśli przypomnimy sobie jeszcze, że drobne komórki zwojowe obsługują przede wszystkim te okolice siatkówki oka, które znajdują się w okolicy dołka centralnego, wówczas stanie się zrozumiałe, że liczba kolumn komórek zajmujących się tym rodzajem danych jest niewspółmiernie większa niż liczba kolumn odbierających dane z pozostałych części siatkówki.

Jedno z pierwszych badań, w którym zarejestrowano reakcje komórek w korze V1 na bodziec wzrokowy zostało przeprowadzone przez Rogera Tootella i współpracowników na makakach (Tootell, Silverman, Switkes i de Valois, 1982). Zademonstrowali oni efekt odzwierciedlenia w korze V1, wzoru figury oglądanej przez małpę (ryc. 30). Warto dodać, że najwyraźniejsze odwzorowanie uzyskano w warstwie IVC. Jest to zrozumiałe, ponieważ to właśnie na tym poziomie sygnały z LGN docierają do V1.

Ryc. 30. A – bodziec wzrokowy, B – wybarwiona metodą 2DG (2-<em>deoxyglucose analysis</em>) pierwszorzędowa kora wzrokowa na poziomie warstwy IVC

Ryc. 30. A – bodziec wzrokowy, B – wybarwiona metodą 2DG (2-deoxyglucose analysis) pierwszorzędowa kora wzrokowa na poziomie warstwy IVC. Na podstawie Tootell, Switkes, Silverman i Hamilton (1988)

 Drugi przykład jeszcze wyraźniej ilustruje, jak wiele już wiemy na temat retinotopowej organizacji kory V1 nie tylko u makaków, ale również u człowieka i jej aktywności podczas widzenia. W badaniach, na które chciałbym zwrócić uwagę, reakcję kory wzrokowej człowieka rejestrowano za pomocą skanera fMRI 7T (Polimeni, Fischl, Greve i Wald, 2010). Tym razem osoba badana oglądała na ekranie komputera literę „M”, w dwóch wersjach: pozytywowej i negatywowej (ryc. 31B). Jej kształt został odpowiednio przetworzony za pomocą wspomnianego już algorytmu Schwartza, który określa zależności przestrzenne między obrazem rzutowanym na połowę siatkówki oka (visual hemifield), a jej odzwierciedleniem na powierzchni kory wzro­kowej (cortical surface; ryc. 31 A).

Rycina 31. A – obraz rzutowany na powierzchnię siatkówki oraz oczekiwany na powierzchni kory V1 i B – bodźce stosowane w badaniach przez Jonathana R. Polimeni i współpracowników (2010)

Rycina 31. A – obraz rzutowany na powierzchnię siatkówki oraz oczekiwany na powierzchni kory V1 i B – bodźce stosowane w badaniach przez Jonathana R. Polimeni i współpracowników (2010). Własne opracowanie graficzne na podstawie Polimeni, Fischl, Greve i Wald (2010)

Eksponując zniekształcony bodziec wzrokowy zamierzano sprawdzić, w jakim stopniu kolumny neuronów, które są wrażliwe na różne kąty konturów powstających na styku kontrastujących ze sobą powierzchni, trafnie odzwierciedlą kształt litery „M”. Podczas fiksowania wzroku przez badanych na środkowym, czerwonym punkcie, mierzono aktywność neuronów w korze V1 i stwierdzono, że na poziomie warstwy IVC całkiem przyzwoicie odzwierciedla się obraz litery „M” (ryc. 32 C; niebieski kształt).

Rycina 32. Aktywność neuronów w różnych warstwach kory wzrokowej V1 człowieka od najgłębszych (A) do powierzchniowych (E), podczas prezentacji litery „M” przetworzonej za pomocą algorytmu Schwartza

Rycina 32. Aktywność neuronów w różnych warstwach kory wzrokowej V1 człowieka od najgłębszych (A) do powierzchniowych (E), podczas prezentacji litery „M” przetworzonej za pomocą algorytmu Schwartza. Własne opracowanie graficzne na podstawie Polimeni, Fischl, Greve i Wald (2010)

Nie trzeba chyba nikogo przekonywać, jak ogromne możliwości otwierają te odkrycia w zakresie przywracania możliwości widzenia osobom, które utraciły wzrok, w wyniku choroby lub mechanicznego uszkodzenia siatkówek oczu. Zamiast danych wysyłanych przez fotoreceptory znajdujące się w siatkówkach oczu do kory V1, można wysłać do niej sygnał bezpośrednio z kamery wideo. Po jego przetworzeniu za pomocą algorytmu Schwartza oraz stymulowaniu nim komórek w pierwszorzędowej korze wzrokowej za pomocą elektrod można doprowadzić do powstania doświadczenia widzenia. Wiele wskazuje na to, że to już nieodległa przyszłość.

I jeszcze kilka zdań o plamkach i barwach

Omawiając budowę i funkcje pierwszorzędowej kory wzrokowej nie można pominąć jeszcze jednego elementu. Otóż pomiędzy kolumnami komórek, które oddzielnie z jednego i z drugiego oka odbierają informacje o orientacji przestrzennej fragmentów konturów, znajdują się niewielkie, cylindryczne skupiska neuronów, które pełnią ważną funkcję, m.in. w percepcji barw (Livingstone i Hubel, 1984). Występują one w zasadzie we wszystkich warstwach kory wzrokowej, za wyjątkiem warstwy IV (ryc. 33).

Rycina 33. Zmodyfikowana wersja modelu pierwotnej kory wzro-kowej zaproponowana przez Davida Hubela i Torstena N. Wiesela (1977) uwzględniająca kolumny komórek plamkowych w korze V1

Rycina 33. Zmodyfikowana wersja modelu pierwotnej kory wzrokowej zaproponowana przez Davida Hubela i Torstena N. Wiesela (1977) uwzględniająca kolumny komórek plamkowych w korze V1. Opracowanie graficzne P.A. na podstawie Livingstone i Hubel (1984)

W polskim tłumaczeniu angielskojęzycznej nazwy „blobs”, określa się je jako „kropelki”, „plamki”, a nawet „kleksy” (Matthews, 2000), natomiast rzadziej używa się oryginalnej nazwy tej struktury, odkrytej przez Jonathana C. Hortona i Davida Hubela (1981), tj. patches, czyli łaty. Nazwy te pochodzą stąd, że po przecięciu wzdłuż kory V1 i wybarwieniu jej za pomocą metody oksydazy cytochromowej, na jej powierzchni można dostrzec dość nieregularnie rozmieszczone plamki znajdujące się między kolumnami komórek, które reagują na orientację krawędzi widzianych rzeczy (ryc. 34).

Rycina 34. Fotografia powierzchni kory V1 z zaznaczonymi prążkami i plamkami, wskazującymi na miejsca kolumn neuronów wrażliwych na barwy

Rycina 34. Fotografia powierzchni kory V1 z zaznaczonymi prążkami i plamkami, wskazującymi na miejsca kolumn neuronów wrażliwych na barwy. Własne opracowanie graficzne na podstawie Blasdel (1992a)

 Wejścia i wyjścia z kory V1

Domykając wycieczkę w głąb pierwotnej kory wzrokowej warto uporządkować wiedzę dotyczącą jej połączeń z innymi strukturami mózgu. Przede wszystkim wiadomo, że do kory V1 najwięcej danych dociera z LGN szerokim traktem, zwanym promienistością wzrokową. Aksony komórek tworzących promienistość wzrokową łączą się z komórkami kory V1 na poziomie warstwy IV. Aksony te tworzą trzy ścieżki wzrokowe: wielko- drobno- i pyłkokomórkową.

Ścieżka wielkokomórkowa łączy się z korą V1 na poziomie warstwy IVCα i przenosi dane dotyczące jasności fragmentów sceny wizualnej. Nie są one kodowane z tak wysoką rozdzielczością, jak dane płynące po ścieżce drobnokomórkowej, ale za to obejmują znacznie większe obszary widzianej sceny. Dane te stanowią podstawę globalnej organizacji przestrzennej obiektów znajdujących się w wykadrowanej scenie. Ponadto, po ścieżce wielokomórkowej płyną sygnały, które stanowią podstawę widzenia ruchu. Zarówno percepcja globalnej organizacji przestrzennej wewnątrz sceny wizualnej, jak i percepcja jej zmienności, związanej z ruchem znajdujących się w niej obiektów i ruchem obserwatora, są kluczem do naszej orientacji w przestrzeni. Dane biegnące z warstwy IVCα po ścieżce wielokomórkowej trafiają do sąsiadującej z nią warstwy IVB. Stąd są one wysyłane w dwóch kierunkach: do kory V2 oraz do kory V5, zwanej również obszarem przy­środ­ko­wym skroniowym (medial temporal area; MT), który specjalizuje się w przetwarzaniu danych dotyczących ruchu w scenie wizualnej (ryc. 35).

Bogata w aksony ścieżka drobnokomórkowa łączy się z V1 na poziomie warstwy IVCβ. Przenosi ona dwa rodzaje informacji: o długości i intensywności fali świetlnej pobudzającej różne grupy czopków w siatkówce, czyli o barwie i o luminancji. Dane te charakteryzują się z jednej strony wysoką rozdzielczością przestrzenną, a z drugiej, są ograniczone do stosunkowo niewielkiego fragmentu pola widzenia. Informacja o długości fali świetlnej, zwłaszcza w zakresie opozycji barwy czerwonej i zielonej, jest kierowana z warstwy IVCβ do skupisk neuronów tworzących plamki, a stamtąd do kory V2. Z kolei informacja o intensywności oświetlenia, która stanowi fundament widzenia konturów płynie z warstwy IVCβ, wzdłuż kolumn wrażliwych na określone kąty fragmentów konturów (zwłaszcza w warstwach II i III), i stąd także jest wyprowadzana do kory V2.

Rycina 35. Wejścia do kory V1 szlaków wielko-, drobno- i pyłkokomórkowych z LGN oraz wyjścia z kory V1 do kory V2, V3, V4 i V5 (MT), a także zwrotnie do LGN i SC

Rycina 35. Wejścia do kory V1 szlaków wielko-, drobno- i pyłkokomórkowych z LGN oraz wyjścia z kory V1 do kory V2, V3, V4 i V5 (MT), a także zwrotnie do LGN i SC. Własne opracowanie graficzne na podstawie materiałów zamieszczonych na stronie Laboratory for Visual Neuroscience

Nieco inaczej jest ze szlakiem pyłkokomórkowym, który w korze V1 łączy się bezpośrednio ze skupiskami neuronów tworzących walcowate plamki, bez pośrednictwa kolumn w warstwie IV. Po ścieżce pyłkokomórkowej przenoszone są dane w zakresie opozycji barwy niebieskiej i żółtej. Z plamek płyną one dalej w kierunku kory V2.

Kora V2

Zdecydowana większość danych docierających do kory V1 z siatkówki przez LGN jest przekazywana dalej do kory V2 lub, według klasyfikacji Brodmanna – pola 18. Podobnie, jak V1 składa się ona z leżących obok siebie struktur komórkowych o różnej budowie anatomicznej. Po ich wybarwieniu można je łatwo od siebie odróżnić, ponieważ tworzą charakterystyczne prążki (ryc. 36). W korze V2 można wyróżnić zasadniczo trzy rodzaje prążków: cienkie (thin stripes), grube (thick stripes), które wybarwiają się na ciemno i tzw. regiony międzyprążkowe (pale stripes), które podczas wybarwiania pozostają jasne (Matthews, 2000). Prążki układają się w tym samym rytmie wzdłuż całej kory V2, czyli: cienki – międzyprążkowy – gruby – międzyprążkowy – cienki – międzyprążkowy, itd.

Rycina 36. Przekrój boczny przez prążkową strukturę kory V2 małpy po jej wybarwieniu za pomocą oksydazy cytochromowej

Rycina 36. Przekrój boczny przez prążkową strukturę kory V2 małpy po jej wybarwieniu za pomocą oksydazy cytochromowej. Własne opracowanie graficzne na podstawie Horton i Hocking (1996)

Ponad połowa komórek w korze V2 reaguje niemal identycznie, jak komórki w V1 (Willmore, Prenger i Gallant, 2010). Najprawdopodobniej oznacza to, że przetwarzają one dane dotyczące prostych cech sceny wizualnej, m.in. takich jak fragmenty krawędzi, ich orientacje, kierunek ruchu i barwy (Sit i Miikkulainen, 2009). Komórki te nie są już jednak zorganizowane topograficznie, tak jak w korze V1. Druga połowa komórek V2 zajmuje się bardziej złożonymi cechami sceny wizualnej. Między innymi są one aktywne w odpowiedzi na kontury iluzoryczne lub kontury definiowane przez fakturę powierzchni (von der Heydt, Peterhans i Baumgartner, 1984; von der Heydt i Peterhans, 1989), a także na skomplikowane kształty i ich orientację (Hegdé i van Essen, 2000; Ito i Komatsu, 2004; Anzai, Peng i van Essen, 2007).

Każdy z trzech rodzajów prążków odbiera inne dane z V1, zgodnie z wielokrotnie już sygnalizowanym podziałem ścieżek wzrokowych na trzy rodzaje ze względu na ich funkcje. I tak, dane z obszarów plamkowych w V1 są przekazywane do komórek tworzących cienkie prążki w V2. W prążkach tych zanikają już anatomiczne różnice między komórkami tworzącymi drobno- i pyłkokomórkową ścieżkę, natomiast dochodzi do integracji wszystkich danych, które stanowią podstawę widzenia barw. Innymi słowy, neurony tworzące cienki prążek w korze V2 są wyspecjalizowane w zakresie organizacji danych o różnych długościach fali elektromagnetycznej tworzącej całe spektrum światła widzianego. Dane te są dalej przekazywane zarówno bezpośrednio, jak i za pośrednictwem kory V3 do kory V4, zwanej korowym ośrodkiem widzenia barw (DeYoe i van Essen, 1985; Shipp i Zeki, 1985; van Essen, 2004). Derrik E. Asher i Alyssa A. Brewer (2009), na podstawie wyników badań fMRI sugerują, że w zakresie przetwarzania barw w polu V4 są istotne różnice międzypółkulowe. Otóż okazuje się, że w prawostronnym korowym ośrodku widzenia barw neurony są znacznie bardziej wrażliwe na bodźce chromatyczne niż achromatyczne, natomiast w polu V4 znajdującym się z lewej strony nie stwierdzono różnic w aktywności neuronów na bodźce chromatyczne i achromatyczne.

Wysokorozdzielcze widzenie kształtów na podstawie kontrastów w zakresie luminacji ma swoje źródło – jak pamiętamy – w danych przekazywanych za pośrednictwem ścieżki drobnokomórkowej, które z kolumnad w V1 trafiają do regionów międzyprążkowych w V2. To jedna z najważniejszych struktur w korze wzrokowej, której aktywność stanowi podstawę organizacji danych umożliwiających rozpoznawanie kształtów rzeczy w scenie wizualnej. Dane z obszarów międzyprążkowych w V2 również trafiają do V4.

Integracją danych dotyczących kształtów widzianych rzeczy zajmują się te struktury mózgu, które odbierają projekcje z V4, czyli zakręt dolny skro­niowy (inferior temporal gyrus; IT) oraz zakręt wrzecionowaty (fusiform gyrus), ze szczególnym miejscem zwanym obszarem rozpoznawania twa­rzy (fusiform face area; FFA) (ryc. 37).

Rycina 37. Struktury korowe zaangażowane w widzenie. A – lewe półkula i B – widok mózgu od dołu

Rycina 37. Struktury korowe zaangażowane w widzenie. A – lewe półkula i B – widok mózgu od dołu. Opracowanie graficzne P.A. na podstawie Yokochi, Rohen i Weinreb (2006)

Trzecim rodzajem prążków w korze V2 są prążki ciemne i grube. Tu z V1 docierają dwie kategorie danych: dotyczące przestrzennej organizacji sceny wizualnej i ruchu. Dane o globalnej organizacji przestrzennej umożliwiają zarówno stwierdzenie obecności takich czy innych obiektów w scenie wizualnej (stanowią więc również podstawę widzenia ich kształtów), jak również ich rozmieszczenia względem siebie. Ze względu na stosunkowo niską rozdzielczość, dane te pełnią funkcję ogólnie orientującą w przestrzeni i – w zależności od sytuacji – stanowią impuls do skierowania uwagi i dokładniejszą analizę na wybranych fragmentach sceny przez systemy odpowiedzialne za widzenie wysokorozdzielcze. Sygnały kodujące informacje dotyczące globalnej orientacji przestrzennej są kierowane do kory V3.

Z kolei druga kategoria danych płynących z V1 do grubych, ciemnych prążków w V2 stanowi podstawę doświadczenia widzenia ruchu. Stąd są one wyprowadzane do wspomnianego już obszaru MT, czyli kory V5 i dalej V3A, będących ko­rowym ośrodkiem percepcji ruchu (Roe i Ts’o, 1995; Shipp i Zeki, 1989) (ryc. 37).

Ścieżka brzuszna i grzbietowa

Oprócz integrowania danych docierających z V1, kora V2 stanowi także niezwykle ważny węzeł na szlaku wzrokowym, w którym biorą początek dwie nowe, częściowo niezależne od siebie ścieżki wzrokowe: brzuszna (ventral path) i grzbietowa (dorsal path) (Milner i Goodale, 2008). Swoje nazwy biorą one od umiejscowienia w korze mózgu. Gdybyśmy przedstawili sobie mózg, jako zwierzę, np. rybę, to struktury leżące na jej górnej powierzchni, czyli płaty ciemieniowe kojarzyły by się z grzbietem, a struktury znajdujące się w dolnej części (np. płaty skroniowe) – z brzuchem (ryc. 38). I tak właśnie jest z nazwami tych szlaków. Podobnie, jak podkorowe ścieżki wielko-, drobno- i pyłkokomórkowe, leżące na wcześniejszych etapach szlaku wzrokowego, również obie ścieżki korowe (brzuszna i grzbietowa) różnią się od siebie pod względem anatomicznym i funkcjonalnym.

Rycina 38. Dwa szlaki wzrokowe: brzuszny, typu „co” i grzbietowy, typu „gdzie”

Rycina 38. Dwa szlaki wzrokowe: brzuszny, typu „co” i grzbietowy, typu „gdzie”. Opracowanie graficzne P.A. na podstawie Milner i Goodale (2008)

Historia odkrycia tych dwóch szlaków wzrokowych sięga lat 80. ubiegłego stulecia. W 1982 roku Leslie G. Ungerleider i Mortimer Mishkin opublikowali wyniki badań nad aktywnością kory mózgowej rezusów, podczas wykonywania przez nie zadań wymagających, albo różnicowania przedmiotów, albo ich lokalizacji za pomocą wzroku. Oczywiście w tych czasach nie stosowano jeszcze skanerów magnetycznych do lokalizacji aktywności różnych części mózgu podczas wykonywania przez badanych jakiegoś zadania. Hipotezy dotyczące funkcji takiej czy innej części mózgu testowano w ten sposób, że operacyjnie usuwano z mózgu małpy obszar, o którym sądzono, że ma jakieś znaczenie dla poprawnego wykonania określonego zadania, a następnie – oczywiście po okresie rekonwalescencji – małpa wykonywała to zadanie. Jeśli wykonywała je gorzej lub wcale w porównaniu do tych małp, których mózgi nie zostały uszkodzone, wówczas uznawano, że usunięta część jest odpowiedzialna za poprawne wykonanie tego zadania. W ten właśnie sposób Ungerleider i Mishkin ustalili, że jeżeli uszkodzeniu uległa skroniowa część mózgu obejmująca okolice V4 i IT, wówczas małpy miały poważne problemy z prawidłowym rozpoznawaniem znanych sobie przedmiotów, ale całkiem nieźle radziły sobie z zadaniami wymagającymi od nich lokalizacji przedmiotów w przestrzeni. Z kolei małpy z uszkodzeniem płatów ciemieniowych, zwłaszcza w okolicach kory V5/MT, nie potrafiły wykorzystywać wskazówek przestrzennych, natomiast bez trudu rozpoznawały znane przedmioty (Mishkin, Ungerleider i Macko, 1983; Ungerleider, 1985).

Wyniki swoich badań Ungerleider i Mishkin (1982) zawarli w koncepcji, zgodnie z którą dane docierające do kory V2 z centralnych części siatkówek oczu za pośrednictwem ścieżek drobno- i pyłkokomórkowej są przekazywane w kierunku płata skroniowego i stanowią podstawę identyfikacji i rozpoznawania przedmiotów w scenie wizualnej. Z kolei dane płynące po szlaku wielkokomórkowym (czyli z peryferyjnych części siatkówek oczu) są przekazywane w kierunku płata ciemieniowego i stanowią podstawę lokalizacji przedmiotów w tej scenie.

Pierwsza droga została umownie nazwana drogą typu „co”, ponieważ aktywizacja struktur mózgu, które znajdują się wzdłuż tego szlaku pozwala na rozpoznanie przedmiotu, a w szczególności jego kształtu i barwy, czyli prowadzi do odpowiedzi na pytanie: „co to jest?”. Z kolei druga droga została nazwana drogą typu „gdzie”, ponieważ tworzące ją struktury mózgu są aktywne wówczas, gdy zadanie poznawcze wymaga orientacji przestrzennej w odniesieniu do przedmiotów znajdujących się w scenie wizualnej, czyli prowadzi do odpowiedzi na pytanie: „gdzie się to coś znajduje?”.

Dziesięć lat później, Melvyn A. Goodale i A. David Milner (1992) zaproponowali alternatywną koncepcję funkcji obu szlaków wzrokowych. Zasadniczo nie zakwestionowali oni poglądu, zgodnie z którym szlak brzuszny „zajmuje się” takimi własnościami sceny wizualnej, jak kształt i barwa przedmiotów znajdujących się w scenie. Według nich struktury mózgu aktywne na szlaku brzusznym rzeczywiście stanowią podstawę rozpoznawania przedmiotów spostrzeganych w scenie wizualnej na podstawie zarejestrowanych danych sensorycznych dotyczących rozkładu jasności i barw, w tym również tak złożonych obiektów, jak np. twarz ludzka.

Najważniejsza modyfikacja koncepcji Ungerleider i Mishkina dotyczyła natomiast funkcji szlaku grzbietowego. Zdaniem Goodale’a i Milnera, aktywizacja struktur mózgu tworzących ten szlak pozwala obserwatorowi nie tyle orientować się w przestrzeni i rozkładzie widzianych przedmiotów w scenie, ale przede wszystkim pozwala mu kontrolować własne działania podejmowane w tej przestrzeni.

Do takiego wniosku doszli oni obserwując zachowanie pacjentki, znanej pod inicjałami D.F., która cierpiała na tzw. agnozję wzrokową, czyli niezdolność do rozpoznawania widzianych przedmiotów. Źródłem jej problemów były rozległe uszkodzenia struktur mózgu w obrębie szlaku brzusznego. Najbardziej zdumiewające było to, że chociaż D.F. miała znaczne trudności w rozpoznawaniu przedmiotów, to potrafiła się nim całkiem nieźle posługiwać, wykonując precyzyjne zadania motoryczne i ruchowe. Za realizację tych zadań jest bowiem odpowiedzialny szlak grzbietowy, który u tej pacjentki nie był uszkodzony. Szczegółowy opis przypadku pacjentki D.F. oraz wykład swojej koncepcji szlaków wzrokowych Milner i Goodale przedstawili w książce wydanej w 1995 roku (polskie tłumaczenie zostało opublikowane w 2008 roku na podstawie II wydania angielskojęzycznego z roku 2006).

Podsumowując, w ujęciu Ungerleider i Mishkina, szlak grzbietowy pozwala obserwatorowi poznawczo uchwycić lokalizację i relacje przestrzenne między przedmiotami w scenie wizualnej. Ów obserwator przypomina widza oglądającego film 3D w kinie, w którym przestrzeń przedstawia mu się w całej złożoności, a on na bieżąco ujmuje związki między widzianymi obiektami. Z kolei, zgodnie z sugestią Goodale’a i Milnera, wzrokowa orientacja w przestrzeni możliwa dzięki aktywności struktur mózgowych leżących na szlaku grzbietowym jest tylko punktem wyjścia do kontroli własnego działania podejmowanego w tej przestrzeni. Tak rozumiana funkcja szlaku grzbietowego, z biernego obserwatora sceny wizualnej, wobec której zajmuje on pozycję zewnętrzną (np. kinomana), czyni zeń aktora, znajdującego się wewnątrz oglądanej sceny (np. alpinistę). Co więcej, w oglądanej przestrzeni ów aktor zajmuje pozycję centralną (egocentryczną), a wszystkie relacje między oglądanymi rzeczami są relatywizowane do zajmowanego przezeń miejsca w tej przestrzeni oraz do zadań motorycznych, jakie ma on do wykonania.

Integracja danych z obu szlaków wzrokowych

Byłoby dziwne, gdyby dwa omówione szlaki wzrokowe działały w całkowitej izolacji od siebie. Doświadczenia z pacjentką D.F. pokazały, że uszkodzenia szlaku brzusznego, skutkujące niezdolnością do rozpoznawania przedmiotów za pomocą wzroku, nie zaburzają zdolności do manipulacji tymi przedmiotami. Tym niemniej coraz więcej danych wskazuje również na to, że obydwa szlaki są ze sobą skomunikowane, a wyniki ich aktywności integrowane, tworząc subiektywne doświadczenie wieloaspektowego kontaktu z obiektem.

Mark R. Pennick i Rajesh K. Kana (2011) poprosili osoby badane, żeby wykonywały dwa rodzaje zadań. Jedno polegało na rozpoznawaniu i nazywaniu prezentowanych przedmiotów, a drugie na określaniu ich położenia. Podczas wykonywania zadań rejestrowano aktywność ich mózgów za pomocą funkcjonalnego rezonansu magnetycznego (fMRI). Zgodnie z oczekiwaniem okazało się, że podczas wykonywania zadań rozpoznawania szczególnie aktywne były struktury leżące wzdłuż szlaku brzusznego, a podczas wykonywania zadań na lokalizację – wzdłuż szlaku grzbietowego. Badaczy interesowało jednak to, czy są takie struktury mózgu, które są aktywne niezależnie od tego, które zadanie było wykonywane. Okazało się, że jest kilka takich struktur, które najprawdopodobniej integrują dane pochodzące z obu szlaków wzrokowych. Są one zlokalizowane zwłaszcza w płacie czołowym, takie jak lewy zakręt czołowy środkowy (left middle frontal gyrus, LMFG) i lewy zakręt przedśrodkowy (left precentral gyrus, LPRCN), a także w płacie ciemieniowym: prawy płacik ciemieniowy górny (right superior parietal lobule, RSPL) i leżąca tuż pod nim bruzda śródciemieniowa (intraparietal sulcus; IPS (ryc. 37).

Wszystkie te struktury tworzą rodzaj sieci asocjacyjnej, zbierającej dane z różnych źródeł a następnie kompilującej je do takiej postaci, którą odczuwamy, już nie tylko jako doświadczenie widzenia, ale także jako doświadczenie istnienia rzeczy w świecie, w którym żyjemy. Wyniki badań Pennick i Kana potwierdzają wcześniejsze doniesienia dotyczące funkcji wymienionych struktur mózgu (Buchel, Coull i Friston, 1999; Clayes, Dupont, Cornette, Sunaert i in., 2004; Jung i Haier, 2007; Schenk i Milner, 2006).