środa, 22 czerwca 2016

Poziomy komunikacji z/do snu



Temat komunikacji ze snu do świata jawy był już tutaj poruszany wielokrotnie, głównie przy okazji omawiania badań, w których uczestniczyły osoby świadomie śniące (jako rutynowa metoda potwierdzania uzyskania świadomości we śnie). W tym artykule chciałbym przyjrzeć się bliżej samej komunikacji z osobami pogrążonymi we śnie, gdyż temat ten wydaje mi się niezwykle ciekawy, a sama komunikacja może przyjmować różne, nieraz bardziej skomplikowane formy, niż jedynie sygnalizowanie za pomocą określonej sekwencji ruchów gałek ocznych, o tym, że się śni.

Poziom I – komunikacja jednostronna 
Ta najprostsza, jednostronna forma komunikacji – przyjmijmy, że jest to komunikacja poziomu I, jest stosowana od lat 70, kiedy niezależnie od siebie Keith Hearne oraz Stephen LaBerge wykorzystali ją do doświadczalnego potwierdzenia istnienia świadomych snów (więcej szczegółów na ten temat można znaleźć w artykule poświęconym metodom badania świadomych snów). Warto wspomnieć, że nie tylko ruchy oczu, ale również kontrolowany oddech czy mikroruchy mięśni próbowano początkowo wykorzystać do takiej komunikacji – były nawet próby budowania specjalnych rękawic do tego celu, jednak ówczesna technologia nie pozwalała na osiągnięcie zadowalających wyników, jakie dawała już wtedy elektrookulografia (EOG). Przy obecnym rozwoju techniki (minęło w końcu od tamtego czasu niemal 40 lat!) może nawet warto by wrócić do idei elektronicznej rękawicy, za pomocą której można by posługiwać się językiem migowym prosto ze snu, jednak to właśnie ustalony już wtedy ruch oczu LPLP (lewo-prawo-lewo-prawo) jest do dziś niemal niezmiennie stosowany w badaniach świadomego snu, jako sygnał mówiący „Wiem, że śnię”.

Innym przykładem komunikacji jednostronnej są wszelkie próby włączenia różnego rodzaju bodźców zewnętrznych do marzenia sennego. Ten sposób komunikacji ma znacznie dłuższą historię, sięgającą czasów odkrycia fazy REM (a być może i wcześniej). Już wtedy zauważono, że zarówno dźwięki, błyski świetlne czy bodźce dotykowe mogą zostać włączone w treść marzenia sennego w różnym stopniu, wyrażanym za pomocą wskaźnika inkorporacji (ang. incorporation rate), który waha się w granicach od kilku-kilkunastu % (niska skuteczność włączenia bodźca, np. proste sygnały dźwiękowe, słowa) do prawie 90 % (wysoka skuteczność, np. ucisk kończyny). Co więcej, osoba śniąca może nie tylko zauważyć pojawienie się danego sygnału we śnie, ale również poprawnie go zinterpretować i powiązać go z wcześniej zaplanowaną akcją. Na tej zasadzie swoje działanie opierają wszelkiego rodzaju maski snu, których zadaniem jest wykrycie fazy REM a następnie wysłanie odpowiedniego sygnału mającego uzmysłowić śniącej osobie, że właśnie śni. Sygnału najczęściej w postaci pojedynczych błysków pochodzących z diod umiejscowionych przed powiekami. Wokół tych masek narosło wiele kontrowersji, a ich działanie było poddawane niejednokrotnie w wątpliwość, jednak zakładając, że poprawnie wykrywają one fazę REM, to powinny również spełniać swoje funkcje sygnalizacyjne, o ile wcześniej osoba z nich korzystająca nauczy się rozpoznawać docierające z diod sygnały.

Poziom II – komunikacja dwukierunkowa 
Poza sposobami prostej komunikacji jednokierunkowej, możliwa jest także komunikacja dwukierunkowa (poziom II). Może ona przybrać formę dialogu pomiędzy eksperymentatorem a osobą śniącą przebiegającego w taki sposób, że obudzony badacz (lub, jeżeli proces jest zautomatyzowany, odpowiednio zaprogramowane urządzenie) wysyła sygnał niosący ze sobą jakąś informację do osoby śniącej świadomie, a ta, po jego odebraniu, odpowiada mu. Sygnał wysyłany przez badacza jest najczęściej świetlny lub dźwiękowy, może być prosty (jednoskładnikowy ton lub błysk) lub złożony (np. zakodowana informacja).

Jednym z pierwszych udowodnionych naukowo przykładów takiej komunikacji była próba rozróżnienia pomiędzy dwoma prostymi dźwiękami przez osobę pogrążoną we śnie i zasygnalizowanie przez nią usłyszenia odpowiedniego dźwięku za pomocą ustalonej sekwencji ruchów oczu. W badaniach tych (Strelen, 2006) wykorzystano potencjały wywołane, a konkretnie badano pojawienie się w mózgu tzw. fali uwagi (P300). W skrócie, fala P300 jest obserwowana w momencie pojawienia się oczekiwanego bodźca słuchowego, pośród serii bodźców nieistotnych. Uczestnicy (trzy osoby) słuchali przed snem dwóch dźwięków (wysoki vs niski). Zostali oni poinstruowali, że kiedy podczas świadomego snu będą puszczane im te dźwięki w różnej kolejności, ich zadaniem będzie rozpoznać jedynie wysokie tony (a więc były to bodźce oczekiwane) a ich obecność zasygnalizować pojedynczym ruchem gałek ocznych w kierunku LP. Z kolei niskie tony miały być przez nich ignorowane. Analiza zapisu EEG potwierdziła, że badane osoby znajdowały się we śnie REM oraz wykazała obecność fali P300 w momencie gdy sygnalizowano rozpoznanie dźwięku przez sen. Wyniki tych badań nie tylko sugerują, że obecność potencjału wywołanego P300 w zapisie EEG u osoby śniącej świadomie podczas dyskryminacji dwóch bodźców akustycznych może świadczyć o świadomym przetwarzaniu informacji słuchowej podczas świadomego snu, ale również pokazują, że możliwa jest swego rodzaju konwersacja pomiędzy badaczem a osobą pogrążoną we śnie. Nie jest to jednak skomplikowana komunikacja gdyż pozwala jedynie na przekazanie bardzo prostych informacji zarówno w jednym jak i drugim kierunku.

Warto w tym miejscu dodać, że niektóre ze wspomnianych wyżej masek snu, również umożliwiają podstawy takiej komunikacji. Jest to przydatne w sytuacji kiedy ktoś uzyskał już świadomość we śnie, natomiast maska wciąż wysyła sygnały, co na tym etapie może być rozpraszające i często prowadzi do wybudzenia. Wtedy osoba świadoma swojego snu może „nadać” określony wcześniej sygnał za pomocą ruchów oczu aby dać znać masce, że cel został już osiągnięty i tym samym ją wyłączyć. Maski snu mają wbudowane czujniki ruchu gałek ocznych, na podstawie których identyfikują odpowiednią fazę snu do wysłania sygnału, ale nic nie stoi na przeszkodzie aby czujniki te odbierały również wcześniej zaprogramowane wzorce ruchów gałek ocznych, jako niosące przesłanie sygnały, by umożliwić właśnie takie proste sterowanie maską wprost ze snu.

Bardziej skomplikowane podejście do komunikacji dwukierunkowej zastosował student Uniwersytetu w Osnabrücku, Kristoffer Appel, który w roku 2013 obronił pracę magisterską w dziedzinie nauk poznawczych. W pracy tej postawił sobie za cel przesłanie złożonej informacji (np. prostego zadania matematycznego) do czyjegoś snu a następnie jej odebranie i zrozumienie przez osobę śniącą i udzielenie przez nią poprawnej odpowiedzi. Do kodowania komunikatów przekazywanych na linii jawa-sen-jawa wykorzystał alfabet Morse'a.

Część badań przeprowadzona została jako „self-study” w warunkach domowych, wykorzystując do tego wycofany już ze sprzedaży ZEO (więcej na ten temat znajduje się w osobnym artykule o ZEO) podłączony do komputera, na którym działało specjalnie napisane oprogramowanie pełniące funkcje detektora fazy REM w czasie rzeczywistym, generatora zakodowanych sygnałów dźwiękowych, wysyłanych do śniącego poprzez głośnik oraz detektora ruchów oczu w czasie rzeczywistym jednocześnie dekodującego odbieraną informację. Program dodatkowo posiadał interfejs graficzny pozwalający na modyfikowanie ustawień, np. ustawianie intensywności bodźca. ZEO zostało wykorzystane tutaj do detekcji fazy REM (w oparciu o surowy sygnał ze „zhakowanego” urządzenia) a artefakty w zapisie przedczołowego EEG będące efektem ruchów oczu mogły posłużyć do komunikacji ze świata snu (dzięki artefaktom i ich interpretacji przez program, można było odczytać całkiem wyraźne wzorce ruchów oczu i tym samym odkodować przesyłaną przez osobę śniącą informację). Dodatkowo oprogramowanie umożliwiało zaprogramowanie działania w odpowiedzi na zarejestrowany i zdekodowany sygnał od śpiącego, np. trzykrotne spojrzenie w lewo kodujące w alfabecie morsa literę „s” mogło wyzwalać generowanie bodźca o wyższym natężeniu, zatem śniący z poziomu snu sam mógłby sterować ustawieniami bodźców, gdyby okazało się, że są dla niego za słabe/za mocne.

W takim układzie autor przetestował na sobie pierwszą implementację pomysłu oraz dopracował szczegóły ustawień bodźca i samej metody. Na drugim etapie pracy, wciąż obejmującym testy na sobie, autor przeprowadził 7 sesji z ZEO, które następnie powtórzył dodatkowo w dwóch kolejnych sesjach z użyciem 19-kanałowego EEG i EOG. Jako bodziec stosowany do kodowania informacji alfabetem Morse'a wykorzystano sygnał dzwiękowy o częstotliwości 1000 Hz. Poniżej znajduje się grafika ilustrująca to, jak wyglądało zakodowanie prostego zadania odejmowania i dodawania (5-3, 0+9).

Przykład przedstawiający w jaki sposób zakodowane zostało zadanie matematyczne za pomocą sygnału dźwiękowego: 5 krótkich sygnałów ("5"), dwa długie ("M" jak minus), trzy krótkie i dwa długie ("3"), kodujące zadanie "5-3". Podobnie zakodowano dalej zadanie 0+9 (Appel 2013). To, w jaki sposób kodem Morse'a są kodowane poszczególne litery i cyfry można znaleźć m.in. na Wikipedii.

Odpowiedzi były przekazywane za pomocą ruchów oczu; ponieważ w alfabecie Morse'a każda litera i cyfra zapisana jest jako ciąg sygnałów krótkich i długich, sygnał krótki zakodowany był jednokrotnym spojrzeniem w lewo, natomiast sygnał długi – w prawo. Wybrany został też sygnał, którym autor miał dać znać, że jest świadomy tego, że śni (5 spojrzeń w lewo, a nie tradycyjnie LPLP, gdyż ZEO skuteczniej mógł taki sygnał odebrać).

Pierwsze wyniki nie były może imponujące: na 23 zarejestrowane sny, 4 były świadome, z czego w dwóch miała miejsce bezpośrednia inkorporacja bodźca, a do dwóch pozostałych bodźce zostały włączone pośrednio (tzn. bodziec taki wywarł wpływ na treść marzenia sennego ale nie pojawił się w oczywistej formie). Raz udało się rozwiązać zadanie do końca (a więc przeprowadzić skuteczną komunikację do i ze snu) oraz rozpocząć kolejne, które zostało przerwane pobudką. Niestety, zadanie zakończone sukcesem miało miejsce podczas sesji z samym ZEO (brak potwierdzenia EEG/EOG), jednak autor, na podstawie zarejestrowanych danych, przypuszcza, że z dużą dozą prawdopodobieństwa miało to miejsce w fazie REM, gdyż dominowały wówczas fale o wysokiej amplitudzie i częstotliwości 20-36 Hz, które są charakterystyczne dla fazy REM wykrywanej przez ZEO, w odróżnieniu od fal o częstotliwości 10-14 Hz odpowiadającym fazom N2 i N3 (co zostało wcześniej potwierdzone gdy porównywano wyniki ZEO i profesjonalnej polisomnografii). Dodatkowo, zarejestrowano bardzo mało aktywności w pasmach powyżej 35 Hz, co tym bardziej sugeruje, że pomiarów nie dokonano w fazie czuwania.

Następnie przyszedł czas na kontrolowane eksperymenty na ochotnikach w laboratorium, które dały by powtarzalne wyniki. Wzięło w nich udział pięć osób, które miały rożne doświadczenie w świadomym śnieniu, od 2 snów w ciągu całego życia do 100, lub 4-5 w ciągu miesiąca. W efekcie kolejnych prób tylko jednej osobie podczas jednego snu prawie udało się odebrać informację zawierającą polecenie, ale przed ukończeniem zadania świadomy sen zamienił się w zwykłe marzenie senne. W sumie, na 30 snów zrelacjonowanych podczas tego doświadczenia, 6 z nich zawierało bezpośrednie inkorporacje bodźców a kolejne 6 – pośrednie. Ten kiepski wynik mógł wynikać z różnych przyczyn np. z tego, że brały tu udział osoby nie znające dobrze alfabetu Morse'a, lub nie rozumiejące do końca koncepcji przekazywania sygnałów za pomocą oczu. Wygląda więc na to, że autor zaprzepaścił szansę na uzyskanie ciekawych wyników przez zły dobór lub brak przygotowania grupy eksperymentalnej.

Niemniej jednak, niedługo po obronie, Kristoffer Appel przedstawił na konferencji Worldsleep2015 kolejne badanie, które obejmowało już 10 osób, tym razem dobrze przeszkolonych w kodzie Morse'a oraz w sygnalizacji za pomocą ruchów oczu. Dodatkowo, uczestnicy byli osobami, które co najmniej raz w tygodniu doświadczały świadomego snu, a więc zgodnie z przyjętymi normami były to osoby często śniące świadomie. Spośród wszystkich uczestników, trzem osobom udało się z sukcesem odebrać i rozkodować zadanie oraz odpowiedzieć na, w sumie, 15 zadań matematycznych. Bezpośrednie inkorporacje dotyczyły ponad 60% podawanych bodźców. Biorąc pod uwagę trudności jakie sprawiają wszelkie badania z udziałem osób świadomie śniących, 3 osoby na 10, w tym 15 udanych prób komunikacji sen-jawa-sen z przekazywaniem złożonych informacji w obie strony to już całkiem niezły sukces. Jest duża szansa, że wyniki te zostaną uzupełnione i doczekamy się ciekawej publikacji naukowej na ten temat, gdyż Kristoffer Appel kontynuuje swoje badania w ramach pracy doktorskiej, a postępy jego prac możemy śledzić na stronie internetowej http://www.sleepcommunication.com/.

Poziom III – komunikacja pomiędzy śniącymi (z wykorzystaniem przekaźnika na jawie) 
Bardziej skomplikowanym procesem byłaby komunikacja pomiędzy dwiema (lub więcej) osobami pogrążonymi we śnie, które porozumiewają się między sobą za pomocą fizycznego „węzła komunikacyjnego” zlokalizowanego gdzieś na świecie – tym prawdziwym, a więc na jawie. Komunikacja sen-jawa-sen może wydawać się czymś abstrakcyjnym, jednak biorąc pod uwagę wszystkie wyżej wspomniane rozwiązania technologiczne i metody naukowe, jest jak najbardziej możliwa. Co więcej, zostały nawet przeprowadzone próby takiej komunikacji a jej rezultaty przedstawiono podczas konferencji International Association for the Study of Dreams (IASD) w roku 2012. Prezentacja autorstwa Daniela Oldisa i Seana Olivera nie jest co prawda wynikiem żmudnych badań naukowych w laboratorium snu, ale przedstawia ciekawą koncepcję oraz jej przetestowanie w pół-amatorski sposób, niemniej jednak warto się przyjrzeć jej bliżej, gdyż ogólne założenia metody wydają się słuszne a wyniki możliwe do powtórzenia w kontrolowanych warunkach.

Z badań nad snem wiemy już, że różne bodźce zewnętrzne mogą zostać włączone do snu i rozpoznane, a śniący mogą za pomocą zdefiniowanych wcześniej ruchów oczu wysłać na zewnątrz sygnał, który jest obserwowalny i rejestrowalny. Możemy też monitorować pracę naszego mózgu podczas snu, aby móc określić kiedy znajdujemy się w fazie REM. Mając do dyspozycji wiele technologii przesyłania danych na odległość, sygnały te mogą zostać bez problemu przesłane, np. na serwer pełniący rolę wspomnianego węzła komunikacyjnego, który będzie zapisywał odebrane sygnały i koordynował przesyłanie odpowiednich sygnałów dalej do innych osób pogrążonych we śnie, przez co osoby śniące mogą pozostawać w stałym kontakcie pomiędzy sobą, cały czas znajdując się we śnie.

W eksperymencie Oldisa i Olivera obaj Panowie oraz ich znajomi pełnili rolę obiektów doświadczalnych, których sen monitorowany był przez „zhakowany” ZEO, który służył równocześnie jako rejestrator ruchów oczu jak i monitor fal mózgowych. Sygnały z ZEO docierały do laptopa i były analizowane za pomocą skryptu, który z kolei wysyłał je na stronę internetową www.sleepstreamonline.com. Tam sygnały pochodzące od śpiących osób były porównywane i jeżeli okazało się, że obie osoby były w tym samym czasie w fazie REM (w tych próbach zawsze uczestniczyły jednocześnie dwie osoby), jedna z nich (osoba A) otrzymywała sygnał świetlny (lampka sterowana tym samym skryptem), który miał zostać włączony w sen i rozpoznany, dzięki czemu osoba A mogła zorientować się, że właśnie śni. Następnie, zadaniem osoby A było przekazanie odpowiedniego kodu w postaci ustalonej wcześniej sekwencji ruchów oczu, który był odebrany przez ZEO, interpretowany przez skrypt i wysyłany na serwer. Z serwera została wysyłana informacja do komputera osoby B, którą odbierał skrypt i na jej podstawie wyzwalał zapalenie się lampki u tej osoby (zatem osoba A wprost ze swojego snu zamierzonym działaniem przekazała sygnał świetlny osobie B). Jeżeli sygnał ten został włączony w sen osoby B i rozpoznany przez nią, mogła ona odpowiedzieć osobie A w ten sam sposób, tzn. wysyłając sygnał świetlny poprzez wykonanie we śnie odpowiedniej sekwencji ruchów oczu. W końcu, ze strony www.sleepstreamonline.com można było pobrać logi wszystkich sesji z danej nocy i skonfrontować je z relacjami uczestników.

Wyniki tych eksperymentów pokazały, że komunikacja pomiędzy osobami pogrążonymi we śnie jest możliwa, a prezentacja o której mowa (w jęz. angielskim) jest do obejrzenia tu:


Autorzy tej koncepcji wskazują, że może ona posłużyć jako zabawa polegająca na wzajemnym uświadamianiu się we śnie, co można by nawet przeobrazić w pewnego rodzaju grę. Nowego znaczenia nabiera też termin „wspólne śnienie” (mutual dreaming, shared dreaming). Warto by jednak powtórzyć te badania w kontrolowanych warunkach, co jak zwykle sprawiłoby wiele trudu, gdyż wymagałoby wielu prób z doświadczonymi lucid dreamerami, wielu nocy spędzonych w co najmniej dwóch pracowniach snu jednocześnie itp.. Obecnie można by stosować szereg różnych znaków opartych o specyficzne wzorce aktywności określonych obszarów mózgu, zmieniających się w odpowiedzi na wykonywane czynności we śnie – wiadomo, że pewne czynności wykonywane we śnie prowadzą do aktywacji określonych rejonów kory (badania Martina Dreslera czy Daniela Erlachera), a wykorzystując techniki EEG, fNIRS, fMRI, potencjały wywołane, czy nawet przezczaszkową stymulację elektryczną, można by precyzyjniej wykrywać fazę REM oraz urozmaicić repertuar jak i udoskonalić sposób przekazywania komunikatów.

Co dalej? 
Nie wiem czy były jeszcze badane jakieś inne drogi komunikacji, których stroną była przynajmniej jedna osoba pogrążona we śnie, ale wydaje mi się, że w literaturze nic więcej nie znajdziemy. Osobom zainteresowanym tematem warto śledzić pracę Kristoffera Appela, który być może opublikuje coś nowego w tej dziedzinie, kiedy już skończy swój doktorat. Na koniec warto zadać sobie pytanie, jakie nowe szlaki komunikacyjne można by jeszcze stworzyć, i co można by dzięki temu osiągnąć. Czy poza rozwijaniem umiejętności świadomego śnienia (poprzez wspólne uświadamianie się i różne gry) oraz zastosowanie typowo rozrywkowe, o jakim wspominają Oldis i Oliver są jeszcze jakieś praktyczne zastosowania komunikacji ze śniącymi? Appel sugeruje na przykład, że może kiedyś, gdy technologia sennej komunikacji rozwinie się trochę bardziej, możliwe będzie zastosowanie jej w psychoterapii koszmarów sennych prowadzonej przez psychoterapeutę, który w trybie live będzie pomagał osobie cierpiącej na złe sny w poradzeniu sobie z nimi. Ale przede wszystkim jest to ciekawe narzędzie do badania samych snów, które odpowiednio rozwinięte (na przykład tak) mogłoby ułatwić relacjonowanie własnych marzeń sennych w czasie rzeczywistym, co umożliwiłoby chociażby bardziej precyzyjne badanie neuronalnych korelatów sennych wydarzeń.

Erlacher D, Schredl M (2008) Do REM (lucid) dreamed and executed actions share the same neural substrate? Int J Dream Res 1(1): 7-14.

Erlacher D, Schredl M, LaBerge S (2003) Motor area activation during dreamed hand clenching: a pilot study on EEG alpha band. Sleep and Hypnosis 5: 182-187.

LaBerge S, Nagel L, Dement WC, Zarcone V (1981) Lucid dreaming verified by volitional communication during REM sleep. Percept Mot Skills 52: 727-732.

Strelen J (2006) Acoustic evoked potentials in lucid dreaming (in German). Ph. D. thesis, University of Mainz.

Hearne KM (1978) Lucid dreams: an electrophysiological and psychological study. Doctoral dissertation. University of Liverpool.

Oldis D, Oliver S (2012) Experiments in Inter-Dream Communication. IASD. Berkley CA.

Appel K (2013) Communication with a sleeping person. M.Sc. Thesis, University of Osnabrück.

Appel A, Pipa G (2015) Sleep communication. Wordsleep2015. Istanbul, TR.

Grafika na górze artykułu pochodzi z prezentacji Oldis i Oliver, IASD 2012

4 komentarze:

  1. Projekt i wykonanie świetne. Miał chłopak pomysł.
    Niestety tym sposobem można badać niewiele rzeczy, ze względu na szczupłość przekazu - a konkretnie na jego liniowość. Wiadomość odbierana przez pętlę fonologiczną zawsze musi być liniowo przetwarzana i siłą rzeczy nie można zawrzeć w niej zbyt wielu informacji. Tym bardziej dla osoby śpiącej.
    Receptą byłoby przetwarzanie przez szkicownik wzrokowo-przestrzenny. Jednak ta część pamięci roboczej przetwarza informację poprzez oczy.
    Są jednak ludzie stosujący echolokację (np. Daniel Kish). Procedura byłaby bardziej skomplikowana, bo należałoby nagrać na dwóch różnych mikrofonach wysokiej rozdzielczości, umieszczonych przy obu uszach, "kliknięcia" stosowane do echolokacji przy eksploracji np. nowego pomieszczenia i odtworzyć oddzielnie do każdego ucha we śnie paradoksalnym badanego. Można też śledzić wtedy ruch gałek ocznych równolegle w trakcie badania - co kalibruje pośrednio treść snu, jeśli oczywiście znamy rozkład eksplorowanego pokoju i kolejność poruszania się badanego na jawie w czasie nagrywania eksploracji. Oczywiście nie u osób bez oczu (jak daniel). Można też spytać po wybudzeniu o treść snu.

    OdpowiedzUsuń
  2. A możesz podać na przykładzie jakiejś konkretnej treści jak takie przekazywanie informacji miałoby wyglądać?

    OdpowiedzUsuń
  3. Andrzej, nie mogę tego zrobić dokładnie - bo ten pomysł przyszedł mi do głowy podczas czytania tego artykułu. Prawdopodobnie nikt tego nie robił jeszcze. Chodzi mi o nagrywanie echolokacji w trakcie rzeczywistej eksploracji jakiegoś pomieszczenia przez niewidomego.
    Przy jego kliknięciach językiem co parę sekund, wraca do niego echo. Inaczej rejestruje je ucho prawe, a inaczej lewe. Mistrzynią w takim widzeniu jest sowa płomykówka. Kiedyś czytałem artykuł - jakiś Japończyk rozebrał to na czynniki pierwsze badając potencjały z pnia mózgu.
    Teraz chodzi o to, żeby jak najmniej z parametrów tej rejestracji utracić. Dlatego chcę umieścić mikrofony jak najbliżej ucha - np. przy skrawkach uszu. Muszą więc być małe ale czułe. Nagrywane jest nie tylko echo kliknięć (pomieszczenie musi być maksymalnie) ale i obraz przemieszczającego się niewidomego. Mając np. komputerowy plan pomieszczenia można wtedy śledzić ruch badanego w aplikacji komputerowej - jak w filmach szpiegowskich ;-)

    I teraz: doświadczenie w czasie snu (dopiero w fazie REM) polegałoby na biernym odtwarzaniu (oddzielnie do każdego ucha) dźwięków zarejestrowanych przez jednoimienne mikrofony właśnie z tej eksploracji. Być może wymusiłoby to sen o treści eksploracji w/w pomieszczenia lub podobnego. Byłoby to dość łatwe do weryfikacji, bo sygnał do uszu zmieniałby się w czasie - a treść snu, być może, równolegle z nim. Dodatkowo można by śledzić ruchy gałek ocznych i konfrontować to z ruchem przemieszczania się w aplikacji na komputerze.
    Problem polega na tym, że nie wiem, czy to będzie działać. A dowiemy się tego dopiero po sprawdzeniu w realu. Czyli tak jak z opisanym w artykule doświadczeniem z alfabetem Morse'a.
    Do tego nie wiem, czy w Polsce jest w ogóle niewidomy posługujący się echolokacją?

    Łatwiej chyba nagrać dźwięki z jakiegoś charakterystycznego miejsca np. dworca PKP lub portu lotniczego podczas eksploracji badanego (korytarze, odprawa biletowa, toaleta + komunikaty o dolatujących samolotach, rozmowy z odprawą celną itp.) i odtworzenie tego w czasie snu REM do uszu. Tylko, czy to zadziała?
    Piotr Cękiel

    OdpowiedzUsuń
  4. * pomieszczenie musi być maksymalnie ... ciche

    OdpowiedzUsuń

Liczba wyświetleń

Śledź przez Email

Creative Commons License
Treść bloga jest dostępna na licencji Creative Commons Attribution-NonCommercial 2.0 Generic License

Copyright © Lucidologia Published By Gooyaabi Templates | Powered By Blogger

Design by Anders Noren | Blogger Theme by NewBloggerThemes.com