^
A
A
A

„Dwa liczniki – jedno rozwiązanie”: jak mózg łączy dźwięk i obraz, aby szybciej nacisnąć przycisk

 
Alexey Kryvenko, Recenzent medyczny
Ostatnia recenzja: 18.08.2025
 
Fact-checked
х

Cała zawartość iLive jest sprawdzana medycznie lub sprawdzana pod względem faktycznym, aby zapewnić jak największą dokładność faktyczną.

Mamy ścisłe wytyczne dotyczące pozyskiwania i tylko linki do renomowanych serwisów medialnych, akademickich instytucji badawczych i, o ile to możliwe, recenzowanych badań medycznych. Zauważ, że liczby w nawiasach ([1], [2] itd.) Są linkami do tych badań, które można kliknąć.

Jeśli uważasz, że któraś z naszych treści jest niedokładna, nieaktualna lub w inny sposób wątpliwa, wybierz ją i naciśnij Ctrl + Enter.

15 August 2025, 13:30

Kiedy słychać szelest trawy i migoczący cień, reagujemy szybciej niż w przypadku samego dźwięku lub błysku. Klasyka. Ale co właściwie dzieje się w mózgu w tych ułamkach sekund? Nowy artykuł w „ Nature Human Behaviour” pokazuje, że wzrok i słuch gromadzą dowody oddzielnie, a w momencie podejmowania decyzji ich „sumowanie” uruchamia pojedynczy bodziec motoryczny. Innymi słowy, w głowie znajdują się dwa akumulatory sensoryczne, które współaktywują jeden mechanizm motoryczny.

Tło

Jak mózg podejmuje szybkie decyzje w „hałaśliwym świecie” dźwięków i obrazów, to pytanie zadawane od wieków, ale bez jasnej odpowiedzi. Od końca XIX i XX wieku w psychofizyce znany jest „efekt redundantnych sygnałów” (RSE): jeśli cel jest prezentowany jednocześnie w dwóch modalnościach (na przykład błysk i dźwięk), reakcja jest szybsza niż w przypadku pojedynczego sygnału. Spór dotyczył mechanizmu: „wyścigu” niezależnych kanałów (model wyścigu), w którym wygrywa najszybszy proces sensoryczny, lub koaktywacji, w której dane z różnych modalności faktycznie sumują się przed wywołaniem reakcji. Formalne testy (takie jak nierówność Millera) pomogły na poziomie behawioralnym, ale nie pokazały, gdzie dokładnie występuje „fałd” – po stronie akumulatorów sensorycznych, czy już w momencie wyzwalania motorycznego.

W ciągu ostatnich 10–15 lat neurofizjologia dostarczyła wiarygodnych markerów tych utajonych stadiów. W szczególności, dodatnia aktywność centralno-ciemieniowa (CPP), supramodalny sygnał EEG „akumulacji do progu”, który dobrze pasuje do modeli dryfu i dyfuzji w procesie podejmowania decyzji, oraz redukcja beta (~20 Hz) w lewej korze ruchowej jako wskaźnik przygotowania do ruchu. Sygnały te umożliwiły powiązanie modeli obliczeniowych z rzeczywistymi obwodami mózgowymi. Nadal jednak istnieją kluczowe luki: czy dowody dźwiękowe i wizualne gromadzone są w jednym, czy w dwóch oddzielnych akumulatorach? I czy istnieje jeden próg ruchowy dla multimodalnego podejmowania decyzji, czy też każda modalność jest „oceniana” według odrębnych kryteriów?

Dodatkowym utrudnieniem jest synchronizacja czasowa. W warunkach rzeczywistych widzenie i słyszenie charakteryzują się desynchronizacją rzędu mikrosekund i milisekund: niewielkie przesunięcie czasowe może zamaskować rzeczywistą architekturę procesu. Dlatego potrzebne są paradygmaty, które jednocześnie kontrolują regułę reakcji (aby reagować na dowolną modalność lub tylko na obie jednocześnie), zmieniają asynchroniczność i umożliwiają łączenie behawioralnych rozkładów czasów reakcji z dynamiką markerów EEG w ramach jednego modelowania. To właśnie to podejście pozwala nam odróżnić „sumowanie akumulatorów sensorycznych z następującym po nim pojedynczym uruchomieniem silnika” od scenariuszy „wyścigu kanałów” lub „wczesnego łączenia się w jeden strumień sensoryczny”.

Wreszcie, istnieją praktyczne motywacje wykraczające poza podstawową teorię. Jeśli akumulatory sensoryczne są rzeczywiście oddzielne, a bodziec motoryczny wspólny, to w grupach klinicznych (np. z parkinsonizmem, ADHD, zaburzeniami ze spektrum) wąskie gardło może leżeć na różnych poziomach – w akumulacji, konwergencji lub przygotowaniu motorycznym. W przypadku interfejsów człowiek-maszyna i systemów ostrzegawczych faza i czas sygnałów mają kluczowe znaczenie: prawidłowe fazowanie dźwięku i obrazu powinno maksymalizować łączny wkład w próg motoryczny, a nie tylko „zwiększać głośność/jasność”. Te pytania stanowią kontekst nowego artykułu w czasopiśmie „ Nature Human Behaviour”, który bada detekcję multimodalną jednocześnie na poziomie zachowania, dynamiki EEG (CPP i beta) oraz modelowania obliczeniowego.

Co dokładnie odkryli?

  • W dwóch eksperymentach EEG (n=22 i n=21) uczestnicy wykrywali zmiany w animacji punktów (wzrok) i serii tonów (słuch) poprzez naciśnięcie przycisku, gdy którykolwiek z nich uległ zmianie (wykrywanie redundantne) lub gdy zmieniły się oba (wykrywanie łączone).
  • Naukowcy monitorowali „kontrdowód” neuronalny – dodatnią aktywność centralno-ciemieniową (CPP) – oraz dynamikę aktywności beta lewej półkuli mózgu (~20 Hz) jako marker przygotowania do ruchu. Sygnały te porównano z rozkładami czasu reakcji i modelami obliczeniowymi.
  • Podsumowując: dowody słuchowe i wzrokowe kumulują się w odrębnych procesach, a gdy zostaną wykryte nadmiarowo, ich skumulowany udział subaddytywnie (mniejszy niż prosta suma) współaktywuje jeden progowy proces motoryczny – sam „wyzwalacz” działania.

Ważnym szczegółem jest kontrola „braku synchronizacji”. Kiedy naukowcy wprowadzili niewielką asynchroniczność między sygnałami dźwiękowymi i wizualnymi, model, w którym akumulatory sensoryczne najpierw integrują, a następnie informują układ ruchowy, wyjaśnił dane lepiej niż „wyścig” akumulatorów. To wzmacnia tezę, że strumienie sensoryczne działają równolegle, ale zbiegają się w jednym węźle decyzyjnym.

Dlaczego musisz to wiedzieć (przykłady)

  • Klinika i diagnostyka. Jeśli akumulatory sensoryczne są oddzielne, a próg motoryczny wspólny, to różne grupy pacjentów (z ASD, ADHD, parkinsonizmem) mogą spodziewać się różnych „punktów krytycznych” – w akumulacji, konwergencji lub wyzwalaniu motorycznym. Pomaga to w dokładniejszym projektowaniu biomarkerów i treningu uwagi/reakcji.
  • Interfejsy człowiek-maszyna: Projektowanie sygnałów ostrzegawczych i interfejsów multimodalnych może skorzystać z optymalnego zgrania faz sygnałów dźwiękowych i wizualnych, dzięki czemu współaktywacja motoryczna jest szybsza i bardziej stabilna.
  • Neuronowe modele podejmowania decyzji. Wyniki łączą długoterminowe „kontrowersje” behawioralne (rasa vs. koaktywacja) ze specyficznymi markerami EEG (CPP i rytm beta kory ruchowej), zbliżając modele obliczeniowe do rzeczywistej fizjologii.

Jak to zrobiono (metodologia, ale pokrótce)

  • Paradygmaty: redundantny (reagujący na dowolną modalność) i koniunktywny (reagujący tylko na obie jednocześnie) – klasyczna technika pozwalająca „zważyć” wkład każdej gałęzi sensorycznej. Plus osobny eksperyment z daną asynchronią między dźwiękiem a obrazem.
  • Neurosygnały:
    • CPP - „supramodalny” wskaźnik akumulacji dowodów sensorycznych do progu;
    • Spadek beta w lewej korze ruchowej jest wskaźnikiem przygotowania do ruchu. Porównanie ich profili czasowych wykazało różne amplitudy CPP dla celów słuchowych i wzrokowych (oznaka oddzielnych akumulatorów) oraz wspólny napęd mechanizmu beta (oznaka wspólnego progu ruchowego).
  • Symulacja: łączne dopasowanie rozkładów behawioralnych RT i dynamiki EEG. Model z integracją akumulatorów sensorycznych przed węzłem ruchowym wygrał porównanie, szczególnie w przypadku asynchronii.

Jak to zmienia obraz mózgu?

  • Multimodalność ≠ „zmiksuj i zapomnij”. Mózg nie wrzuca wszystkich dowodów do jednego worka; przechowuje równoległe zapisy w różnych kanałach, a integracja zachodzi bliżej akcji. To wyjaśnia, dlaczego sygnały multimodalne przyspieszają czas reakcji – jednocześnie podnoszą tę samą flagę motoryczną.
  • Subaddytywność jest normą. „Suma” bodźców sensorycznych jest mniejsza niż prosta arytmetyka, ale wystarcza, aby szybciej osiągnąć próg motoryczny. Zatem celem interfejsu nie jest „zwiększenie głośności i jasności”, lecz synchronizacja zbieżności.
  • Most między psychofizyką a neurofizjologią: dawne efekty „zbędnych wskazówek” w zachowaniu znajdują mechanistyczne wyjaśnienie za pomocą markerów CPP i beta.

Ograniczenia i kolejny krok

  • Próbą są zdrowi dorośli wykonujący zadania laboratoryjne; wnioski kliniczne to kolejny etap. Konieczne są testy u pacjentów oraz w naturalnych środowiskach multimodalnych.
  • EEG zapewnia doskonały obraz czasowy, ale ograniczony przestrzennie; logiczne jest uzupełnienie go o rejestrację MEG/inwazyjną i efektywne modele łączności.
  • Teoria przewiduje, że trening synchronizacji bodźców słuchowo-wizualnych powinien selektywnie poprawiać fazę motoryczną bez zmiany akumulatorów sensorycznych – jest to hipoteza sprawdzalna w zadaniach stosowanych (sport, lotnictwo, rehabilitacja).

Streszczenie

Mózg ma oddzielne „liczniki” dla wzroku i słuchu, ale decyduje jednym przyciskiem. Rozumiejąc, gdzie dokładnie następuje „przekształcanie” informacji sensorycznych w działanie, możemy precyzyjniej dostosowywać diagnostykę, interfejsy i rehabilitację – od hełmów pilotów po telemedycynę i neuroedukację uwagi.

Źródło: Egan, JM, Gomez-Ramirez, M., Foxe, JJ i in. Odrębne akumulatory słuchowe i wzrokowe współaktywują przygotowanie motoryczne do detekcji wieloczuciowej. Nat Hum Behav (2025). https://doi.org/10.1038/s41562-025-02280-9

You are reporting a typo in the following text:
Simply click the "Send typo report" button to complete the report. You can also include a comment.