Nowe publikacje
„Dwa liczniki – jedno rozwiązanie”: jak mózg łączy dźwięk i obraz, aby szybciej nacisnąć przycisk
Ostatnia recenzja: 18.08.2025

Cała zawartość iLive jest sprawdzana medycznie lub sprawdzana pod względem faktycznym, aby zapewnić jak największą dokładność faktyczną.
Mamy ścisłe wytyczne dotyczące pozyskiwania i tylko linki do renomowanych serwisów medialnych, akademickich instytucji badawczych i, o ile to możliwe, recenzowanych badań medycznych. Zauważ, że liczby w nawiasach ([1], [2] itd.) Są linkami do tych badań, które można kliknąć.
Jeśli uważasz, że któraś z naszych treści jest niedokładna, nieaktualna lub w inny sposób wątpliwa, wybierz ją i naciśnij Ctrl + Enter.

Kiedy słychać szelest trawy i migoczący cień, reagujemy szybciej niż w przypadku samego dźwięku lub błysku. Klasyka. Ale co właściwie dzieje się w mózgu w tych ułamkach sekund? Nowy artykuł w „ Nature Human Behaviour” pokazuje, że wzrok i słuch gromadzą dowody oddzielnie, a w momencie podejmowania decyzji ich „sumowanie” uruchamia pojedynczy bodziec motoryczny. Innymi słowy, w głowie znajdują się dwa akumulatory sensoryczne, które współaktywują jeden mechanizm motoryczny.
Tło
Jak mózg podejmuje szybkie decyzje w „hałaśliwym świecie” dźwięków i obrazów, to pytanie zadawane od wieków, ale bez jasnej odpowiedzi. Od końca XIX i XX wieku w psychofizyce znany jest „efekt redundantnych sygnałów” (RSE): jeśli cel jest prezentowany jednocześnie w dwóch modalnościach (na przykład błysk i dźwięk), reakcja jest szybsza niż w przypadku pojedynczego sygnału. Spór dotyczył mechanizmu: „wyścigu” niezależnych kanałów (model wyścigu), w którym wygrywa najszybszy proces sensoryczny, lub koaktywacji, w której dane z różnych modalności faktycznie sumują się przed wywołaniem reakcji. Formalne testy (takie jak nierówność Millera) pomogły na poziomie behawioralnym, ale nie pokazały, gdzie dokładnie występuje „fałd” – po stronie akumulatorów sensorycznych, czy już w momencie wyzwalania motorycznego.
W ciągu ostatnich 10–15 lat neurofizjologia dostarczyła wiarygodnych markerów tych utajonych stadiów. W szczególności, dodatnia aktywność centralno-ciemieniowa (CPP), supramodalny sygnał EEG „akumulacji do progu”, który dobrze pasuje do modeli dryfu i dyfuzji w procesie podejmowania decyzji, oraz redukcja beta (~20 Hz) w lewej korze ruchowej jako wskaźnik przygotowania do ruchu. Sygnały te umożliwiły powiązanie modeli obliczeniowych z rzeczywistymi obwodami mózgowymi. Nadal jednak istnieją kluczowe luki: czy dowody dźwiękowe i wizualne gromadzone są w jednym, czy w dwóch oddzielnych akumulatorach? I czy istnieje jeden próg ruchowy dla multimodalnego podejmowania decyzji, czy też każda modalność jest „oceniana” według odrębnych kryteriów?
Dodatkowym utrudnieniem jest synchronizacja czasowa. W warunkach rzeczywistych widzenie i słyszenie charakteryzują się desynchronizacją rzędu mikrosekund i milisekund: niewielkie przesunięcie czasowe może zamaskować rzeczywistą architekturę procesu. Dlatego potrzebne są paradygmaty, które jednocześnie kontrolują regułę reakcji (aby reagować na dowolną modalność lub tylko na obie jednocześnie), zmieniają asynchroniczność i umożliwiają łączenie behawioralnych rozkładów czasów reakcji z dynamiką markerów EEG w ramach jednego modelowania. To właśnie to podejście pozwala nam odróżnić „sumowanie akumulatorów sensorycznych z następującym po nim pojedynczym uruchomieniem silnika” od scenariuszy „wyścigu kanałów” lub „wczesnego łączenia się w jeden strumień sensoryczny”.
Wreszcie, istnieją praktyczne motywacje wykraczające poza podstawową teorię. Jeśli akumulatory sensoryczne są rzeczywiście oddzielne, a bodziec motoryczny wspólny, to w grupach klinicznych (np. z parkinsonizmem, ADHD, zaburzeniami ze spektrum) wąskie gardło może leżeć na różnych poziomach – w akumulacji, konwergencji lub przygotowaniu motorycznym. W przypadku interfejsów człowiek-maszyna i systemów ostrzegawczych faza i czas sygnałów mają kluczowe znaczenie: prawidłowe fazowanie dźwięku i obrazu powinno maksymalizować łączny wkład w próg motoryczny, a nie tylko „zwiększać głośność/jasność”. Te pytania stanowią kontekst nowego artykułu w czasopiśmie „ Nature Human Behaviour”, który bada detekcję multimodalną jednocześnie na poziomie zachowania, dynamiki EEG (CPP i beta) oraz modelowania obliczeniowego.
Co dokładnie odkryli?
- W dwóch eksperymentach EEG (n=22 i n=21) uczestnicy wykrywali zmiany w animacji punktów (wzrok) i serii tonów (słuch) poprzez naciśnięcie przycisku, gdy którykolwiek z nich uległ zmianie (wykrywanie redundantne) lub gdy zmieniły się oba (wykrywanie łączone).
- Naukowcy monitorowali „kontrdowód” neuronalny – dodatnią aktywność centralno-ciemieniową (CPP) – oraz dynamikę aktywności beta lewej półkuli mózgu (~20 Hz) jako marker przygotowania do ruchu. Sygnały te porównano z rozkładami czasu reakcji i modelami obliczeniowymi.
- Podsumowując: dowody słuchowe i wzrokowe kumulują się w odrębnych procesach, a gdy zostaną wykryte nadmiarowo, ich skumulowany udział subaddytywnie (mniejszy niż prosta suma) współaktywuje jeden progowy proces motoryczny – sam „wyzwalacz” działania.
Ważnym szczegółem jest kontrola „braku synchronizacji”. Kiedy naukowcy wprowadzili niewielką asynchroniczność między sygnałami dźwiękowymi i wizualnymi, model, w którym akumulatory sensoryczne najpierw integrują, a następnie informują układ ruchowy, wyjaśnił dane lepiej niż „wyścig” akumulatorów. To wzmacnia tezę, że strumienie sensoryczne działają równolegle, ale zbiegają się w jednym węźle decyzyjnym.
Dlaczego musisz to wiedzieć (przykłady)
- Klinika i diagnostyka. Jeśli akumulatory sensoryczne są oddzielne, a próg motoryczny wspólny, to różne grupy pacjentów (z ASD, ADHD, parkinsonizmem) mogą spodziewać się różnych „punktów krytycznych” – w akumulacji, konwergencji lub wyzwalaniu motorycznym. Pomaga to w dokładniejszym projektowaniu biomarkerów i treningu uwagi/reakcji.
- Interfejsy człowiek-maszyna: Projektowanie sygnałów ostrzegawczych i interfejsów multimodalnych może skorzystać z optymalnego zgrania faz sygnałów dźwiękowych i wizualnych, dzięki czemu współaktywacja motoryczna jest szybsza i bardziej stabilna.
- Neuronowe modele podejmowania decyzji. Wyniki łączą długoterminowe „kontrowersje” behawioralne (rasa vs. koaktywacja) ze specyficznymi markerami EEG (CPP i rytm beta kory ruchowej), zbliżając modele obliczeniowe do rzeczywistej fizjologii.
Jak to zrobiono (metodologia, ale pokrótce)
- Paradygmaty: redundantny (reagujący na dowolną modalność) i koniunktywny (reagujący tylko na obie jednocześnie) – klasyczna technika pozwalająca „zważyć” wkład każdej gałęzi sensorycznej. Plus osobny eksperyment z daną asynchronią między dźwiękiem a obrazem.
- Neurosygnały:
- CPP - „supramodalny” wskaźnik akumulacji dowodów sensorycznych do progu;
- Spadek beta w lewej korze ruchowej jest wskaźnikiem przygotowania do ruchu. Porównanie ich profili czasowych wykazało różne amplitudy CPP dla celów słuchowych i wzrokowych (oznaka oddzielnych akumulatorów) oraz wspólny napęd mechanizmu beta (oznaka wspólnego progu ruchowego).
- Symulacja: łączne dopasowanie rozkładów behawioralnych RT i dynamiki EEG. Model z integracją akumulatorów sensorycznych przed węzłem ruchowym wygrał porównanie, szczególnie w przypadku asynchronii.
Jak to zmienia obraz mózgu?
- Multimodalność ≠ „zmiksuj i zapomnij”. Mózg nie wrzuca wszystkich dowodów do jednego worka; przechowuje równoległe zapisy w różnych kanałach, a integracja zachodzi bliżej akcji. To wyjaśnia, dlaczego sygnały multimodalne przyspieszają czas reakcji – jednocześnie podnoszą tę samą flagę motoryczną.
- Subaddytywność jest normą. „Suma” bodźców sensorycznych jest mniejsza niż prosta arytmetyka, ale wystarcza, aby szybciej osiągnąć próg motoryczny. Zatem celem interfejsu nie jest „zwiększenie głośności i jasności”, lecz synchronizacja zbieżności.
- Most między psychofizyką a neurofizjologią: dawne efekty „zbędnych wskazówek” w zachowaniu znajdują mechanistyczne wyjaśnienie za pomocą markerów CPP i beta.
Ograniczenia i kolejny krok
- Próbą są zdrowi dorośli wykonujący zadania laboratoryjne; wnioski kliniczne to kolejny etap. Konieczne są testy u pacjentów oraz w naturalnych środowiskach multimodalnych.
- EEG zapewnia doskonały obraz czasowy, ale ograniczony przestrzennie; logiczne jest uzupełnienie go o rejestrację MEG/inwazyjną i efektywne modele łączności.
- Teoria przewiduje, że trening synchronizacji bodźców słuchowo-wizualnych powinien selektywnie poprawiać fazę motoryczną bez zmiany akumulatorów sensorycznych – jest to hipoteza sprawdzalna w zadaniach stosowanych (sport, lotnictwo, rehabilitacja).
Streszczenie
Mózg ma oddzielne „liczniki” dla wzroku i słuchu, ale decyduje jednym przyciskiem. Rozumiejąc, gdzie dokładnie następuje „przekształcanie” informacji sensorycznych w działanie, możemy precyzyjniej dostosowywać diagnostykę, interfejsy i rehabilitację – od hełmów pilotów po telemedycynę i neuroedukację uwagi.
Źródło: Egan, JM, Gomez-Ramirez, M., Foxe, JJ i in. Odrębne akumulatory słuchowe i wzrokowe współaktywują przygotowanie motoryczne do detekcji wieloczuciowej. Nat Hum Behav (2025). https://doi.org/10.1038/s41562-025-02280-9