Przecław News

Informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej w Wiadomościach Przecławia.

Badanie wykazało, że mózgi osób z autyzmem skutecznie zakodowały emocje twarzy

Badanie wykazało, że mózgi osób z autyzmem skutecznie zakodowały emocje twarzy

Badanie, w którym przetestowano aktywność neuronalną w mózgach osób z zaburzeniami ze spektrum autyzmu (ASD), ujawniło, że z powodzeniem kodują one odczucia twarzy w sygnałach nerwowych – i robią to tak samo, jak osoby bez ASD. Badania, prowadzone przez naukowców ze Stony Brook University, sugerują, że trudności, z jakimi borykają się osoby z autyzmem podczas odczytywania emocji twarzy, wynikają raczej z problemów z tłumaczeniem informacji o emocjach twarzy, które z powodzeniem zakodowali, a nie dlatego, że ich mózg nie potrafił tego zrobić. Wyniki opublikowano wcześnie w Internecie pod adresem Psychiatria biologiczna: neuronauka poznawcza i neuroobrazowanie.

Według dr Matthew De Lernera, starszego autora i profesora nadzwyczajnego psychologii, psychiatrii i pediatrii na Wydziale Psychologii Uniwersytetu Stony Brook, badanie elektroencefalografii (EEG) pozwoliło badaczom sprawdzić fundamentalne pytanie dotyczące autyzmu, które nie zostało jeszcze wyraźnie omówione: czy tak jest? Wyzwania związane z rozpoznawaniem emocji są spowodowane przede wszystkim tym, że informacje emocjonalne nie są kodowane w mózgu, czy też są one precyzyjnie zakodowane i nie są wszechobecne?

Nasze odkrycia sugerują, że ostatnia część tego pytania jest najbardziej prawdopodobnym wyjaśnieniem, dlaczego wiele osób z autyzmem zmaga się z czytaniem twarzy. W szczególności, kiedy noszenie maski jest powszechne i każdy ma mniej informacji na temat emocji twarzy dostępnych w życiu codziennym, szczególnie ważne jest, aby zrozumieć, jak, kiedy i dla tych, którzy mają trudności z odczytaniem tych uczuć – a także kiedy możemy mieć niezrozumienie natury tych walk. ”.

Dr Matthew de Lerner, starszy autor i profesor nadzwyczajny psychologii, psychiatrii i pediatrii na Wydziale Psychologii Uniwersytetu Stony Brook

Badaniami objęto łącznie 192 osoby w różnym wieku w całym kraju, których sygnały nerwowe zostały zarejestrowane po obejrzeniu wielu emocji na twarzy. Zespół zastosował dyskryminacyjne, współczesne podejście do uczenia maszynowego zwane głębokimi konwolucyjnymi sieciami neuronowymi, aby sklasyfikować emocje twarzy. Podejście oparte na uczeniu maszynowym obejmowało algorytm, który umożliwił naukowcom zbadanie aktywności EEG osób z zaburzeniami ze spektrum autyzmu i bez nich podczas oglądania twarzy i dekodowania emocji, które widzą. Algorytm z kolei może wskazać, że każdy doświadcza emocji, które dana osoba widziała – zasadniczo, aby spróbować zmapować wzorce neuronowe, których mózg uczestników używał do dekodowania emocji.

READ  Ta galaktyka znajduje się w odległości 13,5 miliarda lat świetlnych

Zdaniem autorów, wyniki mają poważne konsekwencje dla sposobu, w jaki osoby z autyzmem przetwarzają emocje oraz dla opracowania nowych typów interwencji, które pomogą poprawić ocenę uczuć twarzy u innych osób z ASD.

„W szczególności wiele interwencji ma na celu pomóc osobom z autyzmem zrekompensować brak zrozumienia emocji – są to zasadniczo protezy rozpoznające emocje. Nasze odkrycia wskazują jednak, że metody te mogą nie być pomocne, a zamiast tego powinny. Skupiamy się na wykorzystaniu i wzmacniając je. „Emocje są prawidłowo zakodowane” – dodaje dr Lerner.

Badania, we współpracy z Uniwersytetem w Trydencie, obejmowały obrazowanie i gromadzenie danych, które umożliwił Instytut Zaawansowanych Nauk Obliczeniowych na Uniwersytecie Stony Brook oraz wykorzystanie systemu obliczeniowego SeaWulf.

Źródło:

Odniesienie do czasopisma:

Torres, JMM, Et al. (2021) Odczucia twarzy są precyzyjnie zakodowane w sygnalizacji neuronowej osób z zaburzeniami ze spektrum autyzmu: podejście do głębokiego uczenia się. Psychiatria biologiczna: neuronauka poznawcza i neuroobrazowanie. doi.org/10.1016/j.bpsc.2021.03.015.