نماد سایت خبرگزاری سیناپرس

مغز ما برای پردازش کلماتی که می شنویم صداهای "مُهر زدن" دارد

به گزارش سیناپرس همدان، یافته های آن، که در مجله Nature Communications منتشر شده است، بینش جدیدی را در مورد پیچیدگی های عملکرد عصبی ارائه می دهد.

لورا گویلیامز، نویسنده اصلی مقاله، دانشجوی دکترای دانشگاه نیویورک در آن زمان توضیح می‌دهد: برای درک گفتار، مغز شما باید هم هویت صداهای گفتار و هم ترتیبی که به زبان می‌آید را به دقت تفسیر کند تا کلمات گفته شده را به درستی تشخیص دهد. این پژوهشگر و در حال حاضر عضو پسا دکتری در دانشگاه کالیفرنیا، سانفرانسیسکو است. ما نشان می‌دهیم که مغز چگونه به این شاهکار دست می‌یابد: صداهای مختلف با جمعیت‌های عصبی متفاوتی پاسخ می‌دهند. و هر صدا نشان می‌دهد که چقدر از زمان ورودش به گوش گذشته است. این به شنونده امکان می‌دهد هم ترتیب و هم هویت صداهایی را که کسی می‌گوید بداند تا به درستی بفهمد که چه کلماتی می‌گوید.

در حالی که نقش مغز در پردازش صداهای فردی به خوبی مورد تحقیق قرار گرفته است، چیزهای زیادی در مورد نحوه مدیریت توالی های شنیداری سریعی که گفتار را تشکیل می دهند، نمی دانیم. درک بیشتر از پویایی مغز به طور بالقوه می تواند منجر به رسیدگی به بیماری های عصبی شود که توانایی ما را برای درک کلمات گفتاری کاهش می دهد.

در مطالعه Nature Communications، هدف دانشمندان این بود که بفهمند مغز چگونه هویت و ترتیب صداهای گفتاری را پردازش می کند، با توجه به اینکه آنها به سرعت آشکار می شوند. این مهم است زیرا مغز شما نیاز دارد که هم هویت صداهای گفتاری (مثلاً l-e-m-o-n) و هم ترتیب بیان آنها (مثلاً 1-2-3-4-5) را به دقت تفسیر کند تا کلمات گفته شده را به درستی تشخیص دهد (مثلاً. "لیمو" و نه "هلو").
برای انجام این کار، آنها فعالیت مغزی بیش از 20 سوژه انسانی را که همگی زبان مادری انگلیسی هستند، ضبط کردند، در حالی که این افراد به دو ساعت یک کتاب صوتی گوش دادند. به طور خاص، محققان فعالیت مغز آزمودنی‌ها را در رابطه با ویژگی‌های صداهای گفتاری که یک صدا را از صدا دیگر متمایز می‌کنند (مثلاً "m" در مقابل "n") مرتبط کردند.

محققان دریافتند که مغز گفتار را با استفاده از یک بافر پردازش می‌کند و در نتیجه بازنمایی در حال اجرا (یعنی نشان‌دادن زمان) از سه صدای گفتار گذشته را حفظ می‌کند. نتایج همچنین نشان داد که مغز چندین صدا را به طور همزمان پردازش می کند بدون اینکه هویت هر صدا را با انتقال اطلاعات بین نورون ها در قشر شنوایی به هم بزند.

گویلیامز که در سال 2023 به عنوان استادیار به دپارتمان روان‌شناسی دانشگاه نیویورک بازخواهد گشت، توضیح می‌دهد: ما دریافتیم که هر صدای گفتاری باعث شلیک آبشاری از نورون‌ها در مکان‌های مختلف در قشر شنوایی می‌شود. در لغت آوایی، «k-a-t» بین جمعیت‌های عصبی مختلف به روشی قابل پیش‌بینی منتقل می‌شود، که برای تعیین زمان هر صدا با ترتیب نسبی آن عمل می‌کند.

این مطالعه در ژورنال Nature Communications منتشر شد.
منبع: medicalxpress

مترجم: کیانوش کرمی

خروج از نسخه موبایل