به گزارش سیناپرس همدان، یافته های آن، که در مجله Nature Communications منتشر شده است، بینش جدیدی را در مورد پیچیدگی های عملکرد عصبی ارائه می دهد.
لورا گویلیامز، نویسنده اصلی مقاله، دانشجوی دکترای دانشگاه نیویورک در آن زمان توضیح میدهد: برای درک گفتار، مغز شما باید هم هویت صداهای گفتار و هم ترتیبی که به زبان میآید را به دقت تفسیر کند تا کلمات گفته شده را به درستی تشخیص دهد. این پژوهشگر و در حال حاضر عضو پسا دکتری در دانشگاه کالیفرنیا، سانفرانسیسکو است. ما نشان میدهیم که مغز چگونه به این شاهکار دست مییابد: صداهای مختلف با جمعیتهای عصبی متفاوتی پاسخ میدهند. و هر صدا نشان میدهد که چقدر از زمان ورودش به گوش گذشته است. این به شنونده امکان میدهد هم ترتیب و هم هویت صداهایی را که کسی میگوید بداند تا به درستی بفهمد که چه کلماتی میگوید.
در حالی که نقش مغز در پردازش صداهای فردی به خوبی مورد تحقیق قرار گرفته است، چیزهای زیادی در مورد نحوه مدیریت توالی های شنیداری سریعی که گفتار را تشکیل می دهند، نمی دانیم. درک بیشتر از پویایی مغز به طور بالقوه می تواند منجر به رسیدگی به بیماری های عصبی شود که توانایی ما را برای درک کلمات گفتاری کاهش می دهد.
در مطالعه Nature Communications، هدف دانشمندان این بود که بفهمند مغز چگونه هویت و ترتیب صداهای گفتاری را پردازش می کند، با توجه به اینکه آنها به سرعت آشکار می شوند. این مهم است زیرا مغز شما نیاز دارد که هم هویت صداهای گفتاری (مثلاً l-e-m-o-n) و هم ترتیب بیان آنها (مثلاً 1-2-3-4-5) را به دقت تفسیر کند تا کلمات گفته شده را به درستی تشخیص دهد (مثلاً. "لیمو" و نه "هلو").
برای انجام این کار، آنها فعالیت مغزی بیش از 20 سوژه انسانی را که همگی زبان مادری انگلیسی هستند، ضبط کردند، در حالی که این افراد به دو ساعت یک کتاب صوتی گوش دادند. به طور خاص، محققان فعالیت مغز آزمودنیها را در رابطه با ویژگیهای صداهای گفتاری که یک صدا را از صدا دیگر متمایز میکنند (مثلاً "m" در مقابل "n") مرتبط کردند.
محققان دریافتند که مغز گفتار را با استفاده از یک بافر پردازش میکند و در نتیجه بازنمایی در حال اجرا (یعنی نشاندادن زمان) از سه صدای گفتار گذشته را حفظ میکند. نتایج همچنین نشان داد که مغز چندین صدا را به طور همزمان پردازش می کند بدون اینکه هویت هر صدا را با انتقال اطلاعات بین نورون ها در قشر شنوایی به هم بزند.
گویلیامز که در سال 2023 به عنوان استادیار به دپارتمان روانشناسی دانشگاه نیویورک بازخواهد گشت، توضیح میدهد: ما دریافتیم که هر صدای گفتاری باعث شلیک آبشاری از نورونها در مکانهای مختلف در قشر شنوایی میشود. در لغت آوایی، «k-a-t» بین جمعیتهای عصبی مختلف به روشی قابل پیشبینی منتقل میشود، که برای تعیین زمان هر صدا با ترتیب نسبی آن عمل میکند.
این مطالعه در ژورنال Nature Communications منتشر شد.
منبع: medicalxpress
مترجم: کیانوش کرمی