هوش مصنوعی در خدمت ناشنوایان
به گزارش سیناپرس، برای درک این که کاهش شنوایی، چگونه بر افراد تأثیر می گذارد، محققان توانایی اشخاص در تشخیص گفتار را مورد مطالعه قرار می دهند. بررسی ها نشان می دهند که در صورت وجود پژواک، اختلالات شنوایی، یا سر و صدای زیاد پس زمینه، مانند صدای ترافیک یا چندین بلندگو، تشخیص گفتار برای افراد دشوارتر خواهد بود.
آن ها اغلب از الگوریتم های شنیداری برای بهبود تشخیص گفتار انسان استفاده می کنند. برای ارزیابی چنین الگوریتمهایی، محققان آزمایشهایی را انجام میدهند که هدف آن تعیین نسبت سیگنال به نویز است.به گزارش سیناپرس، اما با وجود زمان بر و هزینه بر بودن چنین آزمایش هایی، تنها تعداد خاصی از کلمات یعنی به طور معمول حدود 50 درصد آن ها تشخیص داده میشوند.
حالا طبق یافته های یک مطالعه علمی منتشر شده در مجله انجمن شنیداری آمریکا، محققان آلمانی درحال بررسی و کشف یک مدل تشخیص گفتار انسان مبتنی بر یادگیری ماشین و شبکههای عصبی عمیق هستند.
این محققان از دانشگاه کارل فون اوزیتسکی اظهار داشته اند: مدل ما پیش بینیهای خوبی را برای انواع نویز با پیچیدگی های متفاوت، برای افراد کم شنوا ارائه می کند و علاوه بر آن، هم خطاهای کم تر و هم همبستگی بالاتری با دادههای اندازهگیری شده دارد.
به گزارش سیناپرس،این مطالعه شامل 8 شنونده ی عادی و 20 کم شنوا بود. آن ها در معرض انواع صداهای پیچیده ای که گفتار را نامفهوم می کردند، قرار گرفتند. شنوندگان دارای اختلالات شنوایی به سه گروه با سطوح مختلف کم شنوایی مرتبط با سن تقسیم شدند و آزمایش های لازم روی آن ها انجام شد.
این مدل، محققان را قادر ساخت تا عملکرد تشخیص گفتار شنوندگان با درجات مختلف کم شنوایی را برای انواع پوشش دهنده های نویز بررسی کرده و شباهت آن به گفتار واقعی را پیشبینی کنند. به گزارش سیناپرس،نتایج بدست آمده باعث تعجب پژوهشگران شد، چرا که پیش بینی ها برای همه ی انواع نویزها به خوبی جواب گو بودند.
به گزارش سیناپرس، پیش بینی های این مدل برای شنوایی یک طرفه ارائه شده است. لذا در آینده، محققان در صدد هستند که یک مدل دوطرفه ایجاد کرده و مورد ارزیابی قرار دهند، زیرا درک گفتار، تحت تأثیر شنوایی هر دو گوش قرار دارد.
ترجمه: سنا دلفیه