تیم پژوهشی دانشکدگان علوم دانشگاه تهران، به نتایج پیشرو در طبقهبندی سریهای زمانی با تمرکز بر معماری «میکسر ماتریسی» و روش «توکنسازی» دست یافت.
به گزارش خبرگزاری سیناپرس، در پی دستیابی تیم پژوهشی دانشکدگان علوم، متشکل از باقر باباعلی، دانشیار دانشکده ریاضی، آمار و علوم کامپیوتر و محمدمهدی عزیزی، دانشجوی دکترای علوم کامپیوتر دانشکدگان علوم، به نتایج پیشرو در طبقهبندی سریهای زمانی با تمرکز بر معماری «میکسر ماتریسی» و روش «توکنسازی» باباعلی، سرپرست تیم، ابعاد نظری و عملی این دستاورد را تشریح کرد.
وی در تحلیل یافتههای پژوهشی جدید با عنوان «توجه به توکنسازی» گفت: موفقیت مدلهای مبتنی بر توجه در حوزههای پیچیدهای مانند تشخیص پزشکی و پیشبینی مالی، بیش از هر چیز وابسته به شیوه هوشمندانه قطعهبندی و درک معنای دادههای زمانی است.
وی این فرآیند را کلید غلبه بر چالش تنوع گسترده در دنیای سریهای زمانی دانست و با اشاره به چالش اصلی این حوزه گفت: تنوع بینظیر در ماهیت، نویز، مقیاس و فرکانس دادههای سری زمانی، رؤیای ساخت یک مدل پایه جهانی را به یکی از مسائل دشوار هوش مصنوعی تبدیل کرده بود. پژوهش حاضر با بازتعریف چارچوب میکسر ماتریسی به عنوان یک جعبه ابزار، گامی ساختاریافته به سوی این هدف برداشته است.
وی در توضیح اهمیت یافته «توجه به توکنسازی» افزود: نتایج به وضوح نشان میدهد که صرف استفاده از یک معماری قدرتمند مانند ترنسفورمر کافی نیست. «توکنسازی» مرحله تبدیل داده خام به زبانی است که مدل میفهمد. اگر این ترجمه ناقص یا نادرست انجام شود، مدل هر چقدر هم قوی باشد، بر روی دادههای اشتباه آموزش دیده است. تمرکز این تحقیق بر بهینهسازی دقیق این مرحله، یعنی «تعبیه قطعات» یا Patch Embedding، دلیل اصلی ارتقای چشمگیر دقت مدلهاست.
این استاد دانشگاه در مقایسه روشهای ادغام اطلاعات زمانی اظهار داشت: مکانیزم توجه (Attention) به مدل این توانایی را میدهد که به صورت پویا، روابط بلندمدت و کوتاهمدت بین همه قطعات داده را کشف و وزن دهد. این برتری کیفی نسبت به روشهایی مانند MLP-Mixer که صرفاً ترکیبی خطی انجام میدهند، به خصوص در دادههای پیچیدهای مانند سیگنالهای مغزی که وابستگیهای زمانی ظریفی دارند، کاملاً حیاتی و تعیینکننده است.
باباعلی در پاسخ به سؤالی درباره آینده این پژوهشها گفت: مسیر پیشرو، حرکت به سمت «توکنسازی تطبیقی» و «هوشمند» است. آیا میتوانیم به مدل بیاموزیم که خودش بهترین روش برای قطعهبندی داده را بیابد؟ این یک سوال پژوهشی عمیق در تقاطع یادگیری ماشین و پردازش سیگنال است. دستیابی به آن، انقلابی در تحلیل دادههای زیستی و صنعتی ایجاد خواهد کرد.
وی در پایان با اشاره به نتایج عددی تحقیق خاطرنشان کرد: دستیابی به دقت متوسط ۸۶ درصد در حالت خودنظارتی روی بنچمارکهای معتبر، تنها یک عدد نیست. این رقم نشان میدهد که مدل توانسته است بدون نیاز به برچسبهای پر هزینه، مفاهیم نهفته در دادههای زمانی را به خوبی بیاموزد. این ویژگی، گنجینهای برای کاربردهای واقعی در شرایطی است که دادههای برچسبدار محدود هستند.
به نظر میرسد با تلفیق بینشهای عمیق آماری و علوم داده با معماریهای نوین یادگیری عمیق، افقهای تازهای برای هوشمندسازی تحلیل دادههای پیوسته در حال گشوده شدن است.

