به گزارش سیناپرس به نقل از جام جم آنلاین، پیشرفت تازه و مهمی که در این حوزه به دست آمده، «یادگیری ماشین» است که در فناوریهایی از بررسی اشتباهات املایی و تایپی گرفته تا خودروهای بدون راننده کاربرد دارد و معمولا نوعی سامانه رایانهای به نام «شبکه عصبی» انجام آن را به عهده دارد. شبکه عصبی مدلی بسیار سادهسازی شده از مغز انسان است که در آن مجموعهای از واحدها، اجزای نوعی ورودی (مثلا پیکسلهای عکس) را دریافت میکنند، محاسبات سادهای رویشان صورت داده، آنها را به لایه دیگری از واحدها تحویل میدهند. لایه آخر، حامل جواب خواهد بود.
مساله محوری در حوزه یادگیری ماشین به این معنی است که چطور رایانههایی بسازیم که به جای دریافت دستورالعمل صریح، عملکردشان را از طریق کسب تجربه بهتر کنند. یادگیری ماشین در فصل مشترک علوم رایانه و آمار و در قلبِ حوزههای هوش مصنوعی و علوم دادهها قرار دارد و امروزه سرعت رشد میان حوزههای فنی دیگر بالاست. در سامانههای مبتنی بر یادگیری ماشین، نیازی به برنامهنویسی متخصصان با استفاده از دانش خودشان نیست، بلکه خود این سامانهها آنچه را که باید، از روی مجموعه دادههای کلان میآموزند! تا جایی که در نهایت میتوانند در مجموعه دادههایی بس عظیمتر و آشفتهتر از آنچه انسانها از عهده تحلیلشان بر میآیند، الگوهای موجود را مشاهده و ناهنجاریها را تشخیص دهند. پیشرفتهای اخیر در حوزه یادگیری ماشین، هم به سبب توسعه نظریه و الگوریتمهای جدید یادگیری و هم در نتیجه در دسترس بودن کلاندادهها و محاسبات رایانهای کمهزینه حاصل شده است. این پیشرفتها به اندازهای است که اکنون در حوزههای مختلف علم، فناوری و تجارت میتوان ردپای هوش مصنوعی و روشهای یادگیری ماشین را مشاهده کرد.
محکی قدیمی: جستوجوی ذرات جدید
در سال 1391/2012، گروههایی از پژوهشگران که با بزرگترین برخورددهنده پروتون در جهان یعنی الاچسی LHC (سرواژه Large Hadron Collider به معنی برخورددهنده هادرونی بزرگ) در سوئیس کار میکردند، ذرهای را به نام بوزون هیگز پیدا کردند که وجود آن مدتها قبل پیشبینی شده بود. این ذره گریزپا، برای توجیه نحوه جرمدار شدن همه ذرات بنیادی به کار میرود، اما تشخیص آن اصلا آسان نیست؛ در الاچسی، بوزون هیگز تقریبا فقط در یک برخورد از میان یک میلیارد برخورد پروتونی ایجاد میشود و طی مدت یک میلیاردم پیکوثانیه دچار واپاشی شده، ذرات دیگر را شکل میدهد؛ از جمله زوجی از پروتونها و مجموعهای چهارتایی از ذراتی به نام میون. برای بازسازی ذره هیگز، فیزیکدانان باید همه این ذرات عادیتر را پیدا کنند و ببینند آیا با توجه به وضعیتشان ممکن است منشا همه آنها یک ذره بوده باشد یا خیر. البته کار آنان به سبب وجود تعداد زیادی ذره فرعی که در برخوردها ایجاد میشوند، دشوارتر هم میشود. الگوریتمهایی مانند شبکههای عصبی برای پیدا کردن آثار ذرات مورد نظر در میان ذرات زمینه بسیار کارآمد هستند.
روشهای یادگیری ماشین هنوز حوزه فیزیک ذرات را به طور کامل قبضه نکردهاند؛ همچنان فیزیکدانان برای جستوجوی آثار ذرات و پدیدهها در میان دادهها، بیشتر بر درکشان از فیزیک بنیادی تکیه دارند، اما این احتمال وجود دارد که بزودی هوش مصنوعی در این زمینه اهمیت بیشتری پیدا کند؛ پژوهشگران قصد دارند در سال 1403/2024 الاچسی را بهگونهای ارتقا دهند که تعداد برخوردها در آن ده برابر شود. در آن مقطع، یادگیری ماشین برای بررسی سیل دادههای جدیدی که به دست میآید، ضروری خواهد بود.
تحلیل وضع روحی و جسمی با الگوریتمهای هوش مصنوعی
شبکههای اجتماعی با میلیاردها کاربر و صدها میلیارد توئیت و پُست که هر ساله در آنها منتشر میشود، کلاندادهها را به حوزه علوم اجتماعی بردهاند. بعلاوه فرصت بینظیری برای استفاده از هوش مصنوعی برای درک ارتباطات انسانی، پدید آمده است. برخی پژوهشگران از روشهای یادگیری ماشین و پردازش زبان طبیعی برای غربالکردن دادههای حجیم استفاده میکنند تا به تعیین وضع سلامت جسمی و روحی عموم بپردازند. این کار به روش سنتی با آمارگیری انجام میشود. اما دادههای شبکههای اجتماعی به واقعیت نزدیکتر و بسیار ارزانتر هستند و حجم آنها دهها برابر بیشتر است. البته این دادهها اندکی درهم و آشفته هستند، اما هوش مصنوعی روشی قدرتمند برای تشخیص الگو در میان آنها ارائه میدهد.
برای مثال در پژوهشی که بتازگی انجام شد، پژوهشگران دانشگاه پنسیلوانیا به پستهای 29هزار کاربر پرداختند که میزان افسردگی خود را با آزمونهایی ارزیابی کرده بودند. الگوریتم یادگیری ماشین با استفاده از دادههای 28هزار نفر از این کاربران، ارتباطی را بین واژههای به کار رفته در پستهای تازه و سطح افسردگی آنان پیدا کرد. پس از این کشف، الگوریتم توانست میزان افسردگی را در کاربران دیگر صرفا براساس پستهای جدیدشان تعیین کند.
این گروه از محققان در پژوهشی دیگر، میزان مرگ و میر ناشی از بیماریهای قلبی را با تجزیه و تحلیل 148میلیون توئیت پیشبینی کردند. مشخص شد واژههایی که با خشم و روابط منفی ارتباط دارند، از نشانههای خطر بیماری قلبی هستند. آمار واقعی مرگومیر بیشتر با پیشبینیهای انجام شده بر اساس شبکههای اجتماعی مطابقت داشت تا پیشبینیهای صورت گرفته بر مبنای ده عامل اول خطرساز بیماری قلبی از قبیل سیگار و دیابت. پژوهشگران همچنین با استفاده از شبکههای اجتماعی به پیشبینی شخصیت، مقدار درآمد و گرایش سیاسی افراد و همچنین بررسی کلیشهها و قالبهای اجتماعی پرداختند!
جیمز پِنِبیکر از دانشگاه تگزاس که در پژوهشهای خود به جای محتوا بر نحوه بیان متمرکز است، دریافته که میتوان از واژههای دستوری بهکار رفته در درخواست پذیرش اشخاص در دانشگاه، برای پیشبینی نمرات احتمالی آنان استفاده کرد. استفاده از حرف تعریف و حرف اضافه نشاندهنده تفکر تحلیلی (تفکر مبتنی بر حقایق ثابت شده و نظریهها) است و میتوان از روی آن نمرات بالا را پیشبینی کرد.
ریشههای اوتیسم در ژنوم
شناخت منشا اوتیسم برای پژوهشگران حوزه ژنتیک، چالشی بزرگ به شمار میرود. مشخص شده است این بیماری یک مؤلفه وراثتی دارد، اما تغییراتی که در انبوه ژنهای موجود، نقشی شناخته شده در اوتیسم دارند، فقط 20 درصد کل موارد را
توجیه میکنند.
یافتن متغیرهای ژنتیک دیگری که ممکن است در این بیماری نقش داشته باشند، نیاز به بررسی 25هزار ژن انسانی دیگر و دیانای اطرافشان دارد که برای انسان کار بسیار دشواری به شمار میرود. به همین علت پژوهشگری از دانشگاه پرینستون و همکارانش روشهای هوش مصنوعی را برای این منظور به کار گرفتهاند. آنان صدها مجموعه داده را با هم ترکیب کردهاند؛ دادههایی درباره این که چه ژنهایی در سلولهای انسانی مشخصی فعال هستند، برهمکنش پروتئینها چگونه است و جایگاههای اتصال فاکتور رونویسی ژنتیک و سایر خصوصیات مهم مربوط به ژنوم کجا هستند. سپس آنان با استفاده از یادگیری ماشین، نقشه برهمکنش ژنها را ایجاد کردند و برهمکنشهای ژنهایی که قطعا خطر اوتیسم را ایجاد میکنند را با برهمکنشهای هزاران ژن ناشناخته دیگر مقایسه کردند تا مشابهتهایی بینشان بیابند و به این ترتیب 2500 ژن دیگر را که احتمالا در اوتیسم نقش دارند شناسایی کردند.
اما همانگونه که پژوهشگران بتازگی دریافتهاند، ژنها به تنهایی عمل نمیکنند؛ رفتار آنها تحت تاثیرمیلیونها باز آلی غیررمزگذار در نزدیکیشان قرار میگیرد که با پروتئینهای متصل شونده به دیانای و عوامل دیگر برهمکنش دارند. مشخصکردن این که کدام تغییرات ناحیه بیرمز ممکن است بر ژنهای اوتیسم دور و بر آنها اثر بگذارد حتی از پیدا کردن این ژنها نیز دشوارتر است و برای تعیین آنها از هوش مصنوعی کمک گرفته شده است.
پژوهشگران برای آموزش دادن برنامه ـ که یک سامانه یادگیری عمیق است و «دیپ سی (DeepSEA) » نامیده میشود ـ آن را در معرض دادههایی قرار دادند که از نحوه اثر دهها هزار ناحیه بیرمز دیانای بر ژنهای اطرافشان موجود بود. سامانه یاد گرفت که برای یافتن فعالیتهای احتمالی در نواحی بیرمز دیانای، به دنبال چه ویژگیهایی بگردد. این محققان اکنون مشغول اجرای برنامه با دادههای مربوط به ژنوم بیماران مبتلا به اوتیسم هستند تا اثرات بازهای آلی غیر رمزگذار را رتبهبندی کنند.
آگاهی از اسرار آسمان
فروردین امسال اخترشناسی به نام کوین شاوینسکی تصاویر محوی از چهار کهکشان در توئیتر منتشر و از اخترشناسان دیگر تقاضا کرد در طبقهبندی آنها به او کمک کنند. اخترشناسان در جواب او گفتند این تصاویر شبیه کهکشانهای بیضوی و مارپیچی، یعنی انواع آشنای کهکشانها هستند.
بعضی از اخترشناسان که به سبب گرایش محاسباتی شاوینسکی مشکوک شده بودند حقهای در کار باشد، بصراحت از او پرسیدند آیا این کهکشانها واقعی هستند؟ یا شبیهسازیهایی بر پایه مدلسازی فیزیکی با رایانهاند؟
در واقع این کهکشانها هیچیک از این دو نبودند. شاوینسکی و همکارانش در موسسه ایتیاچ (ETH) زوریخ این کهکشانها را در شبکهای عصبی که هیچ دانش فیزیکی ندارد، عمل آورده بودند؛ شبکهای که صرفا میداند کهکشانها باید چه ظاهری داشته باشند!
شاوینسکی میخواست با این پست توئیترش دریابد تا چه حد ساختههای شبکه واقعی به نظر میرسند اما هدف بزرگتر او ایجاد فناوریتازهای بود: طراحی شبکهای که بتواند تصویر تاری از یک کهکشان را طوری اصلاح کند که گویی با تلسکوپ بهتری گرفته شده است.
تصاویر جعلیای که شاوینسکی در توئیتر منتشر کرد، حاصل کار یک شبکه رقابتی مولد بود؛ نوعی مدل یادگیری ماشین که دو شبکه عصبی را رودرروی هم قرار میدهد تا با هم رقابت کنند.
یکی از آنها شبکه مولد است که از خود تصاویر جعلی را میسازد، دیگری شبکه ممیز (ارزیاب) است که میکوشد هر نقصی را که ممکن است نشانه دستکاری باشد بر ملا کند و از این طریق مولد را وا میدارد که عملکرد بهتری داشته باشد. گروه شاوینسکی کیفیت هزاران تصویر واقعی از کهکشانها را به صورت ساختگی کاهش و به مولد آموزش داد که با ویرایش عکسها آنها را دوباره باکیفیت کند تا جایی که ممیز نتواند بر آنها اشکالی وارد کند.
شبکههای عصبی، هنر سنتز شیمیایی را میآموزند
مانند آشپزی که با تصوری از غذای آماده شده در ذهن خود کارش را آغاز میکند و سپس به این فکر میکند که چگونه آن را آماده کند، بسیاری از پژوهشگران حوزه شیمی آلی نخست ساختار نهایی مولکولی را که میخواهند بسازند در نظر میگیرند و سپس میاندیشند که چگونه آن را سر هم کنند.
اکنون آنان امیدوارند با کمک هوش مصنوعی بر یکی از دشواریهای مهم ساختن مولکولها غلبه کنند: انتخاب اجزای سازنده درست از میان صدها گزینه بالقوه و انتخاب قواعد مناسب شیمیایی برای پیوند دادن آنها از بین هزاران قاعده موجود. چند دهه شیمیدانان با زحمت و تلاش زیاد واکنشهای شیمیایی شناخته شده را به صورت برنامههای رایانهای مینوشتند، به این امید که سامانهای ایجاد کنند که بتواند بسرعت سادهترین دستورهای ساخت مولکولها را محاسبه کند.
اما نوشتن همه قواعد به زبان باینری کار بسیار دشواری است؛ از این رو بعضی از شیمیدانان به هوش مصنوعی روی آوردند و به جای وارد کردن قواعد معین واکنشهای شیمیایی، برنامه شبکه عصبی عمیقی را طراحی کردند که از روی میلیونها نمونه، یاد میگیرد واکنشها چگونه پیش میروند. هر چه دادههای بیشتری به این شبکه خورانده شود، عملکرد آن بهتر میشود.
به مرور این شبکه یاد گرفت بهترین واکنش را برای گام دلخواهی از سنتز شیمیایی پیشبینی کند و در نهایت توانست دستورهایی را برای ساختن مولکولها از گام اول وضع کند. این برنامه روی 40هدف مولکولی مختلف آزمایش و با یک برنامه طراحی مولکول که به روش سنتی نوشته شده بود، مقایسه شد. در حالیکه برنامه نوشته شده به شیوه سنتی در 5/22 درصد موارد توانست در مدت دو ساعت به راهی برای ساخت مولکولهای هدف دست یابد، هوش مصنوعی در 95 درصد موارد به آن رسید. این روش میتواند برای بهبود فرآیند تولید دارو نیز به کار برده شود.
No tags for this post.