ساخت هوش مصنوعی که بتواند از ذخیرهی اطلاعات بشر یادگیری کند، یکی از مهمترین اهداف علوم کامپیوتری است. «کریس منینگ» (Chris Manning) از دانشگاه استنفورد میگوید «کامپیوترها دانش و قدرت درک عمومی ندارند تا با خواندن داستانها و تماشای کمدی ساز و کار جهان ما را بفهمند.»
سال گذشته تیم DeepMind گوگل برای این که یک قدم به این هدف نزدیکتر شود، از مقالههای خبری وبسایت Daily Mail و CNN استفاده کردند تا الگوریتمی برای خواندن و درک یک داستان کوتاه بسازند. این تیم با استفاده از خلاصه خبرهای مقالهها سوالهای درک مطلبی طرح کردند تا الگوریتم در آنها به دنبال نکات اصلی بگردد.
حالا گروهی به سرپرستی منینگ الگوریتمی طراحی کردهاند که نتایج پاسخهایش از DeepMind بهتر است و در مقالههای CNN و Daily Mail به طور کلی ۷۰ درصد امتیاز گرفت.
آنها با سادهتر کردن و افزایش بازدهی مدل DeepMind عملکرد آن را بهتر کردند. منینگ میگوید: «بعضی از چیزهایی که این مدل دارد پیچیدگیهای غیرضروری ایجاد میکند. اگر از شر آنها خلاص شویم، امتیازهای الگوریتم بالا میرود.»
«رابرت فردرکینگ» از دانشگاه کارنگی ملون میگوید: «این کاملا منطقی به نظر میرسد. پیچیده کردن یک چیز، لزوما آن را بهتر نمیکند.»
در هوش مصنوعی اگر یک الگوریتم پیچیدهتر باشد، قدرتمندتر میشود، اما برای عملکرد بهتر به دادههای بیشتری نیاز دارد تا از آن یاد بگیرد. هوش مصنوعی ساده میتواند با حجم کمتری از داده خیلی سریع یاد بگیرد.
مزیت استفاده از مقالههای Daily Mail و CNN این است که تعداد بسیار زیادی از آنها وجود دارد. این الگوریتم هر چه از متنهای بیشتری یاد بگیرد، باهوشتر میشود.
فردرکینگ میگوید قبل از اینکه ما هوش مصنوعی را برای جمعآوری اطلاعات از متون جهان آماده کنیم، با چالشهایی رو به رو هستیم که باید بر آنها غلبه کنیم. ما باید بتوانیم دادههایی را که هوش مصنوعی دریافت میکند زیر نظر بگیریم تا تشخیص دهیم چه اطلاعاتی را نگه داریم و کدام اطلاعات را کنار بگذاریم. او میگوید: «اگر مراقب نباشیم، سیستم هوش مصنوعی فکر میکند که اوباما در کنیا به دنیا آمده.»
منبع:digikala
No tags for this post.