درک اهداف و اشتباهات انسان به کمک هوش‌ مصنوعی

کد خبر : 112701 شنبه 04 بهمن 1399 - 09:43:08

یک الگوریتم جدید با قابلیت استنباط اهداف و برنامه‌های انسان می‌تواند به ساخت دستگاه‌هایی کمک کند که با ماهیت ناقص برنامه‌ریزی انسانی سازگار باشند

در آزمایشی حول محور هوش اجتماعی انسان که توسط دو روانشناس به نام‌های فلیکس وارنکن(Felix Warneken) و مایکل توماسلو (Michael Tomasello) انجام شد، یک کودک ۱۸ ماهه مردی را تماشا می‌کند که به همراه یک دسته کتاب به سمت کمدی در بسته می‌رود. هنگامی که به کمد می‌رسد با کلافگی چندین بار کتاب‌ها را به آن می‌کوبد و سپس صدایی عحیب از خود در می‌آورد.

پس از آن اتفاقی قابل توجهی رخ داد کودک. با استنباط هدف مرد به سمت کمد رفته و درهای آن را باز کرد تا مرد بتواند کتاب‌های خود را در آن قرار دهد اما یک کودک نوپا با تجربه‌ای محدود در زندگی چگونه قادر به فهم چنین موضوعی است؟

اخیرا دانشمندان حوزه کامپیوتر به دنبال یافتن راهی هستند که این توانایی را در دستگاه‌ها نیز ایجاد کنند. مولفه اصلی ایجاد چنین درکی چیزی است که ما را تبدیل به انسان کرده یعنی "اشتباهاتمان".

همانطور که یک کودک نوپا هدف مرد را از شکست در کاری که می‌خواسته انجام دهد می‌فهمد، دستگاه‌ها نیز برای فهمیدن اهداف ما باید اشتباهات ما را در نظر بگیرند.

محققان آزمایشگاه علوم رایانه‌ای و هوش مصنوعی در موسسه فناوری ماساچوست(MIT) و موسسه مغز و علوم شناختی، برای ایجاد این هوش اجتماعی در ماشین آلات الگوریتمی را ایجاد کردند که می‌تواند اهداف و برنامه‌ها را استنباط کند، حتی اگر این اهداف و برنامه‌ها در نهایت منجر به  شکست شوند. این تحقیقات می‌تواند به بهبود بسیاری از فناوری‌های کمکی مثل ربات‌های مراقبتی و یا دستیارهای دیجیتالی مثل سیری و الکسا کمک کند.

تن ژی ژوان(Tan Zhi-Xuan) دانشجوی دکترای گروه مهندسی برق و علوم کامپیوتر موسسه فناوری ماساچوست که نویسنده‌ی اصلی این مقاله است می‌گوید: توانایی تشخیص اشتباهات برای دستگاه‌هایی که منافع ما را استنتاج می‌کنند و در جهت آن عمل می‌کنند بسیار اهمیت دارد. در غیر این صورت سیستم‌های هوش مصنوعی ممکن است به اشتباه فکر کنند. از آنجا که ما در رسیدن به یک هدف شکست خورده‌ایم دیگر رسیدن به آن هدف برایمان اهمیتی ندارد.

همه ما دیده‌ایم که چگونه این الگوریتم‌ها از استفاده‌ی بدون برنامه‌ریزی ما از شبکه‌های مجازی استفاده می‌کنند و ما را به سمت وابستگی و تضاد می‌کشانند. در شرایط ایده‌آل الگوریتم‌ها در آینده اشتباهات، عادات بد و رفتارهای غیرمنطقی ما را شناسایی می‌کنند و از آن‌ها جلوگیری می‌کنند.

این گروه برای ایجاد یک مدل از جین(Gen) که پلتفرم جدید برنامه‌نویسی هوش مصنوعی است استفاده کرد تا هوش مصنوعی با قدرت استنباط تولید کند. مدل ساخته شده از مدل‌های قبلی دقت و سرعت بیشتری داشت.

استورات راسل(Stuart Russell) استاد مهندسی در دانشگاه کالیفرنیا می‌گوید: هوش مصنوعی  در حال دور شدن از مدل استاندارد سابق است که در آن هدفی مشخص و ثابت به دستگاه داده می‌شد و هوش مصنوعی نمی‌دانست که ما چه می‌خواهیم، این بدان معنی است که تحقیق در مورد استنباط اهداف و ترجیحات از رفتار انسان به یک موضوع اصلی در هوش مصنوعی تبدیل می شود. این مقاله این هدف را جدی گرفته است. و این یک گام به سوی مدلسازی است. فرآیندی که با آن انسان رفتار و اهداف و ترجیحات خود را ایجاد می‌کند.

این تیم از یک روش معمول برنامه‌ریزی توسط انسان الهام گرفته است و آن برنامه‌ریزی‌های کوتاه مدت به جای یک برنامه‌ریزی کلی از پیش تعیین شده است. گرچه این نوع برنامه‌ریزی ممکن است به اشتباه ختم شود اما بار کمتری بر دوش حافظه کوتاه مدت می‌گذارد.

به عنوان مثال اگر دوست شما در حال پختن غذا باشد و شما بخواهید غذا را حدس بزنید با توجه به مراحلی که طی می‌کند مانند روشن کردن فر چندین مورد را در نظر می‌گیرید و کمی قبل از انجام قدم بعدی پیش‌بینی می‌کنید که چه اتفاقی خواهد افتاد و گزینه‌های نامربوط را قدم به قدم حذف می‌کنید و هنگامی که از حدس خود مطمئن شدید به کمک دوستتان می‌روید.

الگوریتم این گروه نیز هر حرکت را پیش از اتفاق افتادن پیش‌بینی می‌کند و امیدوار است بتواند از این مدل برای تولید دستگاه‌هایی بهتر استفاده کند. بررسی استنتاج‌های ساده‌تر که کودکان و حتی نوزادان ۱۰ ماهه در مورد اهداف دیگران انجام می‌دهند، می‌تواند به مدل‌سازی کمک کند.

ژوان می‌گوید: "اگرچه این کار فقط یک گام اولیه کوچک در این جهت است، اما امید من این است که این تحقیقات زمینه‌های فلسفی و مفهومی لازم برای ساخت دستگاه‌هایی را فراهم کند که اهداف، برنامه ها و ارزش‌های انسانی را به درستی درک کنند.

منبع:ایسنا

هرگونه کپی برداری و انتشار مطالب از خبرگزاری بدون ذکر منبع پیگرد قانونی دارد.
نظرات شما

نظرات شما

متن *

[کد امنیتی جدید]