به گزارش سینا پرس فارس، پژوهشگران دانشگاه آکسفورد و بخش هوش مصنوعی «دیپمایند» (DeepMind) گوگل ادعا کردهاند احتمال زیادی وجود دارد که صورتهای پیشرفته هوش مصنوعی «برای وجود حیات روی زمین مخاطرهآمیز باشند».
محققان در مقالهای که بهتازگی در مجله هوش مصنوعی (AI Magazine) منتشر شد، هشدار دادند که ادامه توسعه برخی از عوامل هوش مصنوعی، «عواقب فاجعهبار» درپی خواهد داشت.
فیلسوفان برجستهای، ازجمله نیک باستروم از دانشگاه آکسفورد، پیش از این در مورد تهدید ناشی از شکلهای پیشرفته هوش مصنوعی صحبت کردهاند، در همین حال، یکی از نویسندگان مقاله جدید ادعا میکند که چنین هشدارهایی چندان هم بعید نیست.
مایکل کوهن در یک رشته توییت که با این مقاله ضمیمه شده است، نوشت: «باستروم، دانشمند کامپیوتر استوارت راسل، و دیگران استدلال کردهاند که هوش مصنوعی پیشرفته، تهدیدی برای بشریت است.»
«تحت شرایطی که ما بررسی و شناسایی کردهایم، نتیجهگیری ما بسیار قویتر از هر مقاله منتشرشده قبلی است – وقوع یک فاجعه وجودی نه تنها ممکن است، بلکه محتمل است.»
این مقاله سناریویی را پیشنهاد میکند که براساس آن، یک عامل هوش مصنوعی، استراتژی تقلب را برای دریافت پاداشی که از قبل برای جستوجوی آن برنامهریزی شده است، میفهمد و از آن سر درمیآورد.
این عامل هوش مصنوعی برای به حداکثر رساندن ظرفیت پاداش خود، به فراهم کردن میزان هرچه بیشتری انرژی نیاز دارد. این آزمایش فکری پیشبینی میکند که بشر در نهایت برای به دست آوردن منابع انرژی با هوش مصنوعی رقابت میکند.
کوهن نوشت: «برندهشدن در رقابت «استفاده از آخرین ذره انرژی موجود» در شرایطی که در مقابل چیزی بسیار هوشمندتر از خودمان بازی میکنیم، احتمالا بسیار سخت خواهد بود. باخت در این بازی، مرگبار خواهد بود.»
«این احتمالات، هرچند که نظری و تئوریکاند، اما به این معنی است که ما باید بهآرامی – اگر اینگونه باشد – به سمت هدف هوش مصنوعی قدرتمندتر پیش برویم.»
«دیپمایند» پیش از این، یک تضمین حفاظتی در برابر چنین احتمالی پیشنهاد داده و آن را «دکمه بزرگ قرمز» نامیده است. در مقالهای در سال ۲۰۱۶ با عنوان «عوامل هوش مصنوعی ایمن با قابلیت قطع شدن»، این شرکت هوش مصنوعی چارچوبی برای جلوگیری از نادیدهگرفتن دستورات خاموش کردن از طرف ماشینهای پیشرفته و مانع شدن از تبدیل آنها به یک عامل سرکش خارج از کنترل، ترسیم کرد.
پروفسور باستروم پیشتر «دیپمایند» را – که دستاوردهای هوش مصنوعی آن از جمله شامل شکست دادن قهرمانان انسان در بازی رومیزی «گو» (Go) و تحت کنترل درآوردن همجوشی هستهای است – بهعنوان نزدیکترین گروه به ایجاد هوش مصنوعی در سطح انسانی توصیف کرد.
این فیلسوف سوئدی همچنین گفت که اگر پیشرفت هوش مصنوعی ادامه پیدا نکند، «تراژدی بزرگی» خواهد بود، زیرا هوش مصنوعی، ظرفیت درمان بیماریها و پیشرفت تمدن را دارد و در غیر اینصورت رسیدن به این موارد با این سرعت غیرممکن است.
منبع: ایتنا