تهاجم هوش مصنوعی

اگر فیلم ترمیناتور را دیده باشید، می‌دانید که هوش مصنوعی  خودآگاه به نام اسکای‌نت رویای برتری بر انسان را در سر پرورانده است. حالا آزمایشات رفتاری روی سیستم هوش مصنوعی گوگل به نام دیپ‌مایند نشان می‌دهد، در ساخت هوش مصنوعی تا چه اندازه باید مراقب باشیم. سال گذشته این سیستم نشان داد که می‌تواند به خودی خود یاد بگیرد و در بازی‌های کامپیوتری موفقیت‌های چشمگیری کسب کند. از آن زمان تا به حال این سیستم یاد گرفته چطور صدای انسان را تقلید کند و حالا محققان تمایل به همکاری این سیستم با دیگران را آزموده‌اند. این آزمایش نشان داده وقتی این سیستم در معرض شکست و یا از دست دادن چیزی قرار می‌گیرد، به شدت مهاجم شده و این یک استراتژی برای این سیستم هوش مصنوعی محسوب می‌شود.

در این آزمایش محققان 40 میلیون دور از یک بازی را آزمودند که در آن دو سیستم هوش مصنوعی بر سر جمع کردن سیب‌های مجازی با هم رقابت می‌کنند. این آزمایش نشان داد تا زمانی که سیب کافی در دسترس هر دو است، همه چیز به خوبی پیش می‌رود. اما وقتی تعداد سیب‌های موجود کم می‌شود دو هوش مصنوعی از لیزر برای از کار انداختن دیگری در جهت دسترسی بیشتر به سیب استفاده می‌کنند.

در این آزمایش از کار انداختن رقیب هیچ جایزه ویژه و اضافه‌ای ندارد و تنها به هوش مصنوعی پیروز اجازه می‌دهد سیب بیشتری جمع کند. در حالی هوش مصنوعی کمتر توسعه یافته بدون استفاده از لیزر به تساوی در جمع‌آوری رضایت می‌دادند. فقط آزمایش‌های بیشتر و بیشتر باعث شده تا هوش مصنوعی به خرابکاری برای پیروزی روی آوردند.

به این ترتیب هرچه هوش مصنوعی پیشرفته‌تر باشد بیشتر و بهتر می‌تواند از محیطش چیزی بیاموزد و برای پیروزی خشونت بیشتری به خرج می‌دهد. کسب این توانایی هشداری برای  توسعه هوش مصنوعی محسوب می‌شود و نشان می‌دهد ملاحظات زیادی برای توسعه سیستم‌های اینچنین وجود دارد. بنابراین توسعه هوش مصنوعی همان‌طور که هاوکینگ هشدار داده است می‌تواند بسیار کارآمد باشد در صورتی که این ملاحظات در نظر گرفته شوند و می‌تواند ناکارآمد و خطرناک باشد در صورتی که بدون ملاحظه توسعه داده شود. 

علی رنجبران

No tags for this post.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا