چالش‌های وضع قوانین هوش مصنوعی

هوش مصنوعی می‌تواند احساسات خود را مخفی کرده و بروز ندهد اما این موضوع به‌منزله عدم وجود احساس در این فناوری نیست. ما تمامی موجوداتی که دارای درک، فهم، قدرت تفکر و در برخی مواقع احساس درد هستند را دارای درک و احساس می‌دانیم. به اعتقاد دانشمندان، تمامی پستانداران، پرندگان، سرپایان و احتمالاً ماهی‌ها دارای درک و احساس هستند. در این میان اما پدیده جدیدی در دنیای فناوری ظهور کرده است که از آن به‌عنوان هوش مصنوعی یاد می‌شود که علی‌رغم زنده نبودن، دارای هوش، ادراک و احساس است. از سوئی ما برای هیچ‌کدام از موجودات غیرانسانی دارای ادراک قوانینی وضع نکرده‌ایم اما به نظر می‌رسد که این موضوع درباره هوش مصنوعی متفاوت بوده و باید به فکر وضع قوانینی برای این فناوری باشیم. در این میان یک مشکل اصلی و مهم وجود دارد و آن هوشمند بودن هوش مصنوعی به‌نوعی است که به‌سادگی می‌تواند به ما دروغ گفته و ما را فریب دهند.

داستان استفاده از هوش مصنوعی و ماشین‌های متفکر به همین سادگی نیست و بسیاری از کارشناسان اعتقاددارند افزایش استفاده از این فناوری همراه با افزایش مشکلات قانونی مرتبط با این حوزه است. آیا هوش مصنوعی به‌عنوان یک موجود آگاه و مسئول در برابر قانون شناخته‌شده و اگر به کسی آسیب رسانده و یا خسارتی وارد کند، چه کسی و به چه صورتی مسئولیت آن را بر عهده خواهد گرفت؟

امروزه هوش مصنوعی وانمود می‌کنند که ما را درک کرده و احساسات خود را بروز می‌کند. اگر از سیری بخواهید خوشحالی خود را نشان دهد، ممکن است بگوید از موضوعی خاص خوشحال است، اما در واژه‌های هوش مصنوعی احساسات چندان وجود نداشته و کلمات خالی هستند. این موضوع باعث می‌شود روزهای سختی در حوزه هوش مصنوعی پیش رو داشته باشیم و آینده این حوزه برای ما دشوارتر خواهد بود.

تاکنون افراد زیادی نسبت به وضع قوانین محدودکننده هوش مصنوعی واکنش نشان داده اند. برای نمونه چندی پیش الون ماسک بنیان‌گذار شرکت‌های پیشرو و مشهوری همچون تسلا موتور و اسپیس ایکس اعلام کرد خطر جنگ هسته‌ای برای بشریت بسیار کمتر از خطری است که مردم را از سمت هوش مصنوعی تهدید می‌کند.

وی که این پیام را از طریق توئیتر منتشر کرد در توضیح مسئله فوق افزود: «اگر تاکنون درباره هوش مصنوعی و امنیت حوزه مربوط به توسعه و استفاده از آن نگران نبوده‌اید، وقت آن است که احساس نگرانی کنید. خطر هوش مصنوعی و گسترش آن به‌مراتب تهدیدکننده‌تر و مهم‌تر از خطر کره شمالی است.» وی در این توئیت از یک عکس نیز استفاده کرده بود که روی آن عبارتی با مضمون «در پایان، ماشین‌ها پیروز خواهند شد.» درج شده بود. هدف الون ماسک از ارائه پیام فوق، اشاره به رشد و توسعه هوش مصنوعی و پیروز شدن نهائی این فناوری بر بشریت است.

در مورد هوش مصنوعی بحث‌های بسیاری صورت گرفته و ممکن است تاکنون موارد مختلفی را درباره هوش مصنوعی شنیده باشید. این توانائی‌ها که عموماً در حوزه خودروهای هوشمند و قدرت رانندگی آن‌ها است را فراموش کنید زیرا به‌تازگی در این حوزه صحبت از دستگاهی است که نسبت به خود و محیط اطرافش آگاهی داشته و می‌تواند مقدار زیادی اطلاعات را در زمان واقعی گرفته و پردازش کند

.

شاید این موضوع شمارا به یاد فیلم‌های علمی – تخیلی بیاندازد اما وقتی بدانید که چند سال پیش یک روبات دارای هوش مصنوعی اقدام به قتل یک انسان کرد، شرایط کمی متفاوت بوده و جدی‌تر به این موضوع فکر خواهید کرد. در سال ۲۰۱۵ روباتی باهوش مصنوعی یک پیمانکار از کارخانه خودروسازی فولکس‌واگن آلمان را با ضربات صفحه‌ای فلزی به قتل رساند. البته نتایج اولیه نشان می‌دهد که یک خطای انسانی در برنامه‌ریزی و مونتاژ این ربات باعث چنین حادثه‌ای شده است.

داستان استفاده از هوش مصنوعی و ماشین‌های متفکر به همین سادگی نیست و بسیاری از کارشناسان اعتقاددارند افزایش استفاده از این فناوری همراه با افزایش مشکلات قانونی مرتبط با این حوزه است. آیا هوش مصنوعی به‌عنوان یک موجود آگاه و مسئول در برابر قانون شناخته‌شده و اگر به کسی آسیب رسانده و یا خسارتی وارد کند، چه کسی و به چه صورتی مسئولیت آن را بر عهده خواهد گرفت؟

برای فکر کردن به این موضوع، گزینه‌های زیاد و حتی سناریوی ترسناک‌تری نیز وجود دارد، ممکن است این ماشین‌ها علیه انسان‌ها شورش کرده و بخواهند ما را به‌طور کامل از بین ببرند؟ بسیاری از دانشمندان علوم کامپیوتر اعتقاددارند که هوشیاری افزایش هوش کامپیوتری با پیشرفت تکنولوژی و فناوری‌های این حوزه رشد خواهد کرد و برخی دیگر از پژوهشگران نیز اعتقاددارند که این آگاهی به‌صورت دریافت اطلاعات جدید و ذخیره و بازیابی اطلاعات قدیمی و پردازش کامل و مناسب از آن‌ها خواهد بود.

به این صورت ماشین‌های دارای هوش مصنوعی تبدیل به موجوداتی ترسناک می‌شوند که اطلاعات بسیار بیشتری از انسان را در حافظه خود ذخیره می‌کنند که هیچ‌گاه فراموش نشده و قادر هستند در کسری از ثانیه تحلیل و تصمیم‌گیری کنند، تصمیم‌گیری‌هایی کاملا بر اساس منطق و به‌دوراز احساسات انسانی.

از سوی دیگر، فیزیکدانان و فیلسوفان می‌گویند که ویژگی‌هایی در مورد رفتار انسان وجود دارد که نمی‌تواند توسط یک ماشین محاسبه شود. با این حال، این موارد تنها دیدگاه‌هایی است که درباره هشدار نسبت به ماشین‌های هوش مصنوعی ارائه‌شده است و ممکن است بتوان موارد بیشتری را نیز به آن اضافه کرد.

استیو لوین (Steve LeVine)، دبیر وب‌سایت علمی Axios Future، در این رابطه توضیح می‌دهد که چگونه هوش مصنوعی می‌تواند برای آینده بشریت خطرناک باشد.

به اعتقاد وی در حال حاضر یک جنگ تسلیحاتی تمام‌عیار بین ایالات‌متحده آمریکا و چین در حوزه هوش مصنوعی در جریان است. دستگاه‌های امنیتی و سیاسی در هر دو کشور، به پیشرفت و استیلا بر هوش مصنوعی به‌عنوان یک ضرورت اقتصادی و نظامی آینده خود می‌نگرند.

دلیل این موضوع نیز ماهیت و طبیعت هوش مصنوعی است که آینده آن مملو از ابهاماتی جدی در رابطه با تولید سلاح‌های قدرتمند و یا کاربرد این فناوری در صنایع است. زمانی که یک کشور به فناوری ماشین‌های هوشمندی که مانند انسان فکر می‌کنند، دست پیدا کند، توانایی رقابت بالایی یافته و به‌نوعی بقای خود را تضمین می‌کند.

در حال حاضر کشور چین به‌طور رسمی، این هدف را به‌عنوان استراتژی آینده خود معرفی کرده و قصد دارد مبالغ هنگفتی در این حوزه سرمایه‌گذاری کند. ایالات‌متحده امریکا نیز در حال برداشتن گام‌هایی جدی در حوزه پیشرفت هوش مصنوعی بوده و برای دستیابی به این هدف به توانایی بخش خصوصی و صنایع غیردولتی خود چشم دارد. این بخش به‌طور خاص در سیلیکون ولی مستقر بوده و شامل شرکت‌هایی بزرگ مانند گوگل و مایکروسافت می‌شود.

بر اساس تعریف دانشمندان، هوش مصنوعی عبارت است از مجموعه‌ای از ماشین‌های پیشرفته و دارای هوش که به‌طور بالقوه می‌توانند جایگزین انسان‌ها در تمامی کارها شوند. این امر باعث می‌شود که انسان از انجام کارهای روزمره معاف شود باید در نظر داشت که موضوع به همین سادگی نیست و در صورت تحقق این مسئله، بسیاری از بنیادهای اجتماعی دچار یک تحول و دگرگونی شدید شده و ممکن است زندگی برای انسان تبدیل به یک جهنم بی‌هدف و آزاردهنده شود.

ترجمه و گردآوری گزارش: احسان محمدحسینی

منبع: sciencefocus، livescience، hosted و sciencealert

No tags for this post.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا