ما در برابر روبات‌ها مسئولیت اخلاقی بیشتری داریم

به گزارش ترجمان،  این روبات‌ها، با آن سطح از آگاهی و عواطف و احساساتی که خواهند داشت، رنج خواهند کشید و لذت خواهند برد. اگر چنین اتفاقی ممکن شود، آنگاه وظایف ما در برابر موجوداتی که خلق کرده‌ایم چیست؟ آیا می‌توان گفت ما دربرابر این روبات‌ها مسئولیت اخلاقی داریم؟

روبات هات‌بات فوربی از دهانه آتش‌فشان به‌سوی اعماق آن پایین می‌رود. سال ۲۰۵۰ یا ۲۱۵۰ است و هوش مصنوعی به‌اندازۀ کافی پیشرفت کرده است که بتوان روبات‌هایی با هوش، خلاقیت و آرزوهایی هم‌تراز انسان ساخت. هات‌بات در حین این مأموریتِ علمی نابود خواهد شد. آیا این روبات حق و حقوقی دارد؟ آیا ما با دستوردادن به آن برای رفتن به اعماق آتش‌فشان، از نظر اخلاقی، کار نادرستی انجام داده‌ایم؟

شأن اخلاقی روبات‌ها مضمونی رایج در داستان‌های علمی‌تخیلی است که حداقل به داستان‌های آیزاک آسیموف دربارۀ روبات‌ها باز می‌گردد و اتفاق‌نظر در این زمینه آشکار است: اگر ما در آینده موفق شویم روبات‌هایی بسازیم که حیات ذهنی آن‌ها همانند ما باشد -یعنی با برنامه‌ها و آرزوهایی انسان‌گونه و ادراکی از خویشتن، شامل تواناییِ ادراکِ شادی و رنج- در این صورت، آن روبات‌ها شایستۀ ملاحظاتی اخلاقی همانند آن‌هایی خواهند بود که درمورد انسان‌های معمولی رعایت می‌شود. فیلسوفان و پژوهشگران هوش مصنوعی، که دربارۀ این موضوع قلم‌فرسایی کرده‌اند، به‌طور کلی در این زمینه اتفاق‌نظر دارند.

من می‌خواهم این اتفاق‌نظر را به چالش بکشم، اما نه به‌شیوه‌ای که شاید شما پیش‌بینی کنید. از دیدگاه من، اگر ما در آینده روبات‌هایی با توانایی‌های عاطفی و شناختیِ انسان‌گونه بسازیم، نسبت‌به آن‌ها ملاحظات اخلاقی بیشتری بر عهده خواهیم داشت تا آنچه به‌طور عادی باید نسبت‌به انسان‌های معمولی رعایت کنیم.

دلیل آن این است: ما خالق و طراح آن‌ها خواهیم بود. بنابراین ما، به‌طور مستقیم، هم در قبال به‌وجودآمدن آن‌ها مسئول هستیم و هم در قبال شادی و ناشادی آن‌ها. اگر روباتی بی‌جهت رنج بکشد یا از رسیدن به کمالِ رشد خود بازبماند، بخش اعظم این امر ناشی از کوتاهی ما خواهد بود: کوتاهی در آفرینش، طراحی یا پرورش آن. رابطۀ اخلاقی ما با روبات‌ها، بیشتر از آنکه شبیه رابطۀ بین انسان‌های غریبه باشد، همانند رابطۀ والدین با فرزندان خود یا رابطۀ خدایان با مخلوقات خود است.

به‌تعبیری، این چیزی بیش از برابری نیست. اگر من موقعیتی ایجاد کنم که دیگران را با خطر روبه‌رو می‌کند، برای مثال، اگر کشتزارهای آن‌ها را برای ساخت فرودگاه نابود کنم، در این صورت، وظیفۀ اخلاقی من برای جبران خسارتِ آن‌ها بزرگ‌تر از وظیفۀ من در برابر افرادی خواهد بود که هیچ ارتباط علّی‌ای با آنان ندارم. اگر روبات‌هایی بسازیم که واقعاً آگاه باشند، عمیقاً از نظر علّی با آن‌ها پیوند خواهیم یافت و بنابراین به‌طور بنیادی در قبال سعادت آن‌ها مسئول خواهیم بود. این ریشۀ وظیفۀ خاص ماست.

هیولایِ فرانکنشتاین به خالق خود، ویکتور فرانکنشتاین، چنین می‌گوید:

من مخلوق تو هستم و همیشه نسبت‌به پادشاه و سَرور طبیعی خود با مهربانی و فرمانبرداری رفتار خواهم کرد، اما به‌شرطی که تو نیز وظیفۀ خود را انجام دهی و دِین خود ‌به من را ادا کنی. آه، فرانکنشتاین، آن‌چنان نباش که با همه با انصاف رفتار کنی و تنها مرا نادیده بگیری و پایمال کنی، من که شایسته‌ترین فرد برای رفتار منصفانه‌ و حتی سزاوارترین کس برای ترحم و محبت تو هستم. به یاد داشته باش که من مخلوق تو هستم: من باید آدمِ۱ تو باشم.

ما یا باید صرفاً روبات‌هایی بسازیم که به‌اندازۀ کافی ساده باشند -به‌نحوی‌که بدانیم شایستۀ ملاحظات اخلاقی نیستند، آن‌چنان‌که این امر درمورد تمام روبات‌های کنونی صادق است- یا باید آن‌ها را محتاطانه و از روی خیرخواهی به وجود آوریم.

در کنار این وظیفۀ خیرخواهی، وظیفه‌ای معرفتی نیز وجود دارد: دانستن اینکه کدام‌یک از مخلوقات ما واقعاً آگاه هستند. کدام‌یک از آن‌ها دارای جریان‌هایی واقعی از تجربۀ ذهنی هستند و توان درکِ شادی و رنج را دارند یا می‌توانند به دستاوردهای شناختی نظیر خلاقیت و ادراک خویشتن دست پیدا کنند؟ بدون چنین دانشی، نمی‌توانیم بدانیم که چه وظایفی در برابر مخلوقات خود بر عهده داریم.

بااین‌حال، چگونه می‌توانیم چنین دانشی به دست آوریم؟ برای مثال، چگونه می‌توان بین جریانی واقعی از تجربۀ عاطفی و عواطف شبیه‌سازی‌شده در ذهنی مصنوعی تمایز نهاد؟ صرفاً برنامه‌ریزیِ یک شبیه‌سازی سطحی از عواطفْ کافی نیست. اگر من یک پردازشگر رایانه‌ای معمولی و محصول سال ۲۰۱۵ را در داخل یک دایناسورِ اسباب‌بازی بگذارم و آن را طوری برنامه‌ریزی کنم که با فشردنِ کلید خاموش بگوید «آخ!»، روباتی نساخته‌ام که توانایی ادراک درد را داشته باشد. اما دقیقاً چه نوعی از پردازش و پیچیدگی، برای ظهور آگاهی اصیلِ انسان‌گونه، ضروری است؟ طبق برخی دیدگاه‌ها، برای مثال، از دیدگاه جان سرل۲، شاید آگاهی در هیچ موجودِ برنامه‌ریزی‌شده‌ای تحقق‌پذیر نباشد؛ شاید آگاهی نیازمند ساختاری است که از نظر زیست‌شناختی شبیه مغز انسان باشد. دیگر دیدگاه‌ها، دربارۀ شرایط کافی برای ظهور آگاهی در روبات، آزاداندیشانه‌تر هستند. مطالعۀ علمیِ آگاهی هنوز در دوران کودکی خود است. این مسئله هنوز بسیار جای بحث دارد.

اگر به توسعه صور پیچیده هوش مصنوعی ادامه دهیم، وظیفۀ اخلاقی ما خواهد بود که فهم خود را، از شرایطی که تحت آن ممکن است آگاهی مصنوعی به‌طور اصیل ظهور نماید، بهبود ببخشیم. در غیر این صورت، با خطر فاجعۀ اخلاقی روبه‌رو خواهیم بود: یا با فاجعۀ قربانی‌کردنِ منافعِ خود برای موجوداتی که شایستۀ ملاحظات اخلاقی نیستند زیرا شادی و رنج را تنها به‌طور تصنعی تجربه می‌کنند یا با فاجعۀ ناتوانی از درک رنج روبات‌ها و بنابراین به‌طور ناخواسته ارتکاب ستمگری‌هایی برابر با برده‌داری و قتل علیه موجوداتی که نسبت‌به آن‌ها تقریباً وظیفۀ مراقبتِ والدین از فرزند را بر عهده داریم.

بنابراین، وظیفۀ اخلاقی صریح ما برخورد با مخلوقات خودمان با اذعان به مسئولیت خاص خود در قبال شادی، رنج، اندیشه‌ورزی و قدرت خلاقیت آن‌هاست. اما ما وظیفه‌ای معرفتی نیز بر عهده داریم؛ ما باید به‌اندازۀ کافی دربارۀ مبانی کارکردی و مادیِ شادی، رنج، اندیشه‌ورزی و خلاقیت بیاموزیم، به‌نحوی‌که بدانیم آیا مخلوقاتِ بالقوۀ ما در آینده شایستۀ توجه اخلاقی ما هستند یا خیر و چه زمانی باید ملاحظات اخلاقی را درمورد آن‌ها رعایت کرد.

No tags for this post.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا