خودروهای بدون راننده و انتخاب قربانی

آیا حاضرید در ماشینی سوار شوید که در برنامه ریزی های انجام شده در آن، قتل شما پیش بینی شده باشد؟ یک سیستم اخلاقی جدید در خودروهای بدون راننده طراحی شده است که می توان آن را از نظر اخلاقی در مواجهه با سوانح برنامه ریزی کرد. در این سیستم شما می توانید خودرو را به گونه ای برنامه ریزی کنید که در هنگام رخدادن حوادث شدیدی رانندگی، شما را برای حفظ جان دیگران قربانی کرده و یا بالعکس، جان شما در اولویت قرار گرفته و دیگران قربانی شوند.

موضوع تصمیم گیری اخلاقی خودروهای بدون راننده و هوشمند در هنگام سوانح و حوادث، یکی از مهمترین چالش های طراحان و سازندگان این فناوری محسوب می شود. هنگامی که انسان در حال هدایت و راندن یک خودرو است، غریزه انسانی در مواجهه با خطرات، واکنش نشان داده و تصمیم گیری می کند به همین دلیل در هنگام رخدادن حوادث مرگبار، تشخیص فرد مقصر بسیار ساده تر خواهد بود. این موضوع زمانی که خودروها خود عمل راندن و هدایت را بر عهده دارند، متفاوت بوده و دیگر بحث غریزه و شعور مطرح نیست زیرا این فناوری بر پایه کدهای از پیش تعیین شده عمل خواهد کرد.

در حقیقت موضوع تصمیم گیری اخلاقی خودروهای بدون راننده و هوشمند در هنگام سوانح و حوادث، یکی از مهمترین چالش های طراحان و سازندگان این فناوری محسوب می شود. هنگامی که انسان در حال هدایت و راندن یک خودرو است، غریزه انسانی در مواجهه با خطرات، واکنش نشان داده و تصمیم گیری می کند به همین دلیل در هنگام رخدادن حوادث مرگبار، تشخیص فرد مقصر بسیار ساده تر خواهد بود. این مساله زمانی که خودروها خود عمل راندن و هدایت را بر عهده دارند، متفاوت بوده و دیگر بحث غریزه و شعور مطرح نیست زیرا این فناوری بر پایه کدهای از پیش تعیین شده عمل خواهد کرد. این موضوع سبب شده است تا در هنگام بروز مشکلات حاد و سوانح جدی، امکان تشخیص این موضوع که خطای حاصله بر عهده راننده و صاحب خودرو است یا کارخانه سازنده آن، مشکل باشد.

نگرش مردم به این پدیده نیز امری پیچیده است زیرا در مطالعات انجام شده در سال 2015 میلادی، مشخص شد که بیشتر مردم فکر می کنند خودروهای هوشمند و بدون راننده باید در هنگام خطر به نوعی عمل کنند که حداقل خسارت و آسیب به وجود آمده و در شرایط خاص نیز باید سرنشینان خود را قربانی کنند. از سوی دیگر مردم با وجود این اعتقاد، هرگز حاضر به خرید وسیله ای نیستند که برای کشتن آن ها برنامه ریزی شده باشد.

حرکت به سمت نوعدوستی مطلق

جوزپه کونتیسا (Guiseppe Contissa) از پژوهشگران دانشگاه بولنیا در ایتالیا که به همراه تیمی از دانشجویان خود در رابطه با این موضوع مطالعه و بررسی می کنند اعلام کرد: «ما در پی این مساله هستیم که دریابیم اگر تمامی مسئولیت و برنامه ریزی واکنش خودروهای هوشمند به راننده و صاحب آن واگذار شود، چه اتفاقی خواهد افتاد؟» این تیم پژوهشی سیستمی را طراحی کرده اند که می توان آن را در حالت های مختلفی بین نوعدوستی کامل و خودخواهی مطلق تنظیم کرده و در عین حال گزینه بی طرفی و عمل منصفانه نیز در این خودروها قابل تنظیم باشد. این پژوهشگران اعتقاد دارند سیستم فوق می تواند نه تنها در خودروهای هوشمند مورد استفاده قرار گیرد، بلکه در تمامی مناطق و مراکز صنعتی که به سمت هوشمند شدن حرکت می کنند، استفاده شده و بسیاری از مشکلات را حل کند.

جوزپه کونتیسا در این رابطه گفت: «این فناوری به خودروهای هوشمند اعلام می کند که فرد راننده تا چه حد برای زندگی خود و دیگران ارزش قائل است. خودرو بر اساس این اطلاعات می تواند واکنش های لازم را در شرایط خاص محاسبه کرده و اعمال کند. به این ترتیب خودرو تصمیم می گیرد سرنشینان یا  سایر افراد  تا چه حد در تصادفات آسیب دیده و متضرر شوند. »

مشکلی به نام خودخواهی

در این میان یک مشکل در راه استفاده از این فناوری وجود دارد که می تواند منجر به بروز یک تراژدی شود زیرا اگر همه یا بیشتر آن ها سیستم تنظیمات خودروهای هوشمند خود را کاملا به نفع خود قرار دهند، چه اتفاقی خواهد افتاد؟ ادموند آواد (Edmond Awad) از پژوهشگران آزمایشگاه ام آی تی که در حال انجام پروژه ای در زمینه اخلاقیات ماشین ها و هوش مصنوعی است با بیان موضوع فوق این فناوری را به چالش کشیده است. از سوی دیگر ممکن است بسیاری از مردم علاقه ای به قرار گرفتن در موقعیتی که منجر به انتخاب قربانی شدن خود یا دیگران شود، نداشته باشند و اگر همه یا بیشتر مردم گزینه بی طرف را انتخاب کنند، اصولا طراحی و استفاده از این فناوری بی فایده بوده و همه چیز مانند شرایط فعلی ادامه پیدا خواهد کرد. به همین دلیل ادموند آواد اعتقاد دارد هنوز برای اعلام یافتن راه حلی مناسب برای این مشکل، بسیار زود است و باید در انتظار ایده ها و نظرات جدید باقی ماند.

شرح کامل این پژوهش و نتایج به دست آمده از آن در آخرین شماره ژورنال تخصصی هوش مصنوعی و قانون (Artificial Intelligence and Law) منتشر شده و در اختیار علاقه مندان قرار دارد.

 

ترجمه: احسان محمدحسینی

منبع: newscientist

No tags for this post.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا