خودرویی را میخرید که برای کشتن شما برنامهریزی شده است؟
این سوال هایی است که ذهن جری کپلن را مشغول کرده. او در این ویدیو مباحث فشرده ای را در زمینه ی اخلاق رایانهای ارائه می دهد.
جری کپلن در صنعت کامپیوتر به عنوان یک کارآفرین، مخترع، دانشمند و نویسنده شناخته شده است. او در حال حاضر از همکاران مرکز استنفورد انفورماتیک حقوقی است. همچنین فلسفه، اخلاق، و تأثیر هوش مصنوعی در علوم کامپیوتر را در دانشگاه استنفوردتدریس می کند.
با مستقل شدن روز افزون رباتها، منظورم این است که آنها میتوانند محیط اطراف خود را حس کنند و می توانند تصمیم بگیرند که چه کار بکنند یا چه کار نکنند. البته این بر اساس برنامهنویسی و تجربهی آنها است. اما کنترل مستقیمی که روی فناوریهای امروز داریم را روی آنها نخواهیم داشت. این موضوع چندین پیام جالب توجه خواهد داشت. اول اینکه آنها مجبور خواهند شد که تصمیمات اخلاقی بگیرند من به آن میگویم اخلاقیات ابتدایی که گرفتن تصمیمات اجتماعی مناسب هست. ما ماشینها را در اطراف مردم قرار میدهیم. گاهی وقتها ما از شرایط سوء استفاده میکنیم و این را طبیعی میدانیم و انتظار داریم که رباتها از شرایط سوءاستفاده نکنند و این را طبیعی ندانند. با توجه به نوع معمولِ عرف و آداب جامعه نسبت به دیگر افراد رفتار میکنیم. ما پیکِ رباتیکی نمیخواهیم که برای تحویل دادن زودتر چیزی به مشتری، از پیاده رو استفاده کند و همه از جلو راهش کنار بروند. او باید بتواند در جایی شلوغ به طرز شایستهای راه برود.
مثلا خودرو خودران شما. تعداد زیادی مشکل پیچیدهی اخلاقی برای آن پیش میآید، اما خیلی از آنها موضوعات اجتماعی هستند. مثلا به تقاطع میرسد، باید رد شود؟ چطور به شما علامت دهد؟ عرف این است که به رانندهی مقابل نگاه کنید تا متوجه شوید چه کنید.
من نمیتوانم به یک خودرو خودران نگاه کنم، مشکلات زیادی مثل این وجود دارد که ماشینها باید بتوانند در آن موارد درست رفتار کنند و موقعیتها میتوانند بسیار متفاوت باشند. شما نمیتوانید لیستی از آنها درست کنید و بگویید که بر آن اساس رفتار کنند.
ما باید یک سری قواعد کلی را در آنها برنامهنویسی کنیم. اگر بخواهید میتوانید این را قواعد اخلاقی بنامید. آنها میتوانند با این قواعد، رفتار خود را در اجتماع طوری تنظیم کنند که با انتظارات آن جامعه منافاتی نداشته باشد.
من در استندفورد درس میدهم و باید بگوییم که چیزی شبیه به این را در دروس مهندسی ندیدهام. آنها یاد میگیرند که چطور مهندس با اخلاقی شوند اما یاد نمیگیرند که چطور دستگاه با اخلاقی بسازند.
این دوران جدیدی است. گاهی به آن برنامهنویسی اخلاقی یا اخلاق رایانهای میگویند. کتابهای جالبی در این مورد وجود دارد. اما متاسفانه اگر آنها را بخوانید، در آنها فقط بیان مشکل شده است.کسی برای مقابله با این مشکل راه حلی ندارد. پس ما باید نوعی راه و روش مهندسی برای اخلاق رایانهای به وجود بیاوریم. ما در دانشکدههای مهندسی به درسهایی نیاز داریم که به آنها یاد دهد چطور میتوان ماشینی را واداشت که در شرایط مختلف، رفتار مناسبی از خود نشان دهد.
بگذارید که چند مورد اساسی از مشکلات پیچیده را برای شما عنوان کنم، و بعد موارد دیگری که فقط اسباب زحمت میشوند. یکی از بخشهای مهم آن، مشکل فلسفی کلاسیکی است که به آن مشکل واگن دستی میگویند. در مشکل واگن دستی، شما در واگنی دستی نشستهاید. اگر شما کاری نکنید، واگن به سمت راست رفته و ۴ نفرِ روی ریل را میکشد. اگر مسیر را عوض کنید، واگن به سمت چپ رفته و فقط یک نفری که روی آن ریل است را میکشد. سوال اخلاقی این است که: آیا عوض کردن جهت کاری اخلاقی است؟
درست است که با عوض کردن مسیر جان افراد کمتری گرفته میشود، اما با انجام این کار شما یک انسان را به قتل رساندهاید و اگر شما آن یک نفر باشید، ممکن است که فکر کنید این کار درستی نسیت. فلاسفه انواع مختلف این مشکل را بررسی کردهاند و مشکلات زیادی شبیه به این وجود دارد. اما این مشکلات در حال واقعی شدن هستند. چون خودروهای خودران دقیقا با این مشکلات روبرو خواهند شد.
به گزارش فردانما،فرض کنید من خودرو خودرانی خریده و در آن نشستهام. من آن یک نفر هستم، ودر شرایطی، چهار نفر درخودرو مقابل هستند. و برای نجات جان آنها، خودرو من باید خود را از پلی به پایین پرت کند. نظریهای فلسفی به نام سودمندگرایی وجود دارد که حداقل چندین قرن است که وجود دارد و میگوید که برای منفعت حداکثریِ جامعه، خودرو من باید من را بکشد، اما من چنین خودرویی را نخواهم خرید. ما با مشکل بغرنجی روبرو شدهایم. نمیخواهم روزی مردم به جای شورولت، فورد را بخرند، چون فورد در هر صورت جان آنها را نجات میدهد، اما شورولت نه. ممکن است که من را بکشد تا جان دیگران را نجات دهد. من نمیخواهم که این موضوع تبدیل به رقابتی برای فروش خودرو شود. ما باید دور هم جمع شده و در این مورد تصمیمگیری کنیم.
No tags for this post.