سینا پرس: در کتابهای نویسنده مشهور ایزاک آسیموف قوانین خاصی برای روباتها به عنوان قوانین اولیه و اصول پایه روباتیک وجود دارند که نخستین قانون آن به این ترتیب است: یک روبات نباید اجازه بدهد تا به یک انسان آسیبی وارد شود. یک تیم تحقیقاتی متشکل از دانشمندان بزرگ عرصه روباتیک به سرپرستی آلن ویلفیلد به انجام آزمایشهای ویژه ای بر اساس این قانون دست زدند. ویلفیلد یکی از متخصصهای برجسته مرکز روباتیک بریستول در انگلستان است که در این پروژه با یاد دادن این قانون به یک روبات، او را در وضعیت امتحان کردن عملی این قانون قرار داد.
در این آزمایش ابتدا به روبات آموزش داده شد که در هنگامی که یک انسان دیگر در حال سقوط به درون چاله است، جلوی او را گرفته و از آسیب دیدن او جلوگیری کند. البته به جای یک انسان، یک روبات دیگر برای در خطر قرار گرفتن انتخاب گردید و آموزش این قوانین نیز بر اساس کد نویسی های بسیار پیچیده ای توسط تیم تحت نظارت وینفیلد به روبات القاء شدند.
در آزمایشهای اولیه این روبات در هنگام نزدیک شدن انسان به وضعیت سقوط به چاله، عکس العمل نشان داده و برای نجات جان او اقدام می کرد و در تمامی موارد نیز موفق به انجام این کار می شد ولی مشکل اصلی هنگامی آغاز شد که به روبات حق انتخاب داده شد؛ در این بخش از آزمایش به جای یک انسان، دو انسان در معرض سقوط در چاله قرار داشتند که این امر موجب این شده بود که روبات اصلی برای اینکه تشخیص بدهد که باید چه کسی را نجات دهد، با یک تصمیم گیری بر اساس اخلاقیات انسانی روبرو شود. به همین دلیل نیز شرایطی جدید و متفاوت با آزمایش قبلی برای این روبات شکل گرفت.
در برخی از موارد روبات برای نجات جان یک انسان تلاش می کرد ولی نمی توانست مانع از سقوط فرد دوم به داخل چاله شود، در برخی از موارد محدود نیز نتیجه آزمایش به نحوی بود که روبات موفق به نجات دادن هردو انسان در خطر می شد ولی بیشترین نتیجه ممکنه در شرایطی به وجود آمد که روبات در بین انتخاب از میان این دو انسان، با مشکل روبرو می شد و نمی توانست برای نجات جان یکی از این دو نفر از دیگری برتری قائل شده و دست به اقدام بزند و در این شرایط این روبات مانند یک انسان مسخ شده آنقدر زمان را هدر می داد تا هر دو سوژه در چاله سقوط کنند.
ویلفیلد پس از مشاهده این نتیجه شگفت انگیز نظرات قبلی خود را درباره آموزش اخلاقیات به روباتها تغییر داد، او پیش از این معتقد بود که یک روبات به هیچ وجه نخواهد توانست تا تصمیمات مبتنی بر اخلاقیات انسانی بگیرد ولی در شرایط فعلی و با نتایج عجیب حاصل شده جواب خود را به این ترتیب اعلام کرد: «هیچ ایده ای درباره این موضوع ندارم» این امر که یک دانشمند بزرگ روباتیک به چنین شرایط عجیب و ناآگاهی در این باره دچار شده باشد نشان از پیچیدگی بسیار بالای این موضوع دارد.
در این میان رونالد آرکین به عنوان یک دانشمند روباتیک در رده نظامی به ساخت روباتهایی دست زده است که می توانند در جنگ، تصمیمات شبه اخلاقی بگیرند. در آزمایشهای انجام شده بر روی این روباتها نیز یک محیط جنگی ویژه شبیه سازی گردید که در آن روبات سرباز توانست یاد بگیرد که برای جلوگیری از آسیب دیدن افرا غیرنظامی، به برخی از نقاط خاص مانند بیمارستان و مدرسه شلیک نکند.
البته این روبات تنها گام بسیار کوچکی برای استفاده از اخلاقیات برداشته است ولی آزمایشهایی مانند این دو مورد تنها در محیط محدود انجام شده اند و نمی توان انتظار داشت که در محیط واقعی نیز نتایج به همین ترتیب باشد زیرا تعداد رخدادهای احتمالی در یک محیط واقعی را می توان غیرقابل محاسبه دانست و به همین دلیل نیز ممکن است روباتی که در آزمایشهای محیط محدود نیز موفق بوده است در محیط واقعی با دنیایی جدید روبرو شده و نتواند قابلیت های دقیقی را در راستای اجاری اخلاقیات از خود برجای بنهد.
No tags for this post.