وقتی ربات‌ها حمله می‌کنند/ عکس

تصاویر ویدئویی دلهره‌آور روبات انسان‌نمایی که از کنترل خارج شده در حال دست به‌دست شدن است. این روبات چینی به اسم H۱ که در مراحل آزمایش و نمایش عمومی ناگهان از کنترل خارج شد و با حرکات عجیب شبیه ضربه زدن پرقدرت به سمت اطرافیان هجوم برد، اما خوشبختانه گروه فنی موفق شد زود کنترل آن را در دست بگیرد.

به گزارش خبرگزاری سینا، به‌گفته یکی از مسئولان این روبات، هنگام آپدیت یک باگ عجیب در سیستم حفظ تعادل پیش آمد و باعث شد از کنترل خارج شود. این اتفاق باعث شد بحث ایمنی روبات‌ها دوباره زنده شود. متخصصان هشدار می‌دهند که رشد سریع هوش مصنوعی نیازمند نظارت دقیق‌تر و طراحی سیستم‌های ایمنی قوی‌تر است.

خطاهای انسانی

روبات‌ها ابزارهایی هستند که براساس دستورالعمل‌های انسانی کار می‌کنند. این دستورالعمل‌ها می‌توانند به شکل الگوریتم‌های پیچیده، داده‌های آموزشی برای هوش مصنوعی یا حتی دستورات مستقیم انسانی باشند، اما همانگونه که در صنعت هوانوردی یا پزشکی دیده‌ایم خطای انسانی نه‌تنها رایج، بلکه اجتناب‌ناپذیر است، اما در حوزه روبات‌ها نتیجه یک اشتباه می‌تواند بدون هشدار اجرا شود و پیامدهایی فوری و خطرناک به‌دنبال داشته باشد.

روبات چینی به اسم H۱ که در مراحل آزمایش و نمایش عمومی ناگهان از کنترل خارج شد
روبات چینی به اسم H۱ که در مراحل آزمایش و نمایش عمومی ناگهان از کنترل خارج شد.

چرا خطا در روبات‌ها خطرناک‌تر است؟

۱-یک الگوریتم اشتباه ممکن است در میلی‌ثانیه تصمیمی بگیرد که حتی یک انسان فرصت نداشته باشد آن را بازبینی یا متوقف کند.

۲- انسان‌ها، به‌ویژه در مواجهه با سیستم‌هایی که ظاهر هوشمند دارند، دچار خطای شناختی اعتماد می‌شوند و تصور می‌کنند ماشین همیشه درست عمل می‌کند درحالی‌که آن ماشین فقط به درستی یا نادرستی دستورالعمل‌های انسانی وفادار است.

۳.پیچیدگی غیرقابل بازبینی

بسیاری از مدل‌های یادگیری ماشین، مانند شبکه‌های عصبی عمیق، ذاتا غیربازگشت‌پذیر یا غیرقابل توضیح هستند. این یعنی حتی طراحان نیز نمی‌دانند دقیقاً چرا یک روبات تصمیم خاصی را اتخاذ کرده است و همین امر مانع از اصلاح دقیق خطا می‌شود.

روبات چینی به اسم H۱ که در مراحل آزمایش و نمایش عمومی ناگهان از کنترل خارج شد
روبات چینی به اسم H۱ که در مراحل آزمایش و نمایش عمومی ناگهان از کنترل خارج شد.

راه‌حل چیست؟

استفاده از روبات‌ها، به‌ویژه در حوزه‌های حساس مانند پزشکی یا نظامی، نباید بدون آموزش سختگیرانه و صدور گواهی صلاحیت فنی باشد. همچنین هر روبات باید دارای لایه‌هایی از نظارت انسانی، سیستم‌های هشدار و مکانیسم‌های توقف فوری باشد که درصورت تشخیص عملکرد غیرطبیعی جلوی اجرا را بگیرد. از سوی دیگر همانطور که برای استفاده از سلاح‌های شیمیایی قوانین جهانی وجود دارد، نیاز فوری به چارچوب‌های قانونی برای روبات‌ها احساس می‌شود.

 

نمونه‌های مرگبار حمله روبات

مرگ زن عابر در تصادف با خودروی خودران

سال ۲۰۱۸در آریزونا، یک خودروی خودران شرکت اوبر با زنی که در حال عبور از خیابان بود تصادف کرد و او را کشت. بررسی‌ها نشان داد که سیستم هوش مصنوعی خودرو، زن را به جای عابرپیاده، ابتدا به‌عنوان یک جسم ناشناس و سپس دوچرخه‌سوار تشخیص داده بود.

بازوی روباتیک حادثه‌ساز

در برخی جراحی‌های انجام‌شده با روبات‌های داوینچی، گزارش‌هایی از برش‌های اشتباهی و پارگی رگ‌ها منتشر شده است. بسیاری از این موارد به خطای کاربر، ناآگاهی از دستورالعمل‌ها یا اختلال نرم‌افزاری نسبت داده شد. در یکی از پرونده‌های قضایی، خانواده بیماری که فوت کرده بود، مدعی شدند آموزش ناکافی جراح دلیل اصلی مرگ بوده است.

روبات قاتل در حوزه نظامی

در گزارش‌های منتشرشده از جنگ داخلی لیبی (۲۰۲۰)، ادعا شد که پهپادها و روبات‌های ساخت ترکیه به‌صورت خودمختار اهداف انسانی را دنبال و به آنها حمله کرده‌اند. گرچه جزئیات دقیق هنوز در پرده ابهام است، اما اگر این ادعا صحیح باشد، این نخستین نمونه ثبت‌شده از حمله کشنده‌ کاملاً خودکار یک روبات به انسان بدون فرمان انسانی در لحظه اجرا خواهد بود.

منبع
 همشهری آنلاین

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا