نماد سایت خبرگزاری سیناپرس

بودجه هنگفت پنتاگون برای کشتار خودکار

پنتاگون با افزایش ۲۴ هزار درصدی بودجه، پروژه‌ای ۴۵ میلیارد دلاری برای توسعه تسلیحات هوشمند و پهپادهای خودران کلید زده است؛ طرحی که در آن الگوریتم‌ها جایگزین انسان در تصمیم‌گیری نهایی مرگ و زندگی می‌شوند و اخلاق جنگ را به چالش می‌کشند.

به گزارش سیناپرس، درحالی‌که منتقدان بسیاری نسبت به پیامدهای گسترش تسلیحات مبتنی بر هوش مصنوعی هشدار داده‌اند، پنتاگون برای پیشبرد اهداف جنگ طلبانه خود درخواست بودجه هنگفتی کرده است.

در دل اسناد نظامی و بودجه‌های کلان پنتاگون، پروژه‌ای در حال شکل‌گیری است که ارزش آن تا ده‌ها میلیارد دلار برآورد می‌شود؛ برنامه‌ای برای توسعه نسل جدیدی از تسلیحات کشتار وزارت جنگ آمریکا مبتنی بر هوش مصنوعی و پهپادهای خودکار که بودجه آن نسبت به سال قبل ۲۴,۰۰۰ درصد افزایش دارد.آنچه در مورد این پروژه در حال شکل‌گیری است یک تغییر بنیادین در ماهیت جنگ است؛ جنگی که دیگر فقط توسط انسان‌ها هدایت نمی‌شود، بلکه الگوریتم‌ها در آن نقش تصمیم‌گیر پیدا می‌کنند.

پروژه‌ای با بودجه ای به اندازه نصف بودجه دفاعی انگلیس

پنتاگون در چارچوب اسناد و برنامه‌های دفاعی آمریکا از یک طرح گسترده با بودجه‌ای حدود ۴۵ میلیارد دلار برای توسعه نسل جدیدی از سامانه‌های کشتار مبتنی بر هوش مصنوعی و پهپادهای خودکار رونمایی کرده است. این مبلغ بیش از نیمی از کل بودجه دفاعی انگلیس است و برای«گروه جنگ خودران پنتاگون» درخواست شده است.

هدف رسمی این پروژه، ارتقای توان عملیاتی نیروهای نظامی از طریق استفاده از الگوریتم‌های هوش مصنوعی در تحلیل داده‌های میدان نبرد، شناسایی اهداف و افزایش سرعت واکنش عنوان شده است. همچنین در این برنامه، توسعه پهپادهای خودران به‌عنوان یکی از محورهای اصلی دنبال می‌شود؛ پهپادهایی که قرار است بدون نیاز به کنترل مستقیم انسانی، مأموریت‌های شناسایی و در برخی موارد عملیاتی را انجام دهند.

اما در طرف دیگر این معادله، یک تغییر بنیادی در ماهیت تصمیم‌گیری نظامی قرار دارد: فاصله گرفتن انسان از لحظه نهایی انتخاب مرگ و زندگی. هرچه سیستم‌ها بیشتر خودکار می‌شوند، نقش انسان از تصمیم‌گیرنده به ناظر بر تصمیم ماشین تغییر می‌کند.در این نقطه، سؤال اصلی شکل می‌گیرد: اگر هدف اعلام‌شده کاهش خطای انسانی است، اما همان انسان از چرخه تصمیم‌گیری حذف شود، خطا دقیقاً چگونه تعریف و مسئولیت آن چگونه مشخص می‌شود؟

رشد یک بحران اخلاقی

اینجا مسئله از فناوری عبور می‌کند و مستقیم وارد بحران اخلاقی می‌شود.یک خطای الگوریتمی کافی است تا یک غیرنظامی به‌عنوان هدف شناسایی و حذف شود؛ خطایی که در جنگ، قابل برگشت نیست و البته بر اساس تجربه ای که از جنگ افروز آمرسکایی‌ها به دست آمده این مورد از لحاظ آمریکایی‌ها کمتر اهمیت پیدا می‌کند.

در همین ساختار، پاسخ‌گویی شفاف عملاً وجود ندارد. مشخص نیست اگر تصمیم اشتباه از یک سیستم خودکار بیرون بیاید، چه کسی باید پاسخ بدهد؛ برنامه‌نویس، فرمانده یا خود سیستم؟نتیجه این وضعیت، محو شدن تدریجی مسئولیت انسانی است؛ جایی که مرگ اتفاق می‌افتد، اما صاحب تصمیم قابل ردیابی نیست.

صدای منتقدین

این بودجه درحالی درخواست شده که بخشی از مقام‌های امنیتی و اطلاعاتی سابق هم نسبت به پیامدهای آن هشدار داده‌اند.دیوید پترائوس رئیس سابق سیا و دیگران هشدار دادند که ارتش آمریکا و شرکت‌های هوش مصنوعی تا حد زیادی برای ریسک‌ها و مسئولیت‌های جنگ خودران آماده نیستند.جفری لادیش، مدیر مؤسسه پژوهشی پالاسید و محقق سابق امنیت در شرکت آنتروپیک، گفت: «فکر می‌کنم هر شرکت هوش مصنوعی باید به شدت نگران آینده سلاح‌های هوش مصنوعی باشد.»

لادیش گفت سامانه‌های خودران می‌توانند پویایی رویارویی‌های نظامی را با آسان‌تر و رایج‌تر کردن رویدادهایی مثل کودتا تغییر دهند.پیتر والیچ، مقام سابق مؤسسه امنیت هوش مصنوعی انگلیس که اکنون مشاور ام‌آی‌تی است، گفت: «ارزیابان مدام نقص‌های قابل بهره‌برداری را حتی در پیشرفته‌ترین سامانه‌ها پیدا می‌کنند. هر مدل پیشرفته هوش مصنوعی که مؤسسه امنیت هوش مصنوعی انگلیس در ماه دسامبر آزمایش کرده، دارای ضعف‌های امنیتی قابل سوءاستفاده بوده است. در زمینه نظامی، این نوع نقص‌ها می‌توانند جان نیروهای جنگی و غیرنظامیان را به خطر بیندازند.»

به نقل از فارس، برخی کارشناسان معتقدند این پول می‌تواند در جای دیگری بهتر هزینه شود. «کریستوفر هریسون»، کارشناس سابق روسیه در وزارت خارجه آمریکا، گفته این بودجه «بیشتر شبیه یک صندوق حمایتی برای یک شرکت خاص است».

گزارش‌ها نشان می‌دهد سامانه‌های فعلی هوش مصنوعی همچنان با چالش‌های جدی در دقت، پایداری و امنیت روبه‌رو هستند؛ چالش‌هایی که در شرایط واقعی میدان نبرد می‌تواند به تصمیم‌های اشتباه و پیامدهای غیرقابل جبران منجر شود.در همین حال، برخی تحلیلگران تأکید می‌کنند فاصله میان حجم بالای سرمایه‌گذاری و سطح واقعی آمادگی عملیاتی، به یک نقطه ضعف راهبردی برای آمریکا تبدیل شده است؛ شکافی که در صورت تداوم، می‌تواند در رقابت‌های نظامی آینده به نفع رقبای این کشور عمل کند.

خروج از نسخه موبایل