بودجه هنگفت پنتاگون برای کشتار خودکار

پنتاگون با افزایش ۲۴ هزار درصدی بودجه، پروژهای ۴۵ میلیارد دلاری برای توسعه تسلیحات هوشمند و پهپادهای خودران کلید زده است؛ طرحی که در آن الگوریتمها جایگزین انسان در تصمیمگیری نهایی مرگ و زندگی میشوند و اخلاق جنگ را به چالش میکشند.
به گزارش سیناپرس، درحالیکه منتقدان بسیاری نسبت به پیامدهای گسترش تسلیحات مبتنی بر هوش مصنوعی هشدار دادهاند، پنتاگون برای پیشبرد اهداف جنگ طلبانه خود درخواست بودجه هنگفتی کرده است.
در دل اسناد نظامی و بودجههای کلان پنتاگون، پروژهای در حال شکلگیری است که ارزش آن تا دهها میلیارد دلار برآورد میشود؛ برنامهای برای توسعه نسل جدیدی از تسلیحات کشتار وزارت جنگ آمریکا مبتنی بر هوش مصنوعی و پهپادهای خودکار که بودجه آن نسبت به سال قبل ۲۴,۰۰۰ درصد افزایش دارد.آنچه در مورد این پروژه در حال شکلگیری است یک تغییر بنیادین در ماهیت جنگ است؛ جنگی که دیگر فقط توسط انسانها هدایت نمیشود، بلکه الگوریتمها در آن نقش تصمیمگیر پیدا میکنند.
پروژهای با بودجه ای به اندازه نصف بودجه دفاعی انگلیس
پنتاگون در چارچوب اسناد و برنامههای دفاعی آمریکا از یک طرح گسترده با بودجهای حدود ۴۵ میلیارد دلار برای توسعه نسل جدیدی از سامانههای کشتار مبتنی بر هوش مصنوعی و پهپادهای خودکار رونمایی کرده است. این مبلغ بیش از نیمی از کل بودجه دفاعی انگلیس است و برای«گروه جنگ خودران پنتاگون» درخواست شده است.
هدف رسمی این پروژه، ارتقای توان عملیاتی نیروهای نظامی از طریق استفاده از الگوریتمهای هوش مصنوعی در تحلیل دادههای میدان نبرد، شناسایی اهداف و افزایش سرعت واکنش عنوان شده است. همچنین در این برنامه، توسعه پهپادهای خودران بهعنوان یکی از محورهای اصلی دنبال میشود؛ پهپادهایی که قرار است بدون نیاز به کنترل مستقیم انسانی، مأموریتهای شناسایی و در برخی موارد عملیاتی را انجام دهند.
اما در طرف دیگر این معادله، یک تغییر بنیادی در ماهیت تصمیمگیری نظامی قرار دارد: فاصله گرفتن انسان از لحظه نهایی انتخاب مرگ و زندگی. هرچه سیستمها بیشتر خودکار میشوند، نقش انسان از تصمیمگیرنده به ناظر بر تصمیم ماشین تغییر میکند.در این نقطه، سؤال اصلی شکل میگیرد: اگر هدف اعلامشده کاهش خطای انسانی است، اما همان انسان از چرخه تصمیمگیری حذف شود، خطا دقیقاً چگونه تعریف و مسئولیت آن چگونه مشخص میشود؟
رشد یک بحران اخلاقی
اینجا مسئله از فناوری عبور میکند و مستقیم وارد بحران اخلاقی میشود.یک خطای الگوریتمی کافی است تا یک غیرنظامی بهعنوان هدف شناسایی و حذف شود؛ خطایی که در جنگ، قابل برگشت نیست و البته بر اساس تجربه ای که از جنگ افروز آمرسکاییها به دست آمده این مورد از لحاظ آمریکاییها کمتر اهمیت پیدا میکند.
در همین ساختار، پاسخگویی شفاف عملاً وجود ندارد. مشخص نیست اگر تصمیم اشتباه از یک سیستم خودکار بیرون بیاید، چه کسی باید پاسخ بدهد؛ برنامهنویس، فرمانده یا خود سیستم؟نتیجه این وضعیت، محو شدن تدریجی مسئولیت انسانی است؛ جایی که مرگ اتفاق میافتد، اما صاحب تصمیم قابل ردیابی نیست.
صدای منتقدین
این بودجه درحالی درخواست شده که بخشی از مقامهای امنیتی و اطلاعاتی سابق هم نسبت به پیامدهای آن هشدار دادهاند.دیوید پترائوس رئیس سابق سیا و دیگران هشدار دادند که ارتش آمریکا و شرکتهای هوش مصنوعی تا حد زیادی برای ریسکها و مسئولیتهای جنگ خودران آماده نیستند.جفری لادیش، مدیر مؤسسه پژوهشی پالاسید و محقق سابق امنیت در شرکت آنتروپیک، گفت: «فکر میکنم هر شرکت هوش مصنوعی باید به شدت نگران آینده سلاحهای هوش مصنوعی باشد.»
لادیش گفت سامانههای خودران میتوانند پویایی رویاروییهای نظامی را با آسانتر و رایجتر کردن رویدادهایی مثل کودتا تغییر دهند.پیتر والیچ، مقام سابق مؤسسه امنیت هوش مصنوعی انگلیس که اکنون مشاور امآیتی است، گفت: «ارزیابان مدام نقصهای قابل بهرهبرداری را حتی در پیشرفتهترین سامانهها پیدا میکنند. هر مدل پیشرفته هوش مصنوعی که مؤسسه امنیت هوش مصنوعی انگلیس در ماه دسامبر آزمایش کرده، دارای ضعفهای امنیتی قابل سوءاستفاده بوده است. در زمینه نظامی، این نوع نقصها میتوانند جان نیروهای جنگی و غیرنظامیان را به خطر بیندازند.»
به نقل از فارس، برخی کارشناسان معتقدند این پول میتواند در جای دیگری بهتر هزینه شود. «کریستوفر هریسون»، کارشناس سابق روسیه در وزارت خارجه آمریکا، گفته این بودجه «بیشتر شبیه یک صندوق حمایتی برای یک شرکت خاص است».
گزارشها نشان میدهد سامانههای فعلی هوش مصنوعی همچنان با چالشهای جدی در دقت، پایداری و امنیت روبهرو هستند؛ چالشهایی که در شرایط واقعی میدان نبرد میتواند به تصمیمهای اشتباه و پیامدهای غیرقابل جبران منجر شود.در همین حال، برخی تحلیلگران تأکید میکنند فاصله میان حجم بالای سرمایهگذاری و سطح واقعی آمادگی عملیاتی، به یک نقطه ضعف راهبردی برای آمریکا تبدیل شده است؛ شکافی که در صورت تداوم، میتواند در رقابتهای نظامی آینده به نفع رقبای این کشور عمل کند.





