هوش مصنوعی امکان رهگیری سریعتر اهداف را فراهم میکند، اما همین زنجیره پیچیده، شکنندگیهایی به همراه دارد که در آن یک خطای کوچک سیستمی میتواند در کسری از ثانیه به یک جنایت جنگی تبدیل شود؛ نظیر آنچه در میناب رخ داد.
. «زنجیره کشتار» در مقیاس ثانیه
هسته اصلی تحول نظامی آمریکا، سامانه «میون اسمارت سیستم» (Maven Smart System) متعلق به شرکت پالانتیر است. این سامانه که از مدل زبانی «کلود» (Anthropic) به عنوان هماهنگکننده استفاده میکند، چرخه کلاسیک «مشاهده-جهتگیری-تصمیم-اقدام» (OODA) را از چند ساعت به چند ثانیه فشرده میسازد. به گفته دریاسالار چارلز کوپر از سنتکام: «هوش مصنوعی کار چند روز یا چند ساعت را به چند ثانیه فشرده میکند؛ سریعتر از آنکه دشمن بتواند واکنش نشان دهد.»
در عمل، این سامانه دادههای خام ماهوارهای (NGA)، پهپادها، رادارهای زمینی و اطلاعات منبعباز (OSINT) را در لایه «آنتولوژی» پالانتیر استانداردسازی کرده، سپس مدلهای بینایی ماشین و لجستیک تهدیدها را رتبهبندی میکنند و نهایتاً «گزینههای عملیاتی» را در اختیار فرماندهان قرار میدهند. با این همه، همان گزارش پنتاگون اذعان دارد که «تأیید صوری» -یعنی تأیید بدون بررسی دقیق پیشنهادهای سیستم- یکی از سه آسیبپذیری ساختاری اصلی این فرآیند است.
۲. خطای میناب؛ وقتی دادههای دهه ۲۰۱۰ «هدف» میشوند
در موج نخست حملات موسوم به «خشم حماسی»، یک موشک تاماهاوک به مدرسه دخترانه شجره طیبه در میناب اصابت کرد. ایران اعلام کرد ۱۶۸ کودک ۷ تا ۱۲ ساله و جمعاً ۱۷۵ تن شهید شدند. نشریه Week in Worcester مستقیماً به «بهکارگیری هوش مصنوعی» و «شتابدادن به یک سامانه مبتنی بر Claude» در این حادثه اشاره کرد.
اما تحقیق اولیه وزارت دفاع آمریکا (DoD) تصویر متفاوتی ارائه داد: علت خطا، استفاده از دادههای قدیمی آژانس اطلاعات دفاعی (DIA) بود که هنوز ساختمان مدرسه را بخشی از یک پایگاه نظامی ثبت کرده بود؛ در حالی که تحلیل دادههای ژئواسپیشیال نشان میدهد این ساختمان بین سالهای ۲۰۱۳ تا ۲۰۱۶ از پایگاه جدا و حصارکشی شده بود. یعنی دادهای حدود ۱۰ سال قدیمی بدون بهروزرسانی، به سامانه هوش مصنوعی تغذیه شده است.
۳. شکنندگی در اوج سرعت: سه پاشنه آشیل
این گزارش، سه آسیبپذیری کلیدی را برمیشمارد:
۱. ناهمگونی حسگرها: دریافت دادههای متناقض از منابع مختلف در مرحله همجوشی.
۲. خزش دادهها: مواجهه مدل هوش مصنوعی با شرایطی که در دادههای آموزشی وجود نداشته است (مانند تغییر کاربری یک ساختمان به آموزشی).
۳. تأیید صوری: اپراتورهای انسانی به دلیل سرعت بالا، بدون بررسی دقیق، پیشنهادات سیستم را تأیید میکنند.
در مورد میناب، به نظر میرسد سرعت بالای تولید هدف، فرصت تطبیق اطلاعات DIA با دادههای بهروز آژانس ملی اطلاعات جغرافیایی (NGA) را از بین برده است.
۴. «خط قرمز اخلاقی» در برابر «ضرورت عملیاتی»
جالب آنکه خود شرکت Anthropic (سازنده مدل Claude) خواسته بود مدلش برای حملات تمامخودکار یا ردیابی شهروندان آمریکایی استفاده نشود؛ محدودیتی که پنتاگون با آن مخالفت کرد و همکاری در آستانه پایان است. پیش از این، گوگل در سال ۲۰۱۸ پس از اعتراض بیش از ۳۰۰۰ کارمند، از ادامه همکاری در پروژه میون انصراف داده و اصولی منتشر کرد که مشارکت در سیستمهای تسلیحاتی را ممنوع میکرد. اما گوگل بعداً آن محدودیتها را حذف کرد و اکنون به عنوان گزینه جایگزین کلود معرفی شده است.
الکس کارپ، مدیرعامل پالانتیر، با صراحت گفته: «سیستمی که زنجیره کشتار را از چند ساعت به چند ثانیه کاهش دهد، دشمن را منقرض میکند.»، اما به نظر میرسد در این «انقراض»، مرز میان رزمنده و غیرنظامی قربانی «سرعت الگوریتمی» شده است.
۵. نتیجهگیری؛ مسئولیتپذیری قربانی شتاب
«هوش مصنوعی توانایی رهگیری سریعتر اهداف را فراهم میکند، اما همین زنجیره پیچیده، شکنندگیهایی را به همراه دارد که در آن یک خطای کوچک سیستمی میتواند در کسری از ثانیه به یک بحران راهبردی تبدیل شود.»
حادثه میناب نشان میدهد که این بحران، پیش از آنکه «راهبردی» باشد، انسانی است. تکیه صرف بر دادههای قدیمی، نبود سازوکار مؤثر تطبیق میاننهادی، و فشار برای «تأیید صوری» پیشنهادهای هوش مصنوعی، پنتاگون را در موقعیتی قرار داده که سرعت را فدای دقت و مسئولیتپذیری کرده است.
پرسشی که بیپاسخ میماند؛ وقتی یک الگوریتم -با مجوز انسانی- مدرسهای را با پایگاه نظامی اشتباه میگیرد، چه کسی پاسخگوی کشتهشدن ۱۶۸ کودک است؟ هوش مصنوعی؟ دادههای دهه ۲۰۱۰؟ یا فرماندهی که در اتاقی پر از صفحههای نورانی، دکمه تأیید را در کمتر از چند ثانیه فشرده است؟