اخبار

هوش مصنوعی امکان رهگیری سریع‌تر اهداف را فراهم می‌کند، اما همین زنجیره پیچیده، شکنندگی‌هایی به همراه دارد که در آن یک خطای کوچک سیستمی می‌تواند در کسری از ثانیه به یک جنایت جنگی تبدیل شود؛ نظیر آنچه در میناب رخ داد.

به گزارش پایگاه اطلاع رسانی مرکز اسناد، تحقیقات و نشر معارف دفاع مقدس و مجاهدت های سپاه، استفاده ارتش آمریکا از سامانه‌های هوش مصنوعی در حملات اخیر علیه ایران، با وجود ادعای افزایش سرعت و دقت، دست‌کم به یک فاجعه انسانی منجر شده است: اصابت موشک «تاماهاوک» به مدرسه‌ای در میناب که به شهادت دست‌کم ۱۷۵ تن انجامید. گزارش‌های متقاطع نشان می‌دهد که «فشرده‌سازی» چرخه تصمیم‌گیری توسط سیستم «میون» (Maven)، به‌همراه تکیه بر داده‌های بیش از یک دهه پیشین، مرز میان خطای سیستمی و جنایت جنگی را در هاله‌ای از ابهام فرو برده است.

 . «زنجیره کشتار» در مقیاس ثانیه
هسته اصلی تحول نظامی آمریکا، سامانه «میون اسمارت سیستم» (Maven Smart System) متعلق به شرکت پالانتیر است. این سامانه که از مدل زبانی «کلود» (Anthropic) به عنوان هماهنگ‌کننده استفاده می‌کند، چرخه کلاسیک «مشاهده-جهت‌گیری-تصمیم-اقدام» (OODA) را از چند ساعت به چند ثانیه فشرده می‌سازد. به گفته دریاسالار چارلز کوپر از سنتکام: «هوش مصنوعی کار چند روز یا چند ساعت را به چند ثانیه فشرده می‌کند؛ سریع‌تر از آن‌که دشمن بتواند واکنش نشان دهد.»
 
در عمل، این سامانه داده‌های خام ماهواره‌ای (NGA)، پهپادها، رادار‌های زمینی و اطلاعات منبع‌باز (OSINT) را در لایه «آنتولوژی» پالانتیر استانداردسازی کرده، سپس مدل‌های بینایی ماشین و لجستیک تهدید‌ها را رتبه‌بندی می‌کنند و نهایتاً «گزینه‌های عملیاتی» را در اختیار فرماندهان قرار می‌دهند. با این همه، همان گزارش پنتاگون اذعان دارد که «تأیید صوری» -یعنی تأیید بدون بررسی دقیق پیشنهاد‌های سیستم- یکی از سه آسیب‌پذیری ساختاری اصلی این فرآیند است.
 
۲. خطای میناب؛ وقتی داده‌های دهه ۲۰۱۰ «هدف» می‌شوند
در موج نخست حملات موسوم به «خشم حماسی»، یک موشک تاماهاوک به مدرسه دخترانه شجره طیبه در میناب اصابت کرد. ایران اعلام کرد ۱۶۸ کودک ۷ تا ۱۲ ساله و جمعاً ۱۷۵ تن شهید شدند. نشریه Week in Worcester مستقیماً به «به‌کارگیری هوش مصنوعی» و «شتاب‌دادن به یک سامانه مبتنی بر Claude» در این حادثه اشاره کرد.
 
اما تحقیق اولیه وزارت دفاع آمریکا (DoD) تصویر متفاوتی ارائه داد: علت خطا، استفاده از داده‌های قدیمی آژانس اطلاعات دفاعی (DIA) بود که هنوز ساختمان مدرسه را بخشی از یک پایگاه نظامی ثبت کرده بود؛ در حالی که تحلیل داده‌های ژئواسپیشیال نشان می‌دهد این ساختمان بین سال‌های ۲۰۱۳ تا ۲۰۱۶ از پایگاه جدا و حصارکشی شده بود. یعنی داده‌ای حدود ۱۰ سال قدیمی بدون به‌روزرسانی، به سامانه هوش مصنوعی تغذیه شده است.
 
۳. شکنندگی در اوج سرعت: سه پاشنه آشیل
این گزارش، سه آسیب‌پذیری کلیدی را برمی‌شمارد:
۱. ناهمگونی حسگرها: دریافت داده‌های متناقض از منابع مختلف در مرحله همجوشی.
۲. خزش داده‌ها: مواجهه مدل هوش مصنوعی با شرایطی که در داده‌های آموزشی وجود نداشته است (مانند تغییر کاربری یک ساختمان به آموزشی).
۳. تأیید صوری: اپراتور‌های انسانی به دلیل سرعت بالا، بدون بررسی دقیق، پیشنهادات سیستم را تأیید می‌کنند.
در مورد میناب، به نظر می‌رسد سرعت بالای تولید هدف، فرصت تطبیق اطلاعات DIA با داده‌های به‌روز آژانس ملی اطلاعات جغرافیایی (NGA) را از بین برده است.
 
۴. «خط قرمز اخلاقی» در برابر «ضرورت عملیاتی»
جالب آنکه خود شرکت Anthropic (سازنده مدل Claude) خواسته بود مدلش برای حملات تمام‌خودکار یا ردیابی شهروندان آمریکایی استفاده نشود؛ محدودیتی که پنتاگون با آن مخالفت کرد و همکاری در آستانه پایان است. پیش از این، گوگل در سال ۲۰۱۸ پس از اعتراض بیش از ۳۰۰۰ کارمند، از ادامه همکاری در پروژه میون انصراف داده و اصولی منتشر کرد که مشارکت در سیستم‌های تسلیحاتی را ممنوع می‌کرد. اما گوگل بعداً آن محدودیت‌ها را حذف کرد و اکنون به عنوان گزینه جایگزین کلود معرفی شده است.
 
الکس کارپ، مدیرعامل پالانتیر، با صراحت گفته: «سیستمی که زنجیره کشتار را از چند ساعت به چند ثانیه کاهش دهد، دشمن را منقرض می‌کند.»، اما به نظر می‌رسد در این «انقراض»، مرز میان رزمنده و غیرنظامی قربانی «سرعت الگوریتمی» شده است.
 
۵. نتیجه‌گیری؛ مسئولیت‌پذیری قربانی شتاب
«هوش مصنوعی توانایی رهگیری سریع‌تر اهداف را فراهم می‌کند، اما همین زنجیره پیچیده، شکنندگی‌هایی را به همراه دارد که در آن یک خطای کوچک سیستمی می‌تواند در کسری از ثانیه به یک بحران راهبردی تبدیل شود.»
 
حادثه میناب نشان می‌دهد که این بحران، پیش از آنکه «راهبردی» باشد، انسانی است. تکیه صرف بر داده‌های قدیمی، نبود سازوکار مؤثر تطبیق میان‌نهادی، و فشار برای «تأیید صوری» پیشنهاد‌های هوش مصنوعی، پنتاگون را در موقعیتی قرار داده که سرعت را فدای دقت و مسئولیت‌پذیری کرده است.
 
پرسشی که بی‌پاسخ می‌ماند؛ وقتی یک الگوریتم -با مجوز انسانی- مدرسه‌ای را با پایگاه نظامی اشتباه می‌گیرد، چه کسی پاسخگوی کشته‌شدن ۱۶۸ کودک است؟ هوش مصنوعی؟ داده‌های دهه ۲۰۱۰؟ یا فرماندهی که در اتاقی پر از صفحه‌های نورانی، دکمه تأیید را در کمتر از چند ثانیه فشرده است؟
 
لینک کوتاه :
کد خبر : 4761