به گزارش اقتصاد آنلاین به نقل از ایسنا، حمله مشترک ایالات متحده و اسرائیل به ایران، چیزی بیش از تشدید یک درگیری منطقهای ناپایدار را به همراه داشته است. این حمله نشان داده است که چگونه هدفگیری مبتنی بر الگوریتم و اطلاعات مبتنی بر داده، ساز و کار جنگ را تنظیم میکند.
به نقل از آیای، طبق گزارشها، نیروهای ایالات متحده و اسرائیل در ۱۲ ساعت آغازین جنگ، نزدیک به ۹۰۰ حمله به اهداف ایرانی انجام دادند. این در حالی است که این سرعت عملیاتی در درگیریهای قبلی روزها یا حتی هفتهها طول میکشید.
فراتر از مقیاس حملات که شامل صدها مأموریت با استفاده از بمبافکنهای رادارگریز، موشکهای کروز و پهپادهای انتحاری بود، آنچه بیش از همه برای تحلیلگران نظامی و اخلاقگرایان برجسته است، نقش فزاینده هوش مصنوعی در برنامهریزی، تجزیه و تحلیل و اجرای بالقوه آن عملیات است.
منتقدان هشدار میدهند که این روند میتواند زمانبندی تصمیمگیری را به سطوحی فشرده کند که در آن قضاوت انسانی به حاشیه رانده شود و دورانی از جنگ را آغاز کند که با چیزی که «سریعتر از سرعت فکر» توصیف شده است، انجام میشود.
در اصطلاحات نظامی، «کوتاه کردن زنجیره کشتار» به فروپاشی توالی از شناسایی هدف و اعتبارسنجی اطلاعات گرفته تا مجوز قانونی و آزادسازی سلاحها به یک حلقه عملیاتی بسیار فشردهتر اشاره دارد.
این کوتاه شدن فاصله زمانی، نگرانیهایی را ایجاد میکند مبنی بر اینکه متخصصان انسانی ممکن است صرفاً توصیههای تولید شده توسط الگوریتمها را تأیید کنند.
در محیطی که سرعت و اتوماسیون دیکته میشود، فضای تردید، مخالفت یا خویشتنداری اخلاقی ممکن است به همان سرعت در حال کاهش باشد.
هوش مصنوعی و زنجیره کشتار؛ آنچه تغییر کرده است
سیستمهای هوش مصنوعی که قادر به پردازش جریانهای گسترده دادهها هستند، با سرعتی که هیچ تیم انسانی نمیتواند با آن برابری کند، به منابعی مانند دادههای پهپادها، تصاویر ماهوارهای و رهگیریهای مخابراتی متصل میشوند.
به گفته گاردین، این ابزارها در طول حملات ایالات متحده و اسرائیل در ایران برای تولید توصیههای هدفگیری و فشردهسازی چرخههای برنامهریزی که از نظر تاریخی روزها یا هفتهها طول میکشید، به ساعتها یا حتی چند دقیقه تبدیل شدند.
کریگ جونز(Craig Jones)، مدرس ارشد جغرافیای سیاسی در دانشگاه نیوکاسل و متخصص زنجیرههای کشتار نظامی به گاردین گفت که سیستمهای هوش مصنوعی اکنون با سرعتی که از برخی جهات از پردازش شناختی انسان فراتر میرود، توصیههایی برای هدف قرار دادن ارائه میدهند.
وی استدلال کرد: «نتیجه، اجرای همزمان در مقیاس بزرگ است. هدف قرار دادن رهبری، سرکوب موشکی و حملات به زیرساختها به جای اینکه به ترتیب انجام شوند، به صورت موازی اتفاق میافتند.»
دیوید لزلی(David Leslie)، استاد اخلاق، فناوری و جامعه در دانشگاه «کوئین مری لندن» نیز در اظهاراتی به گاردین هشدار داد که چنین سیستمهایی، جدول زمانی برنامهریزی را به یک «بازه زمانی بسیار باریکتر» برای بررسی انسانی تبدیل میکنند. در حالی که فرماندهان از نظر فنی اصطلاحا «در حلقه» باقی میمانند، فرصت برای مشورت معنادار به طرز چشمگیری کاهش مییابد.
این فشردهسازی سرعت عملیاتی که اغلب به عنوان «فشردهسازی تصمیمگیری» از آن یاد میشود، صرفاً مربوط به کارایی نیست. این امر ساختار خودِ اقتدار نظامی را تغییر میدهد و فضایی را که مشاوران حقوقی، تحلیلگران و فرماندهان میتوانند قبل از شلیک سلاحها، فرضیات را زیر سؤال ببرند، محدود میکند.
جایگاه اخلاق در نبرد تقویتشده با هوش مصنوعی
کارشناسان اخلاق و فناوری هشدار میدهند که با افزایش نقش سیستمهای هوش مصنوعی در برنامهریزی نظامی، ماهیت نظارت انسانی اساساً تغییر میکند. یکی از نگرانیها، تخلیه شناختی است که در آن تصمیمگیرندگان به راحتی در مقابل توصیههای الگوریتمی تسلیم میشوند و عملاً مسئولیتپذیری انسان را در انتخابهای استراتژیک کاهش میدهند.
به گفته گاردین، این جدایی بهویژه زمانی نگرانکننده است که تلفات غیرنظامیان در خطر باشد. در یک حمله اخیر در جنوب ایران، حداقل ۱۵۰ نفر که بسیاری از آنها دختران دانشآموز بودند، در حادثهای که سازمان ملل آن را «نقض شدید حقوق بشر» توصیف کرد، کشته شدند.
حقوق بینالملل بشردوستانه حول فرض قضاوت انسانی در چارچوب تناسب و تمایز شکل گرفته است. با فشردهسازی جدولهای زمانی توسط سیستمهای هوش مصنوعی و ایجاد سریع گزینههای حمله، این خطر افزایش مییابد که این بررسیهای قانونی و اخلاقی تحتالشعاع ضرورت سرعت قرار گیرند.
کارهای دانشگاهی در مورد هوش مصنوعی نظامی همچنان بر نیاز به چارچوبهایی برای جلوگیری از فرسایش عامل انسانی در زمینههای کشنده و اطمینان از اینکه کارایی میدان جنگ ملاحظات مربوط به آسیب به غیرنظامیان و انطباق با قوانین را نادیده نمیگیرد، تأکید دارند.
تنشهای اخلاقی پیرامون هوش مصنوعی نظامی انتزاعی نیستند. مدل هوش مصنوعی کلود(Claude) ساخته شرکت آنتروپیک (Anthropic) در همکاری با پالانتیر(Palantir) در گردشهای کاری امنیت ملی ایالات متحده ادغام شده است تا به تجزیه و تحلیل اطلاعات و برنامهریزی جنگ کمک کند. با این حال، شرکت آنتروپیک در برابر استفاده از سیستمهای خود برای سلاحهای کاملاً خودمختار یا برنامههای نظارت داخلی خط قرمز کشید.
دولت ایالات متحده در روزهای منتهی به حملات به ایران اعلام کرد که آنتروپیک تحت این محدودیتها به تدریج از برخی سیستمهای دفاعی کنار گذاشته خواهد شد. اندکی پس از آن، شرکت اوپنایآی(OpenAI) برای کاربردهای نظامی مدلهای خود با پنتاگون توافقنامهای امضا کرد.
موضع آنتروپیک نشاندهنده تنش اصلی این دوره جدید جنگ است. همان مدلهایی که قادر به ترکیب اطلاعات با سرعتی بیسابقه هستند، میتوانند برای نظارت یا سیستمهای کشنده خودمختار نیز مورد استفاده مجدد قرار گیرند. اینکه آیا اقتدار انسانی همچنان ضروری است، نه تنها به دکترین نظامی، بلکه به نحوه انتخاب شرکتهای فناوری برای تعریف محدودیتهای مشارکت آنها نیز بستگی دارد.
به طرز نگرانکنندهای، در بازیهای جنگی شبیهسازیشده که برای انعکاس بحرانهای هستهای به سبک جنگ سرد طراحی شدهاند، مدلهای هوش مصنوعی به طور گسترده به سمت گزینههای هستهای سوق داده شدند و در ۹۵ درصد سناریوها اقدام هستهای تاکتیکی را انتخاب کردند و به ندرت به سمت کاهش تنش رفتند.
در حالی که شبیهسازیها نشان نمیدهند که هوش مصنوعی به ناچار در درگیریهای واقعی تشدید هستهای را انتخاب خواهد کرد، اما نشان میدهند که چگونه مدلهای استدلال استراتژیک میتوانند تحت فشار به سمت نتایج ناخوشایند پیش بروند.
هوش مصنوعی عملیاتی فراتر از ایران؛ غزه، ونزوئلا و چشمانداز جهانی
مدتی است که از هوش مصنوعی نظامی پیشرفته برای شناسایی اهداف و برنامهریزی حملات استفاده میشود. برای مثال در نوار غزه، نیروهای دفاعی اسرائیل ابزارهای هوش مصنوعی مانند The Gospel و Lavender را به کار گرفتهاند تا به طور خودکار دادههای نظارتی گسترده را بررسی کرده و فهرستهای روزانهای از اهداف بمباران را برای بررسی و اقدام تحلیلگران ایجاد کنند.
طبق اعلام منابع نظامی و تحقیقات، The Gospel روزانه دهها هدف تولید کرده است که نرخی بسیار بالاتر از فرآیندهای سنتی به رهبری انسان است. در حالی که Lavender پایگاههای داده گستردهای از مظنونان و مکانهای مرتبط را که توسط الگوریتمهای هوش مصنوعی علامتگذاری شدهاند، نگهداری میکند.
ایالات متحده فراتر از خاورمیانه، ابزارهای هوش مصنوعی را در مناطق دیگر نیز آزمایش کرده است. طبق گزارشهای متعدد، مدل «کلود» شرکت «آنتروپیک» توسط ارتش ایالات متحده برای پشتیبانی از تجزیه و تحلیل اطلاعات و انتخاب هدف در یک عملیات مهم برای دستگیری نیکولاس مادورو، رئیس جمهور سابق ونزوئلا در اوایل سال ۲۰۲۶ مورد استفاده قرار گرفت.
برنامههای طولانیمدتی مانند پروژه ماون (Maven) که در سال ۲۰۱۷ توسط وزارت دفاع ایالات متحده راهاندازی شد، فناوری یادگیری ماشینی را برای تجزیه و تحلیل تصاویر و پشتیبانی از تصمیمات هدفگیری در درگیریهای مختلف از عراق و سوریه گرفته تا اوکراین که در آن پهپادهای مجهز به هوش مصنوعی به شناسایی و درگیری اهداف در محیطهای پیچیده جنگ الکترونیکی کمک میکنند، به کار گرفتهاند.
در سطح ژئوپلیتیکی، تلاشها برای ایجاد هنجارهایی برای استفاده از هوش مصنوعی در حوزه نظامی با چالش همراه بوده است. یک بیانیه سیاسی در مورد استفاده نظامی مسئولانه از هوش مصنوعی و خودمختاری توسط سیاستگذاران ایالات متحده اعلام شد و دهها کشور برای تأیید رویههای مسئولانه برای خودمختاری کشنده و نظارت انسانی به آن پیوستند.
با این حال، قدرتهای نظامی از جمله ایالات متحده و چین، گاهی اوقات تمایلی به پذیرش کامل محدودیتهای الزامآور نداشتهاند که نشاندهنده اولویتهای رقابتی بین مزیت استراتژیک و محدودیت اخلاقی است.
کشورهای دیگر نیز در حال پیشرفت در ساخت سلاحهای مجهز به هوش مصنوعی هستند. در ترکیه، موشک کروز «Baykar Bayraktar Kemankeş 1» از هدایت نوری با کمک هوش مصنوعی برای تشخیص خودکار هدف در شرایط نامساعد استفاده میکند.
در هند، پروژههای تحقیقاتی دفاعی مانند «Project Anumaan» و «Trinetra» در حال بررسی پتانسیل هوش مصنوعی برای ترکیب اطلاعات در شبکهها و امکان ارزیابی زودهنگام تهدید هستند.
آنچه کارزار ایران را متمایز میکند، نه تنها شدت حملات، بلکه عادیسازی هدفگیری با کمک هوش مصنوعی در مقیاس وسیع است. از فهرستهای خودکار حملات گرفته تا بررسیهای حقوقی فشرده، میانجیگری الگوریتمی به شکلی بیسابقه در منازعات مدرن گنجانده میشود.









