حکمرانیِ هوش مصنوعی در جنگ‌های مدرن: از دفاع شناختی تا بازدارندگی هوشمند میدانی

فهرست مطالب

علی الماسی زند / مدیر کارگروه حکمرانی

مقدمه: جابه‌جایی میدان جنگ و بازتعریف قدرت

ظهور هوش مصنوعی و اقتصاد داده، مرز کلاسیک میان «میدان نبرد» و «پشت جبهه» را فروپاشانده است. در جنگ‌های صنعتی، قدرت با ظرفیت تولید سلاح سنگین و تحرک میدانی سنجیده می‌شد؛ در جنگ‌های اطلاعاتی و شبکه‌ای، توان پردازش، استخراج الگو از داده‌های بلادرنگ، و مدیریت جریان اطلاعات به معیار قدرت تبدیل شده است (Allison, 2021, p. 77)  از این رو، حکمرانی فضای مجازی دیگر بخشی حاشیه‌ای از سیاست داخلی نیست؛ لایه‌ای زیربنایی است که امنیت ملی، اقتصاد، دیپلماسی و انسجام اجتماعی را به هم پیوند می‌دهد (Bratton, 2015, pp. 35–39). دولت‌هایی که فاقد راهبرد هوش مصنوعی‌اند، نه فقط از رقابت فناورانه عقب می‌مانند؛ بلکه مقیاس و کیفیت تهدیدات علیه آن‌ها چندبرابر می‌شود، زیرا دشمن می‌تواند از داده‌های پراکنده شهروندان برای هدف‌گیری استفاده کند (Zuboff, 2019, p. 325).

چارچوب مفهومی حکمرانی هوش مصنوعی

حکمرانی چندسطحی ـ چندذینفعی

حکمرانی هوش مصنوعی نمی‌تواند صرفاً دولتی باشد؛ زیرا داده در دسترس پلتفرم‌های خصوصی، دانشگاه‌ها، استارتاپ‌ها، شبکه‌های غیردولتی و حتی کاربران فردی است. مدل بهینه، Multi-Level / Multi-Stakeholder Governance  است: سیاست (دولت)، بازار (شرکت‌ها)، جامعه (کاربران، دانشگاه‌ها)، و نظام‌های فراملی استانداردگذار. (Bratton, 2015, pp. 142–148)

چرخه سیاست‌گذاری تطبیقی

هوش مصنوعی با سرعتی توسعه می‌یابد که فرایندهای کلاسیک قانون‌گذاری عقب می‌مانند. الگوی «چرخه تطبیقی» (Adaptive Regulatory Loop)  شامل:

پایش مستمر فنی ـ تحلیل ریسک ـ مقررات موقت آزمایشی (Regulatory Sandboxes) ـ ارزیابی ـ تثبیت یا اصلاح است. (Schwab, 2016, pp. 94–99)

لایه‌های حکمرانی

می‌توان حکمرانی هوش مصنوعی را در سه لایه دید:

  • زیرساخت و استاندارد (شبکه، ذخیره‌سازی، تراشه، پروتکل امنیتی).
  • مدل و الگوریتم (قابلیت، شفافیت، ایمنی، تعصبات).
  • کاربرد و پیامد اجتماعی/نظامی (کسب‌وکار، سلامت، دفاع، اطلاعات عمومی).

این تفکیک کمک می‌کند تدابیر امنیتی و اخلاقی در محل درست اعمال شوند (Taddeo & Floridi, 2018, p. 751).

هوش مصنوعی در میدان نبرد و پشت جبهه

هوش مصنوعی جنگ را در دو جبهه هم‌زمان تغییر داده: جبهه‌ی سخت (kinetic) و جبهه‌ی نرم/شناختی (cognitive & informational).  در هر دو جبهه، داده سوخت است و الگوریتم، موتور.

کاربردهای آفندی میدانی  (Kinetic AI) [چند مثال]

  • تشخیص هدف خودکار Project Maven: وزارت دفاع آمریکا با تکیه بر یادگیری عمیق روی تصاویر پهپادی، اهداف را طبقه‌بندی می‌کند و بار تحلیل انسانی را کاهش می‌دهد (Lee, 2018, p. 139).
  • ادغام حسگر ـ شلیک: (Sensor-to-Shooter) سامانه‌های هوشمند مکان‌یاب می‌توانند زمان میان کشف هدف تا اقدام را به ثانیه کاهش دهند؛ این سرعت، مزیت تاکتیکی تعیین‌کننده ایجاد می‌کند.
  • (Singer, 2009, pp. 243–245)
  • تحلیل بلادرنگ (Real time) کلان‌داده‌ عملیاتی: سامانه‌ی Gospel نسبت‌داده‌شده به ارتش اسرائیل گزارش شده که در عملیات غزه از داده‌های متنوع (سیگنال‌های ارتباطی، تحرکات شبکه‌ای، داده‌های مکانی) برای پیشنهاد اهداف استفاده کرده است (Pagallo, 2020, p. 27).

کاربردهای پدافندی میدانی [چند مثال]

  • تشخیص نفوذ در حسگر: استفاده از AI برای کشف الگوهای غیرمعمول در ترافیک راداری یا شبکه‌های فرماندهی.
    (Allison, 2021, p. 114)
  • سامانه‌های ضدپهپاد هوشمند: ترکیب بینایی ماشین  (Machine optic)و جنگ الکترونیک برای رهگیری پهپادهای انبوه کم‌هزینه (Rid, 2020, p. 212).

پشت جبهه: جنگ شناختی و اطلاعاتی

برای مثال در جنگ اوکراین و چندین انتخابات جهانی، حساب‌های خودکار، دیپ‌فیک‌ها و الگوریتم‌های تبلیغاتی برای شکل‌دهی افکار عمومی به‌کار رفته‌اند (Rid, 2020, pp. 314–321). پروژه CrossCheck در فرانسه نشان داد که ائتلاف خبرنگاران و ابزارهای AI می‌تواند انتشار دروغ‌پراکنی سازمان‌یافته را کند کند (Zuboff, 2019, p. 333). کره‌جنوبی نیز روی سامانه‌ی ملی تشخیص دیپ‌فیک سرمایه‌گذاری کرد تا مداخله در سیاست داخلی از بیرون کاهش یابد.(Taddeo & Floridi, 2018, p. 752)

پدافند غیرعامل: اقدامات ایجابی حکمرانی

پدافند غیرعامل در عصر AI یعنی کاهش سطح حمله دشمن بدون وابستگی به پاسخ آتش مستقیم. تمرکز بر داده، معماری زیرساخت، رفتار شهروندان و تاب‌آوری شناختی است.

استقلال داده‌ای و مرز دیجیتال

چرا حیاتی است؟ زیرا الگوریتم دشمن برای هدف‌گیری دقیق، داده می‌خواهد. اگر داده‌های ترافیک شهری، عکس‌های عمومی، یا متادیتای مکانی نخبگان روی کلود بیرونی باشد، هدف‌گیری ساده می‌شود. سیاست‌های Data Localization در چین نمونه‌ای رادیکال از این رویکرد است (Allison, 2021, p. 114).

چه باید کرد:

  • الزام ذخیره‌سازی داخلی برای داده‌های حساس؛
  • طبقه‌بندی سطوح حساسیت داده (عمومی، محدود، محرمانه، راهبردی)؛
  • رمزنگاری سرتاسری با مدیریت کلید بومی؛
  • ممیزی سالانه مسیرهای داده صادراتی؛   (Zuboff, 2019, p. 351)

مدل‌های زبانی و شناختی بومی

عدم تملک LLM بومی پیامدهای امنیتی دارد: ترجمه‌های غلط امنیتی، تحلیل فرهنگی نامربوط، تولید روایت خصمانه داخلی. تجربه چین در توسعه مدل‌های Mandarin-first و پروژه‌های چندزبانه هند (Bhashini) نشان می‌دهد توسعه تدریجی ممکن است حتی با منابع محدود، اگر اولویت‌گذاری شود (Bratton, 2015, p. 185; Lee, 2018, pp. 203–205).

سوال مهم شاید این است که برای تحقق این امر چه مراحلی پیش رو است؟ پاسخ این است که منطقاً 4 مرحله:

  1. پیکره‌سازی متون معیار (دینی، حقوقی، رسانه‌ای)؛
  2. مدل‌های ترجمه عصبی بومی؛
  3. LLM  های حوزه‌محور (دفاع، سلامت، آموزش)؛
  4. لایه‌های فیلتری ارزش‌محور؛  (Taddeo & Floridi, 2018, p. 752) 

سواد داده‌ای شهروندی و دفاع شناختی جمعی

شهروندان در جنگ داده‌ای «سربازان نامرئی» هستند: هر عکس، لوکیشن، یا توییت ممکن است داده نشانه‌گذار هدف باشد. آموزش عمومی «چگونه داده دشمن را تغذیه نکنیم» باید در رسانه ملی، مدارس و پلتفرم‌ها اجباری شود.(Rid, 2020, p. 212)

موارد آموزشی: مثلاً تشخیص دیپ‌فیک، مدیریت تنظیمات حریم خصوصی، آداب انتشار آنلاین مکان، گزارش‌سازی رفتارهای مشکوک کاربرانی که احتمالا ربات بودن آن ها می رود  (Singer, 2009, pp. 338–341).

تاب‌آوری زیرساختی

شبکه‌های حیاتی (برق، آب، مخابرات نظامی) باید سناریوی «قطع اینترنت» و «نفوذ مدل بیگانه در کنترل صنعتی» را تمرین کنند. استانداردهای Red Team مبتنی بر AI می‌تواند حفره‌های ناشناخته را شناسایی کند (Schwab, 2016, p. 198).

مهار قدرت آفندی دشمن: اقدامات سلبی حکمرانی

اقدامات سلبی یعنی «کاهش ظرفیت دشمن برای بهره‌گیری از هوش مصنوعی» یا «تحریف داده‌هایی که خوراک او هستنند».

کنترل زنجیره تأمین فناوری حساس

صاحبان تکنولوژی برای کنترل دشمنانشان به محدودسازی دسترسی به ابزار و تجهیزات توجه ویژه دارند؛ برای مثال تراشه‌های پردازشگر گرافیکی، حسگرهای نظامی، نرم‌افزارهای پردازش بلادرنگ و خدمات ابری پیشرفته، عناصر حیاتی زنجیره جنگ در عصر هوش مصنوعی هستند. محدودسازی صادرات فناوری پیشرفته به بازیگران پرریسک [به زعم ایشان]، بخشی از سیاست خارجی تکنولوژیک آمریکا و متحدانش بوده است (Allison, 2021, p. 96).

عملیات داده‌ای متقابل (Data Denial & Deception)

اگر دشمن برای هدف‌گیری به داده تکیه دارد، ایجاد نویز ساختاری، داده‌های گمراه‌کننده یا فریب الگوریتمی می‌تواند دقت حملات را کاهش دهد (Singer, 2009, p. 243).

چند نمونه:

  • تولید سیگنال‌های مکانی جعلی برای حفاظت از فرماندهان.
  • تزریق الگوهای کاذب در ترافیک شبکه (decoy datasets).
  • انتشار ساختاریافته محتوای گمراه‌کننده برای منحرف کردن مدل‌های پیش‌بینی تهدید (Pagallo, 2020, p. 54).

خیانت داده‌ای معکوس  (Counter-Exfiltration)

ابزارهایی که جریان داده خروجی سازمان‌های حیاتی را رصد و رمزنگاری‌شکنی غیرمجاز را کشف می‌کنند، باید در سطح ملی پیاده شوند. سیاست‌های Data Loss Prevention (DLP) در شرکت‌های پیشرفته الگویی اولیه‌اند .(Zuboff, 2019, p. 356)

دیپلماسی سایبری، ائتلاف‌سازی و رژیم‌های کنترلی

ساخت پیمان‌های منطقه‌ای برای گزارش بلادرنگ حملات  هوش مصنوعی ـ ‌محور و ایجاد استانداردهای مشترک درباره «تسلیحات خودمختار» در دستور کار بسیاری از مجامع بین‌المللی است (Schwab, 2016, p. 223). کشورهایی که منفرد عمل می‌کنند، آسان‌تر هدف قرار می‌گیرند.

چالش‌های اخلاقی و حقوقی

هوش مصنوعی در جنگ صرفاً ابزار نیست؛ مرز میان تصمیم انسانی و محاسبه ماشینی را تیره می‌کند. بدون چارچوب اخلاقی، مشروعیت حکمرانی از دست می رود.

مرگ خودکار و مسئولیت

در صورت هدف‌گیری اشتباه یک سامانه خودمختار، مسئولیت با چه کسی است؟ طراح؟ اپراتور؟ فرمانده؟ دولت؟ بحث‌های حقوق بین‌الملل بشردوستانه (IHL) هنوز نسبت به این سناریوها به نتیجه نرسیده اند (Pagallo, 2020, pp. 61–65).

حریم خصوصی در نظارت دفاعی

دولت‌ها برای کشف تهدید ناچار به جمع‌آوری داده‌اند؛ اما نظارت فراگیر می‌تواند آزادی مدنی را تضعیف کند. طراحی «نظارت تفکیک‌پذیر» که از روش‌های ناشناس‌سازی و حریم تفاضلی استفاده کند، راه میانه‌ای است.(Zuboff, 2019, pp. 352–356)

تبعیض الگوریتمی و جنگ شناختی

مدل‌هایی که با داده‌های نامتوازن آموزش دیده‌اند، در تحلیل جوامع غیرغربی دچار خطا و تعصب می‌شوند—و ممکن است به‌غلط رفتارهای مشروع را نشانه تهدید تلقی کنند (Tufekci, 2015, pp. 207–210). این امر احتمال هدف‌گیری ناعادلانه در عملیات ضدتروریسم را افزایش می‌دهد.

نتیجه‌گیری: استعمار بی‌پرچم و مهندسی بقا

هوش مصنوعی در حال بازتعریف مفهوم استعمار است: استعمار بدون لشکرکشی، استعمار از راه مدل، داده و تفسیر. کشوری که معنای جهان را از الگوریتم بیگانه دریافت کند، دیر یا زود سیاست، فرهنگ و امنیتش نیز به بیگانه واگذار می‌شود. راه رهایی، نه نفی فناوری، بلکه تملکِ معنا از مسیر تملک داده و مدل است.

پیروزی در جنگ‌های آینده با سه شاخص سنجیده خواهد شد:

  1. چه کسی داده را مالک و محافظت می‌کند؟
  2. چه کسی معنا را تولید می‌کند؟
  3. چه کسی تصمیم را می‌گیرد؛ انسان، ماشین، یا دشمن؟

* اگر پاسخ اول و دوم در داخل مرزهای فرهنگی/سیاسی یک ملت تثبیت نشود، پاسخ سوم دیر یا زود «دشمن» خواهد بود؛ این است معنای ژئوپلیتیک سلطه در عصر هوش مصنوعی. (Allison, 2021, p. 77; Zuboff, 2019, p. 325; Bratton, 2015, p. 142.)

منابع

  • Allison, G. (2021). Destined for War: Can America and China Escape Thucydides’s Trap? Houghton Mifflin Harcourt.
  • Bratton, B. H. (2015). The Stack: On Software and Sovereignty. MIT Press.
  • Headrick, D. R. (1981). The Tools of Empire: Technology and European Imperialism in the Nineteenth Century. Oxford University Press.
  • Lee, K. F. (2018). AI Superpowers: China, Silicon Valley, and the New World Order. Houghton Mifflin Harcourt.
  • Pagallo, U. (2020). The Laws of Robots: Crimes, Contracts, and Torts. Springer.
  • Rid, T. (2020). Active Measures: The Secret History of Disinformation and Political Warfare. Farrar, Straus and Giroux.
  • Schwab, K. (2016). The Fourth Industrial Revolution. World Economic Forum.
  • Singer, P. W. (2009). Wired for War: The Robotics Revolution and Conflict in the 21st Century. Penguin.
  • Taddeo, M., & Floridi, L. (2018). How AI can be a force for good. Science, 361(6404), 751–752.
  • Tufekci, Z. (2015). Algorithmic harms beyond Facebook and Google: Emergent challenges of computational agency. Colorado Technology Law Journal, 13(1), 203–218.
  • Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.