علی الماسی زند / مدیر کارگروه حکمرانی
مقدمه: جابهجایی میدان جنگ و بازتعریف قدرت
ظهور هوش مصنوعی و اقتصاد داده، مرز کلاسیک میان «میدان نبرد» و «پشت جبهه» را فروپاشانده است. در جنگهای صنعتی، قدرت با ظرفیت تولید سلاح سنگین و تحرک میدانی سنجیده میشد؛ در جنگهای اطلاعاتی و شبکهای، توان پردازش، استخراج الگو از دادههای بلادرنگ، و مدیریت جریان اطلاعات به معیار قدرت تبدیل شده است (Allison, 2021, p. 77) از این رو، حکمرانی فضای مجازی دیگر بخشی حاشیهای از سیاست داخلی نیست؛ لایهای زیربنایی است که امنیت ملی، اقتصاد، دیپلماسی و انسجام اجتماعی را به هم پیوند میدهد (Bratton, 2015, pp. 35–39). دولتهایی که فاقد راهبرد هوش مصنوعیاند، نه فقط از رقابت فناورانه عقب میمانند؛ بلکه مقیاس و کیفیت تهدیدات علیه آنها چندبرابر میشود، زیرا دشمن میتواند از دادههای پراکنده شهروندان برای هدفگیری استفاده کند (Zuboff, 2019, p. 325).
چارچوب مفهومی حکمرانی هوش مصنوعی
حکمرانی چندسطحی ـ چندذینفعی
حکمرانی هوش مصنوعی نمیتواند صرفاً دولتی باشد؛ زیرا داده در دسترس پلتفرمهای خصوصی، دانشگاهها، استارتاپها، شبکههای غیردولتی و حتی کاربران فردی است. مدل بهینه، Multi-Level / Multi-Stakeholder Governance است: سیاست (دولت)، بازار (شرکتها)، جامعه (کاربران، دانشگاهها)، و نظامهای فراملی استانداردگذار. (Bratton, 2015, pp. 142–148)
چرخه سیاستگذاری تطبیقی
هوش مصنوعی با سرعتی توسعه مییابد که فرایندهای کلاسیک قانونگذاری عقب میمانند. الگوی «چرخه تطبیقی» (Adaptive Regulatory Loop) شامل:
پایش مستمر فنی ـ تحلیل ریسک ـ مقررات موقت آزمایشی (Regulatory Sandboxes) ـ ارزیابی ـ تثبیت یا اصلاح است. (Schwab, 2016, pp. 94–99)
لایههای حکمرانی
میتوان حکمرانی هوش مصنوعی را در سه لایه دید:
- زیرساخت و استاندارد (شبکه، ذخیرهسازی، تراشه، پروتکل امنیتی).
- مدل و الگوریتم (قابلیت، شفافیت، ایمنی، تعصبات).
- کاربرد و پیامد اجتماعی/نظامی (کسبوکار، سلامت، دفاع، اطلاعات عمومی).
این تفکیک کمک میکند تدابیر امنیتی و اخلاقی در محل درست اعمال شوند (Taddeo & Floridi, 2018, p. 751).
هوش مصنوعی در میدان نبرد و پشت جبهه
هوش مصنوعی جنگ را در دو جبهه همزمان تغییر داده: جبههی سخت (kinetic) و جبههی نرم/شناختی (cognitive & informational). در هر دو جبهه، داده سوخت است و الگوریتم، موتور.
کاربردهای آفندی میدانی (Kinetic AI) [چند مثال]
- تشخیص هدف خودکار Project Maven: وزارت دفاع آمریکا با تکیه بر یادگیری عمیق روی تصاویر پهپادی، اهداف را طبقهبندی میکند و بار تحلیل انسانی را کاهش میدهد (Lee, 2018, p. 139).
- ادغام حسگر ـ شلیک: (Sensor-to-Shooter) سامانههای هوشمند مکانیاب میتوانند زمان میان کشف هدف تا اقدام را به ثانیه کاهش دهند؛ این سرعت، مزیت تاکتیکی تعیینکننده ایجاد میکند.
- (Singer, 2009, pp. 243–245)
- تحلیل بلادرنگ (Real time) کلانداده عملیاتی: سامانهی Gospel نسبتدادهشده به ارتش اسرائیل گزارش شده که در عملیات غزه از دادههای متنوع (سیگنالهای ارتباطی، تحرکات شبکهای، دادههای مکانی) برای پیشنهاد اهداف استفاده کرده است (Pagallo, 2020, p. 27).
کاربردهای پدافندی میدانی [چند مثال]
- تشخیص نفوذ در حسگر: استفاده از AI برای کشف الگوهای غیرمعمول در ترافیک راداری یا شبکههای فرماندهی.
(Allison, 2021, p. 114) - سامانههای ضدپهپاد هوشمند: ترکیب بینایی ماشین (Machine optic)و جنگ الکترونیک برای رهگیری پهپادهای انبوه کمهزینه (Rid, 2020, p. 212).
پشت جبهه: جنگ شناختی و اطلاعاتی
برای مثال در جنگ اوکراین و چندین انتخابات جهانی، حسابهای خودکار، دیپفیکها و الگوریتمهای تبلیغاتی برای شکلدهی افکار عمومی بهکار رفتهاند (Rid, 2020, pp. 314–321). پروژه CrossCheck در فرانسه نشان داد که ائتلاف خبرنگاران و ابزارهای AI میتواند انتشار دروغپراکنی سازمانیافته را کند کند (Zuboff, 2019, p. 333). کرهجنوبی نیز روی سامانهی ملی تشخیص دیپفیک سرمایهگذاری کرد تا مداخله در سیاست داخلی از بیرون کاهش یابد.(Taddeo & Floridi, 2018, p. 752)
پدافند غیرعامل: اقدامات ایجابی حکمرانی
پدافند غیرعامل در عصر AI یعنی کاهش سطح حمله دشمن بدون وابستگی به پاسخ آتش مستقیم. تمرکز بر داده، معماری زیرساخت، رفتار شهروندان و تابآوری شناختی است.
استقلال دادهای و مرز دیجیتال
چرا حیاتی است؟ زیرا الگوریتم دشمن برای هدفگیری دقیق، داده میخواهد. اگر دادههای ترافیک شهری، عکسهای عمومی، یا متادیتای مکانی نخبگان روی کلود بیرونی باشد، هدفگیری ساده میشود. سیاستهای Data Localization در چین نمونهای رادیکال از این رویکرد است (Allison, 2021, p. 114).
چه باید کرد:
- الزام ذخیرهسازی داخلی برای دادههای حساس؛
- طبقهبندی سطوح حساسیت داده (عمومی، محدود، محرمانه، راهبردی)؛
- رمزنگاری سرتاسری با مدیریت کلید بومی؛
- ممیزی سالانه مسیرهای داده صادراتی؛ (Zuboff, 2019, p. 351)
مدلهای زبانی و شناختی بومی
عدم تملک LLM بومی پیامدهای امنیتی دارد: ترجمههای غلط امنیتی، تحلیل فرهنگی نامربوط، تولید روایت خصمانه داخلی. تجربه چین در توسعه مدلهای Mandarin-first و پروژههای چندزبانه هند (Bhashini) نشان میدهد توسعه تدریجی ممکن است حتی با منابع محدود، اگر اولویتگذاری شود (Bratton, 2015, p. 185; Lee, 2018, pp. 203–205).
سوال مهم شاید این است که برای تحقق این امر چه مراحلی پیش رو است؟ پاسخ این است که منطقاً 4 مرحله:
- پیکرهسازی متون معیار (دینی، حقوقی، رسانهای)؛
- مدلهای ترجمه عصبی بومی؛
- LLM های حوزهمحور (دفاع، سلامت، آموزش)؛
- لایههای فیلتری ارزشمحور؛ (Taddeo & Floridi, 2018, p. 752)
سواد دادهای شهروندی و دفاع شناختی جمعی
شهروندان در جنگ دادهای «سربازان نامرئی» هستند: هر عکس، لوکیشن، یا توییت ممکن است داده نشانهگذار هدف باشد. آموزش عمومی «چگونه داده دشمن را تغذیه نکنیم» باید در رسانه ملی، مدارس و پلتفرمها اجباری شود.(Rid, 2020, p. 212)
موارد آموزشی: مثلاً تشخیص دیپفیک، مدیریت تنظیمات حریم خصوصی، آداب انتشار آنلاین مکان، گزارشسازی رفتارهای مشکوک کاربرانی که احتمالا ربات بودن آن ها می رود (Singer, 2009, pp. 338–341).
تابآوری زیرساختی
شبکههای حیاتی (برق، آب، مخابرات نظامی) باید سناریوی «قطع اینترنت» و «نفوذ مدل بیگانه در کنترل صنعتی» را تمرین کنند. استانداردهای Red Team مبتنی بر AI میتواند حفرههای ناشناخته را شناسایی کند (Schwab, 2016, p. 198).
مهار قدرت آفندی دشمن: اقدامات سلبی حکمرانی
اقدامات سلبی یعنی «کاهش ظرفیت دشمن برای بهرهگیری از هوش مصنوعی» یا «تحریف دادههایی که خوراک او هستنند».
کنترل زنجیره تأمین فناوری حساس
صاحبان تکنولوژی برای کنترل دشمنانشان به محدودسازی دسترسی به ابزار و تجهیزات توجه ویژه دارند؛ برای مثال تراشههای پردازشگر گرافیکی، حسگرهای نظامی، نرمافزارهای پردازش بلادرنگ و خدمات ابری پیشرفته، عناصر حیاتی زنجیره جنگ در عصر هوش مصنوعی هستند. محدودسازی صادرات فناوری پیشرفته به بازیگران پرریسک [به زعم ایشان]، بخشی از سیاست خارجی تکنولوژیک آمریکا و متحدانش بوده است (Allison, 2021, p. 96).
عملیات دادهای متقابل (Data Denial & Deception)
اگر دشمن برای هدفگیری به داده تکیه دارد، ایجاد نویز ساختاری، دادههای گمراهکننده یا فریب الگوریتمی میتواند دقت حملات را کاهش دهد (Singer, 2009, p. 243).
چند نمونه:
- تولید سیگنالهای مکانی جعلی برای حفاظت از فرماندهان.
- تزریق الگوهای کاذب در ترافیک شبکه (decoy datasets).
- انتشار ساختاریافته محتوای گمراهکننده برای منحرف کردن مدلهای پیشبینی تهدید (Pagallo, 2020, p. 54).
خیانت دادهای معکوس (Counter-Exfiltration)
ابزارهایی که جریان داده خروجی سازمانهای حیاتی را رصد و رمزنگاریشکنی غیرمجاز را کشف میکنند، باید در سطح ملی پیاده شوند. سیاستهای Data Loss Prevention (DLP) در شرکتهای پیشرفته الگویی اولیهاند .(Zuboff, 2019, p. 356)
دیپلماسی سایبری، ائتلافسازی و رژیمهای کنترلی
ساخت پیمانهای منطقهای برای گزارش بلادرنگ حملات هوش مصنوعی ـ محور و ایجاد استانداردهای مشترک درباره «تسلیحات خودمختار» در دستور کار بسیاری از مجامع بینالمللی است (Schwab, 2016, p. 223). کشورهایی که منفرد عمل میکنند، آسانتر هدف قرار میگیرند.
چالشهای اخلاقی و حقوقی
هوش مصنوعی در جنگ صرفاً ابزار نیست؛ مرز میان تصمیم انسانی و محاسبه ماشینی را تیره میکند. بدون چارچوب اخلاقی، مشروعیت حکمرانی از دست می رود.
مرگ خودکار و مسئولیت
در صورت هدفگیری اشتباه یک سامانه خودمختار، مسئولیت با چه کسی است؟ طراح؟ اپراتور؟ فرمانده؟ دولت؟ بحثهای حقوق بینالملل بشردوستانه (IHL) هنوز نسبت به این سناریوها به نتیجه نرسیده اند (Pagallo, 2020, pp. 61–65).
حریم خصوصی در نظارت دفاعی
دولتها برای کشف تهدید ناچار به جمعآوری دادهاند؛ اما نظارت فراگیر میتواند آزادی مدنی را تضعیف کند. طراحی «نظارت تفکیکپذیر» که از روشهای ناشناسسازی و حریم تفاضلی استفاده کند، راه میانهای است.(Zuboff, 2019, pp. 352–356)
تبعیض الگوریتمی و جنگ شناختی
مدلهایی که با دادههای نامتوازن آموزش دیدهاند، در تحلیل جوامع غیرغربی دچار خطا و تعصب میشوند—و ممکن است بهغلط رفتارهای مشروع را نشانه تهدید تلقی کنند (Tufekci, 2015, pp. 207–210). این امر احتمال هدفگیری ناعادلانه در عملیات ضدتروریسم را افزایش میدهد.
نتیجهگیری: استعمار بیپرچم و مهندسی بقا
هوش مصنوعی در حال بازتعریف مفهوم استعمار است: استعمار بدون لشکرکشی، استعمار از راه مدل، داده و تفسیر. کشوری که معنای جهان را از الگوریتم بیگانه دریافت کند، دیر یا زود سیاست، فرهنگ و امنیتش نیز به بیگانه واگذار میشود. راه رهایی، نه نفی فناوری، بلکه تملکِ معنا از مسیر تملک داده و مدل است.
پیروزی در جنگهای آینده با سه شاخص سنجیده خواهد شد:
- چه کسی داده را مالک و محافظت میکند؟
- چه کسی معنا را تولید میکند؟
- چه کسی تصمیم را میگیرد؛ انسان، ماشین، یا دشمن؟
* اگر پاسخ اول و دوم در داخل مرزهای فرهنگی/سیاسی یک ملت تثبیت نشود، پاسخ سوم دیر یا زود «دشمن» خواهد بود؛ این است معنای ژئوپلیتیک سلطه در عصر هوش مصنوعی. (Allison, 2021, p. 77; Zuboff, 2019, p. 325; Bratton, 2015, p. 142.)
منابع
- Allison, G. (2021). Destined for War: Can America and China Escape Thucydides’s Trap? Houghton Mifflin Harcourt.
- Bratton, B. H. (2015). The Stack: On Software and Sovereignty. MIT Press.
- Headrick, D. R. (1981). The Tools of Empire: Technology and European Imperialism in the Nineteenth Century. Oxford University Press.
- Lee, K. F. (2018). AI Superpowers: China, Silicon Valley, and the New World Order. Houghton Mifflin Harcourt.
- Pagallo, U. (2020). The Laws of Robots: Crimes, Contracts, and Torts. Springer.
- Rid, T. (2020). Active Measures: The Secret History of Disinformation and Political Warfare. Farrar, Straus and Giroux.
- Schwab, K. (2016). The Fourth Industrial Revolution. World Economic Forum.
- Singer, P. W. (2009). Wired for War: The Robotics Revolution and Conflict in the 21st Century. Penguin.
- Taddeo, M., & Floridi, L. (2018). How AI can be a force for good. Science, 361(6404), 751–752.
- Tufekci, Z. (2015). Algorithmic harms beyond Facebook and Google: Emergent challenges of computational agency. Colorado Technology Law Journal, 13(1), 203–218.
- Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.