هوش مصنوعی، امنیت و استعمار فناورانه: از سلطه الگوریتمی تا بازسازی قدرت ملی

فهرست مطالب

علی الماسی زند/ مدیر کارگروه حکمرانی اندیشکده رستا

مقدمه: هوش مصنوعی، جنگ نوین تمدن‌ها

با گذر از قرن بیستم و ورود به دوران اطلاعات، مفهوم قدرت در روابط بین‌الملل و سیاست داخلی دستخوش تحولات اساسی شده است. اگر در گذشته قدرت یک دولت با تعداد تانک‌ها، ناوها و زرادخانه‌های هسته‌ای سنجیده می‌شد، امروز شاخص‌هایی چون ظرفیت پردازش کلان‌داده، توسعه الگوریتم‌های هوشمند، و توان تولید پلتفرم‌های مستقل نرم‌افزاری، به معیارهای تازه‌ای برای ارزیابی قدرت ملی بدل شده‌اند . (Allison, 2021, p. 77) در این میان، هوش مصنوعی دیگر یک فناوری صرف نیست، بلکه به تعبیری می‌توان آن را زبانِ قدرت در قرن بیست‌و‌یکم دانست؛ زبانی که اگر کشوری به آن سخن نگوید، محکوم به خاموشی و وابستگی است.

همان‌گونه که در عصر استعمار کلاسیک، کشورهای فاقد قدرت صنعتی به مستعمره‌ی کشورهای صنعتی بدل می‌شدند، در عصر هوش مصنوعی نیز دولت‌هایی که فاقد زیرساخت‌های داده‌ای و سامانه‌های بومی تحلیل و پردازش اطلاعات هستند، در معرض نوعی «استعمار شناختی» قرار گرفته‌اند.(Bratton, 2015, p. 142)  نوشتار حاضر به تحلیل این استعمار جدید می‌پردازد؛ استعماری که بدون لشکرکشی، از راه کدنویسی، زبان‌های ماشینی، و داده‌های رفتاری، ساحت‌های گوناگون زیست انسانی را تسخیر می‌کند.

هوش مصنوعی به‌مثابه یک مسئله امنیتی ـ تمدنی

تحول در تعریف امنیت: از مرزهای سرزمینی تا مرزهای شناختی

در نظم کلاسیک وستفالیایی، امنیت ملی بیش از هر چیز به کنترل مرزهای جغرافیایی و انحصار مشروعیت در کاربرد خشونت مربوط می‌شد. اما با ظهور فضای مجازی، کلان‌داده و پلتفرم‌های ارتباطی، مرزهای امنیتی از «سرزمین» به «ذهن» منتقل شده‌اند. امنیت امروز دیگر تنها به معنای دفاع در برابر تجاوز خارجی نیست، بلکه به معنای حفظ استقلال شناختی، فرهنگی و داده‌ای جامعه است (Zuboff, 2019, p. 325).

هوش مصنوعی با قدرت تحلیل پیش‌بینی‌گر خود، توانایی نفوذ به عمیق‌ترین لایه‌های رفتار انسانی را دارد. الگوریتم‌ها می‌توانند از روی الگوهای رفتاری کاربران، گرایش‌های سیاسی، تعلقات دینی، ضعف‌های روانی و اولویت‌های اقتصادی‌شان را استخراج کرده و آن‌ها را هدف حملات اطلاعاتی، تبلیغاتی یا حتی نظامی قرار دهند  (Taddeo & Floridi, 2018, p751) در این فضا، امنیت دیگر صرفاً فیزیکی نیست؛ بلکه شناختی، رفتاری، و گفتمانی است.

نظامی‌شدن هوش مصنوعی:

 از تحلیل داده تا طراحی حمله کاربردهای نظامی هوش مصنوعی به شکل بی‌سابقه‌ای در حال گسترش است. ایالات متحده، چین، اسرائیل و روسیه از AI برای شناسایی اهداف، هدایت پهپادها، تحلیل تصاویر ماهواره‌ای، تخمین حرکات دشمن، و حتی صدور فرمان حمله استفاده می‌کنند. در پروژه‌ای چون Project Maven وزارت دفاع آمریکا، الگوریتم‌های یادگیری عمیق تصاویر پهپادی را پردازش کرده و به‌صورت خودکار، افراد یا تجهیزات مشکوک را شناسایی و طبقه‌بندی می‌کنند. (Lee, 2018, p. 139)

در نمونه‌ای دیگر، ارتش اسرائیل در عملیات‌های اخیر غزه، از سامانه‌ای موسوم به Gospel استفاده کرد که با تحلیل بلادرنگ داده‌های اجتماعی، مکانی و ارتباطی، اهداف حمله را به‌طور خودکار پیشنهاد می‌کرد (Pagallo, 2020, p. 27).  این نمونه‌ها نشان می‌دهند که هوش مصنوعی اکنون بخشی جدایی‌ناپذیر از ساختار آفندی قدرت نظامی شده است.

هوش مصنوعی، زیرساخت اقتصاد و نظم جهانی در آینده است اما مسئله تنها نظامی نخواهد ماند. بسیاری از تحلیل‌گران متفق‌اند که کشورهایی که امروز در تولید و هدایت هوش مصنوعی پیشتاز اند، در دهه‌های آینده کنترل اقتصاد جهانی، آموزش، سلامت و حتی روابط دیپلماتیک را نیز در دست خواهند داشت (Schwab, 2016, p. 198). هوش مصنوعی در حال تبدیل شدن به موتور اصلی انقلاب صنعتی چهارم است؛ و از آن‌جا که قدرت اقتصادی و ژئوپلیتیکی همیشه بر فناوری استوار بوده، می‌توان گفت کشورهایی که از این رقابت عقب بمانند، دیر یا زود در معرض انواعی از سلطه قرار خواهند گرفت.

استعمار فناورانه: از سلطه نظامی تا سلطه الگوریتمی

بازخوانی استعمار کلاسیک و پیوند آن با وابستگی فناورانه در قرن نوزدهم:

 استعمار عمدتاً به‌واسطه‌ی تسلط نظامی و صنعتی اروپا بر کشورهای جهان سوم تحقق یافت. کشورهای فاقد تکنولوژی راه‌آهن، ماشین‌آلات، یا برق ناچار بودند برای مدرن‌سازی به قدرت‌های صنعتی غربی متوسل شوند. این نیاز، بهانه‌ای برای حضور نظامی، سیطره سیاسی، و نفوذ فرهنگی غرب شد (Headrick, 1981, p. 59).

امروز نیز الگویی مشابه در حال بازتولید است؛ با این تفاوت که استعمار نوین نه با توپ و تانک، بلکه از طریق پروتکل‌ها، زبان‌های برنامه‌نویسی، و مدل‌های زبانی هوش مصنوعی انجام می‌گیرد. کشورهایی که فاقد سیستم‌های بومی برای تحلیل داده، ساخت مدل زبانی، یا طراحی پلتفرم‌های هوشمند هستند، وابسته به شرکت‌ها و دولت‌هایی می‌شوند که این فناوری‌ها را در اختیار دارند.

وابستگی داده‌ای:

 زیربنای استعمار شناختی نرم‌افزارهایی مانند  Google Bard، ChatGPT، Claude   یا LLaMA  همه بر بستر داده‌های رفتاری، فرهنگی و زبانی جوامع غربی توسعه یافته‌اند. الگوریتم‌های آن‌ها، حتی در هنگام ارائه پاسخ به پرسش‌های بومی، از ساختارهای تفسیری خاصی استفاده می‌کنند که ریشه در جهان‌نگری غربی دارد. استفاده از این مدل‌ها توسط کشورهایی که خود فاقد نسخه‌های بومی‌اند، به‌تدریج موجب تغییر در نظام معنایی و فرهنگی آن کشورها می‌شود (Bratton, 2015, p. 183)

این فرآیند، همان چیزی است که استعمار الگوریتمی نامیده می‌شود؛ وابستگی شناختی به ماشین‌هایی که معنای جهان را با داده‌هایی از یک تمدن دیگر می‌سازند. استعمار الگوریتمی، برخلاف استعمار کلاسیک، نیازی به پرچم، ارتش یا نیروی نظامی ندارد؛ بلکه با هر کلیک یا تایپ هر واژه، خود را بازتولید می‌کند (Zuboff, 2019, p. 328).

جنگ نرم شناختی:

 قدرت بی‌صدا و موثر هوش مصنوعی همچنین می‌تواند به ابزاری مؤثر در جنگ نرم تبدیل شود. الگوریتم‌ها می‌توانند از طریق تبلیغات هدفمند، پیشنهادات شخصی‌سازی‌شده، و دستکاری پنهان در اولویت‌های شناختی کاربران، افکار عمومی را شکل دهند یا منحرف کنند (Tufekci, 2015, p. 207). در این وضعیت، دیگر نه تنها دولت‌ها بلکه افراد نیز هدف حملات هوشمند قرار می‌گیرند و بدون آنکه خود آگاه باشند، به ابزار مصرف و بازتولید یک نظم بیگانه بدل می‌شوند.

دو راه پیش‌روی دولت‌ها: اتصال یا استقلال

چالش انتخاب:

 تنها دو قطب در جهان توانایی تولید و مدیریت هوش مصنوعی در مقیاس جهانی را دارند: ایالات متحده آمریکا و جمهوری خلق چین. هر دو کشور، زیرساخت‌های کلان داده، ابررایانه‌ها، تیم‌های پژوهشی، و شبکه‌های عظیم صنعتی لازم برای توسعه آن را در اختیار دارند (Lee, 2018, p. 209).

کشورهایی که فاقد ظرفیت‌های بومی در این زمینه هستند، ناچار به حرکت در یکی از دو راه زیر خواهند بود:

1.  اتصال به یکی از این دو قدرت و پذیرش الزامات سیاسی، حقوقی، اقتصادی و اطلاعاتی آن؛

2.  حرکت به سوی استقلال تدریجی در تولید، مدیریت و کنترل AI.

راه اول، هرچند در ظاهر آسان‌تر و کم‌هزینه‌تر است، اما در عمل نوعی واگذاری حاکمیت دیجیتال و ورود به نظم جهانی‌ای است که در آن تصمیم‌گیری درباره سرنوشت داده‌ها، زبان، امنیت و هویت، در جای دیگری انجام می‌شود. (Allison, 2021, p. 96)  و راه دوم نیز به نظر می رسد که تنها بر روی کاغذ امکان تحقق دارد!

مسئله زبان و ساختارهای زبانی مستقل

یکی از حساس‌ترین لایه‌های وابستگی در هوش مصنوعی، زبان است. مدل‌های زبانی هوش مصنوعی بر اساس توزیع آماری واژگان، نحو، معناشناسی و زمینه‌های اجتماعی آموزش می‌بینند. زبانی که مبنای آموزش این مدل‌ها قرار می‌گیرد، به‌طور مستقیم بر ساختار فکر، معنا، و روایت تأثیر می‌گذارد (Pagallo, 2020, p. 40).

در نبود مدل زبانی بومی، هر پاسخ تولیدشده در چت‌بات‌ها یا سامانه‌های هوشمند، حاوی اثرات فرهنگی و ایدئولوژیک زبان اصلی خواهد بود. بنابراین، عدم تولید  LLMهای بومی برای زبان‌های غیربزرگ (از جمله فارسی، اردو، عربی، و…) به معنای تن دادن به ساختار فکری امریکایی یا چینی است.

پروژه بومی‌سازی، ضرورتی راهبردی

استقلال در عصر هوش مصنوعی، بدون پروژه‌ای راهبردی برای بومی‌سازی امکان‌پذیر نیست. این پروژه باید شامل پنج مؤلفه بنیادین باشد:

  • داده‌سازی فرهنگی: جمع‌آوری، پاک‌سازی و ساختاردهی داده‌های بومی در حوزه‌های زبان، فرهنگ، دین، تاریخ، و علوم انسانی؛
  • زیرساخت سخت‌افزاری و نرم‌افزاری: از جمله GPUهای بومی، دیتاسنترهای مستقل، و سیستم‌عامل‌های مقاوم؛ الگوی اخلاقی مستقل در AI مبتنی بر هنجارهای دینی و تمدنی نه صرفاً اصول لیبرال؛
  • چارچوب حقوقی ویژه: برای حفاظت از داده‌های شهروندان، تنظیم رابطه انسان و ماشین، و تبیین حقوق معنوی جامعه؛
  • سرمایه‌گذاری گسترده آموزشی: در سطح دانشگاه‌ها، مدارس، و آموزش عمومی؛ برای ایجاد سواد هوش مصنوعی؛ (Schwab, 2016, p. 223)

مؤلفه‌های استقلال فناورانه در عصر استعمار الگوریتمی

استقلال داده‌ای:

سنگ بنای حاکمیت دیجیتال نخستین و بنیادی‌ترین گام برای استقلال در حوزه هوش مصنوعی، مالکیت داده و زیرساخت داده‌ای مستقل است. کشوری که داده‌های خام رفتاری، زبانی، اجتماعی و فرهنگی‌اش را بر روی پلتفرم‌های بیگانه انباشت می‌کند، در واقع ثروت ملی آینده‌اش را به دیگران می‌سپارد. از این‌رو، ساختارهایی چون دیتاسنترهای بومی، سامانه‌های کلود مستقل، و سیاست‌های داده‌محور ملی باید در اولویت راهبردهای حکمرانی قرار گیرد (Zuboff, 2019, p. 351).

دولت‌ها باید سیاست‌هایی برای حفظ داده در داخل مرزها، جلوگیری از نشت داده از طریق اپلیکیشن‌های خارجی، و طراحی معماری ذخیره‌سازی ایمن اتخاذ کنند. همان‌طور که در چین، تمامی شرکت‌های فناوری موظف به ذخیره داده در داخل کشور و ارائه کلید رمز به دولت مرکزی هستند، سایر کشورها نیز ناگزیر از بازتعریف مفهوم «مرز دیجیتال» اند. (Allison, 2021, p. 114)

ساخت مدل‌های زبانی بومی:

 از ابزار تا معنا هوش مصنوعی زبانی، امروز در قلب سامانه‌های مشاوره، آموزش، سلامت، دین، و حتی قضاوت نشسته است. اگر مدل زبانی (LLM) یک جامعه، بر اساس ساختارهای فرهنگی و زبانی بیگانه آموزش دیده باشد، در عمل هر تصمیم، معنا، یا استنباط، فرآورده‌ی نگاه دیگری خواهد بود. بنابراین، کشورهایی که خواهان حاکمیت معنایی و معرفتی مستقل هستند، باید دست به توسعه مدل‌های زبانی خاص خود بزنند.

نیازمندی های این پروژه عبارت است از: گردآوری و پاک‌سازی متون اصیل در حوزه دین، تاریخ، ادب، عرفان، حقوق و فلسفه؛ استفاده از زبان‌های بومی و لهجه‌های محلی؛ تربیت متخصصان زبان‌شناسی رایانشی، فلسفه زبان، معناشناسی و علوم رایانه؛ است (Bratton, 2015, p. 185).

الگوریتم اخلاقی:

در بسیاری از کشورهای غیرغربی، ارزش‌ها، نظام‌های معنایی و اصول اخلاقی با آنچه در نظام سرمایه‌داری غربی وجود دارد، تفاوت ماهوی دارد. الگوریتم‌هایی که در غرب توسعه یافته‌اند، مبتنی بر نفع فردی، تساهل معرفتی، نسبی‌گرایی اخلاقی و عقلانیت ابزارمندند (Taddeo & Floridi,  2018, p. 752).  به همین دلیل، هوش مصنوعی غربی، در بسیاری از زمینه‌های حیاتی مانند مشاوره اخلاقی، تحلیل حقوقی یا مسائل دینی، برای جوامع دیگر نه تنها ناکارآمد، بلکه گهگاه مخرب است.

بنابراین، کشورهایی که به استقلال فکری باور دارند، باید به سمت تدوین الگوی اخلاقی خاص در هوش مصنوعی حرکت کنند؛ مدلی که در آن:

  • کرامت انسان مقدم بر کارایی باشد؛
  • مسئولیت‌پذیری الگوریتمی تعریف شود؛
  • و خطوط قرمز ارزشی (مانند حریم خصوصی، شئون دینی و اخلاقی یا عدالت اجتماعی) به الگوریتم‌ها آموزش داده شود.

چارچوب حقوقی و حکمرانی هوش مصنوعی:

همزمان با توسعه هوش مصنوعی، باید ساختار حقوقی مقتدر و متعادل برای تنظیم روابط انسان ـ ماشین طراحی شود. این چارچوب باید به پرسش‌هایی چون مالکیت داده، مسئولیت تصمیمات الگوریتمی، امکان اقامه دعوی بر ضد الگوریتم، حق انسان در توضیح‌پذیری[1] و نیز رابطه دولت با شرکت‌های توسعه‌دهنده پاسخ دهد. (Pagallo, 2020, p. 61)

همچنین در سطح حکمرانی کلان، نهادهایی مستقل باید مسئول نظارت اخلاقی، شفافیت الگوریتمی، و جلوگیری از تمرکزگرایی قدرت در دست شرکت‌های فناوری باشند؛ چرا که سلطه  هوش مصنوعی، در غیاب نظارت عمومی، می‌تواند به گونه‌ای از استبداد الگوریتمی بیانجامد.

نتیجه‌گیری: استعمار بدون لشکرکشی و رسالت حکمرانی در قرن بیست‌و‌یکم

 آن‌چه در این نوشتار مورد بحث قرار گرفت، از یک فرض ساده و در عین حال رادیکال آغاز شد: هوش مصنوعی صرفاً فناوری نیست، بلکه ساختار قدرت است. در چنین ساختاری، یا باید به زبان AI سخن گفت، یا ناچار باید به ترجمه و تفسیر دیگران گوش سپرد. دیگر، لزومی به لشکرکشی یا اشغال سرزمین نیست؛ هر گوشی هوشمند، هر اپلیکیشن وارداتی، و هر مدل زبانی بیگانه، می‌تواند حامل سلطه‌ای نرم و عمیق باشد که ذهن و معنا را نشانه رفته است. برای فرار از این استعمار، کشورها باید به هوشیاری، جسارت و صبر راهبردی دست یابند:

  • هوشیاری در تشخیص میدان نبرد؛
  • جسارت در تصمیم به استقلال؛
  • و صبر در ساخت زیرساخت‌های مستقل.

بدون این‌ها، جهانی‌شدن برای جوامع توسعه‌نیافته، چیزی جز زیر سلطه ی جهانی قرار گرفتن نخواهد بود.

هوش مصنوعی امروز، همان کاری را با تمدن‌ها می‌کند که استعمار دیروز با خاک و منابع کرد. اگر راهی برای استقلال معرفتی، امنیت شناختی، و اقتصاد معناشناختی نیابیم، شاید دیگر حتی «امکان پرسیدن» را نیز از ما سلب کنند.

منابع

o          Allison, G. (2021). Destined for War: Can America and China Escape Thucydides’s Trap? Houghton Mifflin Harcourt.

o          Bratton, B. H. (2015). The Stack: On Software and Sovereignty. MIT Press

o          Headrick, D. R. (1981). The Tools of Empire: Technology and European Imperialism in the Nineteenth Century. Oxford University Press.

o          Lee, K. F. (2018). AI Superpowers: China, Silicon Valley, and the New World Order. Houghton Mifflin Harcourt.

o          Pagallo, U. (2020). The Laws of Robots: Crimes, Contracts, and Torts. Springer

o          Schwab, K. (2016). The Fourth Industrial Revolution. World Economic Forum

o          Taddeo, M., & Floridi, L. (2018). How AI can be a force for good. Science, 361(6404), 751-752

o          Tufekci, Z. (2015). Algorithmic harms beyond Facebook and Google: Emergent challenges of computational agency. Colorado Technology Law Journal, 13(1), 203-218.

o          Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs


[1] right to explanation