علی الماسی زند/ مدیر کارگروه حکمرانی اندیشکده رستا
مقدمه: هوش مصنوعی، جنگ نوین تمدنها
با گذر از قرن بیستم و ورود به دوران اطلاعات، مفهوم قدرت در روابط بینالملل و سیاست داخلی دستخوش تحولات اساسی شده است. اگر در گذشته قدرت یک دولت با تعداد تانکها، ناوها و زرادخانههای هستهای سنجیده میشد، امروز شاخصهایی چون ظرفیت پردازش کلانداده، توسعه الگوریتمهای هوشمند، و توان تولید پلتفرمهای مستقل نرمافزاری، به معیارهای تازهای برای ارزیابی قدرت ملی بدل شدهاند . (Allison, 2021, p. 77) در این میان، هوش مصنوعی دیگر یک فناوری صرف نیست، بلکه به تعبیری میتوان آن را زبانِ قدرت در قرن بیستویکم دانست؛ زبانی که اگر کشوری به آن سخن نگوید، محکوم به خاموشی و وابستگی است.
همانگونه که در عصر استعمار کلاسیک، کشورهای فاقد قدرت صنعتی به مستعمرهی کشورهای صنعتی بدل میشدند، در عصر هوش مصنوعی نیز دولتهایی که فاقد زیرساختهای دادهای و سامانههای بومی تحلیل و پردازش اطلاعات هستند، در معرض نوعی «استعمار شناختی» قرار گرفتهاند.(Bratton, 2015, p. 142) نوشتار حاضر به تحلیل این استعمار جدید میپردازد؛ استعماری که بدون لشکرکشی، از راه کدنویسی، زبانهای ماشینی، و دادههای رفتاری، ساحتهای گوناگون زیست انسانی را تسخیر میکند.
هوش مصنوعی بهمثابه یک مسئله امنیتی ـ تمدنی
تحول در تعریف امنیت: از مرزهای سرزمینی تا مرزهای شناختی
در نظم کلاسیک وستفالیایی، امنیت ملی بیش از هر چیز به کنترل مرزهای جغرافیایی و انحصار مشروعیت در کاربرد خشونت مربوط میشد. اما با ظهور فضای مجازی، کلانداده و پلتفرمهای ارتباطی، مرزهای امنیتی از «سرزمین» به «ذهن» منتقل شدهاند. امنیت امروز دیگر تنها به معنای دفاع در برابر تجاوز خارجی نیست، بلکه به معنای حفظ استقلال شناختی، فرهنگی و دادهای جامعه است (Zuboff, 2019, p. 325).
هوش مصنوعی با قدرت تحلیل پیشبینیگر خود، توانایی نفوذ به عمیقترین لایههای رفتار انسانی را دارد. الگوریتمها میتوانند از روی الگوهای رفتاری کاربران، گرایشهای سیاسی، تعلقات دینی، ضعفهای روانی و اولویتهای اقتصادیشان را استخراج کرده و آنها را هدف حملات اطلاعاتی، تبلیغاتی یا حتی نظامی قرار دهند (Taddeo & Floridi, 2018, p751) در این فضا، امنیت دیگر صرفاً فیزیکی نیست؛ بلکه شناختی، رفتاری، و گفتمانی است.
نظامیشدن هوش مصنوعی:
از تحلیل داده تا طراحی حمله کاربردهای نظامی هوش مصنوعی به شکل بیسابقهای در حال گسترش است. ایالات متحده، چین، اسرائیل و روسیه از AI برای شناسایی اهداف، هدایت پهپادها، تحلیل تصاویر ماهوارهای، تخمین حرکات دشمن، و حتی صدور فرمان حمله استفاده میکنند. در پروژهای چون Project Maven وزارت دفاع آمریکا، الگوریتمهای یادگیری عمیق تصاویر پهپادی را پردازش کرده و بهصورت خودکار، افراد یا تجهیزات مشکوک را شناسایی و طبقهبندی میکنند. (Lee, 2018, p. 139)
در نمونهای دیگر، ارتش اسرائیل در عملیاتهای اخیر غزه، از سامانهای موسوم به Gospel استفاده کرد که با تحلیل بلادرنگ دادههای اجتماعی، مکانی و ارتباطی، اهداف حمله را بهطور خودکار پیشنهاد میکرد (Pagallo, 2020, p. 27). این نمونهها نشان میدهند که هوش مصنوعی اکنون بخشی جداییناپذیر از ساختار آفندی قدرت نظامی شده است.
هوش مصنوعی، زیرساخت اقتصاد و نظم جهانی در آینده است اما مسئله تنها نظامی نخواهد ماند. بسیاری از تحلیلگران متفقاند که کشورهایی که امروز در تولید و هدایت هوش مصنوعی پیشتاز اند، در دهههای آینده کنترل اقتصاد جهانی، آموزش، سلامت و حتی روابط دیپلماتیک را نیز در دست خواهند داشت (Schwab, 2016, p. 198). هوش مصنوعی در حال تبدیل شدن به موتور اصلی انقلاب صنعتی چهارم است؛ و از آنجا که قدرت اقتصادی و ژئوپلیتیکی همیشه بر فناوری استوار بوده، میتوان گفت کشورهایی که از این رقابت عقب بمانند، دیر یا زود در معرض انواعی از سلطه قرار خواهند گرفت.
استعمار فناورانه: از سلطه نظامی تا سلطه الگوریتمی
بازخوانی استعمار کلاسیک و پیوند آن با وابستگی فناورانه در قرن نوزدهم:
استعمار عمدتاً بهواسطهی تسلط نظامی و صنعتی اروپا بر کشورهای جهان سوم تحقق یافت. کشورهای فاقد تکنولوژی راهآهن، ماشینآلات، یا برق ناچار بودند برای مدرنسازی به قدرتهای صنعتی غربی متوسل شوند. این نیاز، بهانهای برای حضور نظامی، سیطره سیاسی، و نفوذ فرهنگی غرب شد (Headrick, 1981, p. 59).
امروز نیز الگویی مشابه در حال بازتولید است؛ با این تفاوت که استعمار نوین نه با توپ و تانک، بلکه از طریق پروتکلها، زبانهای برنامهنویسی، و مدلهای زبانی هوش مصنوعی انجام میگیرد. کشورهایی که فاقد سیستمهای بومی برای تحلیل داده، ساخت مدل زبانی، یا طراحی پلتفرمهای هوشمند هستند، وابسته به شرکتها و دولتهایی میشوند که این فناوریها را در اختیار دارند.
وابستگی دادهای:
زیربنای استعمار شناختی نرمافزارهایی مانند Google Bard، ChatGPT، Claude یا LLaMA همه بر بستر دادههای رفتاری، فرهنگی و زبانی جوامع غربی توسعه یافتهاند. الگوریتمهای آنها، حتی در هنگام ارائه پاسخ به پرسشهای بومی، از ساختارهای تفسیری خاصی استفاده میکنند که ریشه در جهاننگری غربی دارد. استفاده از این مدلها توسط کشورهایی که خود فاقد نسخههای بومیاند، بهتدریج موجب تغییر در نظام معنایی و فرهنگی آن کشورها میشود (Bratton, 2015, p. 183)
این فرآیند، همان چیزی است که استعمار الگوریتمی نامیده میشود؛ وابستگی شناختی به ماشینهایی که معنای جهان را با دادههایی از یک تمدن دیگر میسازند. استعمار الگوریتمی، برخلاف استعمار کلاسیک، نیازی به پرچم، ارتش یا نیروی نظامی ندارد؛ بلکه با هر کلیک یا تایپ هر واژه، خود را بازتولید میکند (Zuboff, 2019, p. 328).
جنگ نرم شناختی:
قدرت بیصدا و موثر هوش مصنوعی همچنین میتواند به ابزاری مؤثر در جنگ نرم تبدیل شود. الگوریتمها میتوانند از طریق تبلیغات هدفمند، پیشنهادات شخصیسازیشده، و دستکاری پنهان در اولویتهای شناختی کاربران، افکار عمومی را شکل دهند یا منحرف کنند (Tufekci, 2015, p. 207). در این وضعیت، دیگر نه تنها دولتها بلکه افراد نیز هدف حملات هوشمند قرار میگیرند و بدون آنکه خود آگاه باشند، به ابزار مصرف و بازتولید یک نظم بیگانه بدل میشوند.
دو راه پیشروی دولتها: اتصال یا استقلال
چالش انتخاب:
تنها دو قطب در جهان توانایی تولید و مدیریت هوش مصنوعی در مقیاس جهانی را دارند: ایالات متحده آمریکا و جمهوری خلق چین. هر دو کشور، زیرساختهای کلان داده، ابررایانهها، تیمهای پژوهشی، و شبکههای عظیم صنعتی لازم برای توسعه آن را در اختیار دارند (Lee, 2018, p. 209).
کشورهایی که فاقد ظرفیتهای بومی در این زمینه هستند، ناچار به حرکت در یکی از دو راه زیر خواهند بود:
1. اتصال به یکی از این دو قدرت و پذیرش الزامات سیاسی، حقوقی، اقتصادی و اطلاعاتی آن؛
2. حرکت به سوی استقلال تدریجی در تولید، مدیریت و کنترل AI.
راه اول، هرچند در ظاهر آسانتر و کمهزینهتر است، اما در عمل نوعی واگذاری حاکمیت دیجیتال و ورود به نظم جهانیای است که در آن تصمیمگیری درباره سرنوشت دادهها، زبان، امنیت و هویت، در جای دیگری انجام میشود. (Allison, 2021, p. 96) و راه دوم نیز به نظر می رسد که تنها بر روی کاغذ امکان تحقق دارد!
مسئله زبان و ساختارهای زبانی مستقل
یکی از حساسترین لایههای وابستگی در هوش مصنوعی، زبان است. مدلهای زبانی هوش مصنوعی بر اساس توزیع آماری واژگان، نحو، معناشناسی و زمینههای اجتماعی آموزش میبینند. زبانی که مبنای آموزش این مدلها قرار میگیرد، بهطور مستقیم بر ساختار فکر، معنا، و روایت تأثیر میگذارد (Pagallo, 2020, p. 40).
در نبود مدل زبانی بومی، هر پاسخ تولیدشده در چتباتها یا سامانههای هوشمند، حاوی اثرات فرهنگی و ایدئولوژیک زبان اصلی خواهد بود. بنابراین، عدم تولید LLMهای بومی برای زبانهای غیربزرگ (از جمله فارسی، اردو، عربی، و…) به معنای تن دادن به ساختار فکری امریکایی یا چینی است.
پروژه بومیسازی، ضرورتی راهبردی
استقلال در عصر هوش مصنوعی، بدون پروژهای راهبردی برای بومیسازی امکانپذیر نیست. این پروژه باید شامل پنج مؤلفه بنیادین باشد:
- دادهسازی فرهنگی: جمعآوری، پاکسازی و ساختاردهی دادههای بومی در حوزههای زبان، فرهنگ، دین، تاریخ، و علوم انسانی؛
- زیرساخت سختافزاری و نرمافزاری: از جمله GPUهای بومی، دیتاسنترهای مستقل، و سیستمعاملهای مقاوم؛ الگوی اخلاقی مستقل در AI مبتنی بر هنجارهای دینی و تمدنی نه صرفاً اصول لیبرال؛
- چارچوب حقوقی ویژه: برای حفاظت از دادههای شهروندان، تنظیم رابطه انسان و ماشین، و تبیین حقوق معنوی جامعه؛
- سرمایهگذاری گسترده آموزشی: در سطح دانشگاهها، مدارس، و آموزش عمومی؛ برای ایجاد سواد هوش مصنوعی؛ (Schwab, 2016, p. 223)
مؤلفههای استقلال فناورانه در عصر استعمار الگوریتمی
استقلال دادهای:
سنگ بنای حاکمیت دیجیتال نخستین و بنیادیترین گام برای استقلال در حوزه هوش مصنوعی، مالکیت داده و زیرساخت دادهای مستقل است. کشوری که دادههای خام رفتاری، زبانی، اجتماعی و فرهنگیاش را بر روی پلتفرمهای بیگانه انباشت میکند، در واقع ثروت ملی آیندهاش را به دیگران میسپارد. از اینرو، ساختارهایی چون دیتاسنترهای بومی، سامانههای کلود مستقل، و سیاستهای دادهمحور ملی باید در اولویت راهبردهای حکمرانی قرار گیرد (Zuboff, 2019, p. 351).
دولتها باید سیاستهایی برای حفظ داده در داخل مرزها، جلوگیری از نشت داده از طریق اپلیکیشنهای خارجی، و طراحی معماری ذخیرهسازی ایمن اتخاذ کنند. همانطور که در چین، تمامی شرکتهای فناوری موظف به ذخیره داده در داخل کشور و ارائه کلید رمز به دولت مرکزی هستند، سایر کشورها نیز ناگزیر از بازتعریف مفهوم «مرز دیجیتال» اند. (Allison, 2021, p. 114)
ساخت مدلهای زبانی بومی:
از ابزار تا معنا هوش مصنوعی زبانی، امروز در قلب سامانههای مشاوره، آموزش، سلامت، دین، و حتی قضاوت نشسته است. اگر مدل زبانی (LLM) یک جامعه، بر اساس ساختارهای فرهنگی و زبانی بیگانه آموزش دیده باشد، در عمل هر تصمیم، معنا، یا استنباط، فرآوردهی نگاه دیگری خواهد بود. بنابراین، کشورهایی که خواهان حاکمیت معنایی و معرفتی مستقل هستند، باید دست به توسعه مدلهای زبانی خاص خود بزنند.
نیازمندی های این پروژه عبارت است از: گردآوری و پاکسازی متون اصیل در حوزه دین، تاریخ، ادب، عرفان، حقوق و فلسفه؛ استفاده از زبانهای بومی و لهجههای محلی؛ تربیت متخصصان زبانشناسی رایانشی، فلسفه زبان، معناشناسی و علوم رایانه؛ است (Bratton, 2015, p. 185).
الگوریتم اخلاقی:
در بسیاری از کشورهای غیرغربی، ارزشها، نظامهای معنایی و اصول اخلاقی با آنچه در نظام سرمایهداری غربی وجود دارد، تفاوت ماهوی دارد. الگوریتمهایی که در غرب توسعه یافتهاند، مبتنی بر نفع فردی، تساهل معرفتی، نسبیگرایی اخلاقی و عقلانیت ابزارمندند (Taddeo & Floridi, 2018, p. 752). به همین دلیل، هوش مصنوعی غربی، در بسیاری از زمینههای حیاتی مانند مشاوره اخلاقی، تحلیل حقوقی یا مسائل دینی، برای جوامع دیگر نه تنها ناکارآمد، بلکه گهگاه مخرب است.
بنابراین، کشورهایی که به استقلال فکری باور دارند، باید به سمت تدوین الگوی اخلاقی خاص در هوش مصنوعی حرکت کنند؛ مدلی که در آن:
- کرامت انسان مقدم بر کارایی باشد؛
- مسئولیتپذیری الگوریتمی تعریف شود؛
- و خطوط قرمز ارزشی (مانند حریم خصوصی، شئون دینی و اخلاقی یا عدالت اجتماعی) به الگوریتمها آموزش داده شود.
چارچوب حقوقی و حکمرانی هوش مصنوعی:
همزمان با توسعه هوش مصنوعی، باید ساختار حقوقی مقتدر و متعادل برای تنظیم روابط انسان ـ ماشین طراحی شود. این چارچوب باید به پرسشهایی چون مالکیت داده، مسئولیت تصمیمات الگوریتمی، امکان اقامه دعوی بر ضد الگوریتم، حق انسان در توضیحپذیری[1] و نیز رابطه دولت با شرکتهای توسعهدهنده پاسخ دهد. (Pagallo, 2020, p. 61)
همچنین در سطح حکمرانی کلان، نهادهایی مستقل باید مسئول نظارت اخلاقی، شفافیت الگوریتمی، و جلوگیری از تمرکزگرایی قدرت در دست شرکتهای فناوری باشند؛ چرا که سلطه هوش مصنوعی، در غیاب نظارت عمومی، میتواند به گونهای از استبداد الگوریتمی بیانجامد.
نتیجهگیری: استعمار بدون لشکرکشی و رسالت حکمرانی در قرن بیستویکم
آنچه در این نوشتار مورد بحث قرار گرفت، از یک فرض ساده و در عین حال رادیکال آغاز شد: هوش مصنوعی صرفاً فناوری نیست، بلکه ساختار قدرت است. در چنین ساختاری، یا باید به زبان AI سخن گفت، یا ناچار باید به ترجمه و تفسیر دیگران گوش سپرد. دیگر، لزومی به لشکرکشی یا اشغال سرزمین نیست؛ هر گوشی هوشمند، هر اپلیکیشن وارداتی، و هر مدل زبانی بیگانه، میتواند حامل سلطهای نرم و عمیق باشد که ذهن و معنا را نشانه رفته است. برای فرار از این استعمار، کشورها باید به هوشیاری، جسارت و صبر راهبردی دست یابند:
- هوشیاری در تشخیص میدان نبرد؛
- جسارت در تصمیم به استقلال؛
- و صبر در ساخت زیرساختهای مستقل.
بدون اینها، جهانیشدن برای جوامع توسعهنیافته، چیزی جز زیر سلطه ی جهانی قرار گرفتن نخواهد بود.
هوش مصنوعی امروز، همان کاری را با تمدنها میکند که استعمار دیروز با خاک و منابع کرد. اگر راهی برای استقلال معرفتی، امنیت شناختی، و اقتصاد معناشناختی نیابیم، شاید دیگر حتی «امکان پرسیدن» را نیز از ما سلب کنند.
منابع
o Allison, G. (2021). Destined for War: Can America and China Escape Thucydides’s Trap? Houghton Mifflin Harcourt.
o Bratton, B. H. (2015). The Stack: On Software and Sovereignty. MIT Press
o Headrick, D. R. (1981). The Tools of Empire: Technology and European Imperialism in the Nineteenth Century. Oxford University Press.
o Lee, K. F. (2018). AI Superpowers: China, Silicon Valley, and the New World Order. Houghton Mifflin Harcourt.
o Pagallo, U. (2020). The Laws of Robots: Crimes, Contracts, and Torts. Springer
o Schwab, K. (2016). The Fourth Industrial Revolution. World Economic Forum
o Taddeo, M., & Floridi, L. (2018). How AI can be a force for good. Science, 361(6404), 751-752
o Tufekci, Z. (2015). Algorithmic harms beyond Facebook and Google: Emergent challenges of computational agency. Colorado Technology Law Journal, 13(1), 203-218.
o Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs
[1] right to explanation