تحلیلگر: دکتر ابوطالب صفدری
سلاح هستهای را فراموش کنید …
️خطر واقعی، جای دیگریست: هوش مصنوعی!
ما پردهای تاریک از هوش مصنوعی را دیدهایم، اما هنوز ابتدای راه هستیم. تصورش هم دشوار است که وقتی این فناوری بهطور کامل با صنایع نظامی ترکیب شود، چه اتفاقی خواهد افتاد. در آن لحظه، جنگ دیگر آن چیزی نخواهد بود که میشناسیم؛ چون نتیجهاش از پیش معلوم است.
در چنین آیندهای، چیزی به نام «جنگ» عملاً بیمعنا میشود. هوش مصنوعی، نه صرفاً ابزار، بلکه خودِ پیروزی است. پیروزیای که قطعی است، کامل است، و از پیش برنامهریزیشده … و من تردیدی ندارم که کار روی هوش مصنوعی، بهزودی همان سرنوشتی را پیدا میکند که کار بر روی بمب اتمی پیدا کرد: ممنوع، خطرناک، و تحت شدیدترین تدابیر امنیتی.
در واکنش به این آیندهی پرمخاطره، برخی از مهمترین نهادهای بینالمللی و دولتها در تلاشاند تا کنترل توسعهی هوش مصنوعی را بهعنوان یک مسئلهی امنیتی و انسانی در سطح جهانی نهادینه کنند:
بیانیه بریتانیا (Bletchley Declaration – 2023):
در اجلاس جهانی ایمنی هوش مصنوعی در بریتانیا، نمایندگان بیش از 25 کشور (از جمله چین و آمریکا) متعهد شدند که توسعهی مدلهای پایه (Foundation Models) باید با درنظر گرفتن خطرات وجودی، قابلارزیابی، قابلکنترل و قابلپاسخگویی باشد.
قانون هوش مصنوعی اتحادیه اروپا (EU AI Act – 2024):
اولین چارچوب حقوقی فراگیر برای کنترل استفاده از هوش مصنوعی در زمینههایی مانند نظارت زیستی، امنیت ملی، و استفادهی نظامی. این قانون، بر اساس سطح خطر، محدودیتهایی برای برخی کاربردها اعمال میکند.
دعوت سازمان ملل (UN) برای معاهدهی جهانی AI:
در سال 2024، آنتونیو گوترش، دبیرکل سازمان ملل، خواستار تشکیل یک نهاد جهانی نظارت بر هوش مصنوعی شد؛ مشابه آژانس بینالمللی انرژی اتمی (IAEA) برای فناوری هستهای.
گروه G7 و OECD:
پیشنهادهایی برای ایجاد اصول اخلاقی الزامآور و همچنین ایجاد یک چارچوب نظارتی فراملی برای توسعهی شفاف و ایمن AI ارائه کردهاند.
هوش مصنوعی اما تفاوت مهمی با بمب اتمی دارد:
بمب اتمی را میتوان، با وجود تمام پیچیدگیهای علمی و فنیاش، در نهایت بهصورت صنعتی و با یک پروژهی بسته تولید کرد. یعنی اگر یک کشور تمام منابع و ظرفیتهایش را متمرکز کند—اعم از سرمایه مالی، نیروی انسانی، و دانش فنی وارداتی—میتواند طی یک روند نسبتاً مشخص به توانایی تولید بمب اتمی دست یابد. نمونههای این مسیر را میتوان در کشورهایی مثل کره شمالی یا پاکستان دید: کشورهایی که با وجود وضعیت اقتصادی ضعیف یا عدم توسعهی فناورانهی گسترده، توانستند برنامهی تسلیحاتی اتمی خود را به سرانجام برسانند. بمب اتم در این معنا، اگرچه نیازمند فناوری پیشرفته است، اما از منظر ساختاری «قابل مهندسی و مهارشدنی» است
هوش مصنوعی، بهویژه در شکل پیشرفته و استراتژیک آن—یعنی مدلهای زبانی عظیم (مانند GPT)، سیستمهای نظامی هوشمند، یا زیرساختهای شناختی خودآموز—چنین نیست.
توسعهی موفق هوش مصنوعی نهتنها نیازمند منابع مالی، بلکه مستلزم یک زیستبوم فعال، آزاد، و پیچیده است:
• باید دانشگاههایی وجود داشته باشند که در مرزهای دانش فعالیت کنند،
• باید شرکتهای خصوصی و استارتاپها بتوانند بدون محدودیت رشد کنند،
• باید دادهها بهصورت آزاد و گسترده در دسترس باشند،
• باید امکان مشارکت نخبگان، مهاجرت علمی، و جریان آزاد ایدهها وجود داشته باشد،
• و مهمتر از همه، باید فرهنگ آزمونوخطا، شفافیت علمی، و نوآوری مستمر نهادینه شده باشد.
هیچ کشوری بدون این زیرساختها، صرفاً با سرمایهگذاری یا واردات سختافزار، نمیتواند به سطحی از هوش مصنوعی برسد که در رقابت جهانی تعیینکننده باشد. هوش مصنوعی، برخلاف بمب، محصول یک اکوسیستم است، نه یک پروژهی مهندسی بسته. به همین دلیل است که کشوری مانند ایران، حتی با استعدادهای فراوان، در غیاب یک نظام باز پژوهش و داده و مشارکت جهانی، نمیتواند در رقابت AI پیشرو باشد.