هوش مصنوعی خطری فراتر از سلاح هسته‌ای

فهرست مطالب

تحلیل‌گر: دکتر ابوطالب صفدری

سلاح هسته‌ای را فراموش کنید …

️خطر واقعی، جای دیگری‌ست: هوش مصنوعی!

ما پرده‌ای تاریک از هوش مصنوعی را دیده‌ایم، اما هنوز ابتدای راه هستیم. تصورش هم دشوار است که وقتی این فناوری به‌طور کامل با صنایع نظامی ترکیب شود، چه اتفاقی خواهد افتاد. در آن لحظه، جنگ دیگر آن چیزی نخواهد بود که می‌شناسیم؛ چون نتیجه‌اش از پیش معلوم است.

در چنین آینده‌ای، چیزی به نام «جنگ» عملاً بی‌معنا می‌شود. هوش مصنوعی، نه صرفاً ابزار، بلکه خودِ پیروزی است. پیروزی‌ای که قطعی است، کامل است، و از پیش برنامه‌ریزی‌شده … و من تردیدی ندارم که کار روی هوش مصنوعی، به‌زودی همان سرنوشتی را پیدا می‌کند که کار بر روی بمب اتمی پیدا کرد: ممنوع، خطرناک، و تحت شدیدترین تدابیر امنیتی.

در واکنش به این آینده‌ی پرمخاطره، برخی از مهم‌ترین نهادهای بین‌المللی و دولت‌ها در تلاش‌اند تا کنترل توسعه‌ی هوش مصنوعی را به‌عنوان یک مسئله‌ی امنیتی و انسانی در سطح جهانی نهادینه کنند:

بیانیه بریتانیا (Bletchley Declaration – 2023):

در اجلاس جهانی ایمنی هوش مصنوعی در بریتانیا، نمایندگان بیش از 25 کشور (از جمله چین و آمریکا) متعهد شدند که توسعه‌ی مدل‌های پایه (Foundation Models) باید با درنظر گرفتن خطرات وجودی، قابل‌ارزیابی، قابل‌کنترل و قابل‌پاسخ‌گویی باشد.

قانون هوش مصنوعی اتحادیه اروپا (EU AI Act – 2024):

اولین چارچوب حقوقی فراگیر برای کنترل استفاده از هوش مصنوعی در زمینه‌هایی مانند نظارت زیستی، امنیت ملی، و استفاده‌ی نظامی. این قانون، بر اساس سطح خطر، محدودیت‌هایی برای برخی کاربردها اعمال می‌کند.

دعوت سازمان ملل (UN) برای معاهده‌ی جهانی AI:

در سال 2024، آنتونیو گوترش، دبیرکل سازمان ملل، خواستار تشکیل یک نهاد جهانی نظارت بر هوش مصنوعی شد؛ مشابه آژانس بین‌المللی انرژی اتمی (IAEA) برای فناوری هسته‌ای.

گروه G7 و OECD:

پیشنهادهایی برای ایجاد اصول اخلاقی الزام‌آور و همچنین ایجاد یک چارچوب نظارتی فراملی برای توسعه‌ی شفاف و ایمن AI ارائه کرده‌اند.

هوش مصنوعی اما تفاوت مهمی با بمب اتمی دارد:

بمب اتمی را می‌توان، با وجود تمام پیچیدگی‌های علمی و فنی‌اش، در نهایت به‌صورت صنعتی و با یک پروژه‌ی بسته تولید کرد. یعنی اگر یک کشور تمام منابع و ظرفیت‌هایش را متمرکز کند—اعم از سرمایه مالی، نیروی انسانی، و دانش فنی وارداتی—می‌تواند طی یک روند نسبتاً مشخص به توانایی تولید بمب اتمی دست یابد. نمونه‌های این مسیر را می‌توان در کشورهایی مثل کره شمالی یا پاکستان دید: کشورهایی که با وجود وضعیت اقتصادی ضعیف یا عدم توسعه‌ی فناورانه‌ی گسترده، توانستند برنامه‌ی تسلیحاتی اتمی خود را به سرانجام برسانند. بمب اتم در این معنا، اگرچه نیازمند فناوری پیشرفته است، اما از منظر ساختاری «قابل مهندسی و مهارشدنی» است

هوش مصنوعی، به‌ویژه در شکل پیشرفته و استراتژیک آن—یعنی مدل‌های زبانی عظیم (مانند GPT)، سیستم‌های نظامی هوشمند، یا زیرساخت‌های شناختی خودآموز—چنین نیست.

توسعه‌ی موفق هوش مصنوعی نه‌تنها نیازمند منابع مالی، بلکه مستلزم یک زیست‌بوم فعال، آزاد، و پیچیده است:

• باید دانشگاه‌هایی وجود داشته باشند که در مرزهای دانش فعالیت کنند،

• باید شرکت‌های خصوصی و استارتاپ‌ها بتوانند بدون محدودیت رشد کنند،

 • باید داده‌ها به‌صورت آزاد و گسترده در دسترس باشند،

 • باید امکان مشارکت نخبگان، مهاجرت علمی، و جریان آزاد ایده‌ها وجود داشته باشد،

 • و مهم‌تر از همه، باید فرهنگ آزمون‌و‌خطا، شفافیت علمی، و نوآوری مستمر نهادینه شده باشد.

هیچ کشوری بدون این زیرساخت‌ها، صرفاً با سرمایه‌گذاری یا واردات سخت‌افزار، نمی‌تواند به سطحی از هوش مصنوعی برسد که در رقابت جهانی تعیین‌کننده باشد. هوش مصنوعی، برخلاف بمب، محصول یک اکوسیستم است، نه یک پروژه‌ی مهندسی بسته. به همین دلیل است که کشوری مانند ایران، حتی با استعدادهای فراوان، در غیاب یک نظام باز پژوهش و داده و مشارکت جهانی، نمی‌تواند در رقابت AI پیشرو باشد.