هوش‌مصنوعی و حریم خصوصی / بخش اول

فهرست مطالب

بخش اول از مقاله (Artificial Intelligence and Privacy (2024

دنیل جی. سولوو

ترجمه سمانه هاشمی نژاد

مقدمه

زمانی که هنر و علم در ظاهری فریبنده یکدیگر را ملاقات می‌کنند و ماشین‌ها ذهنی از آنِ خودشان را به کار می‌گیرند، قلب‌ها و دیدگان ما را ترسی فرامی‌گیرد که مبادا حریم خصوصی، که زمانی گرامی داشته می‌شد، از میان برود. 《ترجمه‌ شعری از: chatgpt》

هوش‌مصنوعی (AI) لحظه‌ای جادویی را از سر می‌گذراند. هوش‌مصنوعی همه‌جا دیده می‌شود و به نظر می‌رسد که همه درباره آن حرف می‌زنند. هم‌زمان با آن که هوش‌مصنوعی پیوسته در سرتاسر جهان پیشروی می‌کند و تقریباً به تمامی وجوه زندگی به طور سرزده وارد می‌شود، انبوهی از مسائل را پدید می‌آورد که از موضوع مالکیت فکری گرفته تا اشتغال و همین‌طور امنیت، که حریم خصوصی را نیز شامل می‌شود. علاوه ‌بر پیچیده‌ترکردن وضعیت، هوش‌مصنوعی به طرق مختلفی بر حریم شخصی اثر می‌گذارد و به انبوهی از نگرانی‌ها می‌انجامد.

در این مقاله، هدف من این است که برای درک ارتباط میان هوش‌مصنوعی و حریم شخصی، شالوده‌ای مفهومی و کاربردی فراهم کنم و نقشۀ راهی به دست دهم که چگونه قانون حریم خصوصی باید هوش‌مصنوعی را تحت نظارت درآورد. تاکنون، تعداد انگشت‌شماری از مفسران، چشم‌انداز کلیِ برهم‌کنش متقابل هوش مصنوعی و حریم خصوصی را بررسی کرده‌اند. این مقاله در پی آن است که این نقشه‌ای از این قلمرو به دست دهد.

قوانین فعلیِ حوزه حریم خصوصی، هم‌اکنون نیز تاحدودی هوش‌مصنوعی را لحاظ کرده‌اند؛ برای مثال ماده‌هایی از «مقررات عمومی حمایت از داده‌های شخصی اتحادیه اروپا» (GDPR) به پردازش «خودکار» داده‌ها اختصاص یافته است. قوانین حریم خصوصی چندین ایالتِ امریکا نیز شامل تبصره‌هایی درخصوص خودکارسازی می‌شوند؛ هر چند این تبصره‌ها محدودیت‌هایی دارند و به نظر می‌رسد قوانین جدیدی وضع خواهند شد که منحصراً بر هوش‌مصنوعی تمرکز یافته باشند. اتحادیه اروپا اخیراً «قانون هوش‌مصنوعی»[1] را وضع کرده است. به‌علاوه، قوانین هوش‌مصنوعی در ایالات متحده شروع به رشد کرده‌اند.

آیا قانون حریم خصوصی ابزار مناسبی برای تنظیم این مسائل است؟ یا آیا به مشکلات حریم خصوصی مرتبط با هوش‌مصنوعی به بهترین نحو توسط قوانین ویژه هوش‌مصنوعی رسیدگی شده است؟ بعضی مفسرین این پرسش را طرح می‌کنند که آیا قانون حریم خصوصی برای پرداختن به هوش‌مصنوعی مناسب است؛ همان‌گونه که استاد حقوق، اریک گولدمن، عنوان می‌کند:

برای هواداران حریم خصوصی، دامنه‌ی رو به گسترش قانون حریم خصوصی به نظر مطلوب می‌رسد؛ امّا برای بقیۀ ما، بدون تردید مطلوب نیست. ما مایل نیستیم که تصمیمات متخصصان حریم خصوصی، سیاست‌ها را درباره موضوعاتی خارج از حوزه تخصص‌شان تعیین کنند. آنان از تخصص لازم بی‌بهره‌اند، بنابراین در خط مشی‌هایشان مرتکب خطاهای جدی و قابل‌اجتناب خواهند شد!

من در این مقاله، ادعا می‌کنم که اگرچه قانون حریم خصوصی موجود در پرداختن به مشکلات حریم خصوصی مرتبط با هوش‌مصنوعی بسیار ناکام بوده است، چنانچه قانون حریم خصوصی‌ به خوبی مفهوم‌سازی و تدوین شود، عاملی موثر در حل این مشکلات خواهد بود.

برای تعیین آن‌که قانون چگونه می‌تواند روابط بین هوش‌مصنوعی و حریم خصوصی را تنظیم کند، لازم است چند موضوع بنیادی بررسی و توضیح داده شوند. نخست، درک چیستیِ هوش‌مصنوعی ضروری است. این موضوع از پیچیدگی برخوردار است، چرا که آن‌چه امروزه «هوش‌مصنوعی» تلقی می‌شود، با معنی رایجی که برای مدتی طولانی وجود داشت (یعنی ربات‌های ذی‌شعور و حساس) متفاوت است. اصطلاح «هوش‌مصنوعی» امروزه برای توصیف الگوریتم‌های یادگیری ماشین و فناوری‌های مرتبط استفاده می‌شود، که این‌ها با ماشین‌هایی که قادر به تفکر مستقل باشند، متفاوت‌اند. هوش‌مصنوعی امروزین، به نحو جالبی، هم کهنه و هم نو است؛ یک گام در مسیر تحولی طولانی و هم‌زمان یک جهش چشمگیر به جلو. بسیاری از فناوری‌های امروزین هوش‌مصنوعی برای قانون حریم خصوصی به خوبی شناخته‌شده‌اند و در عین حال روش‌هایی که حریم خصوصی را دستخوش تغییر می‌کنند، شدیداً غافل‌گیرکننده است.

دوم آن‌که مشکلات حریم خصوصیِ ناشی از هوش‌مصنوعی باید شناخته شوند. برای تعیین آن‌که قانون چگونه باید این مسائل را تحت نظارت درآورد، شناسایی نقاط ضعف قانون کنونی و مشخص‌کردن تغییرات یا الحاقات لازم، برای درک تصویر بزرگ‌تر ضروری است. هوش‌مصنوعی شامل الگوریتم‌هایی است که ورودی‌ها را دریافت می‌کنند و خروجی‌هایی را می‌سازند. مشکلات حریم خصوصی هم در ورودی‌ها و هم درخروجی‌ها ظهور می‌یابند. این مشکلات حریم خصوصی اغلب جدید نیستند؛ آن‌ها نسخه‌هایی تغییریافته از مشکلات دیرینه‌ی حریم خصوصی‌اند. امّا هوش‌مصنوعی مشکلاتِ از پیش موجودِ حوزۀ حریم شخصی را در مسیرهایی پیچیده و منحصربه‌فرد بازآرایی کرده است. بعضی مشکلات به‌گونه‌ای با یکدیگر ترکیب شده‌اند که چارچوب‌های تنظیم‌گر موجود را به چالش می‌کشند. در بسیاری موارد، هوش مصنوعی مشکلات موجود را تشدید می‌کند و اغلب این تهدید وجود دارد که آن‌ها را به سطوح بی‌سابقه‌ای بکشاند.

مشکلات مرتبط با ورودی‌ها شامل مسائل مربوط به جمع‌آوری داده‌ها می‌شود. که اسکرپینگ (جمع‌آوری آنلاین داده بدون رضایت کاربران) و همچنین اَشکال توافقی‌ترِ جمع‌آوری داده را دربرمی‌گیرد. عمومِ قوانین حریم خصوصی، توجه اندکی به هر دو نوعِ جمع‌آوری داده داشته‌اند.

مشکلات مرتبط با خروجی‌ها شامل: تولید داده، تصمیم‌گیری و تحلیل داده می‌شود. داده‌های جدیدِ تولید شده بر مبنای استنباط‌های مبتنی بر هوش‌مصنوعی می‌توانند جزئیاتی را درباره‌ی مردم آشکار کنند که آنان نه انتظار افشایشان را دارند و نه مایل به آشکارشدن‌شان هستند. تولید داده، مرز میان جمع‌آوری داده و پردازش داده را کم‌رنگ می‌کند و دور زدن بسیاری از حفاظت‌های مرتبط با قانون حریم خصوصی را ممکن می‌سازد.

تولید داده مبتنی بر هوش‌مصنوعی، همچنین می‌تواند به خلق اطلاعات بدخواهانه در مقیاسی بی‌سابقه بی‌انجامد؛ که این می‌تواند مشکلاتی نظیر فریبکاری و دستکاری اطلاعات را تشدید کند و آسیب‌پذیری‌های جدیدی در حوزۀ امنیت داده را سبب شود. حتی محتواهای غیربدخواهانۀ تولید شده توسط هوش‌مصنوعی نیز می‌توانند فریب‌آمیز و گمراه‌کننده باشند، مثلاً زمانی که هوش‌مصنوعی در موقعیت‌های مشخصی انسان‌ها را شبیه‌سازی می‌کند.

مجموعه دیگری از خروجی‌های هوش‌مصنوعی شامل استفاده از الگوریتم‌های هوش‌مصنوعی برای تصمیم‌گیری درباره افراد می‌شود. هوش‌مصنوعی می‌تواند پیش‌بینی‌هایی را دربارۀ رفتار آتی افراد ارائه دهد، که این می‌تواند منجر به مداخلات و قضاوت براساس اَعمالی شود که هنوز از آنان سر نزده است و به کاهش احترام به عاملیت انسان بی‌انجامد. خودکارسازی در تصمیم‌گیری مبتنی بر هوش‌مصنوعی، این فرآیند را تشخص‌زدایی می‌کند و آن را به سمت ابعاد قابل ‌اندازه‌گیری و به دور از جزئیات منحصربه‌فرد غیرقابل ‌اندازه‌گیری سوق می‌دهد. هوش‌مصنوعی همچنین می‌تواند به‌طور سازمان‌یافته سوگیری‌ها را در تصمیمات رمزگذاری کند.

به‌علاوه، تحلیل داده مبتنی بر هوش‌مصنوعی می‌تواند عملکردهایی که حریم خصوصی را مورد حمله قرار می‌دهند – مانند تجسس و تعیین هویت –  را تشدید کند و بر قدرت ناظران بیفزاید.

هوش‌مصنوعی چالش‌های آزاردهنده‌ای را در زمینه مقررات نظارتی، مشارکت ذی‌نفعان و پاسخگویی در پی دارد. از آن‌جا که الگوریتم‌های هوش‌مصنوعی پویا و اغلب نفوذناپذیرند، شفافیت را شدیداً بغرنج می‌کند. هوش‌مصنوعی چالش‌هایی را متوجه فرآیند دادرسی فردی می‌کند. توسعه فناوری‌های هوش‌مصنوعی اغلب بسیاری از گروه‌های ذی‌نفعِ تأثیرپذیرفته را مورد غفلت قرار می‌دهد؛ به ‌ویژه گروه‌های کم‌تر بازنمایانده شده و به‌ حاشیه‌ رانده‌ شده. معمولاً در زمینه هوش‌مصنوعی پاسخگویی کافی وجود ندارد. اغلب به واسطۀ پاداش‌های چشمگیر در توسعه‌ی موفق فناوری‌های هوش‌مصنوعی، از اجرای مقررات صرف‌نظر می‌شود، وضعیتی است که به ریسک‌پذیری مهار نشده می‌انجامد. برای مثال، جبران خسارت از طریق از بین بردن الگوریتم‌ها در عمل دشوار است.

به‌طور کلی، هوش‌مصنوعی در حیطه‌ی حریم خصوصی تحولی غیرمنتظره را ایجاد نکرده است؛ آن‌چه با آن روبه‌رو هستیم، در بسیاری از اَشکال، آینده‌ای است که از مدت‌ها قبل پیش‌بینی شده است. امّا هوش‌مصنوعی کاستی‌های دیرینه، عارضه‌ها و رویکردهای غلط قانون حریم خصوصی را کاملاً آشکار می‌کند.

دست آخر، چه از مسیر اصلاح قوانین موجود و چه به عنوان بخشی از قوانین جدید، مسائل بسیاری باید از پیشِ‌رو برداشته شوند تا مشکلات حریم خصوصیِ ناشی از هوش‌مصنوعی برطرف گردد. این موضوع بسیار سرنوشت‌ساز است؛ چراکه هوش‌مصنوعی، هرچند ماشین‌های ذی‌شعور را شامل نمی‌شود، همچنان در برگیرنده مجموعه‌ای از تکنولوژی‌های شدیداً قدرتمند و تحول‌آفرین است. در این مقاله، من نقشۀ راهی از مشکلات کلیدی که قانون باید با آن‌ها دست‌وپنجه نرم کند و راهنمایی دربارۀ رویکردهایی که می‎توانند سودمند باشند و رویکردهای محکوم به شکست را ارائه خواهم داد.

بخش اول به بحث درباره این‌که هوش‌مصنوعی چه چیزی هست و چه چیزی نیست، افسانه‌زدایی از این مفهوم، توضیح این‌که چرا هوش‌مصنوعی هم قدیمی و هم جدید است و توصیه‌هایی علیه «استثناءگرایی هوش‌مصنوعی» (تلقی مشکلات حریم خصوصی مرتبط با هوش‌مصنوعی به عنوان مسائلی چنان منحصربه‌فرد که باید با آن به شیوه‌ای مجزا از دیگر مشکلات حریم خصوصی برخورد شود) اختصاص خواهد یافت. در بخش دوم، نقشه‌ی راهی برای تنظیم هوش‌مصنوعی و حریم خصوصی ارائه خواهد شد. من مشکلات حریم خصوصی ناشی از هوش‌مصنوعی را بررسی خواهم کرد و بحث خواهم کرد که قانون چگونه باید به این مسائل پاسخ دهد. 

بخش اول

هوش‌مصنوعی: دگربار نو، قدیمی است

هر فناوریِ به‌حدکافی پیشرفته، از جادو تمایزناپذیر است.

آرتور سی. کلارک[2]

مصطفی سلیمان، متخصص هوش‌مصنوعی چنین اظهار می‌کند: «هوش‌مصنوعی بسیار عمیق‌تر و قدرتمندتر از آن است که صرفاً یک تکنولوژی دیگر تلقی شود. خطر این نیست که درباره‌ی هوش مصنوعی اغراق کنیم؛ بلکه در این است که متوجه عظمت موج آینده نشویم. هوش مصنوعی فقط یک ابزار یا پلتفرم نیست؛ بلکه یک فراتکنولوژی تحول‌آفرین است».[3]

برای درک مشکلات حریم خصوصی مرتبط با هوش‌مصنوعی و فهم این‌که چگونه باید این حوزه را تنظیم کنیم، دانستنِ این‌که هوش‌مصنوعی چه هست و چه نیست، ضرورت دارد. در حال حاضر، از آن‌جا که مفهوم هوش مصنوعی به‌واسطه اصطلاحات و استعاره‌های گمراه‌کننده مخدوش شده ‌است، سردرگمی عمده‌ای درباره‌ی هوش مصنوعی وجود دارد.

الف) برآمدن هوش‌مصنوعی

هوش‌مصنوعی تصاویر ربات‌های هوشمند و فانتری‌های علمی-تخیلی را احضار می‌کند. برای صدها سال، [ادبیات] علمی-تخیلیْ آفرینشِ هستی‌ها و ماشین‌های ذی‌شعور به‌دست انسان را تصویر کرده است؛ از هیولای مطرود رمان فرانکشتاین؛ یا پرومتۀ مدرن (1818) مری شلی تا ربات‌های داستان‌های دهۀ 1940 آیزاک آسیموف که در کتاب من، ربات (1950) جمع‌آوری شده‌اند یا هال، کاراکتر سردخو و آدمکش فیلم «2001: یک ادیسۀ فضایی» (1968) تا C3PO دوستانه امّا مزاحم در «جنگ ستارگان» (1977) تا ربات جلاد هولناک «نابودگر» (1984) تا دیتا، کاراکتر مصنوعیِ شبه‌انسان «پیشتازان فضا: نسل بعدی» (1987) تا ربات دیجیتال غیرفیزیکیِ خوش‌رفتار در «او» (2013). این آثار، آگاهی عمومی را شیفته خود ساخته‌اند. افراد زیادی مشتاقانه و گاه با دلهره در انتظار روزی به سر می‌برند که هوش مصنوعی سرانجام تبدیل به واقعیت خواهد شد و حیرت همگان را برخواهد انگیخت.

امّا چنین واقعه‌ای رخ نداد. از اواسط قرن بیستم، انقلاب دیجیتال با برآمدن بزرگ‌رایانه‌ها آغاز شد، سپس رایانه‌های خانگی، سپس لپ‌تاپ‌ها و پس از آن گوشی‌های هوشمند. ما شاهد اوج‌گیری اینترنت، رشد تصاعدی توان محاسباتی، افزایش عمده ظرفیت ذخیره‌سازی داده‌ها، قدرت روبه‌رشد کلان‌‌داده‌ها (Big Data) و ظهور اینترنت اشیاء بوده‌ایم؛ امّا هوش‌مصنوعی در قلمرو علمی-تخیلی باقی ماند … تا چندی پیش.

دانشمند علوم کامپیوتر، جان مک‌کارتی[4] اصطلاح «هوش‌مصنوعی» را در سال 1955 در دورتمند ابداع کرد.[5] در دهه‌های بعد، تلاش‌های بسیاری در جهت توسعه هوش مصنوعی صورت گرفت؛ امّا این تلاش‌ها به‌طور معمول سرانجامی ناامیدانه داشتند.[6] در سال 1973، ریاضی‌دان بریتانیایی، سر جیمز لایتیل، این نظر مشهور را در مقاله‌اش با عنوان هوش مصنوعی: یک بررسی کلی اظهار داشت: «در هیچ نقطه‌ای از این حیطه، اکتشافاتِ صورت‌گرفته، تأثیرات بزرگِ وعده داده ‌شده را محقق نکرده‌اند»[7]. همان‌طور که برایان کریستین[8] گفته: «تاریخ هوش‌مصنوعی یکی از نمونه‌های مشهور چرخه‌ی متناوب امید و ناامیدی است».[9]

بر اساس گفته‌های مریدیت بروسارد[10]، خبرنگار حوزه تکنولوژی، در نخستین دهه قرن حاضر، جریان اصلی سیاسی «عمدتاً هوش‌مصنوعی را نادیده گرفته بود». امّا بعد، در میانۀ دهۀ 2010، «مردم شروع به حرف‌زدن درباره‌ی یادگیری ماشین کردند. ناگهان، هوش‌مصنوعی دوباره موضوع داغ روز بود»[11]. بروسارد سال 2017 را به ‌عنوان تاریخی که محبوبیت هوش‌مصنوعی رو به ازدیاد گذاشت مشخص می‌کند.

جرقه‌ای که آتش شیدایی اخیر حول هوش‌مصنوعی را شعله‌ور کرده، چت‌جی‌پی‌تی (ChatGPT) بوده ‌است؛ یک مدل بزرگ زبانی مبتنی بر یادگیری ماشین که می‌تواند برای پرسش‌واره‌ها (prompts) پاسخ متنی تولید کند. چت‌جی‌پی‌تی توسط Open.AI توسعه داده‌ شد که در سال 2015 توسط گروهی از رهبران حوزه تکنولوژی و سرمایه‌گذاران راه‌اندازی شد. Open.AI که در اصل پروژه‌ای غیرانتفاعی بود، در سال 2019 تبدیل به شرکتی انتفاعی شد. در سال 2021، Open.AI چت‌جی‌پی‌تی را به‌طور عمومی منتشر کرد.[12]

با الهام از موفقیت چت‌جی‌پی‌تی، شرکت‌های بسیار دیگری ابزارهای هوش‌مصنوعی مشابهی را راه‌اندازی کردند. همهمه همگانی به‌سرعت بدل به شیدایی شد. امروزه به نظر می‌رسد دوران هوش‌منصوعی سرانجام فرا رسیده است.

ب) هوش‌مصنوعی چیست؟

اصطلاح «هوش‌مصنوعی» به شکلی که امروزه به‌کار برده می‌شود، چیزی بیش از خلق ربات‌های خودآگاه _ شبیه آن‌چه در آثار علمی-تخیلی می‌بینیم _ را دربرمی‌گیرد. در عوض، طیفی گسترده از فناوری‌هایی را شامل می‌شود که الگوریتم‌ها در آن به‌کار رفته‌اند. الگوریتم، مجموعه‌ای دستورات یا دستورالعمل‌هاست که به اجرای وظایفی می‌انجامد. الگوریتم شبیه یک دستورپخت ریاضیاتی است.

هوش‌مصنوعی به توسعه سیستم‌های کامپیوتری اشاره دارد، به نحوی که بتوانند از عهده اجرای وظایفی که به‌طور معمول نیازمند هوش‌انسانی است بربیایند؛ وظایفی مانند حل‌مسأله، تصمیم‌گیری، درک زبانی و ادراک. همان‌گونه که استاد حقوق، رایان کالو[13]، اشاره می‌کند: «هیچ تعریف سرراستِ مورد توافقی از هوش‌مصنوعی وجود ندارد. بهترین روش برای درک این مفهوم آن است که هوش‌مصنوعی را به عنوان مجموعه‌ای از تکنیک‌ها با هدف نزدیک‌شدن به برخی جنبه‌های شناختی انسانی و حیوانی با بهره‌گیری از ماشین‌ها بشناسیم»[14].

یادگیری ماشین، شبکه‌های عصبی مصنوعی و هوش‌مصنوعی مولّد

الگوریتم‌های یادگیری ماشین در مرکز هوش‌مصنوعی مدرن قرار دارند. امروزه، بیشترین کاربردهای اصطلاح «هوش‌مصنوعی» به یادگیری ماشین اشاره دارد. این الگوریتم‌ها می‌توانند هوش را شبیه‌سازی کنند، امّا آن‌ها درحقیقت هوشمند نیستند.

الگوریتم‌های یادگیری ماشین با تکیه بر داده‌ها، استنتاج‌ها و پیش‌بینی‌هایی را صورت می‌دهند. این الگوریتم‌ها از طریق ورود حجم فزاینده داده‌ها پیشرفت کرده و تکامل می‌یابند؛ چیزی که «داده‌های آموزشی»[15] نامیده می‌شود. «برنامه‌نویسان کامپیوتر، یک مدل یادگیری ماشین را انتخاب می‌کنند، داده‌ها را فراهم می‌کنند و اجازه می‌دهند مدل کامپیوتری به‌طور خودکار خود را آموزش دهد تا الگوهایی را بیابد و پیش‌بینی‌هایی را به دست دهد». الگوریتم‌های یادگیری ماشین بر حجم عظیمِ داده تکیه دارند؛ «هرچه داده بیشتر باشد، برنامه بهتر است».[16]

یکی از انواع یادگیری ماشین با عنوان «شبکه‌های عصبی‌مصنوعی»، شامل الگوریتم‌هایی است که تحت عنوان «یادگیری عمیق» شناخته می‌شوند. شبکه‌های عصبی مصنوعی «که از مغز انسان الهام گرفته‌اند، روشی را تقلید می‌کنند که نورون‌های زیستی برای یکدیگر سیگنال ارسال می‌کنند».[17] شبکه‌های عصبی مصنوعی از طریق لایه‌های مختلفی عمل می‌کنند که «گره» نامیده می‌شوند؛ این گره‌های طراحی شده‌اند تا به‌عنوان نورون‌های مصنوعی فعالیت کنند. هر گره به دیگر گره‌ها متصل است و از وزن و آستانه‌ای مشخص برخوردار است. اگر خروجی یک گره از این آستانه فراتر رود، فعال می‌شود و داده‌ها را به لایۀ بعدیِ شبکه منتقل می‌کند. در غیر این صورت گره غیرفعال باقی می‌ماند و جریان داده منقطع می‌شود.

توجه عمومیِ کنونی به هوش‌مصنوعی، هوش‌مصنوعی مولّد را نیز دربرگرفته است. هوش‌مصنوعی مولّد، شاخه‌ای از هوش‌مصنوعی است که به تولید محتوای جدید – از جمله متن، صدا، تصویر یا ویدئو –  اختصاص یافته‌ است. از نمونه‌های هوش‌مصنوعی مولّد، می‌توان چت‌بات‌های مبتنی بر الگوهای زبانی بزرگ (LLM) را نام برد؛ مانند چت‌جی‌پی‌تی. کاربران از طریق وارد کردن یک «پرامپت» – یک پرسش یا درخواست – با این ابزارها تعامل می‌کنند و هوش‌مصنوعی مولد با تولید یک پاسخ به آن پاسخ می‎دهد. چت‌جی‌پی‌تی با یک ابزار تولید تصویر با نام DALL-E ادغام شده ‌است. هوش‌مصنوعی مولّد می‌تواند براساس پرامپت‌هایی که دریافت می‌کند، خروجی‌هایی از قبیل رمان تولید کند.

در گفتگوها اغلب هوش‌مصنوعی و خودکارسازی با یکدیگر مطرح می‌شوند؛ امّا این دو، یکسان نیستند. هوش‌مصنوعی، نوعی خودکارسازی است؛ امّا اصطلاح «خودکارسازی» به نحو گستره‌تری دربرگیرندۀ «تکنیک‌های خودکارکردن عملکرد یک دستگاه، فرآیند یا سیستم»[18] است. بسیاری از انواع خودکارسازی شامل داده نمی‌شود؛ همچنین بسیاری از آن دسته فرآیندهای خودکار که شامل داده می‌شوند، شامل آن گونه الگوریتم‌های یادگیری ماشین نمی‌شوند که امروزه مشخصه هوش‌مصنوعی است.

فناوری‌های قدیمی با هویت جدید تجاری

آن‌چه بحث‌های کنونیِ حول هوش‌مصنوعی را بسیار سردرگم‌کننده کرده، آن است که اصطلاح هوش‌مصنوعی برای تغییر نام تجاری (ری‌برند) تکنولوژی‌های یادگیری ماشین استفاده شده ‌است. همان‌طور که اریک سیگل[19]، متخصص یادگیری ماشین، اظهار کرده ‎است: «هوش‌مصنوعی یک دروغ بزرگ است». هوش‌مصنوعی یک «واژه باب روزِ تهییج ‌کننده است که افراد را سردرگم می‌کند و فریب می‌دهد. هوش‌مصنوعی چیزی غیر از یک نام تجاری (برند) نیست. یک نام تجاری قدرتمند، امّا وعده‌ای توخالی».[20] به باور سیگل، یک «اصطلاح دقیق و بسیار بهتر برای فناوری‌هایی که امروزه تحت عنوان هوش‌مصنوعی برچسب خورده‌اند در واقع یادگیری ماشین است؛ اصطلاحی حقیقتاً قدرتمند».[21]

استفاده از اصطلاح «یادگیری ماشین» در سال 1959 آغاز شد.[22] امّا توسعه این فناوری کُند و آینده آن تردید برانگیز بود. دانشمند اسطوره‌ای حوزه کامپیوتر، ماروین مینسکی[23]، درباره‌ی قابلیت اجرایی یادگیری ماشین تردیدهایی داشت. او در سال 1969 با همراهی سیمور پاپرت[24]، دانشمند علوم کامپیوتر، کتابی منتشر کرد و درباره‌ی مسیر پژوهش‌های آن دوره شبهاتی مطرح ساخت.[25] متأثر از این کتاب، از آن پس «پژوهش‌های بسیار اندکی در این حوزه تا حدود دهۀ 1980» صورت گرفت و «بودجه‌ی تحقیقاتی در حوزه هوش‌مصنوعی در جهان برای بیش از دو دهه کاهش یافت»؛ دوره‌ای که به عنوان «اولین زمستان هوش‌مصنوعی» شناخته می‌شود.

امّا توسعه یادگیری ماشین ادامه یافت. پیشرفت‌های شگفتی‌ساز در دهۀ 1990 رخ دادند. همان‌طور که متخصص یادگیری ماشین، اریک سیگل، روایت می‌کند، او تدریس در دوره‌هایی در حوزه یادگیری ماشین را در سال 1997 آغاز کرد. او می‌گوید: «در همان زمان به میزان محدودی، شبکه‌های عصبی مصنوعی ماشین‌های خودران را هدایت می‌کردند».

با آغاز قرن بیست‌ویک، یادگیری ماشین شروع به اوج‌گیری کرد. اصطلاح «یادگیری ماشین» در سال 2000 وارد دیکشنری انگلیسی آکسفورد شد.[26] همان‌طور که الکساندر فرادکوف[27] اشاره می‌کند، اولین دهۀ قرن بیست‌ویک یک «نقطۀ عطف» در تاریخ یادگیری ماشین بود که از «سه روند هم‌زمان» ناشی شد: حجم عظیم داده‌های در دسترس، کاهش هزینه‌های رایانش موازی[28] و حافظه[29] و «توسعه الگوریتم‌های جدید یادگیری عمیق ماشین».[30]

در حقیقت آن‌چه ما به‌واسطه‌ی هوش‌مصنوعی شاهدش بوده‌ایم، ظهور و پیشرفت فناوری‌های یادگیری ماشین بوده ‌است. به بیان کریس ویگینز[31] ریاضی‌دان و متیو جونز[32] تاریخ‌نگار، «یادگیری ماشین، به‌ویژه یادگیری ماشین مبتنی بر شبکه‌های عصبی، به‌دست مشاوران و بازاریابان شرکت‌ها تحت عنوان هوش‌مصنوعی نام‌گذاری مجدد (ری‌برند) شد؛ اتفاقی که گاهی باعث ناراحتی پژوهشگران می‌شد»[33]. زمانی که یادگیری ماشین در حال توسعه بود، «کم‌تر کسی تلاش‌های این حوزه را به چشم هوش‌مصنوعی می‎دید».

همان‌طور که رایان کالو، استاد حقوق، به‌درستی اشاره کرده ‌است، «تقریباً هر تکنیک هوش‌مصنوعی که امروزه از آن استفاده می‌کنیم، دهه‌ها پیش توسعه یافته ‌است».[34] بنا به استدلال کالو، آن‌چه جدید است چیزی نیست جز «افزایش عظیم قدرت محاسباتی و دسترسی به داده‌های آموزشی که به جهش‌های غیرمنتظرۀ عملکردی در حوزه یادگیری ماشین – شاخه‌ای بسیار مهم از هوش‌مصنوعی – انجامیده است».[35] اکنون کالو می‌گوید: «سرانجام توجه سیاست‌گذاران به‌طور جدی به این موضوع جلب شده ‌است».[36]

3) استعاره‌های گمراه‌کننده

گرچه هوش‌مصنوعی یک برچسب گمراه‌کننده برای یادگیری ماشین است، امّا کار از کار گذشته و احتمالاً راه برگشتی وجود ندارد. اکنون، هوش‌مصنوعی به یک عبارت جادویی باب روز بدل شده است. همچون یک «اجی مجی لاترجی»، بهره‌گیری از اصطلاح «هوش‌مصنوعی» درها را می‌گشاید و سرمایه‌گذاران، پول، هیجان و توجه را جذب می‌کند. نتیجه آن‌که در صنعت فناوری، تقریباً بر هر کُدی برچسب هوش‌مصنوعی زده می‌شود. این روزها، به‌سختی می‌توان تشخیص داد که چه چیزی به واقع هوش‌مصنوعی است.

هوش‌مصنوعی هم یک اصطلاح و هم یک استعاره است. استعاره‌ها به‌عنوان لنزهایی عمل می‌کنند که چیزها را به‌ واسطۀ آن‌ها می‌بینیم و تفسیر می‌کنیم و قیاس‌هایی را در اختیارمان می‌گذارند که ادراک و فرآیند تفکر ما را شکل می‌دهند. همان‌طور که رایان کالو هوشمندانه اظهار می‌کند، «هر استعاره، در نوع خود، یک استدلال است».  استعاره‌ها این ظرفیت دوگانه را دارند که ادراک ما را وضوح ببخشند و تحریف کنند و اغلب این دو نقش را هم‌زمان ایفا می‌کنند.

هیچ یک از چیزهایی که امروزه هوش‌مصنوعی نامیده می‌شوند، به راستی هوشمند یا حتی مصنوعی نیست.  هوش‌مصنوعی اساساً ریاضیات به ‌علاوۀ داده است. حتی اصطلاح «یادگیری» ماشین نیز گمراه‌کننده است؛ زیرا ماشین آن‌طور که انسان‌ها یاد می‌گیرند، چیزی را یاد نمی‌گیرد. «یادگیری» تلویحاً به مغزی اشاره دارد که دانش و آگاهی کسب می‌کند. الگوریتم‌های یادگیری ماشین اساساً از طریق تغذیه‌شدن با حجم عظیمی از داده‌ها، دست به شناسایی الگوها می‌زنند. همان‌طور که مریدیت بروسارد توضیح می‌دهد، یادگیری ماشین «به این معنی است که ماشین می‌تواند در وظایف برنامه‌ریزی‌شده، خودکارسازی‌شده و مطابق روال پیشرفت کند»؛ نه آن‌که «ماشین، دانش، خِرَد یا عاملیت کسب می‌کند؛ برخلاف آن‌چه اصطلاح «یادگیری» ممکن است به ذهن متبادر کند».

در نهایت، وعدۀ ربات‌های ذی‌شعور همچنان محقق نشده است. با این حال امروزه، این اعلان بزرگ به گوش می‌رسد که هوش‌مصنوعی محقق شده ‌است. واقعیت آن است که، مجموعه‌ای از فناوری‌های مرتبط سرانجام به عملکرد مطلوبی دست یافته‌اند و به ‌عنوان هوش‌مصنوعی هویت تجاری جدیدی یافته‌اند.

استعاره‌ها می‌توانند به فناوری‌ها کیفیت‌هایی انسان‌گونه ببخشند، امّا در عین حال می‌توانند جوهرۀ انسانی‌شان را از آن‌ها بزدایند. دستگاه‌های الکترونیکی ما صرفاً  مونتاژی از فلزات، پلاستیک و شیشه هستند و به نظر می‌رسد داده‌ها در فضایی مجازی و منفصل [از عالم انسانی] شناورند. با این حال، عنصر انسانی همواره در فناوری نقشی اساسی دارد. همان‌طور که کیت کرافورد  اشاره می‌کند، مشارکت انسانی در تقریباً تمامی سطوح هوش‌مصنوعی نهادینه شده ‌است.  داده‌هایی که برای آموزش‌دادن الگوریتم‌های هوش‌مصنوعی به‌کار برده می‌شوند، از فعالیت‌ها، افکار و گفت‌وگوهای انسانی سرچشمه می‌گیرند و اغلب نیز به‌ دست انسان‌ها گزینش و گردآوری می‌شوند. انسان‌ها در طراحی و آموزش مدل‌های الگوریتمی نقش به‌سزایی دارند.  همان‌طور که اریک سیگل اشاره می‌کند، موثرترین [روش] یادگیری ماشین، «یادگیری ماشین نظارت‌شده»  است که داده‌های آموزشیِ برچسب‎گذاری‌شده را شامل می‌شود. الگوریتم‌ها از این برچسب‌ها «می‌آموزند» و اطمینان حاصل می‌کنند که چیزی درست انجام شده یا خیر. انسان‌هایند که این داده‌ها را برچسب‌گذاری می‌کنند. با آن‌که هوش‌مصنوعی ماورائی به نظر می‌رسد، امّا عمیقاً فیزیکی است، ریشه در کار انسانیِ شدید و اغلب پرزحمت و چالش‌برانگیز دارد و به منابع انرژی و مادی عظیمی وابسته است.

در حقیقت، هوش‌مصنوعی امروزین می‌تواند مقایسه‌ای تقریبی با تُرک مکانیکی  را در ذهن بیاورد؛ یک ماشین شطرنج‌باز که از زمان اختراعش در سال 1770، بینندگان اروپایی را  برای قریب به هشت دهه مسحور خود ساخت. این دستگاه، با اتاقکی چوبی که روی آن یک صفحۀ شطرنج قرار داشت، پیکرۀ [انسان‌نمای] تُرکی را به نمایش می‌گذاشت که پشت آن نشسته بود و عملکردی خودکار داشت. با این حال، در نهایت مشخص شد که حقه‌ای در کار است؛ در تمام این مدت، یک انسان داخل این دستگاه پنهان شده بود. هوش‌مصنوعی امروزین نیز به‌طور مشابهی از مصنوعی‌بودن به‌دور و درهم‌تنیده با تلاش انسانی است.

بهره‌گیری از استعاره‌های برگرفته از مفاهیم آشنا برای کمک به درک مفاهیم جدید و ناآشنا، طبیعی و اغلب گریزناپذیر است. با آن‌که نمی‌توانیم به‌طور کلی از استعاره‌ها بپرهیزیم، ضروری است که نسبت به استعاره‌هایی که برمی‌گزینیم و تحریفاتی که ممکن است در درک ما ایجاد کنند، آگاه باشیم.

استعاره‌های مورد استفاده برای هوش‌مصنوعی، تأثیر چشمگیری بر شکل‌گیری قوانین و سیاست‌ها می‌گذارند. برای درک مشکلات حریم خصوصی مرتبط با هوش‌مصنوعی، درک چگونگی عملکرد هوش‌مصنوعی ضرورت دارد. این اهمیت دارد که چه میزان داده برای هوش‌مصنوعی گردآوری می‌شود، این داده‌ها چگونه گردآوری می‌شوند و چگونه شکل می‌یابد و استاندارد می‌شود. مهم است که ابزارهای هوش‌مصنوعی چگونه خروجی‌هایشان را تولید می‌کنند، ظرفیت هوش‌مصنوعی در تولید خروجی‌ها چه محدودیت‌هایی دارد، چه خطاها و تحریف‌هایی ممکن است رخ دهد و از آن‌جایی که هوش‌مصنوعی واقعیت را عیناً شبیه‌سازی نمی‌کند و آن را دگرگون می‌سازد، مهم است که در این فرآیند چه چیزی از دست می‌رود یا دگرگون می‌شود. این‌که ابزارهای هوش‌مصنوعی چگونه استفاده می‌شوند، اهمیت دارد. مهم است که ابزارهای هوش‌مصنوعی چگونه طراحی شده‌اند؛ انسان‌هایی که پشت‌صحنه درکارند، انگیزه‌هایشان، اهدافشان، سوگیری‌هایشان و پیش‌فرض‌هایشان اهمیت دارد.

ادراک کاربران از هوش‌مصنوعی و همچنین نحوۀ اتکای آنان به خروجی هوش‌مصنوعی اهمیت دارد. به‌ نحو طنزآمیزی، فهم ما از هوش‌مصنوعی به‌گونه‌ای تحریف شده ‌‌است که از سویی به ‌واسطۀ نسبت‌دادنِ ویژگی‌های انسانی به آن، آن را انسان‌گونه تلقی می‌کند و  از سوی دیگر، وجوه انسانی آن را نادیده می‌گیرد. هر دوی این مسیرهای تحریف‌آمیز، می‌تواند ما را در استفاده از و تنظیم هوش‌مصنوعی به بیراهه بکشاند.

چگونگی درک‌مان از هوش‌مصنوعی، میزان اعتمادمان به آن را متأثر می‌کند؛ این‌که با آن همچون چیزی خنثی مواجه می‌شویم یا آن را واجد سوگیری می‌دانیم، چگونه با آن تعامل می‌کنیم، چگونه از آن برای تصمیم‌گیری و دیگر اهداف استفاده می‌کنیم، این‌که آیا مشکلات معینی را تشخیص می‌دهیم یا خیر و این‌که چه کسی را مسئول آن مشکلات می‎دانیم. در نهایت، پاسخ قانون به نحو چشمگیری به چگونگی درک ما از هوش‌مصنوعی بستگی دارد.

ج) علیه استثناءگرایی هوش‌مصنوعی

در زمینۀ مشکلات حریم خصوصی، باید مراقب باشیم که از آن‌چه من «استثناءگرایی هوش‌مصنوعی» می‌نامم، اجتناب کنیم. استثناءگرایی هوش‌مصنوعی یعنی برخورد با هوش‌مصنوعی به ‌عنوان چیزی آن‌چنان متفاوت و ویژه که در نتیجۀ آن نتوانیم مشکلات حریم خصوصی مرتبط با هوش‌مصنوعی را مشابه مشکلات حریم خصوصی موجود، صرفاً به‌ گونه‌ای تشدید شده، ببینیم. آینده‌ای که هوش‌مصنوعی از حریم خصوصی به نمایش می‎گذارد، مدت‌هاست پیش‌بینی شده ‌است. هوش‌مصنوعی به‌وضوح نقص‌ها و کاستی‌های عمیق در قوانین کنونی حریم خصوصی را برجسته کرده و این مسائل را در صدر توجه می‌آورد.

ترس سیاست‌گذاران از هوش‌مصنوعی آغاز شده ‌است. قوانین جدیدی پیشنهاد می‌شوند. اگرچه من به‌طور قطع از این فرصت برای اصلاحات قانونی استقبال می‌کنم، دربارۀ این‌که آیا باید قوانین جدیدی تصویب کرد یا قوانین قبلی را تغییر داد، موضعی ندارم. آن‌چه اهمیت دارد، این است که آیا سیاست‌گذاران از بینش کافی و جامعی دربارۀ مشکلات حریم خصوصی مرتبط با هوش‌مصنوعی برخوردارند و آیا درک درستی از مشکلات و نحوۀ برخورد با هر یک از آن‌ها دارند یا خیر.

برخی مفسرین خواستار قوانین ویژه در زمینۀ هوش‌مصنوعی و نهادهای ویژه برای پرداختن به هوش‌مصنوعی هستند. قوانین تکمیلی می‌توانند مفید باشند، امّا چند نکتۀ مهم وجود دارد. نخست آن‌که یک قانون عمومی هوش‌مصنوعی ممکن است موفق نشود به اندازۀ کافی بر مشکلات حریم خصوصی مرتبط با هوش‌مصنوعی تمرکز کند و از رسیدگی به بسیاری از این مشکلات بازبماند. هوش‌مصنوعی فرصتی را برای بازنگری و بازاندیشی در قانون حریم خصوصی کنونی فراهم می‌کند؛ چیزی که می‌تواند نقشی اساسی [در حل مشکلات] ایفا کند. سیاست‌گذاران نباید تصور کنند که قانون حریم خصوصی کنونی به خوبی از عهدۀ شناخت و مواجهۀ با مشکلات حریم خصوصی ناشی از هوش‌مصنوعی برمی‌آید و تمام آن‌چه به آن نیازمندیم، افزودن یک لایۀ محافظتی دیگر است. چنین خطایی مانند این است به ساختمانی با پایۀ ناپایدار و بد طراحی‌شده، یک طبقۀ دیگر اضافه کنید.

مشکلات حریم خصوصی مرتبط با هوش‌مصنوعی، فعالیت‌هایی را شامل می‌شوند که قانون حریم خصوصی مدت‌هاست به آن‌ها می‌پردازد؛ یعنی جمع‌آوری و پردازش داده‌های شخصی. برای مقابله با مشکلات حریم خصوصی مرتبط با هوش‌مصنوعی، این فعالیت‌ها باید با نگاهی کل‌نگر و جامع مورد ملاحظه قرار گیرند؛ نه فقط زمانی که از خط جادویی [فرضی] عبور می‌کنند و به قلمرو هوش‌مصنوعی وارد می‌شوند؛ چنان‌که گویی یک جهان موازی است. هوش‌مصنوعی ادامه‌دهندۀ همان مسیر جمع‌آوری و بهره‌گیری از داده‌هاست که در دوران دیجیتال در جریان بوده ‌است.

در اوایل دوران ظهور اینترنت تجاری، قاضی فرانک ایستربروک  استدلال مشهوری طرح کرد. او استدلال کرد که اینترنت نباید با مجموعۀ مجزایی از قوانین تنظیم شود؛ همان‌طور که قانون جداگانه‌ای به‌عنوان «قانون اسب» وجود ندارد.  نظر او در این باره صحیح است که ما باید از تصویب عجولانۀ قوانین اختصاصی دربارۀ تکنولوژی‌هایی همچون اینترنت اجتناب کنیم؛ تکنولوژی‌هایی که تقریباً تمامی وجوه زندگی و تمام حیطه‌های قانون را متأثر خواهند ساخت. احتمالاً هوش‌مصنوعی نیز چنین تکنولوژی‌ای خواهد بود؛ بر مجموعۀ بزرگی از مسائل تأثیر خواهد گذاشت و حوزه‌های حقوقی بی‌شماری را در بر خواهد گرفت. امّا نباید هوش‌مصنوعی را فاقد ابعاد و مسائلی دانست که نیاز به ملاحظات ویژه دارند.

در موضوع حریم خصوصی، در مقطعی به سر می‌بریم که تصمیم‌گیری‌های جدی و اساسی ضرورت دارد؛ فارغ از این‌که بخواهیم از قوانین موجود استفاده کنیم یا قوانین جدید یا ترکیبی از این دو. چنان‌که در ادامۀ این مقاله توضیح خواهم داد، قوانین حاضر از قابلیت رسیدگی به مسائل موجود برخوردار نیستند. امید آن است که اکنون سیاست‌گذاران نیاز فوری برای تغییر اساسی در رویکرد قانون حریم خصوصی را تشخیص دهند.


1.the AI Act

2. Quoted in Eric Siegel, Why A.I. Is a Big Fat Lie, Big Think, Jan. 23, 2019.

3. MUSTAFA SULEYMAN, THE COMING WAVE: TECHNOLOGY, POWER, AND THE 21ST CENTURY’S GREATEST DILEMMA 78 (2023).

[4] John McCarthy

[5] CHRIS WIGGINS AND MATTHEW L. JONES, HOW DATA HAPPENED: A HISTORY FROM THE AGE OF REASON TO THE AGE OF ALGORITHMS 126-27 (2023).

[6] 11 Id. at 182.

[7] 12 WIGGINS AND JONES, HOW DATA HAPPENED, supra note X, at 182.

[8] Brian Christian

[9] BRIAN CHRISTIAN, THE ALIGNMENT PROBLEM: MACHINE LEARNING AND HUMAN VALUES 20 (2020).

[10] Meredith Broussard

[11] MEREDITH BROUSSARD, ARTIFICIAL UNINTELLIGENCE: HOW COMPUTERS MISUNDERSTAND THE WORLD 90 (2018).

[12] Rebecca Barker, “If ChatGPT Had a Brain, this Is What It Would Look Like,” Fast Company (Aug.

17, 2023 www.fastcompany.com

[13] Ryan Calo

[14] Ryan Calo, Artificial Intelligence Policy: A Primer and Roadmap, 51 U.C. Davis L. Rev. 399, 404 (2017).

[15] training data

[16] Sara Brown, Machine Learning, Explained, MIT Sloan School of Management (Apr. 21, 2021), https://mitsloan.mit.edu/ideas-made-to-matter/machine-learning-explained

[17] IBM, What Is a Neural Network? https://www.ibm.com/topics/neural-networks.

[18] Merriam-Webster Dictionary, Automation, https://www.merriam-webster.com/dictionary/automation

[19] Eric Siegel

[20] Eric Siegel, Why A.I. Is a Big Fat Lie, Big Think, Jan. 23, 2019.  

[21] همان.

[22]  BROUSSARD, ARTIFICIAL UNINTELLIGENCE, supra note X, at 91.

[23] Marvin Minsky

[24] Seymour Papert

ل[25] CHRISTIAN, ALIGNMENT PROBLEM, supra note X, at 20-21.

[26] MEREDITH BROUSSARD, ARTIFICIAL UNINTELLIGENCE: HOW COMPUTERS MISUNDERSTAND THE WORLD 91 (2018).

[27] Alexander Fradkov

[28] parallel computing

[29] memory

[30] Fradkov, Early History, supra note X, at 1387.

[31] Chris Wiggins

[32] Matthew Jones

[33] WIGGINS AND JONES, HOW DATA HAPPENED, supra note X, at 190-91.

[34] Ryan Calo, Artificial Intelligence Policy: A Primer and Roadmap, 51 U.C. Davis L. Rev. 399, 401-02 (2017).

[35] همان.

[36] همان.



[1] Daniel J. Solove. سولوو استاد حقوق مالکیت فکری و فناوری در دانشکدۀ حقوق دانشگاه جورج واشنگتن است. وی همچنین بنیان‌گذار شرکت «پرایوسی‌تیچ» (TeachPrivacy) است که آموزش‌هایی در زمینه حریم خصوصی و امنیت داده ارائه می‌دهد. سولوو به‌واسطه فعالیت آکادمیک در حوزه حریم خصوصی و نگارش کتاب‌های پرمخاطب در موضوع پیوند حریم خصوصی و فناوری اطلاعات شناخته شده‌است. (م)