بخش اول از مقاله (Artificial Intelligence and Privacy (2024
دنیل جی. سولوو
ترجمه سمانه هاشمی نژاد
مقدمه
زمانی که هنر و علم در ظاهری فریبنده یکدیگر را ملاقات میکنند و ماشینها ذهنی از آنِ خودشان را به کار میگیرند، قلبها و دیدگان ما را ترسی فرامیگیرد که مبادا حریم خصوصی، که زمانی گرامی داشته میشد، از میان برود. 《ترجمه شعری از: chatgpt》
هوشمصنوعی (AI) لحظهای جادویی را از سر میگذراند. هوشمصنوعی همهجا دیده میشود و به نظر میرسد که همه درباره آن حرف میزنند. همزمان با آن که هوشمصنوعی پیوسته در سرتاسر جهان پیشروی میکند و تقریباً به تمامی وجوه زندگی به طور سرزده وارد میشود، انبوهی از مسائل را پدید میآورد که از موضوع مالکیت فکری گرفته تا اشتغال و همینطور امنیت، که حریم خصوصی را نیز شامل میشود. علاوه بر پیچیدهترکردن وضعیت، هوشمصنوعی به طرق مختلفی بر حریم شخصی اثر میگذارد و به انبوهی از نگرانیها میانجامد.
در این مقاله، هدف من این است که برای درک ارتباط میان هوشمصنوعی و حریم شخصی، شالودهای مفهومی و کاربردی فراهم کنم و نقشۀ راهی به دست دهم که چگونه قانون حریم خصوصی باید هوشمصنوعی را تحت نظارت درآورد. تاکنون، تعداد انگشتشماری از مفسران، چشمانداز کلیِ برهمکنش متقابل هوش مصنوعی و حریم خصوصی را بررسی کردهاند. این مقاله در پی آن است که این نقشهای از این قلمرو به دست دهد.
قوانین فعلیِ حوزه حریم خصوصی، هماکنون نیز تاحدودی هوشمصنوعی را لحاظ کردهاند؛ برای مثال مادههایی از «مقررات عمومی حمایت از دادههای شخصی اتحادیه اروپا» (GDPR) به پردازش «خودکار» دادهها اختصاص یافته است. قوانین حریم خصوصی چندین ایالتِ امریکا نیز شامل تبصرههایی درخصوص خودکارسازی میشوند؛ هر چند این تبصرهها محدودیتهایی دارند و به نظر میرسد قوانین جدیدی وضع خواهند شد که منحصراً بر هوشمصنوعی تمرکز یافته باشند. اتحادیه اروپا اخیراً «قانون هوشمصنوعی»[1] را وضع کرده است. بهعلاوه، قوانین هوشمصنوعی در ایالات متحده شروع به رشد کردهاند.
آیا قانون حریم خصوصی ابزار مناسبی برای تنظیم این مسائل است؟ یا آیا به مشکلات حریم خصوصی مرتبط با هوشمصنوعی به بهترین نحو توسط قوانین ویژه هوشمصنوعی رسیدگی شده است؟ بعضی مفسرین این پرسش را طرح میکنند که آیا قانون حریم خصوصی برای پرداختن به هوشمصنوعی مناسب است؛ همانگونه که استاد حقوق، اریک گولدمن، عنوان میکند:
برای هواداران حریم خصوصی، دامنهی رو به گسترش قانون حریم خصوصی به نظر مطلوب میرسد؛ امّا برای بقیۀ ما، بدون تردید مطلوب نیست. ما مایل نیستیم که تصمیمات متخصصان حریم خصوصی، سیاستها را درباره موضوعاتی خارج از حوزه تخصصشان تعیین کنند. آنان از تخصص لازم بیبهرهاند، بنابراین در خط مشیهایشان مرتکب خطاهای جدی و قابلاجتناب خواهند شد!
من در این مقاله، ادعا میکنم که اگرچه قانون حریم خصوصی موجود در پرداختن به مشکلات حریم خصوصی مرتبط با هوشمصنوعی بسیار ناکام بوده است، چنانچه قانون حریم خصوصی به خوبی مفهومسازی و تدوین شود، عاملی موثر در حل این مشکلات خواهد بود.
برای تعیین آنکه قانون چگونه میتواند روابط بین هوشمصنوعی و حریم خصوصی را تنظیم کند، لازم است چند موضوع بنیادی بررسی و توضیح داده شوند. نخست، درک چیستیِ هوشمصنوعی ضروری است. این موضوع از پیچیدگی برخوردار است، چرا که آنچه امروزه «هوشمصنوعی» تلقی میشود، با معنی رایجی که برای مدتی طولانی وجود داشت (یعنی رباتهای ذیشعور و حساس) متفاوت است. اصطلاح «هوشمصنوعی» امروزه برای توصیف الگوریتمهای یادگیری ماشین و فناوریهای مرتبط استفاده میشود، که اینها با ماشینهایی که قادر به تفکر مستقل باشند، متفاوتاند. هوشمصنوعی امروزین، به نحو جالبی، هم کهنه و هم نو است؛ یک گام در مسیر تحولی طولانی و همزمان یک جهش چشمگیر به جلو. بسیاری از فناوریهای امروزین هوشمصنوعی برای قانون حریم خصوصی به خوبی شناختهشدهاند و در عین حال روشهایی که حریم خصوصی را دستخوش تغییر میکنند، شدیداً غافلگیرکننده است.
دوم آنکه مشکلات حریم خصوصیِ ناشی از هوشمصنوعی باید شناخته شوند. برای تعیین آنکه قانون چگونه باید این مسائل را تحت نظارت درآورد، شناسایی نقاط ضعف قانون کنونی و مشخصکردن تغییرات یا الحاقات لازم، برای درک تصویر بزرگتر ضروری است. هوشمصنوعی شامل الگوریتمهایی است که ورودیها را دریافت میکنند و خروجیهایی را میسازند. مشکلات حریم خصوصی هم در ورودیها و هم درخروجیها ظهور مییابند. این مشکلات حریم خصوصی اغلب جدید نیستند؛ آنها نسخههایی تغییریافته از مشکلات دیرینهی حریم خصوصیاند. امّا هوشمصنوعی مشکلاتِ از پیش موجودِ حوزۀ حریم شخصی را در مسیرهایی پیچیده و منحصربهفرد بازآرایی کرده است. بعضی مشکلات بهگونهای با یکدیگر ترکیب شدهاند که چارچوبهای تنظیمگر موجود را به چالش میکشند. در بسیاری موارد، هوش مصنوعی مشکلات موجود را تشدید میکند و اغلب این تهدید وجود دارد که آنها را به سطوح بیسابقهای بکشاند.
مشکلات مرتبط با ورودیها شامل مسائل مربوط به جمعآوری دادهها میشود. که اسکرپینگ (جمعآوری آنلاین داده بدون رضایت کاربران) و همچنین اَشکال توافقیترِ جمعآوری داده را دربرمیگیرد. عمومِ قوانین حریم خصوصی، توجه اندکی به هر دو نوعِ جمعآوری داده داشتهاند.
مشکلات مرتبط با خروجیها شامل: تولید داده، تصمیمگیری و تحلیل داده میشود. دادههای جدیدِ تولید شده بر مبنای استنباطهای مبتنی بر هوشمصنوعی میتوانند جزئیاتی را دربارهی مردم آشکار کنند که آنان نه انتظار افشایشان را دارند و نه مایل به آشکارشدنشان هستند. تولید داده، مرز میان جمعآوری داده و پردازش داده را کمرنگ میکند و دور زدن بسیاری از حفاظتهای مرتبط با قانون حریم خصوصی را ممکن میسازد.
تولید داده مبتنی بر هوشمصنوعی، همچنین میتواند به خلق اطلاعات بدخواهانه در مقیاسی بیسابقه بیانجامد؛ که این میتواند مشکلاتی نظیر فریبکاری و دستکاری اطلاعات را تشدید کند و آسیبپذیریهای جدیدی در حوزۀ امنیت داده را سبب شود. حتی محتواهای غیربدخواهانۀ تولید شده توسط هوشمصنوعی نیز میتوانند فریبآمیز و گمراهکننده باشند، مثلاً زمانی که هوشمصنوعی در موقعیتهای مشخصی انسانها را شبیهسازی میکند.
مجموعه دیگری از خروجیهای هوشمصنوعی شامل استفاده از الگوریتمهای هوشمصنوعی برای تصمیمگیری درباره افراد میشود. هوشمصنوعی میتواند پیشبینیهایی را دربارۀ رفتار آتی افراد ارائه دهد، که این میتواند منجر به مداخلات و قضاوت براساس اَعمالی شود که هنوز از آنان سر نزده است و به کاهش احترام به عاملیت انسان بیانجامد. خودکارسازی در تصمیمگیری مبتنی بر هوشمصنوعی، این فرآیند را تشخصزدایی میکند و آن را به سمت ابعاد قابل اندازهگیری و به دور از جزئیات منحصربهفرد غیرقابل اندازهگیری سوق میدهد. هوشمصنوعی همچنین میتواند بهطور سازمانیافته سوگیریها را در تصمیمات رمزگذاری کند.
بهعلاوه، تحلیل داده مبتنی بر هوشمصنوعی میتواند عملکردهایی که حریم خصوصی را مورد حمله قرار میدهند – مانند تجسس و تعیین هویت – را تشدید کند و بر قدرت ناظران بیفزاید.
هوشمصنوعی چالشهای آزاردهندهای را در زمینه مقررات نظارتی، مشارکت ذینفعان و پاسخگویی در پی دارد. از آنجا که الگوریتمهای هوشمصنوعی پویا و اغلب نفوذناپذیرند، شفافیت را شدیداً بغرنج میکند. هوشمصنوعی چالشهایی را متوجه فرآیند دادرسی فردی میکند. توسعه فناوریهای هوشمصنوعی اغلب بسیاری از گروههای ذینفعِ تأثیرپذیرفته را مورد غفلت قرار میدهد؛ به ویژه گروههای کمتر بازنمایانده شده و به حاشیه رانده شده. معمولاً در زمینه هوشمصنوعی پاسخگویی کافی وجود ندارد. اغلب به واسطۀ پاداشهای چشمگیر در توسعهی موفق فناوریهای هوشمصنوعی، از اجرای مقررات صرفنظر میشود، وضعیتی است که به ریسکپذیری مهار نشده میانجامد. برای مثال، جبران خسارت از طریق از بین بردن الگوریتمها در عمل دشوار است.
بهطور کلی، هوشمصنوعی در حیطهی حریم خصوصی تحولی غیرمنتظره را ایجاد نکرده است؛ آنچه با آن روبهرو هستیم، در بسیاری از اَشکال، آیندهای است که از مدتها قبل پیشبینی شده است. امّا هوشمصنوعی کاستیهای دیرینه، عارضهها و رویکردهای غلط قانون حریم خصوصی را کاملاً آشکار میکند.
دست آخر، چه از مسیر اصلاح قوانین موجود و چه به عنوان بخشی از قوانین جدید، مسائل بسیاری باید از پیشِرو برداشته شوند تا مشکلات حریم خصوصیِ ناشی از هوشمصنوعی برطرف گردد. این موضوع بسیار سرنوشتساز است؛ چراکه هوشمصنوعی، هرچند ماشینهای ذیشعور را شامل نمیشود، همچنان در برگیرنده مجموعهای از تکنولوژیهای شدیداً قدرتمند و تحولآفرین است. در این مقاله، من نقشۀ راهی از مشکلات کلیدی که قانون باید با آنها دستوپنجه نرم کند و راهنمایی دربارۀ رویکردهایی که میتوانند سودمند باشند و رویکردهای محکوم به شکست را ارائه خواهم داد.
بخش اول به بحث درباره اینکه هوشمصنوعی چه چیزی هست و چه چیزی نیست، افسانهزدایی از این مفهوم، توضیح اینکه چرا هوشمصنوعی هم قدیمی و هم جدید است و توصیههایی علیه «استثناءگرایی هوشمصنوعی» (تلقی مشکلات حریم خصوصی مرتبط با هوشمصنوعی به عنوان مسائلی چنان منحصربهفرد که باید با آن به شیوهای مجزا از دیگر مشکلات حریم خصوصی برخورد شود) اختصاص خواهد یافت. در بخش دوم، نقشهی راهی برای تنظیم هوشمصنوعی و حریم خصوصی ارائه خواهد شد. من مشکلات حریم خصوصی ناشی از هوشمصنوعی را بررسی خواهم کرد و بحث خواهم کرد که قانون چگونه باید به این مسائل پاسخ دهد.
بخش اول
هوشمصنوعی: دگربار نو، قدیمی است
هر فناوریِ بهحدکافی پیشرفته، از جادو تمایزناپذیر است.
آرتور سی. کلارک[2]
مصطفی سلیمان، متخصص هوشمصنوعی چنین اظهار میکند: «هوشمصنوعی بسیار عمیقتر و قدرتمندتر از آن است که صرفاً یک تکنولوژی دیگر تلقی شود. خطر این نیست که دربارهی هوش مصنوعی اغراق کنیم؛ بلکه در این است که متوجه عظمت موج آینده نشویم. هوش مصنوعی فقط یک ابزار یا پلتفرم نیست؛ بلکه یک فراتکنولوژی تحولآفرین است».[3]
برای درک مشکلات حریم خصوصی مرتبط با هوشمصنوعی و فهم اینکه چگونه باید این حوزه را تنظیم کنیم، دانستنِ اینکه هوشمصنوعی چه هست و چه نیست، ضرورت دارد. در حال حاضر، از آنجا که مفهوم هوش مصنوعی بهواسطه اصطلاحات و استعارههای گمراهکننده مخدوش شده است، سردرگمی عمدهای دربارهی هوش مصنوعی وجود دارد.
الف) برآمدن هوشمصنوعی
هوشمصنوعی تصاویر رباتهای هوشمند و فانتریهای علمی-تخیلی را احضار میکند. برای صدها سال، [ادبیات] علمی-تخیلیْ آفرینشِ هستیها و ماشینهای ذیشعور بهدست انسان را تصویر کرده است؛ از هیولای مطرود رمان فرانکشتاین؛ یا پرومتۀ مدرن (1818) مری شلی تا رباتهای داستانهای دهۀ 1940 آیزاک آسیموف که در کتاب من، ربات (1950) جمعآوری شدهاند یا هال، کاراکتر سردخو و آدمکش فیلم «2001: یک ادیسۀ فضایی» (1968) تا C3PO دوستانه امّا مزاحم در «جنگ ستارگان» (1977) تا ربات جلاد هولناک «نابودگر» (1984) تا دیتا، کاراکتر مصنوعیِ شبهانسان «پیشتازان فضا: نسل بعدی» (1987) تا ربات دیجیتال غیرفیزیکیِ خوشرفتار در «او» (2013). این آثار، آگاهی عمومی را شیفته خود ساختهاند. افراد زیادی مشتاقانه و گاه با دلهره در انتظار روزی به سر میبرند که هوش مصنوعی سرانجام تبدیل به واقعیت خواهد شد و حیرت همگان را برخواهد انگیخت.
امّا چنین واقعهای رخ نداد. از اواسط قرن بیستم، انقلاب دیجیتال با برآمدن بزرگرایانهها آغاز شد، سپس رایانههای خانگی، سپس لپتاپها و پس از آن گوشیهای هوشمند. ما شاهد اوجگیری اینترنت، رشد تصاعدی توان محاسباتی، افزایش عمده ظرفیت ذخیرهسازی دادهها، قدرت روبهرشد کلاندادهها (Big Data) و ظهور اینترنت اشیاء بودهایم؛ امّا هوشمصنوعی در قلمرو علمی-تخیلی باقی ماند … تا چندی پیش.
دانشمند علوم کامپیوتر، جان مککارتی[4] اصطلاح «هوشمصنوعی» را در سال 1955 در دورتمند ابداع کرد.[5] در دهههای بعد، تلاشهای بسیاری در جهت توسعه هوش مصنوعی صورت گرفت؛ امّا این تلاشها بهطور معمول سرانجامی ناامیدانه داشتند.[6] در سال 1973، ریاضیدان بریتانیایی، سر جیمز لایتیل، این نظر مشهور را در مقالهاش با عنوان هوش مصنوعی: یک بررسی کلی اظهار داشت: «در هیچ نقطهای از این حیطه، اکتشافاتِ صورتگرفته، تأثیرات بزرگِ وعده داده شده را محقق نکردهاند»[7]. همانطور که برایان کریستین[8] گفته: «تاریخ هوشمصنوعی یکی از نمونههای مشهور چرخهی متناوب امید و ناامیدی است».[9]
بر اساس گفتههای مریدیت بروسارد[10]، خبرنگار حوزه تکنولوژی، در نخستین دهه قرن حاضر، جریان اصلی سیاسی «عمدتاً هوشمصنوعی را نادیده گرفته بود». امّا بعد، در میانۀ دهۀ 2010، «مردم شروع به حرفزدن دربارهی یادگیری ماشین کردند. ناگهان، هوشمصنوعی دوباره موضوع داغ روز بود»[11]. بروسارد سال 2017 را به عنوان تاریخی که محبوبیت هوشمصنوعی رو به ازدیاد گذاشت مشخص میکند.
جرقهای که آتش شیدایی اخیر حول هوشمصنوعی را شعلهور کرده، چتجیپیتی (ChatGPT) بوده است؛ یک مدل بزرگ زبانی مبتنی بر یادگیری ماشین که میتواند برای پرسشوارهها (prompts) پاسخ متنی تولید کند. چتجیپیتی توسط Open.AI توسعه داده شد که در سال 2015 توسط گروهی از رهبران حوزه تکنولوژی و سرمایهگذاران راهاندازی شد. Open.AI که در اصل پروژهای غیرانتفاعی بود، در سال 2019 تبدیل به شرکتی انتفاعی شد. در سال 2021، Open.AI چتجیپیتی را بهطور عمومی منتشر کرد.[12]
با الهام از موفقیت چتجیپیتی، شرکتهای بسیار دیگری ابزارهای هوشمصنوعی مشابهی را راهاندازی کردند. همهمه همگانی بهسرعت بدل به شیدایی شد. امروزه به نظر میرسد دوران هوشمنصوعی سرانجام فرا رسیده است.
ب) هوشمصنوعی چیست؟
اصطلاح «هوشمصنوعی» به شکلی که امروزه بهکار برده میشود، چیزی بیش از خلق رباتهای خودآگاه _ شبیه آنچه در آثار علمی-تخیلی میبینیم _ را دربرمیگیرد. در عوض، طیفی گسترده از فناوریهایی را شامل میشود که الگوریتمها در آن بهکار رفتهاند. الگوریتم، مجموعهای دستورات یا دستورالعملهاست که به اجرای وظایفی میانجامد. الگوریتم شبیه یک دستورپخت ریاضیاتی است.
هوشمصنوعی به توسعه سیستمهای کامپیوتری اشاره دارد، به نحوی که بتوانند از عهده اجرای وظایفی که بهطور معمول نیازمند هوشانسانی است بربیایند؛ وظایفی مانند حلمسأله، تصمیمگیری، درک زبانی و ادراک. همانگونه که استاد حقوق، رایان کالو[13]، اشاره میکند: «هیچ تعریف سرراستِ مورد توافقی از هوشمصنوعی وجود ندارد. بهترین روش برای درک این مفهوم آن است که هوشمصنوعی را به عنوان مجموعهای از تکنیکها با هدف نزدیکشدن به برخی جنبههای شناختی انسانی و حیوانی با بهرهگیری از ماشینها بشناسیم»[14].
یادگیری ماشین، شبکههای عصبی مصنوعی و هوشمصنوعی مولّد
الگوریتمهای یادگیری ماشین در مرکز هوشمصنوعی مدرن قرار دارند. امروزه، بیشترین کاربردهای اصطلاح «هوشمصنوعی» به یادگیری ماشین اشاره دارد. این الگوریتمها میتوانند هوش را شبیهسازی کنند، امّا آنها درحقیقت هوشمند نیستند.
الگوریتمهای یادگیری ماشین با تکیه بر دادهها، استنتاجها و پیشبینیهایی را صورت میدهند. این الگوریتمها از طریق ورود حجم فزاینده دادهها پیشرفت کرده و تکامل مییابند؛ چیزی که «دادههای آموزشی»[15] نامیده میشود. «برنامهنویسان کامپیوتر، یک مدل یادگیری ماشین را انتخاب میکنند، دادهها را فراهم میکنند و اجازه میدهند مدل کامپیوتری بهطور خودکار خود را آموزش دهد تا الگوهایی را بیابد و پیشبینیهایی را به دست دهد». الگوریتمهای یادگیری ماشین بر حجم عظیمِ داده تکیه دارند؛ «هرچه داده بیشتر باشد، برنامه بهتر است».[16]
یکی از انواع یادگیری ماشین با عنوان «شبکههای عصبیمصنوعی»، شامل الگوریتمهایی است که تحت عنوان «یادگیری عمیق» شناخته میشوند. شبکههای عصبی مصنوعی «که از مغز انسان الهام گرفتهاند، روشی را تقلید میکنند که نورونهای زیستی برای یکدیگر سیگنال ارسال میکنند».[17] شبکههای عصبی مصنوعی از طریق لایههای مختلفی عمل میکنند که «گره» نامیده میشوند؛ این گرههای طراحی شدهاند تا بهعنوان نورونهای مصنوعی فعالیت کنند. هر گره به دیگر گرهها متصل است و از وزن و آستانهای مشخص برخوردار است. اگر خروجی یک گره از این آستانه فراتر رود، فعال میشود و دادهها را به لایۀ بعدیِ شبکه منتقل میکند. در غیر این صورت گره غیرفعال باقی میماند و جریان داده منقطع میشود.
توجه عمومیِ کنونی به هوشمصنوعی، هوشمصنوعی مولّد را نیز دربرگرفته است. هوشمصنوعی مولّد، شاخهای از هوشمصنوعی است که به تولید محتوای جدید – از جمله متن، صدا، تصویر یا ویدئو – اختصاص یافته است. از نمونههای هوشمصنوعی مولّد، میتوان چتباتهای مبتنی بر الگوهای زبانی بزرگ (LLM) را نام برد؛ مانند چتجیپیتی. کاربران از طریق وارد کردن یک «پرامپت» – یک پرسش یا درخواست – با این ابزارها تعامل میکنند و هوشمصنوعی مولد با تولید یک پاسخ به آن پاسخ میدهد. چتجیپیتی با یک ابزار تولید تصویر با نام DALL-E ادغام شده است. هوشمصنوعی مولّد میتواند براساس پرامپتهایی که دریافت میکند، خروجیهایی از قبیل رمان تولید کند.
در گفتگوها اغلب هوشمصنوعی و خودکارسازی با یکدیگر مطرح میشوند؛ امّا این دو، یکسان نیستند. هوشمصنوعی، نوعی خودکارسازی است؛ امّا اصطلاح «خودکارسازی» به نحو گسترهتری دربرگیرندۀ «تکنیکهای خودکارکردن عملکرد یک دستگاه، فرآیند یا سیستم»[18] است. بسیاری از انواع خودکارسازی شامل داده نمیشود؛ همچنین بسیاری از آن دسته فرآیندهای خودکار که شامل داده میشوند، شامل آن گونه الگوریتمهای یادگیری ماشین نمیشوند که امروزه مشخصه هوشمصنوعی است.
فناوریهای قدیمی با هویت جدید تجاری
آنچه بحثهای کنونیِ حول هوشمصنوعی را بسیار سردرگمکننده کرده، آن است که اصطلاح هوشمصنوعی برای تغییر نام تجاری (ریبرند) تکنولوژیهای یادگیری ماشین استفاده شده است. همانطور که اریک سیگل[19]، متخصص یادگیری ماشین، اظهار کرده است: «هوشمصنوعی یک دروغ بزرگ است». هوشمصنوعی یک «واژه باب روزِ تهییج کننده است که افراد را سردرگم میکند و فریب میدهد. هوشمصنوعی چیزی غیر از یک نام تجاری (برند) نیست. یک نام تجاری قدرتمند، امّا وعدهای توخالی».[20] به باور سیگل، یک «اصطلاح دقیق و بسیار بهتر برای فناوریهایی که امروزه تحت عنوان هوشمصنوعی برچسب خوردهاند در واقع یادگیری ماشین است؛ اصطلاحی حقیقتاً قدرتمند».[21]
استفاده از اصطلاح «یادگیری ماشین» در سال 1959 آغاز شد.[22] امّا توسعه این فناوری کُند و آینده آن تردید برانگیز بود. دانشمند اسطورهای حوزه کامپیوتر، ماروین مینسکی[23]، دربارهی قابلیت اجرایی یادگیری ماشین تردیدهایی داشت. او در سال 1969 با همراهی سیمور پاپرت[24]، دانشمند علوم کامپیوتر، کتابی منتشر کرد و دربارهی مسیر پژوهشهای آن دوره شبهاتی مطرح ساخت.[25] متأثر از این کتاب، از آن پس «پژوهشهای بسیار اندکی در این حوزه تا حدود دهۀ 1980» صورت گرفت و «بودجهی تحقیقاتی در حوزه هوشمصنوعی در جهان برای بیش از دو دهه کاهش یافت»؛ دورهای که به عنوان «اولین زمستان هوشمصنوعی» شناخته میشود.
امّا توسعه یادگیری ماشین ادامه یافت. پیشرفتهای شگفتیساز در دهۀ 1990 رخ دادند. همانطور که متخصص یادگیری ماشین، اریک سیگل، روایت میکند، او تدریس در دورههایی در حوزه یادگیری ماشین را در سال 1997 آغاز کرد. او میگوید: «در همان زمان به میزان محدودی، شبکههای عصبی مصنوعی ماشینهای خودران را هدایت میکردند».
با آغاز قرن بیستویک، یادگیری ماشین شروع به اوجگیری کرد. اصطلاح «یادگیری ماشین» در سال 2000 وارد دیکشنری انگلیسی آکسفورد شد.[26] همانطور که الکساندر فرادکوف[27] اشاره میکند، اولین دهۀ قرن بیستویک یک «نقطۀ عطف» در تاریخ یادگیری ماشین بود که از «سه روند همزمان» ناشی شد: حجم عظیم دادههای در دسترس، کاهش هزینههای رایانش موازی[28] و حافظه[29] و «توسعه الگوریتمهای جدید یادگیری عمیق ماشین».[30]
در حقیقت آنچه ما بهواسطهی هوشمصنوعی شاهدش بودهایم، ظهور و پیشرفت فناوریهای یادگیری ماشین بوده است. به بیان کریس ویگینز[31] ریاضیدان و متیو جونز[32] تاریخنگار، «یادگیری ماشین، بهویژه یادگیری ماشین مبتنی بر شبکههای عصبی، بهدست مشاوران و بازاریابان شرکتها تحت عنوان هوشمصنوعی نامگذاری مجدد (ریبرند) شد؛ اتفاقی که گاهی باعث ناراحتی پژوهشگران میشد»[33]. زمانی که یادگیری ماشین در حال توسعه بود، «کمتر کسی تلاشهای این حوزه را به چشم هوشمصنوعی میدید».
همانطور که رایان کالو، استاد حقوق، بهدرستی اشاره کرده است، «تقریباً هر تکنیک هوشمصنوعی که امروزه از آن استفاده میکنیم، دههها پیش توسعه یافته است».[34] بنا به استدلال کالو، آنچه جدید است چیزی نیست جز «افزایش عظیم قدرت محاسباتی و دسترسی به دادههای آموزشی که به جهشهای غیرمنتظرۀ عملکردی در حوزه یادگیری ماشین – شاخهای بسیار مهم از هوشمصنوعی – انجامیده است».[35] اکنون کالو میگوید: «سرانجام توجه سیاستگذاران بهطور جدی به این موضوع جلب شده است».[36]
3) استعارههای گمراهکننده
گرچه هوشمصنوعی یک برچسب گمراهکننده برای یادگیری ماشین است، امّا کار از کار گذشته و احتمالاً راه برگشتی وجود ندارد. اکنون، هوشمصنوعی به یک عبارت جادویی باب روز بدل شده است. همچون یک «اجی مجی لاترجی»، بهرهگیری از اصطلاح «هوشمصنوعی» درها را میگشاید و سرمایهگذاران، پول، هیجان و توجه را جذب میکند. نتیجه آنکه در صنعت فناوری، تقریباً بر هر کُدی برچسب هوشمصنوعی زده میشود. این روزها، بهسختی میتوان تشخیص داد که چه چیزی به واقع هوشمصنوعی است.
هوشمصنوعی هم یک اصطلاح و هم یک استعاره است. استعارهها بهعنوان لنزهایی عمل میکنند که چیزها را به واسطۀ آنها میبینیم و تفسیر میکنیم و قیاسهایی را در اختیارمان میگذارند که ادراک و فرآیند تفکر ما را شکل میدهند. همانطور که رایان کالو هوشمندانه اظهار میکند، «هر استعاره، در نوع خود، یک استدلال است». استعارهها این ظرفیت دوگانه را دارند که ادراک ما را وضوح ببخشند و تحریف کنند و اغلب این دو نقش را همزمان ایفا میکنند.
هیچ یک از چیزهایی که امروزه هوشمصنوعی نامیده میشوند، به راستی هوشمند یا حتی مصنوعی نیست. هوشمصنوعی اساساً ریاضیات به علاوۀ داده است. حتی اصطلاح «یادگیری» ماشین نیز گمراهکننده است؛ زیرا ماشین آنطور که انسانها یاد میگیرند، چیزی را یاد نمیگیرد. «یادگیری» تلویحاً به مغزی اشاره دارد که دانش و آگاهی کسب میکند. الگوریتمهای یادگیری ماشین اساساً از طریق تغذیهشدن با حجم عظیمی از دادهها، دست به شناسایی الگوها میزنند. همانطور که مریدیت بروسارد توضیح میدهد، یادگیری ماشین «به این معنی است که ماشین میتواند در وظایف برنامهریزیشده، خودکارسازیشده و مطابق روال پیشرفت کند»؛ نه آنکه «ماشین، دانش، خِرَد یا عاملیت کسب میکند؛ برخلاف آنچه اصطلاح «یادگیری» ممکن است به ذهن متبادر کند».
در نهایت، وعدۀ رباتهای ذیشعور همچنان محقق نشده است. با این حال امروزه، این اعلان بزرگ به گوش میرسد که هوشمصنوعی محقق شده است. واقعیت آن است که، مجموعهای از فناوریهای مرتبط سرانجام به عملکرد مطلوبی دست یافتهاند و به عنوان هوشمصنوعی هویت تجاری جدیدی یافتهاند.
استعارهها میتوانند به فناوریها کیفیتهایی انسانگونه ببخشند، امّا در عین حال میتوانند جوهرۀ انسانیشان را از آنها بزدایند. دستگاههای الکترونیکی ما صرفاً مونتاژی از فلزات، پلاستیک و شیشه هستند و به نظر میرسد دادهها در فضایی مجازی و منفصل [از عالم انسانی] شناورند. با این حال، عنصر انسانی همواره در فناوری نقشی اساسی دارد. همانطور که کیت کرافورد اشاره میکند، مشارکت انسانی در تقریباً تمامی سطوح هوشمصنوعی نهادینه شده است. دادههایی که برای آموزشدادن الگوریتمهای هوشمصنوعی بهکار برده میشوند، از فعالیتها، افکار و گفتوگوهای انسانی سرچشمه میگیرند و اغلب نیز به دست انسانها گزینش و گردآوری میشوند. انسانها در طراحی و آموزش مدلهای الگوریتمی نقش بهسزایی دارند. همانطور که اریک سیگل اشاره میکند، موثرترین [روش] یادگیری ماشین، «یادگیری ماشین نظارتشده» است که دادههای آموزشیِ برچسبگذاریشده را شامل میشود. الگوریتمها از این برچسبها «میآموزند» و اطمینان حاصل میکنند که چیزی درست انجام شده یا خیر. انسانهایند که این دادهها را برچسبگذاری میکنند. با آنکه هوشمصنوعی ماورائی به نظر میرسد، امّا عمیقاً فیزیکی است، ریشه در کار انسانیِ شدید و اغلب پرزحمت و چالشبرانگیز دارد و به منابع انرژی و مادی عظیمی وابسته است.
در حقیقت، هوشمصنوعی امروزین میتواند مقایسهای تقریبی با تُرک مکانیکی را در ذهن بیاورد؛ یک ماشین شطرنجباز که از زمان اختراعش در سال 1770، بینندگان اروپایی را برای قریب به هشت دهه مسحور خود ساخت. این دستگاه، با اتاقکی چوبی که روی آن یک صفحۀ شطرنج قرار داشت، پیکرۀ [انساننمای] تُرکی را به نمایش میگذاشت که پشت آن نشسته بود و عملکردی خودکار داشت. با این حال، در نهایت مشخص شد که حقهای در کار است؛ در تمام این مدت، یک انسان داخل این دستگاه پنهان شده بود. هوشمصنوعی امروزین نیز بهطور مشابهی از مصنوعیبودن بهدور و درهمتنیده با تلاش انسانی است.
بهرهگیری از استعارههای برگرفته از مفاهیم آشنا برای کمک به درک مفاهیم جدید و ناآشنا، طبیعی و اغلب گریزناپذیر است. با آنکه نمیتوانیم بهطور کلی از استعارهها بپرهیزیم، ضروری است که نسبت به استعارههایی که برمیگزینیم و تحریفاتی که ممکن است در درک ما ایجاد کنند، آگاه باشیم.
استعارههای مورد استفاده برای هوشمصنوعی، تأثیر چشمگیری بر شکلگیری قوانین و سیاستها میگذارند. برای درک مشکلات حریم خصوصی مرتبط با هوشمصنوعی، درک چگونگی عملکرد هوشمصنوعی ضرورت دارد. این اهمیت دارد که چه میزان داده برای هوشمصنوعی گردآوری میشود، این دادهها چگونه گردآوری میشوند و چگونه شکل مییابد و استاندارد میشود. مهم است که ابزارهای هوشمصنوعی چگونه خروجیهایشان را تولید میکنند، ظرفیت هوشمصنوعی در تولید خروجیها چه محدودیتهایی دارد، چه خطاها و تحریفهایی ممکن است رخ دهد و از آنجایی که هوشمصنوعی واقعیت را عیناً شبیهسازی نمیکند و آن را دگرگون میسازد، مهم است که در این فرآیند چه چیزی از دست میرود یا دگرگون میشود. اینکه ابزارهای هوشمصنوعی چگونه استفاده میشوند، اهمیت دارد. مهم است که ابزارهای هوشمصنوعی چگونه طراحی شدهاند؛ انسانهایی که پشتصحنه درکارند، انگیزههایشان، اهدافشان، سوگیریهایشان و پیشفرضهایشان اهمیت دارد.
ادراک کاربران از هوشمصنوعی و همچنین نحوۀ اتکای آنان به خروجی هوشمصنوعی اهمیت دارد. به نحو طنزآمیزی، فهم ما از هوشمصنوعی بهگونهای تحریف شده است که از سویی به واسطۀ نسبتدادنِ ویژگیهای انسانی به آن، آن را انسانگونه تلقی میکند و از سوی دیگر، وجوه انسانی آن را نادیده میگیرد. هر دوی این مسیرهای تحریفآمیز، میتواند ما را در استفاده از و تنظیم هوشمصنوعی به بیراهه بکشاند.
چگونگی درکمان از هوشمصنوعی، میزان اعتمادمان به آن را متأثر میکند؛ اینکه با آن همچون چیزی خنثی مواجه میشویم یا آن را واجد سوگیری میدانیم، چگونه با آن تعامل میکنیم، چگونه از آن برای تصمیمگیری و دیگر اهداف استفاده میکنیم، اینکه آیا مشکلات معینی را تشخیص میدهیم یا خیر و اینکه چه کسی را مسئول آن مشکلات میدانیم. در نهایت، پاسخ قانون به نحو چشمگیری به چگونگی درک ما از هوشمصنوعی بستگی دارد.
ج) علیه استثناءگرایی هوشمصنوعی
در زمینۀ مشکلات حریم خصوصی، باید مراقب باشیم که از آنچه من «استثناءگرایی هوشمصنوعی» مینامم، اجتناب کنیم. استثناءگرایی هوشمصنوعی یعنی برخورد با هوشمصنوعی به عنوان چیزی آنچنان متفاوت و ویژه که در نتیجۀ آن نتوانیم مشکلات حریم خصوصی مرتبط با هوشمصنوعی را مشابه مشکلات حریم خصوصی موجود، صرفاً به گونهای تشدید شده، ببینیم. آیندهای که هوشمصنوعی از حریم خصوصی به نمایش میگذارد، مدتهاست پیشبینی شده است. هوشمصنوعی بهوضوح نقصها و کاستیهای عمیق در قوانین کنونی حریم خصوصی را برجسته کرده و این مسائل را در صدر توجه میآورد.
ترس سیاستگذاران از هوشمصنوعی آغاز شده است. قوانین جدیدی پیشنهاد میشوند. اگرچه من بهطور قطع از این فرصت برای اصلاحات قانونی استقبال میکنم، دربارۀ اینکه آیا باید قوانین جدیدی تصویب کرد یا قوانین قبلی را تغییر داد، موضعی ندارم. آنچه اهمیت دارد، این است که آیا سیاستگذاران از بینش کافی و جامعی دربارۀ مشکلات حریم خصوصی مرتبط با هوشمصنوعی برخوردارند و آیا درک درستی از مشکلات و نحوۀ برخورد با هر یک از آنها دارند یا خیر.
برخی مفسرین خواستار قوانین ویژه در زمینۀ هوشمصنوعی و نهادهای ویژه برای پرداختن به هوشمصنوعی هستند. قوانین تکمیلی میتوانند مفید باشند، امّا چند نکتۀ مهم وجود دارد. نخست آنکه یک قانون عمومی هوشمصنوعی ممکن است موفق نشود به اندازۀ کافی بر مشکلات حریم خصوصی مرتبط با هوشمصنوعی تمرکز کند و از رسیدگی به بسیاری از این مشکلات بازبماند. هوشمصنوعی فرصتی را برای بازنگری و بازاندیشی در قانون حریم خصوصی کنونی فراهم میکند؛ چیزی که میتواند نقشی اساسی [در حل مشکلات] ایفا کند. سیاستگذاران نباید تصور کنند که قانون حریم خصوصی کنونی به خوبی از عهدۀ شناخت و مواجهۀ با مشکلات حریم خصوصی ناشی از هوشمصنوعی برمیآید و تمام آنچه به آن نیازمندیم، افزودن یک لایۀ محافظتی دیگر است. چنین خطایی مانند این است به ساختمانی با پایۀ ناپایدار و بد طراحیشده، یک طبقۀ دیگر اضافه کنید.
مشکلات حریم خصوصی مرتبط با هوشمصنوعی، فعالیتهایی را شامل میشوند که قانون حریم خصوصی مدتهاست به آنها میپردازد؛ یعنی جمعآوری و پردازش دادههای شخصی. برای مقابله با مشکلات حریم خصوصی مرتبط با هوشمصنوعی، این فعالیتها باید با نگاهی کلنگر و جامع مورد ملاحظه قرار گیرند؛ نه فقط زمانی که از خط جادویی [فرضی] عبور میکنند و به قلمرو هوشمصنوعی وارد میشوند؛ چنانکه گویی یک جهان موازی است. هوشمصنوعی ادامهدهندۀ همان مسیر جمعآوری و بهرهگیری از دادههاست که در دوران دیجیتال در جریان بوده است.
در اوایل دوران ظهور اینترنت تجاری، قاضی فرانک ایستربروک استدلال مشهوری طرح کرد. او استدلال کرد که اینترنت نباید با مجموعۀ مجزایی از قوانین تنظیم شود؛ همانطور که قانون جداگانهای بهعنوان «قانون اسب» وجود ندارد. نظر او در این باره صحیح است که ما باید از تصویب عجولانۀ قوانین اختصاصی دربارۀ تکنولوژیهایی همچون اینترنت اجتناب کنیم؛ تکنولوژیهایی که تقریباً تمامی وجوه زندگی و تمام حیطههای قانون را متأثر خواهند ساخت. احتمالاً هوشمصنوعی نیز چنین تکنولوژیای خواهد بود؛ بر مجموعۀ بزرگی از مسائل تأثیر خواهد گذاشت و حوزههای حقوقی بیشماری را در بر خواهد گرفت. امّا نباید هوشمصنوعی را فاقد ابعاد و مسائلی دانست که نیاز به ملاحظات ویژه دارند.
در موضوع حریم خصوصی، در مقطعی به سر میبریم که تصمیمگیریهای جدی و اساسی ضرورت دارد؛ فارغ از اینکه بخواهیم از قوانین موجود استفاده کنیم یا قوانین جدید یا ترکیبی از این دو. چنانکه در ادامۀ این مقاله توضیح خواهم داد، قوانین حاضر از قابلیت رسیدگی به مسائل موجود برخوردار نیستند. امید آن است که اکنون سیاستگذاران نیاز فوری برای تغییر اساسی در رویکرد قانون حریم خصوصی را تشخیص دهند.
2. Quoted in Eric Siegel, Why A.I. Is a Big Fat Lie, Big Think, Jan. 23, 2019.
3. MUSTAFA SULEYMAN, THE COMING WAVE: TECHNOLOGY, POWER, AND THE 21ST CENTURY’S GREATEST DILEMMA 78 (2023).
[4] John McCarthy
[5] CHRIS WIGGINS AND MATTHEW L. JONES, HOW DATA HAPPENED: A HISTORY FROM THE AGE OF REASON TO THE AGE OF ALGORITHMS 126-27 (2023).
[6] 11 Id. at 182.
[7] 12 WIGGINS AND JONES, HOW DATA HAPPENED, supra note X, at 182.
[8] Brian Christian
[9] BRIAN CHRISTIAN, THE ALIGNMENT PROBLEM: MACHINE LEARNING AND HUMAN VALUES 20 (2020).
[10] Meredith Broussard
[11] MEREDITH BROUSSARD, ARTIFICIAL UNINTELLIGENCE: HOW COMPUTERS MISUNDERSTAND THE WORLD 90 (2018).
[12] Rebecca Barker, “If ChatGPT Had a Brain, this Is What It Would Look Like,” Fast Company (Aug.
17, 2023 www.fastcompany.com
[13] Ryan Calo
[14] Ryan Calo, Artificial Intelligence Policy: A Primer and Roadmap, 51 U.C. Davis L. Rev. 399, 404 (2017).
[15] training data
[16] Sara Brown, Machine Learning, Explained, MIT Sloan School of Management (Apr. 21, 2021), https://mitsloan.mit.edu/ideas-made-to-matter/machine-learning-explained
[17] IBM, What Is a Neural Network? https://www.ibm.com/topics/neural-networks.
[18] Merriam-Webster Dictionary, Automation, https://www.merriam-webster.com/dictionary/automation
[19] Eric Siegel
[20] Eric Siegel, Why A.I. Is a Big Fat Lie, Big Think, Jan. 23, 2019.
[21] همان.
[22] BROUSSARD, ARTIFICIAL UNINTELLIGENCE, supra note X, at 91.
[23] Marvin Minsky
[24] Seymour Papert
ل[25] CHRISTIAN, ALIGNMENT PROBLEM, supra note X, at 20-21.
[26] MEREDITH BROUSSARD, ARTIFICIAL UNINTELLIGENCE: HOW COMPUTERS MISUNDERSTAND THE WORLD 91 (2018).
[27] Alexander Fradkov
[28] parallel computing
[29] memory
[30] Fradkov, Early History, supra note X, at 1387.
[31] Chris Wiggins
[32] Matthew Jones
[33] WIGGINS AND JONES, HOW DATA HAPPENED, supra note X, at 190-91.
[34] Ryan Calo, Artificial Intelligence Policy: A Primer and Roadmap, 51 U.C. Davis L. Rev. 399, 401-02 (2017).
[35] همان.
[36] همان.
[1] Daniel J. Solove. سولوو استاد حقوق مالکیت فکری و فناوری در دانشکدۀ حقوق دانشگاه جورج واشنگتن است. وی همچنین بنیانگذار شرکت «پرایوسیتیچ» (TeachPrivacy) است که آموزشهایی در زمینه حریم خصوصی و امنیت داده ارائه میدهد. سولوو بهواسطه فعالیت آکادمیک در حوزه حریم خصوصی و نگارش کتابهای پرمخاطب در موضوع پیوند حریم خصوصی و فناوری اطلاعات شناخته شدهاست. (م)