هوش مصنوعی و حریم خصوصی / بخش چهارم

فهرست مطالب

بخش چهارم از مقاله (Artificial Intelligence and Privacy (2024

دنیل جی. سولوو

ترجمه سمانه هاشمی نژاد

تولید داده

استنباط

هوش مصنوعی از طریق استنباط ‌کردن دربارۀ افراد، بر حریم خصوصی تأثیر می‌گذارد. استنباط به‌ واسطۀ پدیده‌ای رخ می‌دهد که آن را «اثر تجمیع»[1] می‌نامم. این پدیده بیانگر این حقیقت است که واقعیت‌هایی که می‌توان با اتصال انبوهی از قطعات کوچک داده‌های شخصی آشکار کرد، بسیار بیشتر از چیزی است که هریک از قطعات به ‌طور جداگانه قابلیت ارائۀ آن را می‌داشتند.[2] پیشرفت‌های رایانش مدرن، به افزایش چشمگیر توان شناسایی الگوهای زیرین در داده‌ها انجامیده ‌است. الگوریتم‌های هوش مصنوعی می‌توانند بی‌درنگ دربارۀ افراد دست به استنباط  بزنند و بینش‌های جدیدی به‌ دست دهند.

همان‌طور که آلیسیا سولوو-نیدرمن[3] اشاره می‌کند، الگوریتم‌های هوش مصنوعی به شیوه‌هایی که مردم انتظارش را ندارند، درباره‌شان داده‌های جدیدی تولید می‌کند: «یادگیری ماشین، شکل‌گیری یک اقتصاد استنباط را تسهیل می‌کند که در آن سازمان‌ها از داده‌های موجودِ جمع‌آوری‌ شده از افراد استفاده می‌کنند تا دربارۀ همان افراد یا افرادِ دیگر اطلاعات بیشتری تولید کنند».[4] برای مثال، ممکن است افراد تصور کنند داده‌های بی‌ضرری را در معرض نمایش می‌گذارند، امّا از همین داده‌ها می‌توان درراستای استنباط اطلاعات حساسی مانند شرایط سلامتی‌شان، مذهب‌شان، باورهای سیاسی‌شان، زندگی جنسی‌شان و دیگر موضوعات بسیار شخصی استفاده کرد. همان‌طور که سولوو-نیدرمن اشاره می‌کند، برای مردم دشوار، اگرنه غیرممکن خواهد بود «که پیش‌بینی کنند کدام قطعه‌های داده اهمیت دارند. چنین نتیجه‌ای، افراد را –که تلاش دارند از داده‌های شخصی خود محافظت کنند-  ناتوان می‌کند؛ چراکه دیگر نمی‌توانند تشخیص دهند چه چیزی نیاز به محافظت دارد».[5]

یک) مسألۀ تولید داده

قوانین حریم خصوصی، به افراد این امکان را می‌دهند که مطلع شوند چه داده‌هایی درباره‌شان جمع‌آوری می‌شود؛ امّا این قوانین اغلب در آگاه ‌سازی افراد از اینکه چه داده‌های درباره‌شان تولید می‌شود ناموفق عمل می‌کنند. از زاویۀ دید افراد، مهم نیست که داده‌ها جمع‌آوری شده‌اند یا تولید؛ نتیجۀ نهایی هر دو آن است که چیزهایی دربارۀ آنان دانسته شده ‌است که انتظارش را نداشته‌اند یا با آن موافقت نکرده‌اند. زمانی که داده‌های تولید شده موجب افشای جزئیاتی شود که افراد ترجیح می‌دهند افشا نشوند، استنباط‌ کردن می‌تواند به نقض جدی حریم خصوصی بینجامد. چنین وضعیتی، در واقعۀ مشهور مرتبط با تارگت[6] (یک فروشگاه زنجیره‌ای بزرگ) به ‌خوبی قابل‌ مشاهده است. تارگت الگوریتمی را با هدف شناسایی زنان باردار براساس الگوهای خریدشان توسعه داده بود. هدف آن بود که بارداری را در نخستین هفته‌های آن تشخیص دهند و این زنان باردار را ترغیب کنند که تارگت را به‌ عنوان فروشگاه اصلی‌شان برای خرید محصولات نوزاد انتخاب کنند. در یک مورد درخور توجه، مردی به تارگت شکایت کرد که دختر نوجوانش تعداد زیادی تبلیغات مرتبط با نوزاد دریافت می‌کند؛ این مرد تصور می‌کرد این تبلیغ‌ها به‌ اشتباه ارسال شده‌اند. با این حال، او اندک ‌زمانی بعد دریافت که دخترش واقعاً باردار بوده‌ است.[7]

الگوریتم تارگت، از طریق شناسایی الگوهای خرید معینی، بارداری را تشخیص می‌داد: خرید محصولات غیرمعطر، ویتامین‌ها و گلوله‌های پنبه میان مشتریان باردار رایج بود.[8] موضوعِ شدیداً نگران‌ کننده دربارۀ این الگوریتم این است که می‌توانست از داده‌های به ‌ظاهر بی‌خطر، اطلاعات حساس مرتبط با سلامتی را استنباط کند. علاوه بر این، این الگوریتم برای استنباط‌هایش از داده‌هایی خلاف ‌انتظار استفاده می‌کرد.

به این ترتیب، استنباطْ  تصویر سنتی از چگونگی مدیریت حریم خصوصی افراد توسط خودشان را دگرگون می‌کند. توان الگوریتم‌های یادگیری ماشین برای ارائۀ حجم عظیمی از استنباط‌های غیرمنتظره، افراد را از کنترل اینکه سازمان‌ها چه چیزی را درباره‌شان بدانند، ناتوان می‌کند.[9]

استنباط‌ها نه‌ تنها زمانی که درست‌اند، بلکه حتی آنگاه که اشتباه‌اند هم می‌توانند آسیب‌رسان باشند. هوش مصنوعی از طریق مطابقت ‌دادن پروفایل افراد با مجموعۀ عظیمی از داده‌های مربوط  به دیگران و شناسایی شباهت‌های میان پروفایل‌ها، دست به استنباط می‌زند. بنابراین، استنباط‌ها، فارغ از درست یا غلط بودن‌شان، می‌توانند آسیب‌رسان باشند: استنباط‌های درست و دقیق، می‌توانند زندگی‌های شخصی مردم را بیش‌ از حد افشا کنند و استنباط‌های غلط و نادقیق، می‌توانند به قضاوت‌ها و تصمیم‌گیری‌های خطا دربارۀ افراد بینجامند.

در حوزۀ حریم خصوصی، قانون‌گذاری تمایل به این دارد که بر عملِ عینیِ جمع‌آوری داده تمرکز کند؛ نه بر ایجاد داده از طریق فرآیندهای استنباطی. درحالی ‌که اکثر قوانین حریم خصوصی حق افراد بر تصحیح داده‌هایشان و اعلام رضایت درخصوص جمع‌آوری‌شان را مسلم می‌انگارند، این قوانین به ‌طور معمول به افراد اجازۀ تغییر یا تصحیح استنباط‌های برگرفته از داده‌هایشان را نمی‌دهند.

همان‌طور که پیش از این بحث شد، فرآیند تولید داده به ‌وسیلۀ استنباط‌ها اصولاً بازتابی از عملِ جمع‌آوری داده است. یک اصل کلیدی در بسیاری از مقررات حریم خصوصی، محدودکردن سازمان‌هاست به اینکه تنها تا آن‌جا که برای اهداف معینی ضروری است، داده‌های شخصی را جمع‌آوری کنند. با این حال، چنانچه سازمان‌ها بتوانند از طریق استنباطْ داده‌های جدیدی را تولید کنند، تعیین محدودیت بر جمع‌آوری داده کمابیش موهوم خواهد بود. داده‌های تولیدشده از طریق استنباط، باعث فروپاشی انتظارات عمومی می‌شوند و ادعاهای موجود دربارۀ جمع‌آوری محدود داده را گمراه‌ کننده می‌سازند. از این رو، قانون باید با داده‌های برآمده از استنباط، همانند داده‌های جمع‌آوری‌شده برخورد کند.

متاسفانه، قوانین حریم خصوصی برخورد یکسانی را در قبال داده‌های جمع‌آوری‌ شده و داده‌های تولیدشده در پیش نمی‌گیرند. بسیاری از قوانین ایالات متحده، بر داده‌های جمع‌آوری‌شده از یا دربارۀ افراد متمرکز می‌شوند.[10] چنانچه ساندرا واختر[11] و برنت میتلشتات[12] اشاره می‌کنند، حتی تحت مقررات عمومی حفاظت از داده‌ها (GDPR) در اروپا «در مقایسه با دیگر انواع اطلاعات شخصی ارائه ‌شده توسط فردِ موضوع داده، استنباط‌ها شامل محافظت‌های کم‌تری می‌شوند»[13]. همان‌طور که مایریول هیلدربرانت[14] استدلال می‌کند، قانون اتحادیۀ اروپا «براساس روش‌های سنتیِ تفکر دربارۀ داده، داده‌های شخصی و سوءاستفاده‌های ممکن از آن‌ها بنا شده ‌است و در آن هیچ فهمی از انواع جدید دانشِ تولید شده از طریق پردازش داده‌ها وجود ندارد. طُرفه آنکه حتی اگر قانون‌گذاری‌های حوزۀ حفاظت از داده‌ها دربارۀ داده‌های شخصی مؤثر بوده باشند، نمی‌دانند چطور با الگوهای داده‌های همبسته[15] مواجه شوند».[16]

درحالی ‌که بسیاری از قوانین حریم خصوصی، حق افراد بر اصلاح داده‌هایشان یا اعلام رضایت به جمع‌آوری این داده‌ها را مسَلَم می‌شمارند، این قوانین به ‌ندرت این امکان را برای افراد فراهم می‌کنند که استنباط‌های برگرفته از داده‌هایشان را به چالش بکشند یا اصلاح کنند. بنا به پیشنهاد ساندرا واختر و برنت میتلشتات، قوانین حریم خصوصی باید «حق استنباط معقول» را در اختیار افراد بگذارند.[17] آنان چنین استدلال می‌کنند: «در مواردی که الگوریتم‌ها دربارۀ افراد “استنباط‌های پُرریسکی” را انجام می‌دهند، این حقْ کنترل‌ کنندۀ داده‌ها را ملزم می‌کند که پیش از هر اقدامی،  برای توجیه عقلانی‌ بودن استنباط‌های انجام شده استدلال‌هایی ارائه کنند».[18]

هرچند درنظرگرفتن حق استنباط عقلانی، پیشرفت مثبتی در قانون حریم خصوصی خواهد بود، امّا به ‌هیچ ‌وجه کافی نیست. توانایی هوش مصنوعی در استنباط، بسیاری از تهمیدات و اهداف قانون کنونی حریم خصوصی را بی‌اثر می‌کند. اگر بتوان دربارۀ افراد داده‌های جدیدی را استنباط کرد که انتظارش را نداشته باشند یا به آن رضایت نداده باشند، این ایده که افراد می‌توانند مطلع شوند که چه داده‌هایی درباره‌ی‌شان جمع‌آوری می‌گردد و تصمیم بگیرند که چه چیزی درباره‌ی‌شان دانسته شود و از این داده‌ها چگونه استفاده شود، منسوخ خواهد بود. توانایی گستردۀ هوش مصنوعی برای استنباط‌ کردن، ناکارآمدی مدل کنترل فردی را به ‌وضوح نشان می‌دهد.

ب) دور زدن حفاظت‌های حریم خصوصی

تولید داده توسط هوش مصنوعی می‌تواند به دورزدن حفاظت‌های حریم خصوصی بینجامد. قوانین حریم خصوصی مدت‌هاست که داده‌های محرمانه را مورد محافظت قرار داده‌اند و از جمع‌آوری آن‌ها در جهت تصمیم‌گیری‌های معینی جلوگیری کرده‌اند. برای مثال، داده‌های محرمانه‌ای که درون روابط محرمانه – از قبیل رابطه با پزشک و وکیل – گردآوری می‌شوند، به ‌منظور محافظت از محرمانگیِ این روابط از تصمیم‌گیری‌های قضایی کنار گذاشته می‌شوند. حتی چنانچه این داده‌ها صحت تصمیم‌گیری را افزایش دهد و حتی اگر برای اثبات حقیقت در یک محاکمه سرنوشت ‌ساز باشند نیز از تصمیمات کنار گذاشته می‌شوند، چرا که امتیازات قانونی خاصی وجود دارد که از افشای این قبیل داده‌ها جلوگیری می‌کند. در مثالی دیگر، قانون فدرال ضدتبعیض ژنتیکی (GINA)[19] مقرر می‌کند که کارفرمایان اجازۀ «درخواست، مطالبه یا خریداری اطلاعات ژنتیکی مرتبط با کارکنان یا اعضای خانواده‌شان را» ندارند، مگر مطابق برخی استنثنائات مشخص.[20]

تکنولوژی‌های هوش مصنوعی با قدرت عظیم‌شان در استنباط ‌کردن، می‌توانند داده‌های شخصی‌ای را تولید کنند که می‌بایست تحت حفاظت‌های محرمانگی قرار می‌داشتند. اگر استنباط‌ها بتوانند این قوانین را به‌ طریقی دور بزنند، هوش مصنوعی می‌تواند حفاظت‌های وضع‌شده بر داده‌های محرمانه را بی‌معنا سازد. بنابراین، قانون هوش مصنوعی باید مانع استفاده از داده‌های حاصل از استنباط جهت دورزدن محدودیت‌های مربوط به استفاده از داده‌های محرمانه شود.

افزون بر این، هوش مصنوعی می‌تواند امکان ناشناس‌سازی داده‌های شخصی را نیز از بین ببرد. چنانکه شارلوت چیدر[21]، استاد حقوق، اشاره می‌کند، هوش مصنوعی می‌تواند قوانین مختلف حریم خصوصی را که امکان استفاده از داده‌های ناشناس ‌شده را فراهم می‌کنند – از قبیل [22]HIPAA و CCPA[23] – را خنثی کرده و شناسایی مجدد داده‌ها را ممکن کند. [24]

مسألۀ استنباط‌ها یک بازنگری کامل در قوانین حریم خصوصی را ضروری می‌سازد؛ این مسأله چیزی نیست که بتوان آن را به‌ آسانی فیصله داد. پدیدۀ استنباط توسط هوش مصنوعی، نابسنده ‌بودن تلاش‌های صورت‌ گرفته برای حفاظت از حریم خصوصی از طریق تحت قاعده درآوردن جمع‌آوری داده‌ها را آشکار می‌کند. قانون باید تولید داده را نیز مورد ملاحظه قرار دهد.

محتواهای آسیب‌رسان

افزون بر استنباط، هوش مصنوعی می‌تواند گسترۀ عظیمی از داده‌ها را تولید کند. بعضی از این محتواها می‌توانند کاملاً آسیب‌زننده باشند. بات‌های مکالمۀ هوش مصنوعی (= چت‌بات‌ها) می‌توانند اطلاعات غلطی را دربارۀ افراد جعل کنند؛ پدیده‌ای که «توهم»[25] نامیده می‌شود. در یک نمونه، چت جی‌پی‌تی به ‌اشتباه یک استاد دانشگاه را آزارگر جنسی معرفی کرد.[26] هوش مصنوعی می‌تواند برای تسهیل «دیپ‌فِیک»[27] (عکس‌ها و ویدئوهای جعلیِ واقع‌نما درخصوص اشخاص) به ‌کار رود.[28] در نمونه‌های بی‌شماری، از افراد عمدتاً زنان ویدئوهای هرزه‌نگاری دیپ‌فیک تولید شده‌ است؛ ویدئوهایی که به آسیب‌های هنگفتی می‌انجامند.[29] در مثالی اخیر، تصاویر و ویدئوهایی با محتواهای بی‌پردۀ جنسی از ستارۀ موسیقی، تیلور سوئیفت، به ‌طور گسترده منتشر شد.[30]

وخامت مشکل از آن رو است که بسیاری از ابزارهای هوش مصنوعی به ‌صورت عمومی در دسترس‌اند و هر کس می‌تواند از آن‌ها برای مقاصد شرورانه بهره ببرد. شناسایی و مجازات کاربران مخرب هوش مصنوعی دشوار است؛ هم از آن رو که ممکن است با موانعی مرتبط با متمم اول قانون اساسی ایالات متحده[31] روبه‌رو شود و هم از آن رو که احتمالاً پیگیری حقوقی از سوی قربانیان مستلزم صرف زمان و هزینۀ قابل ‌توجهی خواهد بود. قوانین حریم خصوصی باید مسئولیت محدودسازی استفاده‌های آسیب‌رسان را برعهدۀ تولیدکنندگان ابزارهای هوش مصنوعی بگذارند. امّا همچون بسیاری از محصولات و خدمات تکنولوژیک، در شرایطی که افراد از ابزارهای هوش مصنوعی به‌ نحوی آسیب‌رسان استفاده می‌کنند، قانون مسئولیت ناچیزی را متوجه تولیدکنندگان این ابزارها می‌سازد.

برای مثال، قانون ایالات متحده از مسئول شناخته‌شدن پلتفرم‌های آنلاین در قبال محتواهای کاربرانش جلوگیری می‌کند. بخش 230 از قانون نزاکت ارتباطات (CDA)[32]، درخصوص محتوای کاربران به پلتفرم‌ها مصونیت می‌دهد: «با هیچ‌یک از ارائه‌دهندگان یا کاربران یک سرویس کامپیوتریِ تعاملی نباید به ‌گونه‌ای رفتار شود که گویی ناشر یا گویندۀ اطلاعاتی‌اند که توسط یک ارائه‌دهندۀ محتوای دیگر ارائه شده‌است»[33][34]. گرچه متن بخش 230 محدود است، دادگاه‌ها به‌نحوی گسترده آن را به‌عنوان تضمینی مؤثر برای مصونیت پلتفرم‌ها در قبال سخنان کاربران‌شان تفسیر می‌کنند.[35] در اصل، هدف بخش 230 اطمینان از آن بود که پلتفرم‌ها به‌عنوان ناشر یا سخنگوی مطالبی که دیگران ارائه داده‌اند، مسئول شناخته نمی‌شوند؛ هدف این بخش، رفع مسئولیت توزیع‌کننده نبوده‌ است که براساس آن، توزیع‌کننده چنانچه می‌دانسته یا باید می‌دانسته[36] که محتوا دربرگیرندۀ افترا یا تجاوز به حریم خصوصی است، در قبال محتوایی که توزیع کرده مسئول شناخته می‌شود.[37]

با این حال، قضات دامنۀ بخش 230 را به ‌نحو وسیعی گسترش دادند تا مسئولیت توزیع‌کننده را به ‌نام آزادی بیان از میان بردارند.[38] همان‌طور که دنیل سیتورن[39]، استاد حقوق، استدلال می‌کند، قانون نه ‌تنها از سایت‌هایی حمایت می‌کند که برای ممانعت از محتوای آسیب‌رسان هیچ اقدام مؤثری انجام نمی‌دهند، بلکه حتی از سایت‌هایی که چنین محتواهایی را تشویق و تسهیل می‌کنند نیز حمایت می‌کند.[40] به ‌واسطۀ این حمایت‌های قانونی، این سایت‌ها افزایش یافته‌اند. سیتورن چنین بیان می‌کند: «بیش از 9500 سایت، تصاویری را در خود جای داده‌اند که توسط کاربران ارائه شده‌اند و شامل تصاویر محرمانه و خصوصی غیررضایت‌مندانه می‌شوند. از جمله تصاویری که بدون اجازه از بدن زنان گرفته شده‌اند و ویدئوهای جنسی دیپ‌فیک و تصاویر شخصی و خصوصی واقعی»[41].

هوش مصنوعی ظرفیت تشدید و افزایش کلاهبرداری، فریبکاری و تقلب را در خود دارد. برای مثال، در یک نمونه، یک زن از دخترش تماسی دریافت کرد که حین گریه ‌کردن می‌گفت: «مامان این مردان بد من را گرفته‌اند. کمکم کن! کمکم کن!». آدم‌ربایان ابتدا خواستار یک‌ میلیون دلار شدند و گفتند در صورت واریز نشدن این وجه، به دختر آسیب خواهند رساند. امّا این تماس، جعلی بود. صدای دختر به کمک هوش مصنوعی تقلید شده بود.[42]

ابزارهای هوش مصنوعی با تمهیدات مراقبتی، محافظت‌ها و قوانین استفادۀ ناچیزی در اختیار عموم قرار گرفته‌اند. عموم افراد به ابزار قدرتمندی مجهز می‌شوند که بی‌درنگ و به ‌سهولت می‌تواند به سلاحی برای واردکردن آسیب‌های گسترده به افراد یا صدمات فاجعه‌آمیز به جامعه تبدیل شود.[43] اگرچه به اشتراک گذاشتن ابزارهای هوش مصنوعی با عموم مردم می‌تواند جنبۀ دموکراتیک داشته باشد، امّا ممکن است خطرناک نیز باشد؛ چراکه ناگزیر افراد زیادی از این ابزار سوءاستفاده خواهند کرد.

هوش مصنوعی می‌تواند آسیب‌پذیری‌های جدیدی را در حوزۀ امنیت داده‌ها ایجاد کند. هوش مصنوعی می‌تواند به بهبود اجرای حملات هکرها و عاملین بدخواه و همچنین ارتکاب کلاهبرداری‌های جدید و خرابکارانه‌تر کمک کند. به ‌علاوه، هوش مصنوعی می‌تواند شناسایی آسیب‌پذیری‌ها و توسعۀ بدافزارها را تسهیل کند.[44] با بهره‌گیری از هوش مصنوعی موّلد، هکرها می‌توانند دست به «تزریق پرامپت»[45] بزنند؛ به این معنا که به گونه‌ای درون‌داد‌ها را مهندسی کنند که «یک چت‌بات هوش مصنوعی برپایۀ مدل زبانی بزرگ[46] را وادار به افشای داده‌های محرمانه کنند».[47] هکرها همچنین می‌توانند با هدف تأثیرگذاشتن بر نتایج یک هوش مصنوعی مولّد، داده‌های آموزشی را آلوده کنند.

مدت‌ها از زمانی که قوانین کلاهبرداری را جرم‌انگاری کرده‌اند، می‌گذرد؛ با این حال، متوقف‌کردن جرائم دیجیتال بسیار دشوار است. مجرمین ممکن است هرکجا باشند و مأموران محلیِ اجرای قانون به آنان دسترسی عملیاتی ندارند. به ‌موازات دستیابی هرچه بیشترِ افراد بی‌اخلاق به ابزارهای هوش مصنوعی، از این ابزارها در جهت قربانی‌کردن شمار بیشتری از افراد در مقیاسی گسترده استفاده خواهند شد. قوانین تاکنون به ‌طرز اسف‌باری در حفاظت از قربانیان سرقت هویت و کلاهبرداری در عصر دیجیتال، ناکارآمد بوده‌اند.[48]

برای رسیدگی به مشکلات امنیت داده، قانون به ‌شدت نیازمند اصلاحات است. بسیاری از قوانین حریم خصوصی عمدتاً از طریق [قوانین مربوط به] اطلاع‌رسانی درخصوص نفوذ، امنیت داده‌ها را مورد توجه قرار می‌دهند؛ این قوانین، شرکت‌هایی که داده‌هایشان مورد نفوذ قرار گرفته‌ است را ملزم به اطلاع‌رسانی به ناظرین و افرادی متأثر می‌کنند.[49] متأسفانه، اطلاع‌رسانی دربارۀ نفوذ‌ به داده‌ها، نه واکسن است و نه درمان؛ بلکه تنها اعلانی دربارۀ یک بیماری است. در بهترین حالت، اطلاع‌رسانی درخصوص نفوذ می‌تواند به شفافیت بیشتر در موضوع نفوذ به داده‌ها بینجامد؛ چنین چیزی هرچند مثبت است، امّا به معنای تقویت امنیت داده‌ها نیست.

قانون امنیت داده، به‌جز در استثنائاتی محدود، به‌ طورکلی بر سازمان‌هایی که مورد نفوذ قرار گرفته‌اند تمرکزی ناچیز دارد. این قانون در مسئول قلمدادکردن تمامی طرف‌های واجد مسئولیت، ناکام می‌ماند. قانون – که بیش‌ازحد مشغول درگیری با پیامدهای ناگوار نفوذها شده‌است – از اقدامات پیشگیرانۀ ضروری غفلت کرده و از تخصیص مسئولیت به کسانی که می‌توانند هم از نفوذ به داده‌ها پیشگیری کنند و هم از اثرات آن بکاهند، باز مانده ‌است.[50] قانون نتوانسته است تمامی عوامل دخیل در نفوذ به داده‌ها را پاسخگو کند.[51] سازندگان ابزارهای هوش مصنوعی می‌توانند درِ یک جعبۀ پاندورای[52] مخاطرات را بگشایند و با این حال از قبول مسئولیت در قبال زیان‌های آن طفره بروند. هوش مصنوعی، نیاز به رویکردهای قانونی جدید را مؤکّد می‌سازد.

شبیه‌سازی

هوش مصنوعی می‌تواند فریبنده باشد و هوش مصنوعی بودنش را مخفی کند. افراد ممکن است تصور کنند که در حال تعامل با یک انسان‌اند؛ درحالی‌که درواقع سخت سرگرم تعامل با یک ماشین‌ شده‌اند. شبیه‌سازی به انسان می‌تواند شکلی از فریب باشد. شبیه‌سازی به انسان، باعث می‌شود انسان‌ها واکنش متفاوتی نشان دهند؛ چراکه در تعامل با انسان در قیاس با تعامل با ماشین ملاحظات اخلاقی متفاوتی حاکم است. فرانک پاسکوال[53]، استاد حقوق، چنین استدلال می‌کند: «زمانی که چت‌بات‌ها افراد ناآگاه را طوری به اشتباه می‌اندازند که می‌پندارند با انسان گفتگو می‌کنند، برنامه‌نویسان‌شان دارند به ‌مثابۀ افرادی جاعل عمل می‌کنند؛ آنان ویژگی‌های واقعی وجودِ انسانی را جعل می‌کنند تا اعتبار بیشتری به ماشین‌هایشان ببخشند».[54]

ابزارهای مدرن هوش مصنوعی به ‌طور فزاینده‌ای می‌توانند آزمون تورینگ[55] را با موفقیت پشت سر بگذارنند. این تست که در سال 1950 توسط آلن تورینگ[56] ابداع شده‌ است، می‎کوشد به این پرسش پاسخ دهد که آیا انسان‌ها می‌توانند انسان یا ماشین بودنِ طرفِ تعامل‌شان را تشخیص دهند یا خیر.[57] نزد تورینگ، این سؤال که آیا ماشین‌ها می‌توانند هوشمند باشند، «بی‌معنی» بود. آنچه اهمیت داشت این بود که ماشین‌ها تا چه اندازه در تقلید از انسان‌ها خوب عمل می‌کنند. او یک «بازی تقلید» را پیشنهاد داد که در آن یک پرسشگر از یک انسان و یک ماشین (که هویت‌شان مخفی بود) سؤالاتی می‌پرسید تا مشخص کند کدام ‌یک انسان و کدام ماشین است.[58]

آزمون تورینگ، فرض را بر آن می‌گذارد که کافی است ماشین بتواند افراد را به‌گونه‌ای فریب دهد که باور کنند انسان است؛ و اهمیتی ندارد که این ماشین به ‌واقع هوشمند است یا خیر. در اصل، آزمون تورینگ فرض می‌کند مادام که شبیه ‌سازی واقعی به ‌نظر برسد، واقعیت اهمیتی ندارد.

با این حال، میان شبیه ‌سازی و واقعیت تفاوت‌های عمده‌ای وجود دارد. شبیه ‌سازی، امری ساختگی است که به‌ طور هدفمند توسط انسان‌هایی با مقاصد و پیش‌پنداشته‌های مشخص و در جهت خواسته‌های معیّن ایجاد شده‌است. این مسأله که آیا ماشین‌ها از هوش حقیقی برخوردارند یا خیر، اهمیت دارد؛ چراکه می‌تواند به‌ لحاظ اخلاقی و قانونی بر چگونگی تعیین مسئولیت برون‌دادها، تصمیمات و رفتارهای آن‌ها تأثیر بگذارد.

علاوه بر این، اینکه هوش مصنوعی به ‌راستی هوشمند است یا خیر، در تلقی ما از اینکه هوش مصنوعی واجد نوعی عاملیت است یا خیر تأثیرگذار خواهد بود. در رمان کوتاه آیزاک آسیموف[59]، با نام مرد دوصدساله[60]، یک ربات برای آزادی خود تلاش می‌کند و آن را به دست می‌آورد، سپس درگیر فرآیند دادرسی قضایی جهت کسب حق تبدیل ‌شدن به یک انسان می‌شود.[61] اگر یک هوشمندیِ واقعی در کار باشد، ملزم خواهیم بود دست‌کم دربارۀ به ‌رسمیت‌شناختنِ شخصیت‌مندی اخلاقی و قانونی صاحبِ آن هوش به تأمل و تعمق بپردازیم؛ همان‌گونه که ملزم خواهیم بود تخصیص مسئولیت اخلاقی و قانونی به اعمالش را مورد توجه قرار دهیم. امّا هوش مصنوعیِ امروزی، چیزی بیش از یک ابزار نیست و مسئولیت آن صرفاً برعهدۀ سازندگان و کاربرانش باقی می‌ماند.

هوش مصنوعی، حتی وقتی می‌دانیم شبیه ‌سازی است نیز ممکن است فریبنده باشد. یک شبیه‌ سازی می‌تواند به ‌قدری قانع‌کننده باشد که آن‌چنان مسحور واقع‌نمایی‌اش شویم که خواه ‌ناخواه با آن به ‌گونه‌ای برخورد کنیم که گویی شخصی واقعی است. ممکن است از واقعی نبودنش آگاه باشیم، با این حال می‌تواند عواطف ما را برانگیزد و تحریک‌مان کند که به گونه‌ای متفاوت رفتار کنیم. برای مثال، ما ممکن است با یک هوش مصنوعی شبیه ‌سازی‌شده [به انسان] پیوندهای اعتمادآمیز قوی‌تری در قیاس با ماشینِ کم‌تر انسان‌گونه برقرار کنیم. برای مثال، در فیلم او [62](2013) مردی عاشق یک شخصیت هوش مصنوعی می‌شود. مرد می‌داند که او واقعی نیست، با این حال درگیر افسون شبیه ‌سازی می‌شود. این فیلم پرسش‌هایی را دربارۀ خوب بودن یا نبودن رابطۀ میان این دو برانگیخت. آگاهی از اینکه آن شخصیت هوش مصنوعی هم‌زمان با بسیاری افراد دیگر نیز حرف می‌زند و به صدها نفر از آن‌ها هم ابراز علاقه می‌کند، تلنگری بود که شخصیت اصلی را به زندگی واقعی برگرداند. حتی شفافیت تمام ‌و کمال دربارۀ اینکه آنچه مجذوبش شده‌ایم، هوش مصنوعی است نیز نمی‌تواند این مسأله را کاملاً حل کند.

قوانین حریم خصوصی باید مقرراتی را بر روابط انسان و هوش مصنوعی وضع کنند. مردم باید مطلع باشند که با یک هوش مصنوعی‌ در تعامل هستند یا انسانی واقعی. افزون بر الزام به شفافیت دربارۀ ایفای نقش هوش مصنوعی، قانون باید تصدیق کند که در برخی شرایط، هوش مصنوعی صرفاً چیزی مشابه هر کد کامپیوتریِ دیگری نیست. شبیه‌ سازی به انسان می‌تواند قدرتی بسیار فراتر از دیگر تعاملات ماشینی داشته باشد.


[1] aggregation effect

[2] SOLOVE, THE DIGITAL PERSON, supra note X, at 44-47.

[3] Alicia Solow-Niederman

[4] Alicia Solow-Niederman, Information Privacy and the Inference Economy, 117 Nw. L. Rev. 357 (2022).

[5] Solow-Niederman, Inference Economy, supra note X, at X.

[6] Target

[7] Charles Duhigg, How Companies Learn Your Secrets, N.Y. Times Magazine (Feb. 16, 2012); CHARLES DUHIGG, THE POWER OF HABIT: WHY WE DO WHAT WE DO IN LIFE AND BUSINESS 182-97, 209-10 (2012).

[8] CHARLES DUHIGG, THE POWER OF HABIT: WHY WE DO WHAT WE DO IN LIFE AND BUSINESS 194 (2012).

[9] Solove, Data Is What Data Does, supra note X, at X

[10] برای مثال، قانون حریم خصوصی مصرف‌کنندگان کالیفرنیا (CCPA) این تعریف را برای جمع‌آوری داده ارائه می‌دهد: «خرید، اجاره، گردآوری، به‌دست‌آوردن، دریافت یا دسترسی به هرگونه اطلاعات شخصی مربوط به یک مصرف‌کننده به هر روش ممکن. این [عمل] شامل دریافت اطلاعات از یک مصرف‌کننده، چه فعالانه و چه منفعلانه و چه از طریق مشاهدۀ رفتار مصرف‌کننده می‌شود»  .CCPA 1798.140 (f)

[11] Sandra Wachter

[12] Brent Mittelstadt

[13] Sandra Wachter & Brent Mittelstadt, A Right to Reasonable Inferences: Re-Thinking Data Protection Law in the Age of Big Data and AI, 2019 Colum. Bus. L. Rev. 494, 572 (2019).

[14] Mireille Hildebrandt

[15] patterns of correlated data

[16] Mireille Hildebrandt, Profiling and the Identity of the European Citizen, in PROFILING THE EUROPEAN CITIZEN: CROSS-DISCIPLINARY PERSPECTIVES 303, 321 (Mirielle Hildebrandt & Seth Gutwirth eds. 2008).

[17] Wachter & Mittelstadt, Reasonable Inferences, supra note X, at 500.

[18] همان، صص 501-500.

[19] the federal Genetic Information Nondiscrimination Act

[20] 42 USC § 2000ff.

[21] Charlotte Tschider

[22] قانون انتقال‌پذیری و پاسخگویی بیمۀ سلامت

[23] قانون حریم خصوصی مصرف‌کنندگان کالیفرنیا

[24] Charlotte A. Tschider, AI’s Legitimate Interest: Towards a Public Benefit Privacy Model, 21 Hous. J. Health L. & Pol’y 125, 176 (2021).

[25] hallucination

[26] ranshu Verma and Will Oremus, “ChatGPT Invented a Sexual Harassment Scandal and Named a Real Law Prof as the Accused,” Wash. Post (Apr. 5, 2023).

[27] deep fake که به جعل عمیق نیز ترجمه شده‌است.

[28] Robert Chesney & Danielle Keats Citron, Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security, 107 Cal. L. Rev. 1753 (2019); Mary Anne Franks & Ari Ezra Waldman, Sex, Lies, and Videotape: Deep Fakes and Free Speech Delusions, 78 Md. L. Rev. 892 (2019).

[29] Jennifer Kite-Powell, “Deepfakes Are Here, Can They Be Stopped?” Forbes (Sept. 20, 2023); CITRON, FIGHT FOR PRIVACY, supra note X, at 38-39; Mary Anne Franks and Danielle Keats Citron, The Internet as a Speech Machine and Other Myths Confounding Section 230 Reform, 2020 U. Chi. Legal F. 45 (2020).

[30] Blake Montgomery, “Taylor Swift AI Images Prompt US Bill to Tackle Nonconsensual, Sexual Deepfakes,” The Guardian (Jan. 30, 2024).

[31] در این متمم، تصریح شده‌است که دولت اجازۀ سلب آزادی بیان و آزادی مطبوعات را ندارد. (م)

[32] The Communications Decency Act

[33] 47 U.S.C. § 230(c)(1).

[34] به بیان ساده، این بخش به عدم‌مسئولیت پلتفرم و کاربران در قبال محتواهای تولیدشده توسط دیگر کاربران اشاره دارد. بنا بر این بند قانونی که در اصل با هدف حفاظت از آزادی بیان و سلب مسئولیت بیش‌ازاندازه از پلتفرم‌ها وضع شده، نه پلتفرم‌ها «ناشر یا گویندۀ» محتواهای کاربران تلقی می‌شوند و نه دیگر کاربرانی که آن محتواها را هم‌رسان کرده‌اند با چنین مسئولیتی مواجه می‌گردند. (م)

[35] See Zeran v. AOL, 129 F. 3d 327 (4th Cir. 1997); see also DANIEL J.SOLOVE & PAUL M. SCHWARTZ, INFORMATION PRIVACY LAW 167-76 (8th ed. 2024).

[36] «باید می‌دانسته» به شرایطی اشاره دارد که انتظار می‌رود توزیع‌کنندۀ محتوا، با توجه به شرایط و مسئولیت‌های خود، از محتوای آسیب‌رسان آگاه باشد؛ یا شرایطی که به‌سادگی می‌توانسته از آن آگاه شود ولی به‌دلیل غفلت یا سهل‌انگاری نامطلع مانده‌است. (م)

[37] DANIEL J. SOLOVE, THE FUTURE OF REPUTATION: GOSSIP, RUMOR, AND PRIVACY ON THE INTERNET 149-160 (2007).

[38] SOLOVE, FUTURE OF REPUTATION, supra note _, at X. See also DANIELLE KEATS CITRON, HATE CRIMES IN CYBERSPACE (2014). For more background on Section 230, see JEFF KOSSEFF, THE TWENTY-SIX WORDS THAT CREATED THE INTERNET (2019).

[39] Danielle Citron

[40] CITRON, FIGHT FOR PRIVACY, supra note X, at 104.

[41] Danielle Keats Citron, The Continued (In)visibility of Cyber Gender Abuse, 133 Yale L.J. Forum 333, 347 (2023).

[42] 5 Erum Salam, “US Mother Gets Call from ‘Kidnapped Daughter’ – But It’s Really an AI Scam,” The Guardian (June 14, 2023).

[43] See Philipp Hacker, Andreas Engel, and Marco Mauer, Regulating ChatGPT and Other Large Generative AI Models (May 12, 2023), https://doi.org/10.48550/arXiv.2302.02337.

[44] Chuck Brooks, “A Primer on Artificial Intelligence and Cybersecurity,” Forbes (Sept. 26, 2023).

[45] prompt injections

[46] large language model

[47] Trend Micro, “Top 10 AI Security Risks According to OWASP,” (Aug. 15, 2023), https://www.trendmicro.com/en_vn/ciso/23/h/top-ai-risks.html.

[48] Daniel J. Solove, Identity Theft, Privacy, and the Architecture of Vulnerability, 54 Hastings L.J. 1227 (2003).

[49] DANIEL J. SOLOVE &WOODROW HARTZOG,BREACHED! WHY DATA SECURITY LAW FAILS AND HOW TO IMPROVE IT (2022).

[50] همان.

[51] همان؛ صفحات 110-81.

[52] مطابق اساطیر یونان، پاندورا اولین زن میرا بود. او با جعبه‌ای اسرارآمیز به زمین فرستاده می‌شود که از بازکردن در آن منع شده بود. امّا پاندورا این جعبه را گشود که در نتیجه، تمام مصائب از این جعبه خارج شده و در جهان پراکنده شدند. امروزه «بازکردن جعبۀ پاندورا» در برخی فرهنگ‌های غربی کاربرد ضرب‌المثلی یافته و در اشاره به اقداماتی با نتایج ناگوار پیش‌بینی‌نشده به‌کار می‌رود. (م)

[53] Frank Pasquale

[54] FRANK PASQUALE, NEW LAWS OF ROBOTICS: DEFENDING HUMAN EXPERTISE IN THE AGE OF AI 8 (2020).

[55] Turing test

[56] Alan Turing

[57] Alan Turing, Computing Machinery and Intelligence, 59 Mind 433 (1950).

[58] همان.

[59] Isaac Asimov

[60] Bicentennial Man

[61] ISAAC ASIMOV, THE BICENTENNIAL MAN AND OTHER STORIES (1976).

[62] Her