بخش چهارم از مقاله (Artificial Intelligence and Privacy (2024
دنیل جی. سولوو
ترجمه سمانه هاشمی نژاد
تولید داده
استنباط
هوش مصنوعی از طریق استنباط کردن دربارۀ افراد، بر حریم خصوصی تأثیر میگذارد. استنباط به واسطۀ پدیدهای رخ میدهد که آن را «اثر تجمیع»[1] مینامم. این پدیده بیانگر این حقیقت است که واقعیتهایی که میتوان با اتصال انبوهی از قطعات کوچک دادههای شخصی آشکار کرد، بسیار بیشتر از چیزی است که هریک از قطعات به طور جداگانه قابلیت ارائۀ آن را میداشتند.[2] پیشرفتهای رایانش مدرن، به افزایش چشمگیر توان شناسایی الگوهای زیرین در دادهها انجامیده است. الگوریتمهای هوش مصنوعی میتوانند بیدرنگ دربارۀ افراد دست به استنباط بزنند و بینشهای جدیدی به دست دهند.
همانطور که آلیسیا سولوو-نیدرمن[3] اشاره میکند، الگوریتمهای هوش مصنوعی به شیوههایی که مردم انتظارش را ندارند، دربارهشان دادههای جدیدی تولید میکند: «یادگیری ماشین، شکلگیری یک اقتصاد استنباط را تسهیل میکند که در آن سازمانها از دادههای موجودِ جمعآوری شده از افراد استفاده میکنند تا دربارۀ همان افراد یا افرادِ دیگر اطلاعات بیشتری تولید کنند».[4] برای مثال، ممکن است افراد تصور کنند دادههای بیضرری را در معرض نمایش میگذارند، امّا از همین دادهها میتوان درراستای استنباط اطلاعات حساسی مانند شرایط سلامتیشان، مذهبشان، باورهای سیاسیشان، زندگی جنسیشان و دیگر موضوعات بسیار شخصی استفاده کرد. همانطور که سولوو-نیدرمن اشاره میکند، برای مردم دشوار، اگرنه غیرممکن خواهد بود «که پیشبینی کنند کدام قطعههای داده اهمیت دارند. چنین نتیجهای، افراد را –که تلاش دارند از دادههای شخصی خود محافظت کنند- ناتوان میکند؛ چراکه دیگر نمیتوانند تشخیص دهند چه چیزی نیاز به محافظت دارد».[5]
یک) مسألۀ تولید داده
قوانین حریم خصوصی، به افراد این امکان را میدهند که مطلع شوند چه دادههایی دربارهشان جمعآوری میشود؛ امّا این قوانین اغلب در آگاه سازی افراد از اینکه چه دادههای دربارهشان تولید میشود ناموفق عمل میکنند. از زاویۀ دید افراد، مهم نیست که دادهها جمعآوری شدهاند یا تولید؛ نتیجۀ نهایی هر دو آن است که چیزهایی دربارۀ آنان دانسته شده است که انتظارش را نداشتهاند یا با آن موافقت نکردهاند. زمانی که دادههای تولید شده موجب افشای جزئیاتی شود که افراد ترجیح میدهند افشا نشوند، استنباط کردن میتواند به نقض جدی حریم خصوصی بینجامد. چنین وضعیتی، در واقعۀ مشهور مرتبط با تارگت[6] (یک فروشگاه زنجیرهای بزرگ) به خوبی قابل مشاهده است. تارگت الگوریتمی را با هدف شناسایی زنان باردار براساس الگوهای خریدشان توسعه داده بود. هدف آن بود که بارداری را در نخستین هفتههای آن تشخیص دهند و این زنان باردار را ترغیب کنند که تارگت را به عنوان فروشگاه اصلیشان برای خرید محصولات نوزاد انتخاب کنند. در یک مورد درخور توجه، مردی به تارگت شکایت کرد که دختر نوجوانش تعداد زیادی تبلیغات مرتبط با نوزاد دریافت میکند؛ این مرد تصور میکرد این تبلیغها به اشتباه ارسال شدهاند. با این حال، او اندک زمانی بعد دریافت که دخترش واقعاً باردار بوده است.[7]
الگوریتم تارگت، از طریق شناسایی الگوهای خرید معینی، بارداری را تشخیص میداد: خرید محصولات غیرمعطر، ویتامینها و گلولههای پنبه میان مشتریان باردار رایج بود.[8] موضوعِ شدیداً نگران کننده دربارۀ این الگوریتم این است که میتوانست از دادههای به ظاهر بیخطر، اطلاعات حساس مرتبط با سلامتی را استنباط کند. علاوه بر این، این الگوریتم برای استنباطهایش از دادههایی خلاف انتظار استفاده میکرد.
به این ترتیب، استنباطْ تصویر سنتی از چگونگی مدیریت حریم خصوصی افراد توسط خودشان را دگرگون میکند. توان الگوریتمهای یادگیری ماشین برای ارائۀ حجم عظیمی از استنباطهای غیرمنتظره، افراد را از کنترل اینکه سازمانها چه چیزی را دربارهشان بدانند، ناتوان میکند.[9]
استنباطها نه تنها زمانی که درستاند، بلکه حتی آنگاه که اشتباهاند هم میتوانند آسیبرسان باشند. هوش مصنوعی از طریق مطابقت دادن پروفایل افراد با مجموعۀ عظیمی از دادههای مربوط به دیگران و شناسایی شباهتهای میان پروفایلها، دست به استنباط میزند. بنابراین، استنباطها، فارغ از درست یا غلط بودنشان، میتوانند آسیبرسان باشند: استنباطهای درست و دقیق، میتوانند زندگیهای شخصی مردم را بیش از حد افشا کنند و استنباطهای غلط و نادقیق، میتوانند به قضاوتها و تصمیمگیریهای خطا دربارۀ افراد بینجامند.
در حوزۀ حریم خصوصی، قانونگذاری تمایل به این دارد که بر عملِ عینیِ جمعآوری داده تمرکز کند؛ نه بر ایجاد داده از طریق فرآیندهای استنباطی. درحالی که اکثر قوانین حریم خصوصی حق افراد بر تصحیح دادههایشان و اعلام رضایت درخصوص جمعآوریشان را مسلم میانگارند، این قوانین به طور معمول به افراد اجازۀ تغییر یا تصحیح استنباطهای برگرفته از دادههایشان را نمیدهند.
همانطور که پیش از این بحث شد، فرآیند تولید داده به وسیلۀ استنباطها اصولاً بازتابی از عملِ جمعآوری داده است. یک اصل کلیدی در بسیاری از مقررات حریم خصوصی، محدودکردن سازمانهاست به اینکه تنها تا آنجا که برای اهداف معینی ضروری است، دادههای شخصی را جمعآوری کنند. با این حال، چنانچه سازمانها بتوانند از طریق استنباطْ دادههای جدیدی را تولید کنند، تعیین محدودیت بر جمعآوری داده کمابیش موهوم خواهد بود. دادههای تولیدشده از طریق استنباط، باعث فروپاشی انتظارات عمومی میشوند و ادعاهای موجود دربارۀ جمعآوری محدود داده را گمراه کننده میسازند. از این رو، قانون باید با دادههای برآمده از استنباط، همانند دادههای جمعآوریشده برخورد کند.
متاسفانه، قوانین حریم خصوصی برخورد یکسانی را در قبال دادههای جمعآوری شده و دادههای تولیدشده در پیش نمیگیرند. بسیاری از قوانین ایالات متحده، بر دادههای جمعآوریشده از یا دربارۀ افراد متمرکز میشوند.[10] چنانچه ساندرا واختر[11] و برنت میتلشتات[12] اشاره میکنند، حتی تحت مقررات عمومی حفاظت از دادهها (GDPR) در اروپا «در مقایسه با دیگر انواع اطلاعات شخصی ارائه شده توسط فردِ موضوع داده، استنباطها شامل محافظتهای کمتری میشوند»[13]. همانطور که مایریول هیلدربرانت[14] استدلال میکند، قانون اتحادیۀ اروپا «براساس روشهای سنتیِ تفکر دربارۀ داده، دادههای شخصی و سوءاستفادههای ممکن از آنها بنا شده است و در آن هیچ فهمی از انواع جدید دانشِ تولید شده از طریق پردازش دادهها وجود ندارد. طُرفه آنکه حتی اگر قانونگذاریهای حوزۀ حفاظت از دادهها دربارۀ دادههای شخصی مؤثر بوده باشند، نمیدانند چطور با الگوهای دادههای همبسته[15] مواجه شوند».[16]
درحالی که بسیاری از قوانین حریم خصوصی، حق افراد بر اصلاح دادههایشان یا اعلام رضایت به جمعآوری این دادهها را مسَلَم میشمارند، این قوانین به ندرت این امکان را برای افراد فراهم میکنند که استنباطهای برگرفته از دادههایشان را به چالش بکشند یا اصلاح کنند. بنا به پیشنهاد ساندرا واختر و برنت میتلشتات، قوانین حریم خصوصی باید «حق استنباط معقول» را در اختیار افراد بگذارند.[17] آنان چنین استدلال میکنند: «در مواردی که الگوریتمها دربارۀ افراد “استنباطهای پُرریسکی” را انجام میدهند، این حقْ کنترل کنندۀ دادهها را ملزم میکند که پیش از هر اقدامی، برای توجیه عقلانی بودن استنباطهای انجام شده استدلالهایی ارائه کنند».[18]
هرچند درنظرگرفتن حق استنباط عقلانی، پیشرفت مثبتی در قانون حریم خصوصی خواهد بود، امّا به هیچ وجه کافی نیست. توانایی هوش مصنوعی در استنباط، بسیاری از تهمیدات و اهداف قانون کنونی حریم خصوصی را بیاثر میکند. اگر بتوان دربارۀ افراد دادههای جدیدی را استنباط کرد که انتظارش را نداشته باشند یا به آن رضایت نداده باشند، این ایده که افراد میتوانند مطلع شوند که چه دادههایی دربارهیشان جمعآوری میگردد و تصمیم بگیرند که چه چیزی دربارهیشان دانسته شود و از این دادهها چگونه استفاده شود، منسوخ خواهد بود. توانایی گستردۀ هوش مصنوعی برای استنباط کردن، ناکارآمدی مدل کنترل فردی را به وضوح نشان میدهد.
ب) دور زدن حفاظتهای حریم خصوصی
تولید داده توسط هوش مصنوعی میتواند به دورزدن حفاظتهای حریم خصوصی بینجامد. قوانین حریم خصوصی مدتهاست که دادههای محرمانه را مورد محافظت قرار دادهاند و از جمعآوری آنها در جهت تصمیمگیریهای معینی جلوگیری کردهاند. برای مثال، دادههای محرمانهای که درون روابط محرمانه – از قبیل رابطه با پزشک و وکیل – گردآوری میشوند، به منظور محافظت از محرمانگیِ این روابط از تصمیمگیریهای قضایی کنار گذاشته میشوند. حتی چنانچه این دادهها صحت تصمیمگیری را افزایش دهد و حتی اگر برای اثبات حقیقت در یک محاکمه سرنوشت ساز باشند نیز از تصمیمات کنار گذاشته میشوند، چرا که امتیازات قانونی خاصی وجود دارد که از افشای این قبیل دادهها جلوگیری میکند. در مثالی دیگر، قانون فدرال ضدتبعیض ژنتیکی (GINA)[19] مقرر میکند که کارفرمایان اجازۀ «درخواست، مطالبه یا خریداری اطلاعات ژنتیکی مرتبط با کارکنان یا اعضای خانوادهشان را» ندارند، مگر مطابق برخی استنثنائات مشخص.[20]
تکنولوژیهای هوش مصنوعی با قدرت عظیمشان در استنباط کردن، میتوانند دادههای شخصیای را تولید کنند که میبایست تحت حفاظتهای محرمانگی قرار میداشتند. اگر استنباطها بتوانند این قوانین را به طریقی دور بزنند، هوش مصنوعی میتواند حفاظتهای وضعشده بر دادههای محرمانه را بیمعنا سازد. بنابراین، قانون هوش مصنوعی باید مانع استفاده از دادههای حاصل از استنباط جهت دورزدن محدودیتهای مربوط به استفاده از دادههای محرمانه شود.
افزون بر این، هوش مصنوعی میتواند امکان ناشناسسازی دادههای شخصی را نیز از بین ببرد. چنانکه شارلوت چیدر[21]، استاد حقوق، اشاره میکند، هوش مصنوعی میتواند قوانین مختلف حریم خصوصی را که امکان استفاده از دادههای ناشناس شده را فراهم میکنند – از قبیل [22]HIPAA و CCPA[23] – را خنثی کرده و شناسایی مجدد دادهها را ممکن کند. [24]
مسألۀ استنباطها یک بازنگری کامل در قوانین حریم خصوصی را ضروری میسازد؛ این مسأله چیزی نیست که بتوان آن را به آسانی فیصله داد. پدیدۀ استنباط توسط هوش مصنوعی، نابسنده بودن تلاشهای صورت گرفته برای حفاظت از حریم خصوصی از طریق تحت قاعده درآوردن جمعآوری دادهها را آشکار میکند. قانون باید تولید داده را نیز مورد ملاحظه قرار دهد.
محتواهای آسیبرسان
افزون بر استنباط، هوش مصنوعی میتواند گسترۀ عظیمی از دادهها را تولید کند. بعضی از این محتواها میتوانند کاملاً آسیبزننده باشند. باتهای مکالمۀ هوش مصنوعی (= چتباتها) میتوانند اطلاعات غلطی را دربارۀ افراد جعل کنند؛ پدیدهای که «توهم»[25] نامیده میشود. در یک نمونه، چت جیپیتی به اشتباه یک استاد دانشگاه را آزارگر جنسی معرفی کرد.[26] هوش مصنوعی میتواند برای تسهیل «دیپفِیک»[27] (عکسها و ویدئوهای جعلیِ واقعنما درخصوص اشخاص) به کار رود.[28] در نمونههای بیشماری، از افراد عمدتاً زنان ویدئوهای هرزهنگاری دیپفیک تولید شده است؛ ویدئوهایی که به آسیبهای هنگفتی میانجامند.[29] در مثالی اخیر، تصاویر و ویدئوهایی با محتواهای بیپردۀ جنسی از ستارۀ موسیقی، تیلور سوئیفت، به طور گسترده منتشر شد.[30]
وخامت مشکل از آن رو است که بسیاری از ابزارهای هوش مصنوعی به صورت عمومی در دسترساند و هر کس میتواند از آنها برای مقاصد شرورانه بهره ببرد. شناسایی و مجازات کاربران مخرب هوش مصنوعی دشوار است؛ هم از آن رو که ممکن است با موانعی مرتبط با متمم اول قانون اساسی ایالات متحده[31] روبهرو شود و هم از آن رو که احتمالاً پیگیری حقوقی از سوی قربانیان مستلزم صرف زمان و هزینۀ قابل توجهی خواهد بود. قوانین حریم خصوصی باید مسئولیت محدودسازی استفادههای آسیبرسان را برعهدۀ تولیدکنندگان ابزارهای هوش مصنوعی بگذارند. امّا همچون بسیاری از محصولات و خدمات تکنولوژیک، در شرایطی که افراد از ابزارهای هوش مصنوعی به نحوی آسیبرسان استفاده میکنند، قانون مسئولیت ناچیزی را متوجه تولیدکنندگان این ابزارها میسازد.
برای مثال، قانون ایالات متحده از مسئول شناختهشدن پلتفرمهای آنلاین در قبال محتواهای کاربرانش جلوگیری میکند. بخش 230 از قانون نزاکت ارتباطات (CDA)[32]، درخصوص محتوای کاربران به پلتفرمها مصونیت میدهد: «با هیچیک از ارائهدهندگان یا کاربران یک سرویس کامپیوتریِ تعاملی نباید به گونهای رفتار شود که گویی ناشر یا گویندۀ اطلاعاتیاند که توسط یک ارائهدهندۀ محتوای دیگر ارائه شدهاست»[33][34]. گرچه متن بخش 230 محدود است، دادگاهها بهنحوی گسترده آن را بهعنوان تضمینی مؤثر برای مصونیت پلتفرمها در قبال سخنان کاربرانشان تفسیر میکنند.[35] در اصل، هدف بخش 230 اطمینان از آن بود که پلتفرمها بهعنوان ناشر یا سخنگوی مطالبی که دیگران ارائه دادهاند، مسئول شناخته نمیشوند؛ هدف این بخش، رفع مسئولیت توزیعکننده نبوده است که براساس آن، توزیعکننده چنانچه میدانسته یا باید میدانسته[36] که محتوا دربرگیرندۀ افترا یا تجاوز به حریم خصوصی است، در قبال محتوایی که توزیع کرده مسئول شناخته میشود.[37]
با این حال، قضات دامنۀ بخش 230 را به نحو وسیعی گسترش دادند تا مسئولیت توزیعکننده را به نام آزادی بیان از میان بردارند.[38] همانطور که دنیل سیتورن[39]، استاد حقوق، استدلال میکند، قانون نه تنها از سایتهایی حمایت میکند که برای ممانعت از محتوای آسیبرسان هیچ اقدام مؤثری انجام نمیدهند، بلکه حتی از سایتهایی که چنین محتواهایی را تشویق و تسهیل میکنند نیز حمایت میکند.[40] به واسطۀ این حمایتهای قانونی، این سایتها افزایش یافتهاند. سیتورن چنین بیان میکند: «بیش از 9500 سایت، تصاویری را در خود جای دادهاند که توسط کاربران ارائه شدهاند و شامل تصاویر محرمانه و خصوصی غیررضایتمندانه میشوند. از جمله تصاویری که بدون اجازه از بدن زنان گرفته شدهاند و ویدئوهای جنسی دیپفیک و تصاویر شخصی و خصوصی واقعی»[41].
هوش مصنوعی ظرفیت تشدید و افزایش کلاهبرداری، فریبکاری و تقلب را در خود دارد. برای مثال، در یک نمونه، یک زن از دخترش تماسی دریافت کرد که حین گریه کردن میگفت: «مامان این مردان بد من را گرفتهاند. کمکم کن! کمکم کن!». آدمربایان ابتدا خواستار یک میلیون دلار شدند و گفتند در صورت واریز نشدن این وجه، به دختر آسیب خواهند رساند. امّا این تماس، جعلی بود. صدای دختر به کمک هوش مصنوعی تقلید شده بود.[42]
ابزارهای هوش مصنوعی با تمهیدات مراقبتی، محافظتها و قوانین استفادۀ ناچیزی در اختیار عموم قرار گرفتهاند. عموم افراد به ابزار قدرتمندی مجهز میشوند که بیدرنگ و به سهولت میتواند به سلاحی برای واردکردن آسیبهای گسترده به افراد یا صدمات فاجعهآمیز به جامعه تبدیل شود.[43] اگرچه به اشتراک گذاشتن ابزارهای هوش مصنوعی با عموم مردم میتواند جنبۀ دموکراتیک داشته باشد، امّا ممکن است خطرناک نیز باشد؛ چراکه ناگزیر افراد زیادی از این ابزار سوءاستفاده خواهند کرد.
هوش مصنوعی میتواند آسیبپذیریهای جدیدی را در حوزۀ امنیت دادهها ایجاد کند. هوش مصنوعی میتواند به بهبود اجرای حملات هکرها و عاملین بدخواه و همچنین ارتکاب کلاهبرداریهای جدید و خرابکارانهتر کمک کند. به علاوه، هوش مصنوعی میتواند شناسایی آسیبپذیریها و توسعۀ بدافزارها را تسهیل کند.[44] با بهرهگیری از هوش مصنوعی موّلد، هکرها میتوانند دست به «تزریق پرامپت»[45] بزنند؛ به این معنا که به گونهای دروندادها را مهندسی کنند که «یک چتبات هوش مصنوعی برپایۀ مدل زبانی بزرگ[46] را وادار به افشای دادههای محرمانه کنند».[47] هکرها همچنین میتوانند با هدف تأثیرگذاشتن بر نتایج یک هوش مصنوعی مولّد، دادههای آموزشی را آلوده کنند.
مدتها از زمانی که قوانین کلاهبرداری را جرمانگاری کردهاند، میگذرد؛ با این حال، متوقفکردن جرائم دیجیتال بسیار دشوار است. مجرمین ممکن است هرکجا باشند و مأموران محلیِ اجرای قانون به آنان دسترسی عملیاتی ندارند. به موازات دستیابی هرچه بیشترِ افراد بیاخلاق به ابزارهای هوش مصنوعی، از این ابزارها در جهت قربانیکردن شمار بیشتری از افراد در مقیاسی گسترده استفاده خواهند شد. قوانین تاکنون به طرز اسفباری در حفاظت از قربانیان سرقت هویت و کلاهبرداری در عصر دیجیتال، ناکارآمد بودهاند.[48]
برای رسیدگی به مشکلات امنیت داده، قانون به شدت نیازمند اصلاحات است. بسیاری از قوانین حریم خصوصی عمدتاً از طریق [قوانین مربوط به] اطلاعرسانی درخصوص نفوذ، امنیت دادهها را مورد توجه قرار میدهند؛ این قوانین، شرکتهایی که دادههایشان مورد نفوذ قرار گرفته است را ملزم به اطلاعرسانی به ناظرین و افرادی متأثر میکنند.[49] متأسفانه، اطلاعرسانی دربارۀ نفوذ به دادهها، نه واکسن است و نه درمان؛ بلکه تنها اعلانی دربارۀ یک بیماری است. در بهترین حالت، اطلاعرسانی درخصوص نفوذ میتواند به شفافیت بیشتر در موضوع نفوذ به دادهها بینجامد؛ چنین چیزی هرچند مثبت است، امّا به معنای تقویت امنیت دادهها نیست.
قانون امنیت داده، بهجز در استثنائاتی محدود، به طورکلی بر سازمانهایی که مورد نفوذ قرار گرفتهاند تمرکزی ناچیز دارد. این قانون در مسئول قلمدادکردن تمامی طرفهای واجد مسئولیت، ناکام میماند. قانون – که بیشازحد مشغول درگیری با پیامدهای ناگوار نفوذها شدهاست – از اقدامات پیشگیرانۀ ضروری غفلت کرده و از تخصیص مسئولیت به کسانی که میتوانند هم از نفوذ به دادهها پیشگیری کنند و هم از اثرات آن بکاهند، باز مانده است.[50] قانون نتوانسته است تمامی عوامل دخیل در نفوذ به دادهها را پاسخگو کند.[51] سازندگان ابزارهای هوش مصنوعی میتوانند درِ یک جعبۀ پاندورای[52] مخاطرات را بگشایند و با این حال از قبول مسئولیت در قبال زیانهای آن طفره بروند. هوش مصنوعی، نیاز به رویکردهای قانونی جدید را مؤکّد میسازد.
شبیهسازی
هوش مصنوعی میتواند فریبنده باشد و هوش مصنوعی بودنش را مخفی کند. افراد ممکن است تصور کنند که در حال تعامل با یک انساناند؛ درحالیکه درواقع سخت سرگرم تعامل با یک ماشین شدهاند. شبیهسازی به انسان میتواند شکلی از فریب باشد. شبیهسازی به انسان، باعث میشود انسانها واکنش متفاوتی نشان دهند؛ چراکه در تعامل با انسان در قیاس با تعامل با ماشین ملاحظات اخلاقی متفاوتی حاکم است. فرانک پاسکوال[53]، استاد حقوق، چنین استدلال میکند: «زمانی که چتباتها افراد ناآگاه را طوری به اشتباه میاندازند که میپندارند با انسان گفتگو میکنند، برنامهنویسانشان دارند به مثابۀ افرادی جاعل عمل میکنند؛ آنان ویژگیهای واقعی وجودِ انسانی را جعل میکنند تا اعتبار بیشتری به ماشینهایشان ببخشند».[54]
ابزارهای مدرن هوش مصنوعی به طور فزایندهای میتوانند آزمون تورینگ[55] را با موفقیت پشت سر بگذارنند. این تست که در سال 1950 توسط آلن تورینگ[56] ابداع شده است، میکوشد به این پرسش پاسخ دهد که آیا انسانها میتوانند انسان یا ماشین بودنِ طرفِ تعاملشان را تشخیص دهند یا خیر.[57] نزد تورینگ، این سؤال که آیا ماشینها میتوانند هوشمند باشند، «بیمعنی» بود. آنچه اهمیت داشت این بود که ماشینها تا چه اندازه در تقلید از انسانها خوب عمل میکنند. او یک «بازی تقلید» را پیشنهاد داد که در آن یک پرسشگر از یک انسان و یک ماشین (که هویتشان مخفی بود) سؤالاتی میپرسید تا مشخص کند کدام یک انسان و کدام ماشین است.[58]
آزمون تورینگ، فرض را بر آن میگذارد که کافی است ماشین بتواند افراد را بهگونهای فریب دهد که باور کنند انسان است؛ و اهمیتی ندارد که این ماشین به واقع هوشمند است یا خیر. در اصل، آزمون تورینگ فرض میکند مادام که شبیه سازی واقعی به نظر برسد، واقعیت اهمیتی ندارد.
با این حال، میان شبیه سازی و واقعیت تفاوتهای عمدهای وجود دارد. شبیه سازی، امری ساختگی است که به طور هدفمند توسط انسانهایی با مقاصد و پیشپنداشتههای مشخص و در جهت خواستههای معیّن ایجاد شدهاست. این مسأله که آیا ماشینها از هوش حقیقی برخوردارند یا خیر، اهمیت دارد؛ چراکه میتواند به لحاظ اخلاقی و قانونی بر چگونگی تعیین مسئولیت بروندادها، تصمیمات و رفتارهای آنها تأثیر بگذارد.
علاوه بر این، اینکه هوش مصنوعی به راستی هوشمند است یا خیر، در تلقی ما از اینکه هوش مصنوعی واجد نوعی عاملیت است یا خیر تأثیرگذار خواهد بود. در رمان کوتاه آیزاک آسیموف[59]، با نام مرد دوصدساله[60]، یک ربات برای آزادی خود تلاش میکند و آن را به دست میآورد، سپس درگیر فرآیند دادرسی قضایی جهت کسب حق تبدیل شدن به یک انسان میشود.[61] اگر یک هوشمندیِ واقعی در کار باشد، ملزم خواهیم بود دستکم دربارۀ به رسمیتشناختنِ شخصیتمندی اخلاقی و قانونی صاحبِ آن هوش به تأمل و تعمق بپردازیم؛ همانگونه که ملزم خواهیم بود تخصیص مسئولیت اخلاقی و قانونی به اعمالش را مورد توجه قرار دهیم. امّا هوش مصنوعیِ امروزی، چیزی بیش از یک ابزار نیست و مسئولیت آن صرفاً برعهدۀ سازندگان و کاربرانش باقی میماند.
هوش مصنوعی، حتی وقتی میدانیم شبیه سازی است نیز ممکن است فریبنده باشد. یک شبیه سازی میتواند به قدری قانعکننده باشد که آنچنان مسحور واقعنماییاش شویم که خواه ناخواه با آن به گونهای برخورد کنیم که گویی شخصی واقعی است. ممکن است از واقعی نبودنش آگاه باشیم، با این حال میتواند عواطف ما را برانگیزد و تحریکمان کند که به گونهای متفاوت رفتار کنیم. برای مثال، ما ممکن است با یک هوش مصنوعی شبیه سازیشده [به انسان] پیوندهای اعتمادآمیز قویتری در قیاس با ماشینِ کمتر انسانگونه برقرار کنیم. برای مثال، در فیلم او [62](2013) مردی عاشق یک شخصیت هوش مصنوعی میشود. مرد میداند که او واقعی نیست، با این حال درگیر افسون شبیه سازی میشود. این فیلم پرسشهایی را دربارۀ خوب بودن یا نبودن رابطۀ میان این دو برانگیخت. آگاهی از اینکه آن شخصیت هوش مصنوعی همزمان با بسیاری افراد دیگر نیز حرف میزند و به صدها نفر از آنها هم ابراز علاقه میکند، تلنگری بود که شخصیت اصلی را به زندگی واقعی برگرداند. حتی شفافیت تمام و کمال دربارۀ اینکه آنچه مجذوبش شدهایم، هوش مصنوعی است نیز نمیتواند این مسأله را کاملاً حل کند.
قوانین حریم خصوصی باید مقرراتی را بر روابط انسان و هوش مصنوعی وضع کنند. مردم باید مطلع باشند که با یک هوش مصنوعی در تعامل هستند یا انسانی واقعی. افزون بر الزام به شفافیت دربارۀ ایفای نقش هوش مصنوعی، قانون باید تصدیق کند که در برخی شرایط، هوش مصنوعی صرفاً چیزی مشابه هر کد کامپیوتریِ دیگری نیست. شبیه سازی به انسان میتواند قدرتی بسیار فراتر از دیگر تعاملات ماشینی داشته باشد.
[1] aggregation effect
[2] SOLOVE, THE DIGITAL PERSON, supra note X, at 44-47.
[3] Alicia Solow-Niederman
[4] Alicia Solow-Niederman, Information Privacy and the Inference Economy, 117 Nw. L. Rev. 357 (2022).
[5] Solow-Niederman, Inference Economy, supra note X, at X.
[6] Target
[7] Charles Duhigg, How Companies Learn Your Secrets, N.Y. Times Magazine (Feb. 16, 2012); CHARLES DUHIGG, THE POWER OF HABIT: WHY WE DO WHAT WE DO IN LIFE AND BUSINESS 182-97, 209-10 (2012).
[8] CHARLES DUHIGG, THE POWER OF HABIT: WHY WE DO WHAT WE DO IN LIFE AND BUSINESS 194 (2012).
[9] Solove, Data Is What Data Does, supra note X, at X
[10] برای مثال، قانون حریم خصوصی مصرفکنندگان کالیفرنیا (CCPA) این تعریف را برای جمعآوری داده ارائه میدهد: «خرید، اجاره، گردآوری، بهدستآوردن، دریافت یا دسترسی به هرگونه اطلاعات شخصی مربوط به یک مصرفکننده به هر روش ممکن. این [عمل] شامل دریافت اطلاعات از یک مصرفکننده، چه فعالانه و چه منفعلانه و چه از طریق مشاهدۀ رفتار مصرفکننده میشود» .CCPA 1798.140 (f)
[11] Sandra Wachter
[12] Brent Mittelstadt
[13] Sandra Wachter & Brent Mittelstadt, A Right to Reasonable Inferences: Re-Thinking Data Protection Law in the Age of Big Data and AI, 2019 Colum. Bus. L. Rev. 494, 572 (2019).
[14] Mireille Hildebrandt
[15] patterns of correlated data
[16] Mireille Hildebrandt, Profiling and the Identity of the European Citizen, in PROFILING THE EUROPEAN CITIZEN: CROSS-DISCIPLINARY PERSPECTIVES 303, 321 (Mirielle Hildebrandt & Seth Gutwirth eds. 2008).
[17] Wachter & Mittelstadt, Reasonable Inferences, supra note X, at 500.
[18] همان، صص 501-500.
[19] the federal Genetic Information Nondiscrimination Act
[20] 42 USC § 2000ff.
[21] Charlotte Tschider
[22] قانون انتقالپذیری و پاسخگویی بیمۀ سلامت
[23] قانون حریم خصوصی مصرفکنندگان کالیفرنیا
[24] Charlotte A. Tschider, AI’s Legitimate Interest: Towards a Public Benefit Privacy Model, 21 Hous. J. Health L. & Pol’y 125, 176 (2021).
[25] hallucination
[26] ranshu Verma and Will Oremus, “ChatGPT Invented a Sexual Harassment Scandal and Named a Real Law Prof as the Accused,” Wash. Post (Apr. 5, 2023).
[27] deep fake که به جعل عمیق نیز ترجمه شدهاست.
[28] Robert Chesney & Danielle Keats Citron, Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security, 107 Cal. L. Rev. 1753 (2019); Mary Anne Franks & Ari Ezra Waldman, Sex, Lies, and Videotape: Deep Fakes and Free Speech Delusions, 78 Md. L. Rev. 892 (2019).
[29] Jennifer Kite-Powell, “Deepfakes Are Here, Can They Be Stopped?” Forbes (Sept. 20, 2023); CITRON, FIGHT FOR PRIVACY, supra note X, at 38-39; Mary Anne Franks and Danielle Keats Citron, The Internet as a Speech Machine and Other Myths Confounding Section 230 Reform, 2020 U. Chi. Legal F. 45 (2020).
[30] Blake Montgomery, “Taylor Swift AI Images Prompt US Bill to Tackle Nonconsensual, Sexual Deepfakes,” The Guardian (Jan. 30, 2024).
[31] در این متمم، تصریح شدهاست که دولت اجازۀ سلب آزادی بیان و آزادی مطبوعات را ندارد. (م)
[32] The Communications Decency Act
[33] 47 U.S.C. § 230(c)(1).
[34] به بیان ساده، این بخش به عدممسئولیت پلتفرم و کاربران در قبال محتواهای تولیدشده توسط دیگر کاربران اشاره دارد. بنا بر این بند قانونی که در اصل با هدف حفاظت از آزادی بیان و سلب مسئولیت بیشازاندازه از پلتفرمها وضع شده، نه پلتفرمها «ناشر یا گویندۀ» محتواهای کاربران تلقی میشوند و نه دیگر کاربرانی که آن محتواها را همرسان کردهاند با چنین مسئولیتی مواجه میگردند. (م)
[35] See Zeran v. AOL, 129 F. 3d 327 (4th Cir. 1997); see also DANIEL J.SOLOVE & PAUL M. SCHWARTZ, INFORMATION PRIVACY LAW 167-76 (8th ed. 2024).
[36] «باید میدانسته» به شرایطی اشاره دارد که انتظار میرود توزیعکنندۀ محتوا، با توجه به شرایط و مسئولیتهای خود، از محتوای آسیبرسان آگاه باشد؛ یا شرایطی که بهسادگی میتوانسته از آن آگاه شود ولی بهدلیل غفلت یا سهلانگاری نامطلع ماندهاست. (م)
[37] DANIEL J. SOLOVE, THE FUTURE OF REPUTATION: GOSSIP, RUMOR, AND PRIVACY ON THE INTERNET 149-160 (2007).
[38] SOLOVE, FUTURE OF REPUTATION, supra note _, at X. See also DANIELLE KEATS CITRON, HATE CRIMES IN CYBERSPACE (2014). For more background on Section 230, see JEFF KOSSEFF, THE TWENTY-SIX WORDS THAT CREATED THE INTERNET (2019).
[39] Danielle Citron
[40] CITRON, FIGHT FOR PRIVACY, supra note X, at 104.
[41] Danielle Keats Citron, The Continued (In)visibility of Cyber Gender Abuse, 133 Yale L.J. Forum 333, 347 (2023).
[42] 5 Erum Salam, “US Mother Gets Call from ‘Kidnapped Daughter’ – But It’s Really an AI Scam,” The Guardian (June 14, 2023).
[43] See Philipp Hacker, Andreas Engel, and Marco Mauer, Regulating ChatGPT and Other Large Generative AI Models (May 12, 2023), https://doi.org/10.48550/arXiv.2302.02337.
[44] Chuck Brooks, “A Primer on Artificial Intelligence and Cybersecurity,” Forbes (Sept. 26, 2023).
[45] prompt injections
[46] large language model
[47] Trend Micro, “Top 10 AI Security Risks According to OWASP,” (Aug. 15, 2023), https://www.trendmicro.com/en_vn/ciso/23/h/top-ai-risks.html.
[48] Daniel J. Solove, Identity Theft, Privacy, and the Architecture of Vulnerability, 54 Hastings L.J. 1227 (2003).
[49] DANIEL J. SOLOVE &WOODROW HARTZOG,BREACHED! WHY DATA SECURITY LAW FAILS AND HOW TO IMPROVE IT (2022).
[50] همان.
[51] همان؛ صفحات 110-81.
[52] مطابق اساطیر یونان، پاندورا اولین زن میرا بود. او با جعبهای اسرارآمیز به زمین فرستاده میشود که از بازکردن در آن منع شده بود. امّا پاندورا این جعبه را گشود که در نتیجه، تمام مصائب از این جعبه خارج شده و در جهان پراکنده شدند. امروزه «بازکردن جعبۀ پاندورا» در برخی فرهنگهای غربی کاربرد ضربالمثلی یافته و در اشاره به اقداماتی با نتایج ناگوار پیشبینینشده بهکار میرود. (م)
[53] Frank Pasquale
[54] FRANK PASQUALE, NEW LAWS OF ROBOTICS: DEFENDING HUMAN EXPERTISE IN THE AGE OF AI 8 (2020).
[55] Turing test
[56] Alan Turing
[57] Alan Turing, Computing Machinery and Intelligence, 59 Mind 433 (1950).
[58] همان.
[59] Isaac Asimov
[60] Bicentennial Man
[61] ISAAC ASIMOV, THE BICENTENNIAL MAN AND OTHER STORIES (1976).
[62] Her