هوش مصنوعی و حریم خصوصی / بخش هفتم

فهرست مطالب

بخش هفتم از مقاله (Artificial Intelligence and Privacy (2024

دنیل جی. سولوو

ترجمه سمانه هاشمی نژاد

نظارت، مشارکت و پاسخگویی

شفافیت

یکی از ارکان اصلی قانون حریم خصوصی، شفافیت است: سازمان‌ها باید دربارۀ این‌که چه داده‌هایی را جمع‌آوری می‌کنند و چگونه از آن‌ها استفاده می‌کنند، شفاف باشند. شفافیت، هوش مصنوعی را با چالش‌های بزرگی مواجه می‌سازد. همان‌طور که فرانک پاسکوال[1] استدلال می‌کند، بسیاری از الگوریتم‌ها «اسرارآمیز» هستند و استفاده از آن‌ها موجب شده ‌است که در یک «جامعۀ جعبۀ سیاه»[2] زندگی کنیم؛ جامعه‌ای که در آن دربارۀ زندگی‌مان تصمیم‌های مهمی گرفته می‌شود؛ بدون آنکه توضیح و پاسخگویی در کار باشد.[3] به بیان مارگو کمینسکی[4]، «نوعی از شفافیت جایگاه روشنی در حکمرانی پاسخگویی الگوریتمی دارد».[5] با این حال، او به اختلافاتی اشاره می‌کند که دربارۀ اینکه دقیقاً چه چیزی باید شفاف باشد، در کار است. آیا به ‌کار بردن اعلان‌های مختصر دربارۀ وجود فرآیندهای خودکار کفایت می‌کند؟ آیا باید دربارۀ کدگذاری‌های الگوریتم – به ‌عبارتی، منطق الگوریتم – شفافیت وجود داشته باشد؟ یا آیا لازم است داده‌هایی که الگوریتم با آن‌ها آموزش دیده ‌است، افشا گردد؟

مقررات عمومی حفاظت از داده‌های (GDPR) در ارتباط  با فرآیندهای خودکار، حقوق مشخصی را ارائه می‌کند؛ حقوقی که دربردارندۀ سطحی از شفافیت الگوریتمی است.[6] طبق این ضوابط، کنترل‌کنندگان داده موظفند افراد را دربارۀ استفاده از تصمیم‌گیری خودکار مطلع سازند، بینشی معنادار از منطق این فرآیندها به ایشان ارائه دهند و پیامدهای بالقوه را برای آنان توضیح دهند.

برای آنکه شفافیت واقعاً مؤثر باشد، لازم است تصمیمات خودکار قابل‌ فهم باشند. این مسأله در زمینۀ الگوریتم‎های یادگیری ماشین چالش‎ برانگیز است؛ چراکه نحوۀ تصمیم‌گیری آن‌ها می‌تواند شدیداً پیچیده باشد.[7] سلیمان اشاره می‌کند که الگوریتم‌ها «قابل‌توضیح نیستند»، چراکه «نمی‌توان مسیر فرآیند تصمیم‌گیری را به ‌نحوی پیش چشم یک فرد به ‌نمایش گذاشت که دقیقاً مشخص شود چرا یک الگوریتم، پیش‌بینی خاصی را ارائه داده ‌است».[8] الگوریتم‌های هوش مصنوعی پویا هستند و بر داده‌های جمعی مرتبط با افراد بی‌شماری متکی‌اند. اگر کسی بخواهد بفهمد که چرا دربارۀ یک فرد، تصمیمی مشخص اتخاذ شده ‌است، نه ‌تنها باید از داده‌های شخصی آن فرد و منطق آن الگوریتم مطلع باشد، بلکه همچنین لازم است بداند آن الگوریتمْ کدام داده‌های مربوط با دیگر افراد را پردازش کرده ‌است. این در حالی است که آشکارسازی این مجموعه ‌داده‌های گسترده‌تر، خطر نقض حریم خصوصی سایر افراد را در پی دارد.

شفافیت الگوریتمی می‌تواند به دلیل حفاظت از اسرار تجاری مختل شود. به بیان شارلوت چیدر[9]، استاد حقوق، «بسته به میزان افشای مورد نیاز، توضیح اینکه یک تصمیم مبتنی بر هوش مصنوعی چگونه اتخاذ شده ‌است، می‌تواند جایگاه حقوقی الگوریتم به ‌عنوان یک راز تجاری را نابود کند».[10]

حتی زمانی که این تصمیمات به ‌طور شفاف گرفته می‌شوند، همچنان بالقوه می‌توانند مشکل‌ساز و غیرمنصفانه باشند. بنابراین، هر چند شفافیت جنبه‌ای حیاتی از محافظت از داده‌هاست، به ‌تنهایی برای مقابله با مشکلات بی‌شمار مرتبط با تصمیم‌گیری الگوریتمی کفایت نمی‌کند.[11] برای اطمینان از اینکه سیستم‌ها منصفانه عمل می‌کنند و آسیبی در بر ندارند، اقدامات بیشتری لازم است.

از این گذشته، حتی با وجود شفافیت، بسیاری از افراد توانایی ارزیابی الگوریتم‌های پیچیده را ندارند. در بسیاری از موارد، فهم یک الگوریتم مستلزم دسترسی به داده‌های آموزشی استفاده ‌شده است؛ داده‌هایی که عموماً به ‌سادگی در دسترس و قابل بازتولید نیستند؛ فارغ از اینکه درک‌شدنی باشند یا خیر.[12] افشای این داده‌ها بدون نقض حریم خصوصی افراد غالباً امکان‌پذیر نیست. علاوه بر این، حجم دادۀ موجود در این مجموعه ‌داده‌ها بسیار عظیم‌تر از آن است که افراد بتوانند با آن‌ها دست‌وپنجه نرم کنند.

به ‌علاوه، بسیاری از الگوریتم‌ها پویا هستند و به ‌طور مستمر بر اساس داده‌های جدید می‌آموزند و تکامل می‌یابند؛ در چنین شرایطی، ارزیابی نیز باید مستمر باشد، امری که برای اکثر افراد عملاً امکان‌پذیر نیست. این پیچیدگی، محدودیت‌های حقوق کنونی حریم خصوصی در رسیدگی به پیامدهای گسترده‌ترِ استفاده از داده‌ها و تصمیم‌گیری الگوریتمی را برجسته‌تر می‌سازد. حتی کارشناسان در درک چراییِ تولید برخی برون‌دادها توسط الگوریتم‌ها با چالش مواجه‌اند.[13] به بیان جوی بولاموینی[14]، دانشمند حوزۀ فناوری، «یکی از چالش‌های عمده در موضوع شبکه‌های عصبی مصنوعی آن است که طی فرآیند آموزش، دانشمندان کامپیوتر همیشه نمی‌دانند دقیقاً چرا برخی وزن‌ها[15] افزایش می‌یابند و از برخی وزن‌ها کاسته می‌شود».[16] سازندگان الگوریتم‌ها می‌توانند از حق حفاظت از اسرار تجاری به ‌عنوان یک سپر در برابر بررسی‌های موشکافانه استفاده کنند. در پروندۀ لومیس، حق حفاظت از اسرار تجاری شرکتِ توسعه‌دهندۀ ابزار تحلیل ریسک بازگشت به جرم کامپَس مانع آن شد که متهمان بتوانند آن ابزار را ارزیابی کنند.[17] ربکار وکسلر[18]، استاد حقوق، استفاده از حق حفاظت از اسرار تجاری در پرونده‌های کیفری را مورد انتقاد قرار داده ‌است، چراکه این عمل «منافع صرفاً مالی را با زندگی و آزادی در یک سطح قرار می‌دهد».[19]

در نهایت، در زمینۀ هوش مصنوعی، شفافیت موضوعی چالش‌برانگیز خواهد بود؛ با این حال نباید از آن دست شست. قوانین حریم خصوصی باید از تکیۀ بیش‌ ازاندازه بر شفافیت خودداری کنند. با وجود این، شفافیت ارزشمند است؛ و هر چند نمی‌توان داده‌های آموزشی را افشا کرد، می‌توان جزئیاتی را دربارۀ آن‌ها افشا کرد. پژوهشگران و متخصصان می‌توانند الگوریتم‌های هوش مصنوعی را بررسی کنند.

فرآیند دادرسی عادلانه

همان‌طور که پیش‌تر اشاره شد، هوش مصنوعی می‌تواند فرایند دادرسی عادلانۀ فردی را تهدید کند. بنا به استدلال دنیل سیترون[20]، «خودکارسازی، ضمانت‌های فرآیند دادرسی عادلانه را به خطر می‌اندازد؛ از جمله اطلاع‌رسانی مؤثر و فرصتِ شنیده‌شدن».[21] سیترون به همراه فرانک پاسکوال می‌کند که در امتیازدهی اعتباری، نیاز بیشتری به فرآیند دادرسی عادلانه وجود دارد؛ «حفاظت‌های رویه‌ای نه ‌تنها باید بر خودِ الگوریتم‌های امتیازدهی اِعمال شوند (که نوعی از مقررات‌گذاری مبتنی بر فناوری است)، بلکه باید بر تصمیماتی که براساس پیش‌بینی‌های الگوریتمی دربارۀ افراد گرفته می‌شود نیز اِعمال گردند (که نوعی از قضاوت و داوریِ مبتنی بر فناوری است)».[22]

مارگو کمینسکی و جنیفر اوربان[23] اشاره می‌کنند که در ایالات متحده، «پیشنهادهای نظارتیِ ناظر بر تصمیم‌گیری‌های الگوریتمی، نیاز به فرآیند دادرسی عادلانۀ فردی را نادیده گرفته‌اند و در عوضِ آن، نظارتِ سیستم‌گستر در جهت کاهش ریسک را مورد توجه قرار داده‌اند».[24] آنان استدلال می‌کنند که در اروپا، مقررات عمومی حفاظت از داده‌ها (GDPR) حقِ به‌چالش‌کشیدن تصمیمات هوش مصنوعی را به افراد اعطا می‌کند: « GDPRتدابیر حاکمیتیِ سیستماتیک و حقوق گوناگون فردی برای اشخاصی که داده‌ها به آنان مرتبط است (= افرادِ موضوع داده) را با یکدیگر ترکیب می‌کند: شفافیت، اطلاع‌رسانی، دسترسی، حق سرباززدن از فرآیند و برای کسانی که درباره‌شان تصمیم‎گیری خودکار صورت گرفته ‌است، حق اعتراض به تصمیمات مشخص».[25] ایالات متحده باید حفاظت‌های مشابهی را ارائه دهد. به عقیدۀ کیت کرافورد[26] و جیسون شولتز[27]، یک نهاد بی‌طرف باید به شکایات افراد رسیدگی کند.[28]

هر چند قانون همچنان باید فضایی را برای شنیده‌شدن صدای افراد و رسیدگی به شکایات‌شان فراهم کند، امّا نباید حفاظت‌هایش را بیش ‌از حد بر چالش‌های فردی مبتنی سازد؛ زیرا این امر فشار زیادی بر دوش افراد می‌گذارد و بیش از آنچه باید بر مدل ناکارآمدِ کنترل فردی وابسته می‌ماند.

مشارکت ذی‌نفعان

اندیشمندان، دربارۀ احتمال توسعۀ انحصاری هوش مصنوعی نگرانی‌هایی را مطرح کرده‌اند؛ چراکه تصمیم‌‌های کلیدی غالباً بدون مشارکت همۀ ذی‌نفعان مربوطه اتخاذ می‌گردد. در بسیاری از مواقع، سیستم‌های هوش مصنوعی تأثیرات عمیقی بر گروه‌های به‌ حاشیه ‌رانده‌ شده می‌گذارند؛ به ‌ویژه زمانی که مورد استفادۀ دولت قرار می‌گیرند.

برای مثال، نگوژی اوکیدگیه[29]، استاد حقوق، اشاره می‌کند که در نمونۀ الگوریتم‌های بازداشت پیش از محاکمه، افراد با پیشینۀ اقتصادی ضعیف و اقلیت‌های نژادی ممکن است از فرآیند نظارت بر این الگوریتم‌ها کنار گذاشته شوند؛ فرآیندهایی که «مبهم‌اند و دربرگیرندۀ جمعیت‌های سرکوب ‌شده – که بیشتر احتمال دارد با آن الگوریتم‌ها سروکار داشته باشند – نیستند».[30]

آلیشیا سولو-نیدرمن[31]، ادعا می‌کند که «در حوزۀ هوش مصنوعی، صدای فعال عمومی غایب است؛ صدایی که برای یک مدل حکمرانی پاسخگو و دموکراتیک ضروری است … در این حوزه تمام مذاکرات در بازاری تنظیم‌ نشده صورت می‌گیرد؛ بدون هماهنگی‌هایی که به لحاظ دموکراتیک پاسخگو باشند و بدون کنترل‌های الزام‌آور بر انگیزه‌های تجاری سودمحور».[32]

از آنجا که هوش مصنوعی حریم خصوصی ذی‌نفعان بی‌شماری را تحت ‌تأثیر قرار می‌دهد و از آنجا که الگوریتم‌های هوش مصنوعی غالباً بر پایۀ داده‌های شخصی آموزش می‌بینند، دلیل موجهی وجود دارد برای آنکه قانون سازندگان چنین الگوریتم‌هایی را ملزم به در نظر گرفتنِ نظر ذی‌نفعان کند؛ ذی‌نفعانی که توسط گروه‌ها و انجمن‌ها نمایندگی می‌شوند.

پاسخگویی

یک رویکرد دیگر برای قاعده‌مندسازی هوش مصنوعی، شامل مکانیزم‌های حکمرانی و پاسخگویی است. چنین تمهیداتی غالباً در قوانین حریم خصوصی گنجانده می‌شود؛ که دربردارندۀ انتصاب مأموران حریم خصوصی، انجام پژوهش‌های ارزیابی تأثیر در زمینۀ حریم خصوصی، وضع سیاست‌ها و رویه‌های مکتوب، شفافیت درعملکردهای مرتبط با داده، مستندسازی و غیره است. می‌توان این مکانیزم‌ها را، که تأثیرگذاری‌شان در حیطۀ حریم خصوصی اثبات ‌شده است، برای قاعده‌مندسازی هوش مصنوعی نیز به‌ کار برد.

بنا به استدلال پائولین کیم[33]، «ابزارهای فنی به‌ تنهایی نمی‌توانند به‌ نحو قابل ‌اطمینانی از بروز الگوریتم‌های تبعیض‌آمیز جلوگیری کنند؛ چراکه تبعیض‌ها غالباً از کُدها نشأت نمی‌گیرند؛ بلکه در فرآیندهای گسترده‌ترِ اجتماعی نهفته‌اند».[34] او در ادامه چنین بیان می‌کند: «جلوگیری از برون‌دادهای تبعیض‌آمیز، مستلزم آگاهی از تأثیرات فرآیندهای خودکارسازی‌شدۀ تصمیم‌گیری است؛ آگاهی‌ای که از جمله می‌تواند از طریق بازرسی حاصل شود».[35]

به گفتۀ تالیا گیلیس[36] و جاش سیمونز[37]، پاسخگویی «باید محور تمامی رویکردهای حکمرانی بر تصمیم‌گیری مبتنی بر یادگیری ماشین باشد». آنان چنین توضیح می‌دهند: «وجود ساختارهای پاسخگویی می‌تواند نهادها را ترغیب کند که رویه‌های تصمیم‌گیری‌شان را با دقت بیشتر، در نظر گرفتن طیف گسترده‌تری از منافع و دیدگاه‌ها و ارزیابی انواع بیشتری از خطرات و آسیب‌های احتمالی توسعه دهند».[38] گیلیس و سیمونز به ‌درستی استدلال می‌کنند که «بخشی از ارزش پاسخگویی ناشی از این است که رفتار صاحبان قدرت را تغییر می‌دهد؛ چراکه می‌دانند باید از عهدۀ توجیه رفتارشان برآیند».[39]

پرسشی کلیدی در زمینۀ پاسخگویی که همچنان در قانون حریم خصوصی به ‌خوبی بررسی نشده ‌است، این است که مسئولیت اصلی اجرای اقدامات مربوط به پاسخگویی باید برعهدۀ چه کسی باشد؟ برای مثال، آیا سازمان‌ها باید خودآزمایی کنند؟ آیا ناظران دولتی باید بازرسی‌ها را انجام دهند؟ آیا طرف‌های ثالثِ مستقل باید اقدام به بازرسی کنند؟

بسیاری از قوانین حریم خصوصی، مسئولیت اجرای اکثر مکانیزم‌های پاسخگویی و حکمرانی را به شرکت‌ها واگذار می‌کنند. استاد آری والدمن[40] این رویکرد را به دلیل ناکارآمدیِ اسف‌بار، شدیداً مورد انتقاد قرار می‌دهد: «شفافیت، ارزیابی تأثیر، مستندسازی و مکانیزم‌های سنتی پاسخگویی، نمی‌توانند از عهدۀ رسیدگی به شکاف‌های موجود در سیستم‌های زیربنایی اجتماعی و سیاسی برآیند؛ شکاف‌هایی که نه‌ تنها زمینه‌ساز تصمیم‌گیری‌های الگوریتمی‌اند، بلکه گسترش این تصمیم‌گیری‌ها را – به‌ رغم تمامی سوگیری‌ها، خطاها و آسیب‌ها – امری مثبت تلقی می‌کنند».[41] والدمن به‌ جای مدل رعایت از قوانین[42]، پیشنهاد می‌کند که «ناظران با کمک کارشناسان دانشگاهی مستقل، پایبندی کُدهای تصمیم‌گیری الگوریتمی به ارزش‌های اجتماعی را مورد ارزیابی قرار دهند».[43]

بازرسی و بازبینی باید از یک مؤلفۀ اساسیِ مستقل برخوردار باشد. در غیر این صورت، سازمان‌ها زمانی که نادیده ‌گرفتن ریسک پاداش زیادی را در برداشته باشد، به ‌سادگی محدودشدن را نمی‌پذیرند. مقررات باید میان اعتماد بیش ‌از اندازه به سازمان‌ها برای مدیریت خودشان از یک سو و درخواست مجوز برای یکایک اقدامات سازمان‌ها از سوی دیگر، تعادلی ایجاد کنند. در نهایت، به ترکیبی از مکانیزم‌های داخلی و خارجیِ پاسخگویی نیاز داریم. سازمان‌ها باید در پی آسیب‌ها و خطرهایی که ایجاد می‌کنند، با پیامدهای معناداری مواجه شوند؛ با وجود این، غالباً چنین نیست و سازمان‎ها به جدی‌ نگرفتنِ وظایف قانونی‌شان ترغیب می‌شوند.

اِعمال قانون و جبران حقوقی

در هنگام نقض قوانین حریم خصوصی، هوش مصنوعی چالش‌هایی را برای جبران حقوقی ایجاد می‌کند. زمانی که الگوریتم‌های هوش مصنوعی با داده‌هایی تولید می‌شوند که به روش نامناسبی جمع‌آوری شده‌اند، جداکردن این داده‌ها از الگوریتم دشوار است. الگوریتم هم‌اکنون نیز از این داده‌ها «آموخته ‌است». تیفانی لی[44] این اثر را «سایۀ الگوریتمی» می‌نامد؛ یعنی «اثر پایدار داده‌ای که یک مدل یادگیری ماشین توسط آن تغذیه شده ‌است».[45] بنابراین، جبران حقوقی از طریق حذف داده، نمی‌تواند «سایۀ الگوریتمی را از بین ببرد»، این اقدام «بر مدلی که از قبل آموزش‌ دیده است، هیچ تأثیری ندارد».[46] در نتیجه، انگیزه‌ای برای جلوگیری از جمع‌آوری غیرقانونی داده‌ها وجود نخواهد داشت؛ زیرا سود ناشی از آن در الگوریتم حک می‌شود و شرکت‌ها، حتی اگر مجبور شوند داده‌های سرقت‌ شده را حذف کنند، همچنان منفعت خواهند برد.

از جمله جبران‌های حقوقی که به ‌طور فزاینده‌ای مورد استفاده قرار می‌گیرد، «نابودی الگوریتمی» است. برای نمونه، در پروندۀ مربوط به شرکت اِوِرآلبوم[47]، کمیسیون فدرال تجاری (FTC)[48] ایالات متحده، یک شرکت را ملزم به حذف «تمام مدل‌ها و الگوریتم‌هایی» کرد که توسط داده‌هایی توسعه یافته‌اند که به روش نامناسبی جمع‌آوری شده‌اند.[49] با این حال، لی استدلال می‌کند که ممکن است جبران حقوقی از طریق حذف الگوریتمی بیش ‌ازاندازه سخت‌گیرانه باشد و می‌تواند «به استارت‌آپ‌های کوچک آسیب برساند و بازیگران جدید را از ورود به صنایع فناوری دلسرد کند».[50] به ‌علاوه، ممکن است کمیسیون فدرال تجاری بتواند یک شرکت کوچک را ملزم به حذف الگوریتم‌هایش کند، امّا یک شرکت عظیم همچون Open AI چطور؟ دشوار است تصور کنیم که این کمیسیون یا هر نهاد نظارتی دیگری دستور به حذف یک الگوریتم بسیار محبوب به ارزش چندین میلیارد دلار بدهد.

دیگر آنکه، آیا این جبران در مواردی که تنها بخشی از داده‌ها به روشی نامناسب جمع‌آوری شده‌ است، قابل‌ اجرا است؟ حذف کاملِ یک سیستم هوش مصنوعی به این دلیل که از داده‌های یک نفر به‌ غلط استفاده شده ‌است، بیش ‌از حد خشن خواهد بود. با این حال، در شرایطی که بخش عمدۀ داده‌ها به روشی نادرست جمع‌آوری شده باشد یا زمانی که الگوریتم آسیب قابل ‌توجهی ایجاد کند، نابودی الگوریتمی می‌تواند راهکاری مناسب باشد.

چالش دیگر آن است که سرمایه‌گذاری مالی در حیطۀ هوش مصنوعی به ابعاد فوق‌العاده‌ای رسیده‌ است. پاداش توسعۀ ابزارهای موفق هوش مصنوعی، ثروت‌های هنگفتی را دربر دارد. جریمه‌ها و اِعمال قوانین به‌ ندرت می‌توانند موازنه‌ای با این منافع، ایجاد کنند. این امر، بروز مشوق‌های انحراف‌آمیز را در پی دارد؛ به ‌طوری ‌که یک شرکت می‌تواند به ‌واسطۀ نقض قوانین میانبر بزند و با کسب سودی بزرگ پاداش بگیرد، سپس عذرخواهی کند و بخش کوچکی از سود را به‌ عنوان جبران بپردازد. کارآفرینان هوش مصنوعی با این پند آشنا هستند: «عذرخواهی بهتر از کسب اجازه است».

در نهایت، اعمال قوانین در حوزۀ هوش مصنوعی چالشی بزرگ خواهد بود. مشوق‎های بسیار قدرتمندی برای «حرکتِ سریع و درهم‌شکستن چیزها» وجود خواهد داشت. مجریان قانون به ‌ندرت جریمه‌هایی صادر می‌کنند که توان غلبه بر چنین مشوق‌های بزرگی را داشته باشد.

جمع‌بندی

و با این حال، ما نه می‌توانیم گذر زمان را متوقف سازیم

و نه پیشرفت‌ها فنیِ ساختۀ خودمان را؛

ما باید راهی برای متعال نگه ‌داشتنِ زندگی‌هایمان بیابیم،

و نگذاریم حریم خصوصی‌مان از هم بپاشد.

                                                      شعری از چت جی‌پی‌تی

هوش مصنوعی، به روش‌های گوناگونی بر حریم خصوصی تأثیر می‌گذارد؛ هر چند این تأثیرگذاری غالباً مشکلات یکسره جدیدی را پدید نمی‌آورد، بلکه مسائل از پیش موجود را بازترکیب و تشدید می‌کند. مشکلات حریم خصوصیِ برآمده از هوش مصنوعی، به ‌هیچ ‌عنوان خارج از انتظار نیستند؛ بلکه گام‌هایی‌اند در مسیر آینده‌ای که از مدت‌ها قبل پیش‌بینی شده ‌است.

قوانین کنونیِ حریم خصوصی به‌ طرز تأسف‌آوری در رسیدگی به چالش‌های حریم خصوصی مرتبط با حریم خصوصی ناکام مانده‌اند. هوش مصنوعی بر بسیاری از ضعیف‌ترین نقاطِ قوانین حریم خصوصی، فشار وارد می‌کند. رویکردهای نادرست و دیگر کاستی‌های اصلاح ‌نشدۀ قوانین حریم خصوصی، به ‌طور ویژه تناسبی با هوش مصنوعی ندارند.

اصلاحات اساسی در قوانین حریم خصوصی مدت‌هاست که به‌ تأخیر افتاده‌ است. سیاست‌گذاران از بابت هوش مصنوعی نگران هستند و به ‌نظر می‌رسد فرصتی فراهم شده تا رویکردهای جدید قانون‌گذاری مورد ملاحظه قرار گیرند. می‌توان امیدوار بود فرصتی فراهم شود که قوانین حریم خصوصی به مسیری جدید هدایت شوند. تنظیم مشکلات حریم خصوصی برآمده از هوش مصنوعی به ‌شیوه‌ای درخور، مستلزم رسیدگی به مشکلات و رویکردهای نادرست و دیرینۀ قوانین حریم خصوصی است.


[1] Frank Pasquale

[2] black box society

[3] FRANK PASQUALE, THE BLACK BOX SOCIETY: THE HIDDEN ALGORITHMS THAT CONTROL MONEY AND INFORMATION 218 (2015); Charlotte A. Tschider, Beyond the “Black Box,” 98 Denv. L. Rev. 683, 699 (2021); W. Nicholson Price, Black-Box Medicine, 28 Harv. J.L. & Tech. 419, 421 (2015).

[4] Margot Kaminski

[5] Margot E. Kaminski, The Right to Explanation, Explained, 34 Berkeley Tech. L.J. 199 (2019).

[6] GDPR art. 13, § 2(f), at 40–41; id. art. 14, § 2(g), at 41–42

(افرادی که داده‌ها به آنان مرتبط است، الزاماً باید از «وجود تصمیم‌گیری خودکار، شامل پروفایل‌سازی، مطابق آنچه در مادۀ 22(1) و (4) اشاره شده‌است مطلع گردند؛ و دستکم در این موارد، از اطلاعاتی مهم دربارۀ منطق مورد استفاده و همچنین اهمیت و پیامدهای مورد انتظار چنین پردازشی بر فردِ موضوع داده» مطلع گردند.)

see also id. art. 15, § 1(h), at 43.

[7] Carolin Kemper, Kafkaesque AI? Legal Decision-Making in the Era of Machine Learning, 24 Intell. Prop. & Tech. L.J. 251, 275 (2020)

(«به دلیل طراحی پیچیدۀ الگوریتم‌های یادگیری ماشین، تکنیک‌های یادگیری پیچیدۀ آن‌ها و حجم عظیم داده‌هایی که ساختار الگوریتم‌ها را متأثر می‌کند، دشوار است ردیابی کنیم که چرا یک نتیجۀ خاص به دست آمده‌است»).

[8] SULEYMAN, THE COMING WAVE, supra note X, at 143.

[9] Charlotte Tschider

[10] Tschider, Black Box, supra note X, at 711.

[11] Devin R. Desai & Joshua A. Kroll, Trust But Verify: A Guide to Algorithms and the Law, 31 Harv. J.L. & Tech. 1, 64 (2017)

(شفافیت محافظت کافی در برابر مشکلات مربوط به الگوریتم‌ها فراهم نمی‌کند).

Andrew D. Selbst & Solon Barocas, The Intuitive Appeal of Explainable Machines, 87 Fordham L. Rev. 1085, 1088 (2018)

(«برای دستیابی به اهداف قانونی و سیاستی، توضیح‌دادن سیستم‌های فنی ضروری است؛ امّا کافی نیست»).

[12] Dennis D. Hirsch, From Individual Control to Social Protection: New Paradigms for Privacy Law in the Age of Predictive Analytics, 79 Md. L. Rev. 439, 445 (2020).

[13] Tschider, AI’s Legitimate Interest, supra note X, at 130.

[14] Joy Boulamwini

[15] در حوزۀ شبکه‌های عصبی مصنوعی، وزن‌ها (weights) به آن دسته از مقادیر عددی اشاره دارند که به هر اتصال بین نورون‌ها در لایه‌های مختلف شبکۀ عصبی اختصاص داده می‌شوند. این وزن‌ها تعیین می‌کنند که هر ورودی به چه میزان در خروجی نهایی تأثیر می‌گذارد. تغییرات کوچک در وزن‌ها می‌تواند به ایجاد نتایج متفاوتی در خروجی بینجامد. (م)

[16] JOY BOULAMWINI, UNMASKING AI: MY MISSION TO PROTECT WHAT IS HUMAN IN A WORD OF MACHINES 53 (2023).

[17] Wisconsin v. Loomis, 881 N.W.2d 749 (Wis. 2016).

[18] Rebecca Wexler

[19] Rebecca Wexler, Life, Liberty, and Trade Secrets, 70 Stan. L. Rev. 1343, 1402 (2018).

[20] Danielle Citron

[21] Danielle Keats Citron, Technological Due Process, 85 Wash. U. L. Rev. 1249 (2007).

[22] Danielle Keats Citron & Frank Pasquale, The Scored Society: Due Process for Automated Predictions, 89 Wash. L. Rev. 1 (2014).

[23] Jennifer Urban

[24] Kaminski & Urban, The Right to Contest AI, supra note X, at X.

[25] همان.

[26] Kate Crawford

[27] Jason Schultz

[28] Kate Crawford & Jason Schultz, Big Data and Due Process: Toward a Framework to Redress Predictive Privacy Harms, 55 B.C. L. Rev. 93 (2014).

[29] Ngozi Okidegbe

[30] Ngozi Okidegbe, The Democratizing Potential of Algorithms?, 53 Conn. L. Rev. 739 (2022).

[31] Alicia Solow-Niederman

[32] Alicia Solow-Niederman, Administering Artificial Intelligence, 93 S. Cal. L. Rev. 633 (2020).

[33] Pauline Kim

[34] Pauline T. Kim, Auditing Algorithms for Discrimination, 166 U. Pa. L. Rev. Online 189, 202 (2017).

[35] همان.

[36] Talia Gillis

[37] Josh Simons

[38] Talia B. Gillis and Josh Simons, Explanation < Justification: GDPR and the Perils of Privacy, Pa. J. L. & Innovation (2019).

[39] همان.

[40] Ari Waldman

[41] Ari Ezra Waldman, Power, Process, and Automated Decision-Making, 88 Fordham L. Rev. 613 (2019).

[42] compliance model، به رویکردی اشاره دارد که در آن سازمان‌ها یا شرکت‌ها تلاش می‌کنند با قوانین، مقررات و استانداردهای مشخص‌شده توسط نهادهای قانون‌گذار هماهنگ شوند و از آن‌ها پیروی کنند. این مدل معمولاً شامل گزارش‌دهی، خودارزیابی و گاهی همکاری با بازرسان خارجی برای تأیید رعایت مقررات است. والدمن منتقد این رویکرد است. (م)

[43] همان.

[44] Tiffany Li

[45] Tiffany C. Li, Algorithmic Destruction, 75 SMU L. Rev. 479, 482 (2022).

[46] همان، ص 498.

[47] Everalbum, Inc.

[48] Federal Trade Commission

[49] In re Everalbum, Inc. (2022).

[50] Li, Algorithmic Destruction, supra note X, at 505.