بخش هفتم از مقاله (Artificial Intelligence and Privacy (2024
دنیل جی. سولوو
ترجمه سمانه هاشمی نژاد
نظارت، مشارکت و پاسخگویی
شفافیت
یکی از ارکان اصلی قانون حریم خصوصی، شفافیت است: سازمانها باید دربارۀ اینکه چه دادههایی را جمعآوری میکنند و چگونه از آنها استفاده میکنند، شفاف باشند. شفافیت، هوش مصنوعی را با چالشهای بزرگی مواجه میسازد. همانطور که فرانک پاسکوال[1] استدلال میکند، بسیاری از الگوریتمها «اسرارآمیز» هستند و استفاده از آنها موجب شده است که در یک «جامعۀ جعبۀ سیاه»[2] زندگی کنیم؛ جامعهای که در آن دربارۀ زندگیمان تصمیمهای مهمی گرفته میشود؛ بدون آنکه توضیح و پاسخگویی در کار باشد.[3] به بیان مارگو کمینسکی[4]، «نوعی از شفافیت جایگاه روشنی در حکمرانی پاسخگویی الگوریتمی دارد».[5] با این حال، او به اختلافاتی اشاره میکند که دربارۀ اینکه دقیقاً چه چیزی باید شفاف باشد، در کار است. آیا به کار بردن اعلانهای مختصر دربارۀ وجود فرآیندهای خودکار کفایت میکند؟ آیا باید دربارۀ کدگذاریهای الگوریتم – به عبارتی، منطق الگوریتم – شفافیت وجود داشته باشد؟ یا آیا لازم است دادههایی که الگوریتم با آنها آموزش دیده است، افشا گردد؟
مقررات عمومی حفاظت از دادههای (GDPR) در ارتباط با فرآیندهای خودکار، حقوق مشخصی را ارائه میکند؛ حقوقی که دربردارندۀ سطحی از شفافیت الگوریتمی است.[6] طبق این ضوابط، کنترلکنندگان داده موظفند افراد را دربارۀ استفاده از تصمیمگیری خودکار مطلع سازند، بینشی معنادار از منطق این فرآیندها به ایشان ارائه دهند و پیامدهای بالقوه را برای آنان توضیح دهند.
برای آنکه شفافیت واقعاً مؤثر باشد، لازم است تصمیمات خودکار قابل فهم باشند. این مسأله در زمینۀ الگوریتمهای یادگیری ماشین چالش برانگیز است؛ چراکه نحوۀ تصمیمگیری آنها میتواند شدیداً پیچیده باشد.[7] سلیمان اشاره میکند که الگوریتمها «قابلتوضیح نیستند»، چراکه «نمیتوان مسیر فرآیند تصمیمگیری را به نحوی پیش چشم یک فرد به نمایش گذاشت که دقیقاً مشخص شود چرا یک الگوریتم، پیشبینی خاصی را ارائه داده است».[8] الگوریتمهای هوش مصنوعی پویا هستند و بر دادههای جمعی مرتبط با افراد بیشماری متکیاند. اگر کسی بخواهد بفهمد که چرا دربارۀ یک فرد، تصمیمی مشخص اتخاذ شده است، نه تنها باید از دادههای شخصی آن فرد و منطق آن الگوریتم مطلع باشد، بلکه همچنین لازم است بداند آن الگوریتمْ کدام دادههای مربوط با دیگر افراد را پردازش کرده است. این در حالی است که آشکارسازی این مجموعه دادههای گستردهتر، خطر نقض حریم خصوصی سایر افراد را در پی دارد.
شفافیت الگوریتمی میتواند به دلیل حفاظت از اسرار تجاری مختل شود. به بیان شارلوت چیدر[9]، استاد حقوق، «بسته به میزان افشای مورد نیاز، توضیح اینکه یک تصمیم مبتنی بر هوش مصنوعی چگونه اتخاذ شده است، میتواند جایگاه حقوقی الگوریتم به عنوان یک راز تجاری را نابود کند».[10]
حتی زمانی که این تصمیمات به طور شفاف گرفته میشوند، همچنان بالقوه میتوانند مشکلساز و غیرمنصفانه باشند. بنابراین، هر چند شفافیت جنبهای حیاتی از محافظت از دادههاست، به تنهایی برای مقابله با مشکلات بیشمار مرتبط با تصمیمگیری الگوریتمی کفایت نمیکند.[11] برای اطمینان از اینکه سیستمها منصفانه عمل میکنند و آسیبی در بر ندارند، اقدامات بیشتری لازم است.
از این گذشته، حتی با وجود شفافیت، بسیاری از افراد توانایی ارزیابی الگوریتمهای پیچیده را ندارند. در بسیاری از موارد، فهم یک الگوریتم مستلزم دسترسی به دادههای آموزشی استفاده شده است؛ دادههایی که عموماً به سادگی در دسترس و قابل بازتولید نیستند؛ فارغ از اینکه درکشدنی باشند یا خیر.[12] افشای این دادهها بدون نقض حریم خصوصی افراد غالباً امکانپذیر نیست. علاوه بر این، حجم دادۀ موجود در این مجموعه دادهها بسیار عظیمتر از آن است که افراد بتوانند با آنها دستوپنجه نرم کنند.
به علاوه، بسیاری از الگوریتمها پویا هستند و به طور مستمر بر اساس دادههای جدید میآموزند و تکامل مییابند؛ در چنین شرایطی، ارزیابی نیز باید مستمر باشد، امری که برای اکثر افراد عملاً امکانپذیر نیست. این پیچیدگی، محدودیتهای حقوق کنونی حریم خصوصی در رسیدگی به پیامدهای گستردهترِ استفاده از دادهها و تصمیمگیری الگوریتمی را برجستهتر میسازد. حتی کارشناسان در درک چراییِ تولید برخی بروندادها توسط الگوریتمها با چالش مواجهاند.[13] به بیان جوی بولاموینی[14]، دانشمند حوزۀ فناوری، «یکی از چالشهای عمده در موضوع شبکههای عصبی مصنوعی آن است که طی فرآیند آموزش، دانشمندان کامپیوتر همیشه نمیدانند دقیقاً چرا برخی وزنها[15] افزایش مییابند و از برخی وزنها کاسته میشود».[16] سازندگان الگوریتمها میتوانند از حق حفاظت از اسرار تجاری به عنوان یک سپر در برابر بررسیهای موشکافانه استفاده کنند. در پروندۀ لومیس، حق حفاظت از اسرار تجاری شرکتِ توسعهدهندۀ ابزار تحلیل ریسک بازگشت به جرم کامپَس مانع آن شد که متهمان بتوانند آن ابزار را ارزیابی کنند.[17] ربکار وکسلر[18]، استاد حقوق، استفاده از حق حفاظت از اسرار تجاری در پروندههای کیفری را مورد انتقاد قرار داده است، چراکه این عمل «منافع صرفاً مالی را با زندگی و آزادی در یک سطح قرار میدهد».[19]
در نهایت، در زمینۀ هوش مصنوعی، شفافیت موضوعی چالشبرانگیز خواهد بود؛ با این حال نباید از آن دست شست. قوانین حریم خصوصی باید از تکیۀ بیش ازاندازه بر شفافیت خودداری کنند. با وجود این، شفافیت ارزشمند است؛ و هر چند نمیتوان دادههای آموزشی را افشا کرد، میتوان جزئیاتی را دربارۀ آنها افشا کرد. پژوهشگران و متخصصان میتوانند الگوریتمهای هوش مصنوعی را بررسی کنند.
فرآیند دادرسی عادلانه
همانطور که پیشتر اشاره شد، هوش مصنوعی میتواند فرایند دادرسی عادلانۀ فردی را تهدید کند. بنا به استدلال دنیل سیترون[20]، «خودکارسازی، ضمانتهای فرآیند دادرسی عادلانه را به خطر میاندازد؛ از جمله اطلاعرسانی مؤثر و فرصتِ شنیدهشدن».[21] سیترون به همراه فرانک پاسکوال میکند که در امتیازدهی اعتباری، نیاز بیشتری به فرآیند دادرسی عادلانه وجود دارد؛ «حفاظتهای رویهای نه تنها باید بر خودِ الگوریتمهای امتیازدهی اِعمال شوند (که نوعی از مقرراتگذاری مبتنی بر فناوری است)، بلکه باید بر تصمیماتی که براساس پیشبینیهای الگوریتمی دربارۀ افراد گرفته میشود نیز اِعمال گردند (که نوعی از قضاوت و داوریِ مبتنی بر فناوری است)».[22]
مارگو کمینسکی و جنیفر اوربان[23] اشاره میکنند که در ایالات متحده، «پیشنهادهای نظارتیِ ناظر بر تصمیمگیریهای الگوریتمی، نیاز به فرآیند دادرسی عادلانۀ فردی را نادیده گرفتهاند و در عوضِ آن، نظارتِ سیستمگستر در جهت کاهش ریسک را مورد توجه قرار دادهاند».[24] آنان استدلال میکنند که در اروپا، مقررات عمومی حفاظت از دادهها (GDPR) حقِ بهچالشکشیدن تصمیمات هوش مصنوعی را به افراد اعطا میکند: « GDPRتدابیر حاکمیتیِ سیستماتیک و حقوق گوناگون فردی برای اشخاصی که دادهها به آنان مرتبط است (= افرادِ موضوع داده) را با یکدیگر ترکیب میکند: شفافیت، اطلاعرسانی، دسترسی، حق سرباززدن از فرآیند و برای کسانی که دربارهشان تصمیمگیری خودکار صورت گرفته است، حق اعتراض به تصمیمات مشخص».[25] ایالات متحده باید حفاظتهای مشابهی را ارائه دهد. به عقیدۀ کیت کرافورد[26] و جیسون شولتز[27]، یک نهاد بیطرف باید به شکایات افراد رسیدگی کند.[28]
هر چند قانون همچنان باید فضایی را برای شنیدهشدن صدای افراد و رسیدگی به شکایاتشان فراهم کند، امّا نباید حفاظتهایش را بیش از حد بر چالشهای فردی مبتنی سازد؛ زیرا این امر فشار زیادی بر دوش افراد میگذارد و بیش از آنچه باید بر مدل ناکارآمدِ کنترل فردی وابسته میماند.
مشارکت ذینفعان
اندیشمندان، دربارۀ احتمال توسعۀ انحصاری هوش مصنوعی نگرانیهایی را مطرح کردهاند؛ چراکه تصمیمهای کلیدی غالباً بدون مشارکت همۀ ذینفعان مربوطه اتخاذ میگردد. در بسیاری از مواقع، سیستمهای هوش مصنوعی تأثیرات عمیقی بر گروههای به حاشیه رانده شده میگذارند؛ به ویژه زمانی که مورد استفادۀ دولت قرار میگیرند.
برای مثال، نگوژی اوکیدگیه[29]، استاد حقوق، اشاره میکند که در نمونۀ الگوریتمهای بازداشت پیش از محاکمه، افراد با پیشینۀ اقتصادی ضعیف و اقلیتهای نژادی ممکن است از فرآیند نظارت بر این الگوریتمها کنار گذاشته شوند؛ فرآیندهایی که «مبهماند و دربرگیرندۀ جمعیتهای سرکوب شده – که بیشتر احتمال دارد با آن الگوریتمها سروکار داشته باشند – نیستند».[30]
آلیشیا سولو-نیدرمن[31]، ادعا میکند که «در حوزۀ هوش مصنوعی، صدای فعال عمومی غایب است؛ صدایی که برای یک مدل حکمرانی پاسخگو و دموکراتیک ضروری است … در این حوزه تمام مذاکرات در بازاری تنظیم نشده صورت میگیرد؛ بدون هماهنگیهایی که به لحاظ دموکراتیک پاسخگو باشند و بدون کنترلهای الزامآور بر انگیزههای تجاری سودمحور».[32]
از آنجا که هوش مصنوعی حریم خصوصی ذینفعان بیشماری را تحت تأثیر قرار میدهد و از آنجا که الگوریتمهای هوش مصنوعی غالباً بر پایۀ دادههای شخصی آموزش میبینند، دلیل موجهی وجود دارد برای آنکه قانون سازندگان چنین الگوریتمهایی را ملزم به در نظر گرفتنِ نظر ذینفعان کند؛ ذینفعانی که توسط گروهها و انجمنها نمایندگی میشوند.
پاسخگویی
یک رویکرد دیگر برای قاعدهمندسازی هوش مصنوعی، شامل مکانیزمهای حکمرانی و پاسخگویی است. چنین تمهیداتی غالباً در قوانین حریم خصوصی گنجانده میشود؛ که دربردارندۀ انتصاب مأموران حریم خصوصی، انجام پژوهشهای ارزیابی تأثیر در زمینۀ حریم خصوصی، وضع سیاستها و رویههای مکتوب، شفافیت درعملکردهای مرتبط با داده، مستندسازی و غیره است. میتوان این مکانیزمها را، که تأثیرگذاریشان در حیطۀ حریم خصوصی اثبات شده است، برای قاعدهمندسازی هوش مصنوعی نیز به کار برد.
بنا به استدلال پائولین کیم[33]، «ابزارهای فنی به تنهایی نمیتوانند به نحو قابل اطمینانی از بروز الگوریتمهای تبعیضآمیز جلوگیری کنند؛ چراکه تبعیضها غالباً از کُدها نشأت نمیگیرند؛ بلکه در فرآیندهای گستردهترِ اجتماعی نهفتهاند».[34] او در ادامه چنین بیان میکند: «جلوگیری از بروندادهای تبعیضآمیز، مستلزم آگاهی از تأثیرات فرآیندهای خودکارسازیشدۀ تصمیمگیری است؛ آگاهیای که از جمله میتواند از طریق بازرسی حاصل شود».[35]
به گفتۀ تالیا گیلیس[36] و جاش سیمونز[37]، پاسخگویی «باید محور تمامی رویکردهای حکمرانی بر تصمیمگیری مبتنی بر یادگیری ماشین باشد». آنان چنین توضیح میدهند: «وجود ساختارهای پاسخگویی میتواند نهادها را ترغیب کند که رویههای تصمیمگیریشان را با دقت بیشتر، در نظر گرفتن طیف گستردهتری از منافع و دیدگاهها و ارزیابی انواع بیشتری از خطرات و آسیبهای احتمالی توسعه دهند».[38] گیلیس و سیمونز به درستی استدلال میکنند که «بخشی از ارزش پاسخگویی ناشی از این است که رفتار صاحبان قدرت را تغییر میدهد؛ چراکه میدانند باید از عهدۀ توجیه رفتارشان برآیند».[39]
پرسشی کلیدی در زمینۀ پاسخگویی که همچنان در قانون حریم خصوصی به خوبی بررسی نشده است، این است که مسئولیت اصلی اجرای اقدامات مربوط به پاسخگویی باید برعهدۀ چه کسی باشد؟ برای مثال، آیا سازمانها باید خودآزمایی کنند؟ آیا ناظران دولتی باید بازرسیها را انجام دهند؟ آیا طرفهای ثالثِ مستقل باید اقدام به بازرسی کنند؟
بسیاری از قوانین حریم خصوصی، مسئولیت اجرای اکثر مکانیزمهای پاسخگویی و حکمرانی را به شرکتها واگذار میکنند. استاد آری والدمن[40] این رویکرد را به دلیل ناکارآمدیِ اسفبار، شدیداً مورد انتقاد قرار میدهد: «شفافیت، ارزیابی تأثیر، مستندسازی و مکانیزمهای سنتی پاسخگویی، نمیتوانند از عهدۀ رسیدگی به شکافهای موجود در سیستمهای زیربنایی اجتماعی و سیاسی برآیند؛ شکافهایی که نه تنها زمینهساز تصمیمگیریهای الگوریتمیاند، بلکه گسترش این تصمیمگیریها را – به رغم تمامی سوگیریها، خطاها و آسیبها – امری مثبت تلقی میکنند».[41] والدمن به جای مدل رعایت از قوانین[42]، پیشنهاد میکند که «ناظران با کمک کارشناسان دانشگاهی مستقل، پایبندی کُدهای تصمیمگیری الگوریتمی به ارزشهای اجتماعی را مورد ارزیابی قرار دهند».[43]
بازرسی و بازبینی باید از یک مؤلفۀ اساسیِ مستقل برخوردار باشد. در غیر این صورت، سازمانها زمانی که نادیده گرفتن ریسک پاداش زیادی را در برداشته باشد، به سادگی محدودشدن را نمیپذیرند. مقررات باید میان اعتماد بیش از اندازه به سازمانها برای مدیریت خودشان از یک سو و درخواست مجوز برای یکایک اقدامات سازمانها از سوی دیگر، تعادلی ایجاد کنند. در نهایت، به ترکیبی از مکانیزمهای داخلی و خارجیِ پاسخگویی نیاز داریم. سازمانها باید در پی آسیبها و خطرهایی که ایجاد میکنند، با پیامدهای معناداری مواجه شوند؛ با وجود این، غالباً چنین نیست و سازمانها به جدی نگرفتنِ وظایف قانونیشان ترغیب میشوند.
اِعمال قانون و جبران حقوقی
در هنگام نقض قوانین حریم خصوصی، هوش مصنوعی چالشهایی را برای جبران حقوقی ایجاد میکند. زمانی که الگوریتمهای هوش مصنوعی با دادههایی تولید میشوند که به روش نامناسبی جمعآوری شدهاند، جداکردن این دادهها از الگوریتم دشوار است. الگوریتم هماکنون نیز از این دادهها «آموخته است». تیفانی لی[44] این اثر را «سایۀ الگوریتمی» مینامد؛ یعنی «اثر پایدار دادهای که یک مدل یادگیری ماشین توسط آن تغذیه شده است».[45] بنابراین، جبران حقوقی از طریق حذف داده، نمیتواند «سایۀ الگوریتمی را از بین ببرد»، این اقدام «بر مدلی که از قبل آموزش دیده است، هیچ تأثیری ندارد».[46] در نتیجه، انگیزهای برای جلوگیری از جمعآوری غیرقانونی دادهها وجود نخواهد داشت؛ زیرا سود ناشی از آن در الگوریتم حک میشود و شرکتها، حتی اگر مجبور شوند دادههای سرقت شده را حذف کنند، همچنان منفعت خواهند برد.
از جمله جبرانهای حقوقی که به طور فزایندهای مورد استفاده قرار میگیرد، «نابودی الگوریتمی» است. برای نمونه، در پروندۀ مربوط به شرکت اِوِرآلبوم[47]، کمیسیون فدرال تجاری (FTC)[48] ایالات متحده، یک شرکت را ملزم به حذف «تمام مدلها و الگوریتمهایی» کرد که توسط دادههایی توسعه یافتهاند که به روش نامناسبی جمعآوری شدهاند.[49] با این حال، لی استدلال میکند که ممکن است جبران حقوقی از طریق حذف الگوریتمی بیش ازاندازه سختگیرانه باشد و میتواند «به استارتآپهای کوچک آسیب برساند و بازیگران جدید را از ورود به صنایع فناوری دلسرد کند».[50] به علاوه، ممکن است کمیسیون فدرال تجاری بتواند یک شرکت کوچک را ملزم به حذف الگوریتمهایش کند، امّا یک شرکت عظیم همچون Open AI چطور؟ دشوار است تصور کنیم که این کمیسیون یا هر نهاد نظارتی دیگری دستور به حذف یک الگوریتم بسیار محبوب به ارزش چندین میلیارد دلار بدهد.
دیگر آنکه، آیا این جبران در مواردی که تنها بخشی از دادهها به روشی نامناسب جمعآوری شده است، قابل اجرا است؟ حذف کاملِ یک سیستم هوش مصنوعی به این دلیل که از دادههای یک نفر به غلط استفاده شده است، بیش از حد خشن خواهد بود. با این حال، در شرایطی که بخش عمدۀ دادهها به روشی نادرست جمعآوری شده باشد یا زمانی که الگوریتم آسیب قابل توجهی ایجاد کند، نابودی الگوریتمی میتواند راهکاری مناسب باشد.
چالش دیگر آن است که سرمایهگذاری مالی در حیطۀ هوش مصنوعی به ابعاد فوقالعادهای رسیده است. پاداش توسعۀ ابزارهای موفق هوش مصنوعی، ثروتهای هنگفتی را دربر دارد. جریمهها و اِعمال قوانین به ندرت میتوانند موازنهای با این منافع، ایجاد کنند. این امر، بروز مشوقهای انحرافآمیز را در پی دارد؛ به طوری که یک شرکت میتواند به واسطۀ نقض قوانین میانبر بزند و با کسب سودی بزرگ پاداش بگیرد، سپس عذرخواهی کند و بخش کوچکی از سود را به عنوان جبران بپردازد. کارآفرینان هوش مصنوعی با این پند آشنا هستند: «عذرخواهی بهتر از کسب اجازه است».
در نهایت، اعمال قوانین در حوزۀ هوش مصنوعی چالشی بزرگ خواهد بود. مشوقهای بسیار قدرتمندی برای «حرکتِ سریع و درهمشکستن چیزها» وجود خواهد داشت. مجریان قانون به ندرت جریمههایی صادر میکنند که توان غلبه بر چنین مشوقهای بزرگی را داشته باشد.
جمعبندی
و با این حال، ما نه میتوانیم گذر زمان را متوقف سازیم
و نه پیشرفتها فنیِ ساختۀ خودمان را؛
ما باید راهی برای متعال نگه داشتنِ زندگیهایمان بیابیم،
و نگذاریم حریم خصوصیمان از هم بپاشد.
شعری از چت جیپیتی
هوش مصنوعی، به روشهای گوناگونی بر حریم خصوصی تأثیر میگذارد؛ هر چند این تأثیرگذاری غالباً مشکلات یکسره جدیدی را پدید نمیآورد، بلکه مسائل از پیش موجود را بازترکیب و تشدید میکند. مشکلات حریم خصوصیِ برآمده از هوش مصنوعی، به هیچ عنوان خارج از انتظار نیستند؛ بلکه گامهاییاند در مسیر آیندهای که از مدتها قبل پیشبینی شده است.
قوانین کنونیِ حریم خصوصی به طرز تأسفآوری در رسیدگی به چالشهای حریم خصوصی مرتبط با حریم خصوصی ناکام ماندهاند. هوش مصنوعی بر بسیاری از ضعیفترین نقاطِ قوانین حریم خصوصی، فشار وارد میکند. رویکردهای نادرست و دیگر کاستیهای اصلاح نشدۀ قوانین حریم خصوصی، به طور ویژه تناسبی با هوش مصنوعی ندارند.
اصلاحات اساسی در قوانین حریم خصوصی مدتهاست که به تأخیر افتاده است. سیاستگذاران از بابت هوش مصنوعی نگران هستند و به نظر میرسد فرصتی فراهم شده تا رویکردهای جدید قانونگذاری مورد ملاحظه قرار گیرند. میتوان امیدوار بود فرصتی فراهم شود که قوانین حریم خصوصی به مسیری جدید هدایت شوند. تنظیم مشکلات حریم خصوصی برآمده از هوش مصنوعی به شیوهای درخور، مستلزم رسیدگی به مشکلات و رویکردهای نادرست و دیرینۀ قوانین حریم خصوصی است.
[1] Frank Pasquale
[2] black box society
[3] FRANK PASQUALE, THE BLACK BOX SOCIETY: THE HIDDEN ALGORITHMS THAT CONTROL MONEY AND INFORMATION 218 (2015); Charlotte A. Tschider, Beyond the “Black Box,” 98 Denv. L. Rev. 683, 699 (2021); W. Nicholson Price, Black-Box Medicine, 28 Harv. J.L. & Tech. 419, 421 (2015).
[4] Margot Kaminski
[5] Margot E. Kaminski, The Right to Explanation, Explained, 34 Berkeley Tech. L.J. 199 (2019).
[6] GDPR art. 13, § 2(f), at 40–41; id. art. 14, § 2(g), at 41–42
(افرادی که دادهها به آنان مرتبط است، الزاماً باید از «وجود تصمیمگیری خودکار، شامل پروفایلسازی، مطابق آنچه در مادۀ 22(1) و (4) اشاره شدهاست مطلع گردند؛ و دستکم در این موارد، از اطلاعاتی مهم دربارۀ منطق مورد استفاده و همچنین اهمیت و پیامدهای مورد انتظار چنین پردازشی بر فردِ موضوع داده» مطلع گردند.)
see also id. art. 15, § 1(h), at 43.
[7] Carolin Kemper, Kafkaesque AI? Legal Decision-Making in the Era of Machine Learning, 24 Intell. Prop. & Tech. L.J. 251, 275 (2020)
(«به دلیل طراحی پیچیدۀ الگوریتمهای یادگیری ماشین، تکنیکهای یادگیری پیچیدۀ آنها و حجم عظیم دادههایی که ساختار الگوریتمها را متأثر میکند، دشوار است ردیابی کنیم که چرا یک نتیجۀ خاص به دست آمدهاست»).
[8] SULEYMAN, THE COMING WAVE, supra note X, at 143.
[9] Charlotte Tschider
[10] Tschider, Black Box, supra note X, at 711.
[11] Devin R. Desai & Joshua A. Kroll, Trust But Verify: A Guide to Algorithms and the Law, 31 Harv. J.L. & Tech. 1, 64 (2017)
(شفافیت محافظت کافی در برابر مشکلات مربوط به الگوریتمها فراهم نمیکند).
Andrew D. Selbst & Solon Barocas, The Intuitive Appeal of Explainable Machines, 87 Fordham L. Rev. 1085, 1088 (2018)
(«برای دستیابی به اهداف قانونی و سیاستی، توضیحدادن سیستمهای فنی ضروری است؛ امّا کافی نیست»).
[12] Dennis D. Hirsch, From Individual Control to Social Protection: New Paradigms for Privacy Law in the Age of Predictive Analytics, 79 Md. L. Rev. 439, 445 (2020).
[13] Tschider, AI’s Legitimate Interest, supra note X, at 130.
[14] Joy Boulamwini
[15] در حوزۀ شبکههای عصبی مصنوعی، وزنها (weights) به آن دسته از مقادیر عددی اشاره دارند که به هر اتصال بین نورونها در لایههای مختلف شبکۀ عصبی اختصاص داده میشوند. این وزنها تعیین میکنند که هر ورودی به چه میزان در خروجی نهایی تأثیر میگذارد. تغییرات کوچک در وزنها میتواند به ایجاد نتایج متفاوتی در خروجی بینجامد. (م)
[16] JOY BOULAMWINI, UNMASKING AI: MY MISSION TO PROTECT WHAT IS HUMAN IN A WORD OF MACHINES 53 (2023).
[17] Wisconsin v. Loomis, 881 N.W.2d 749 (Wis. 2016).
[18] Rebecca Wexler
[19] Rebecca Wexler, Life, Liberty, and Trade Secrets, 70 Stan. L. Rev. 1343, 1402 (2018).
[20] Danielle Citron
[21] Danielle Keats Citron, Technological Due Process, 85 Wash. U. L. Rev. 1249 (2007).
[22] Danielle Keats Citron & Frank Pasquale, The Scored Society: Due Process for Automated Predictions, 89 Wash. L. Rev. 1 (2014).
[23] Jennifer Urban
[24] Kaminski & Urban, The Right to Contest AI, supra note X, at X.
[25] همان.
[26] Kate Crawford
[27] Jason Schultz
[28] Kate Crawford & Jason Schultz, Big Data and Due Process: Toward a Framework to Redress Predictive Privacy Harms, 55 B.C. L. Rev. 93 (2014).
[29] Ngozi Okidegbe
[30] Ngozi Okidegbe, The Democratizing Potential of Algorithms?, 53 Conn. L. Rev. 739 (2022).
[31] Alicia Solow-Niederman
[32] Alicia Solow-Niederman, Administering Artificial Intelligence, 93 S. Cal. L. Rev. 633 (2020).
[33] Pauline Kim
[34] Pauline T. Kim, Auditing Algorithms for Discrimination, 166 U. Pa. L. Rev. Online 189, 202 (2017).
[35] همان.
[36] Talia Gillis
[37] Josh Simons
[38] Talia B. Gillis and Josh Simons, Explanation < Justification: GDPR and the Perils of Privacy, Pa. J. L. & Innovation (2019).
[39] همان.
[40] Ari Waldman
[41] Ari Ezra Waldman, Power, Process, and Automated Decision-Making, 88 Fordham L. Rev. 613 (2019).
[42] compliance model، به رویکردی اشاره دارد که در آن سازمانها یا شرکتها تلاش میکنند با قوانین، مقررات و استانداردهای مشخصشده توسط نهادهای قانونگذار هماهنگ شوند و از آنها پیروی کنند. این مدل معمولاً شامل گزارشدهی، خودارزیابی و گاهی همکاری با بازرسان خارجی برای تأیید رعایت مقررات است. والدمن منتقد این رویکرد است. (م)
[43] همان.
[44] Tiffany Li
[45] Tiffany C. Li, Algorithmic Destruction, 75 SMU L. Rev. 479, 482 (2022).
[46] همان، ص 498.
[47] Everalbum, Inc.
[48] Federal Trade Commission
[49] In re Everalbum, Inc. (2022).
[50] Li, Algorithmic Destruction, supra note X, at 505.