بخش پنجم از مقاله (Artificial Intelligence and Privacy (2024
دنیل جی. سولوو
ترجمه سمانه هاشمی نژاد
تصمیمگیری
برای تصمیمگیری دربارۀ افراد براساس دادههای شخصیشان یا گرفتنِ تصمیماتی که بر زندگی شخصی افراد تأثیر میگذارند، اغلب از هوش مصنوعی استفاده میشود. برای مثال، امروزه به طور فزایندهای برای تصمیم گیریهای مربوط به استخدامهای کاری از هوش مصنوعی استفاده میشود؛ از ارزیابی رزومهها گرفته تا تجزیه و تحلیل مصاحبههای ویدئویی.[1] همچنین، از هوش مصنوعی در تصمیم گیریهای مربوط به بازداشت و مجازات مجرمان نیز استفادۀ گستردهای میشود.[2] تصمیم گیری هوش مصنوعی با تصمیم گیری انسانی متفاوت است و نگرانیهای زیادی را برمیانگیزد که مستلزم توجه و مقرراتگذاریاند.
پیشبینی
اغلب از هوش مصنوعی برای به دست دادنِ پیشبینیهایی دربارۀ آینده استفاده میشود. همان طور که من و هیدی یوکی ماتسومیِ حقوقدان اشاره کردهایم، پیشبینیهای مبتنی بر الگوریتم بیش از پیش تولید میشوند بدون آن که پیامدها و آسیبهایشان کاملاً درک شده باشد.[3]
پیشبینیهای الگوریتمی بر پایۀ الگوهای موجود در دادههای گذشته ایجاد میشوند. در پسِ پیشبینیهای الگوریتمی، دو فرضیه در کار است: (1) تاریخ خودش را تکرار میکند و آنچه در گذشته اتفاق افتاده است، در آینده نیز دوباره روی خواهد داد؛ (2) افرادی که از برخی ویژگیها یا الگوهای رفتاری برخوردارند، محتمل است که در دیگر امور نیز با یکدیگر شباهت داشته باشند.
الگوریتمهای یادگیری ماشین و فناوریهای هوش مصنوعی نه فقط برای استنباط دربارۀ گذشته و اکنون به کار میروند، بلکه برای پیشبینی رویدادهای آینده نیز استفاده میشوند.[4] این قبیل پیشبینیها، زیرمجموعههایی از استنباطاند؛ امّا از استنباط دربارۀ گذشته و اکنون به آن میزان متمایز هستند که تمرکز و طرز برخورد ویژهای را ایجاب کنند.
پیشبینیهای الگوریتمی، آینده را صرفاً پیشبینی نمیکنند؛ بلکه آن را شکل نیز میدهند.[5] این الگوریتمها، از طریق تجزیه و تحلیل مجموعه دادههای گسترده و به کاربردن روشهای آماری برای پیش بینی بروندادهای آینده عمل میکنند. در موضوعات مرتبط با رفتار انسانی، اتکای فزایندهای بر پیش بینیهای الگوریتمی وجود دارد؛ موضوعاتی از قبیل قضاوت دربارۀ آنکه به دلیل وجود خطر فرار، آیا متهمان جنایی باید پیش از برگزاری دادگاه بازداشت باشند یا خیر، تعیین مدت محکومیت براساس احتمال بازگشت به جرم، سنجش ارزش اعتباری فرد بر اساس سوابق پرداخت وام و پیش بینی پتانسیل موفقیت متقاضیان شغلی.[6]
این تصمیمهای مبتنی بر الگوریتم، تأثیرات عمدهای بر فرصتها و آزادیهای فردی میگذارند. افراد ممکن است به واسطۀ پیش بینیهای مربوط به سلامتی، برای موقعیتهای شغلی پاسخ منفی دریافت کنند یا به دلیل ارزیابیهای مرتبط با ریسک تروریسم، در فرودگاهها تحت تدابیر امنیت شدیدتری قرار گیرند یا به واسطۀ تاکتیکهای پیش بینی پلیسی، با اقدامات قانونی مواجه شوند.[7]
یک) تهدید عاملیت انسانی
به رغم مزایای بالقوۀ موجود، پیش بینیهای الگوریتمی عاملیت فردی را با چالشی جدی مواجه میسازند. پیش بینیهای الگوریتمی توانایی افراد در ساختن مسیر زندگیشان را محدود میکند.
تصمیمهای برگرفته از مدلهای پیش بینی کننده، اصول دادرسی عادلانه را به چالش میکشند.[8] به طور سنتی، عدالت حکم میکند که افراد نباید به خاطر اعمالی که مرتکب نشدهاند با مجازات رو به رو شوند. با این حال، مدلهای پیش بینی کننده این امکان را ایجاد میکنند که افراد براساس اعمالی که انجام ندادهاند و چه بسا هرگز انجام ندهند، قضاوت شوند و با پیامدهای احتمالی رودررو گردند. استاد کاریسا ولیز[9] در این باره چنین میگوید: «با پیش بینی رفتار انسانی به همان طریقی که آب و هوا را پیش بینی میکنیم، در واقع با افراد مشابه اشیاء برخورد میکنیم. بخشی از معنای احترام گذاشتن به اشخاص، این است که عاملیتشان و این حقیقت را که میتوانند خودشان و شرایطشان را دگرگون کنند، به رسمیت بشناسیم».[10]
این مسأله در پروندۀ [ایالتِ] ویسکانسین علیه لومیس[11] مشهود است. در این پرونده، یک سیستم الگوریتمی به نام کامپَس[12] (COMPAS)، متهم را به عنوان فردی با ریسک بالای تکرار جرم ارزیابی کرد؛ امری که منجر به صدور حکمی طولانیتر شد.[13] متهم استدلال کرد که حقوق دادرسی عادلانۀ او نقض شده است، چرا که پیش بینیهای این الگوریتم بر پایۀ دادههای مرتبط با دیگران صورت گرفته است؛ نه رفتارهای شخصِ خودش. دادگاه عالی ویسکانسین با بیان اینکه قاضی موظف به پیروی از توصیۀ الگوریتم نبوده است، این استدلال را مردود شمرد؛ با این حال، قاضی در عمل بر این الگوریتم تکیه داشته است.[14]
بررسیها حاکی از آن است که افراد مایلاند بر نتایج الگوریتمی تکیه کنند. بن گرین[15] بیان میکند که «مردم نمیتوانند تعادلِ مناسبی میان پیشنهادات الگوریتم و دیگر عوامل ایجاد کنند؛ به این معنا که آنان اغلب بر پیشنهادات الگوریتم بیش از حد اتّکا میکنند و به عواملی که الگوریتم بر آنها تأکید داشته است، وزن بیشتری میدهند».[16]
آنچه در پروندۀ لومیس به نگرانیها افزود، اجتناب خالق کامپَس از افشای نحوۀ عملکرد الگوریتم – با استناد به حق مخفی نگه داشتن اسرار تجاری – بود.[17] تحلیلهای بعدی بهعمل آمده درخصوص کامپس، از سوگیری این الگوریتم علیه متهمان سیاه پوست پرده برداشت.[18]
فیلم علمی-تخیلی گزارش اقلیت[19] (2002) دنیای ویران شهریِ ترسناکی را به تصویر میکشد که در آن پلیس برای پیش بینی جرائم و دستگیری افراد پیش از ارتکاب جرم، از یک سیستم استفاده میکند. پیش بینیهای الگوریتمی، تأثیری مشابه دارند؛ از این الگوریتمها برای قضاوت پیشدستانۀ افراد – قبل از اینکه دست به اقدام زده باشند – استفاده میشود. این امر به تضعیف حق انتخاب افراد میانجامد و آنان را برای اعمالی مجازات میکند که هنوز انجام نشدهاند. همان طور که کاترینا گِدِز[20] استدلال میکند، «پیش بینیهای الگوریتمی، افراد را برای عضویت در یک گروه آماری مجازات میکنند».[21] مردم باید برپایۀ اَعمال خودشان ارزیابی شوند، نه براساس آنچه دیگران انجام میدهند.
دو) فسیلسازی گذشته
عملکرد پیشبینیهای الگوریتمی همچون گوی بلورینی که تصویری قطعی از آینده عرضه میکند، نیست. در واقعیت، این پیشبینیها بیانگر احتمالاتی هستند که از دادههای تاریخی برگرفته شدهاند؛ دادههایی که اغلب دربردارندۀ سوگیریها، تبعیضها، نابرابریها و امتیازات جداییناپذیر هستند. تصمیماتی که برپایۀ این پیشبینیهای الگوریتمی گرفته میشوند، گرایش به تحکیم الگوهای گذشته دارند. برای مثال، تبعیضهای نژادی تاریخی، باعث میشود نرخ دستگیری و محکومیت سیاه پوستان به نحو نامتناسبی بالاتر باشد.[22] نتیجۀ ورودِ چنین دادههایی به الگوریتم، پیشبینی نرخهای بالاتر تکرار جرم برای این جمعیتها خواهد بود؛ امری که به صدور احکام شدیدتر میانجامد. نتیجه آن است که، پیشبینیهای الگوریتمی این پتانسیل را دارند که نابرابریها و سوگیریهای موجود را تداوم بخشیده و به آینده منتقل کنند.[23]
پیشبینیهای الگوریتمی اغلب از کیفیتهای متمایز و روایتهای شخصی افراد غفلت میکنند و در عوض بر هنجارهای آماری متمرکز میشوند.[24] با این حال، این حقیقت که تاریخ به کرّات توسط امور غیرمنتظره شکل گرفته است، اطمینان بر این پیش بینیها را به چالش میکشد. نسیم نیکولاس طالب[25] این پدیدههای غیرمنتظره را «قوی سیاه» مینامد؛ نامی برگرفته از قوهای سیاهی که اروپاییان پس از کشف استرالیا با آنها روبهرو شدند. تا پیش از آن، اروپاییان بر این باور بودند که تمامی قوها سفیدند. طالب با هدف تأکید بر اهمیت تواضع در پیش بینیها، به این رویداد اشاره میکند. او استدلال میکند که اگرچه ممکن است ما در پیش بینی رویدادهای معمول زبردست باشیم، توانایی ما برای پیش بینی امور خارق عادت به نحو چشمگیری محدود است.[26]
سه) پیشگوییهای خودکام بخش
پیشبینیها اغلب به پیشگوییهای خودکام بخش بدل میشوند؛ به ویژه زمانی که اقداماتی را برمیانگیزند که برونداد مورد انتظار را تقویب میکنند. برای مثال، زمانی که یک پیش بینی حاکی از آن است که افراد واجد برخی ویژگیها بیشتر مستعدِ بزهکاری هستند، ممکن است اقدامات پلیسی در خصوص این افراد افزایش یابد. زیر ذرهبین نگه داشتنِ مضاعف، میتواند افزایش دستگیری و محکومیت این افراد را در پی داشته باشد؛ امری که لزوماً ناشی از صحتِ پیشبینی نیست، بلکه ناشی از هدف قرارداده شدنِ نامتناسب افرادِ منطبق با این پروفایل توسط نیروهای اجرای قانون است.[27]
ما تنها با هدف درک بهتر، دست به پیشبینی رفتار انسانی نمیزنیم؛ بلکه این پیشبینیها ابزارهای برای اقداماند. از هوش مصنوعی در فرآیندهای تصمیمگیری و مداخله استفاده میشود. طُرفه آنکه، پیشبینیهای الگوریتمی سازمانها را برای شکلدهی، کنترل و ارزشگذاری اقتصادی مؤثرترِ رفتار انسانی توانمند میسازند.
چهار) ورای درستی
تطبیق پیشبینیهای الگوریتمی با چارچوبهای کنونی قوانین حریم خصوصی دشوار است. محوریترین ابزاری که قوانین حریم خصوصی برای رسیدگی به پیشبینیها فراهم کردهاند، اعطای حق تصحیح به افراد بوده است. ورای مسألۀ اتّکای بیش از اندازه بر کنترل فردی، حق اصلاح دادههای نادرست موجه است. امّا این حق برای پیشبینیها کارآیی ندارد؛ زیرا پیش بینیها دربارۀ رویدادهایی هستند که هنوز رخ ندادهاند، بنابراین ارزیابی درستی یا نادرستی آنها دشوار است.[28] پیشبینیهای الگوریتمی غلط یا درست نیستند؛ چرا که صحت آنها تنها زمانی احراز میشود که در واقعیت محقق شوند. برای مثال این مورد را لحاظ کنید که غیرممکن است فردی بتواند غلط بودن یک پیشبینی مبنی بر اینکه در آینده مرتکب جرمی خواهد شد را اثبات کند. تنها پس از مرگِ شخص است که حقانیت این پیشبینی قابل ارزیابیِ قطعی است؛ وضعیتی که به چالش کشیدن چنین پیشگوییهایی را عملاً غیرممکن میکند.
هنگامی که قانون میکوشد تصمیمهایی را که توسط هوش مصنوعی گرفته (یا تکمیل) میشوند را تنظیم کند، معمولاً بر فرآیندها متمرکز میشود. برای نمونه در پروندۀ لومیس، قانون به لزوم رعایت رویههای حفاظتی اساسی اکتفا میکند؛ رویههایی که پیش از هر چیز بر شفافیت بیشتر در استفاده از پیش بینیهای الگوریتمی و تضمین مشارکت انسان متمرکز میشوند. با این حال، همان طور که آلیسیا سولوو-نیدرمن اشاره میکند، چنین گامهایی عمدتاً سطحیاند و تنها با هدف به نمایش گذاشتنِ «ظاهری قانونمندانه» به کار میروند.[29] به جای قناعت به راههای تزئینی که وضعیت را به طور سطحی بهبود میبخشند، قانون باید با قدرت به چالشهای ایجاد شده به واسطۀ پیش بینیهای الگوریتمی رسیدگی کند. قانون باید اطمینان یابد که این پیش بینیها انصاف را رعایت میکنند و با ارزشهای کلی جامعه همسویی دارند. به طورکلی، قانون باید تضمین کنندۀ تصمیم گیریهای منصفانه باشد. تصمیمات مرتبط با انسانها، باید به نحوی منصفانه اتخاذ شوند و وضعیت کلی، اقدامات فردی و ویژگیهای منحصربه فرد آنان را در نظر بگیرد و با آنان به مثابۀ افراد منحصربه فردِ برخوردار از عاملیت رفتار کند.
تصمیم گیریها و سوگیریها
اغلب چنین وانمود و تبلیغ میشود که تصمیمات هوش مصنوعی برتر از تصمیمات انساناند. به گفتۀ اورلی لوبل[30]: «هوش مصنوعی میتواند نیرویی در خدمت سوگیری زدایی باشد؛ همچنین میتواند امکان شناسایی زود هنگام تبعیض و سوءاستفاده را فراهم کند»[31]. بنا به نظر کَس سانستین[32]، الگوریتمها میتوانند «از برخورد نابرابر جلوگیری کنند و خطاها را کاهش دهند». برخلاف انسانها، الگوریتمها «از میانبرهای ذهنی استفاده نمیکنند؛ آنها بر پیشبینهای آماری تکیه دارند، این به آن معنی است که الگوریتمها میتوانند سوگیریهای شناختی را خنثی یا حتی حذف کنند».[33]
تصمیمگیری انسانی مملو از چالشهاست. انسانها مستعد سوگیریاند، بر دامنۀ محدودی از تجربیات تکیه دارند و معمولاً در فرآیند تصمیم گیری کُند و ناکارآمد عمل میکنند. تأثیرات عاطفی و عناصر غیرمنطقی اغلب انتخابهایشان را تحتالشعاع قرار میدهد. افزون بر این، انسانها میتوانند تکانشگرانه عمل کنند و در معرض انواع سوگیریهای شناختی و رهیافتهای ذهنی آنی قرار بگیرند؛ امری که میتواند به اتخاذ تصمیمات نادرست بینجامد.[34]
امّا الگوریتمهای هوش مصنوعی کاستیهای عمدهای دارند که تواناییشان برای تصمیمگیری بهتر در قیاس با انسانها را با پرسش مواجه میسازد.[35] الگوریتمها با تأکید بر دادههای کمّی به قیمت نادیده گرفتن عوامل کیفی، تصمیمگیری را دگرگون میسازند. اگرچه این کار میتواند سودمند باشد، امّا هزینههای مهمی را به همراه دارد که اغلب نادیده گرفته میشوند. کمّیسازی زندگی انسانها دشواریهای فراوانی را به همراه دارد.[36] در حال حاضر، عواطف، اخلاق یا قضاوتهای ارزشی در تصمیمات هوش مصنوعی گنجانده نمیشوند؛ اموری که در تصمیمات مرتبط با رفاه انسانی از جایگاهی حیاتی برخوردارند. ما با خطر توجه بیش ازاندازه به عوامل خودکارسازیشده در عین نادیده انگاری ابعاد اخلاقی مواجهیم.[37]
آنچه سوگیری ناشی از هوش مصنوعی را به طور بالقوه خطرناکتر و مخربتر از سوگیری انسانی میکند، این است که ابزارهای هوش مصنوعی میتوانند به نحوی گسترده مورد استفاده قرار بگیرند و سوگیریها را روشمند کنند؛ علاوه بر این، ابزارهای هوش مصنوعی میتوانند سوگیریها را تحت لوای فناوری بیطرف پنهان سازند. چیره شدن بر سوگیریهای موجود در برخی افراد یا حتی تعداد زیادی از افراد، همچنان ممکن است؛ چرا که این امکان وجود دارد که برخی اشخاص از این سوگیریها پیروی نکنند و به نحوی غیرسوگیرانه تصمیم گیری کنند. دگرگونی اجتماعی به همین ترتیب رخ میدهد؛ ابتدا تعداد کمی از افراد آن را آغاز میکنند، سپس به مرور زمان گسترش مییابد. امّا هوش مصنوعی میتواند سوگیریها را به سرعت روشمند کند و آنها را فراگیرتر و گریزناپذیر سازد؛ و به این ترتیب، جوانههای بهبود اجتماعی را بخشکاند.
یک) دادههای آموزشی سوگیرانه
الگوریتمهای هوش مصنوعی به هیچ وجه بیطرف نیستند؛ چرا که دادههایشان را از جامعه دریافت میکنند و این داده سرشار از سوگیریاند. همان طور که مریدیت بروسارد مینویسد، «تمام دادهها آلودهاند. تمامشان».[38] ساندرا میسن[39]، استاد حقوق، چنین استدلال میکند: «یک گذشتۀ آمیخته با نابرابری نژادی، لاجرم بروندادی آمیخته با نابرابری نژادی تولید خواهد کرد»[40]. اگر دادههای ورودی سوگیرانه باشند، خروجیها نیز سوگیرانه خواهند بود. او استدلال میکند که اگر دادههای گذشته حاکی از این باشند که نرخ دستگیری سیاه پوستان بالاتر از سفید پوستان بوده است، «پس یک تحلیل پیشبینانه، پیش بینی خواهد کرد که چنین امری در آینده برای سیاه پوستان بیش از سفید پوستان رخ خواهد داد».[41]
مشکلات مرتبط با دادههای سوگیرانه زمانی آشکار شد که شرکت آمازون تلاش کرد الگوریتمی را برای استخدام در موقعیتهای فنی تولید کند؛ امّا آنچه بیش از هر چیز به چشم آمد، سوگیری شدید نتایج به نفع گزینههای مرد بود. دلیل این سوگیری آن بود که این الگوریتم با دادههای استخدامی ده ساله آموزش دیده بود؛ در حالی که خودِ این دادهها آمیخته به سوگیریهای از پیش موجود بودند و به سمت مردان گرایش داشتند.[42] کیفیت و بیطرفی تصمیم گیریهای خودکار، مستقماً متأثر از دادههایی است که آن سیستمها برپایهشان بنا شدهاند؛ دادههایی که به ندرت خالی از سوگیریاند.
کتی اونیل[43]، دانشمند حوزۀ تکنولوژی، استدلال میکند که مدلهای الگوریتمی «فقط براساس دادهها ساخته نمیشوند؛ انتخابها دربارۀ اینکه به کدام دادهها توجه شود و کدامها نادیده گرفته شوند هم این مدلها را شکل میدهند. چنین انتخابهایی صرفاً مرتبط با ملاحظات منطقی، سودآوری و کارایی نیستند؛ بلکه به نحوی بنیادین، اخلاقیاند».[44] طبق نظر جسیکا ایگلین[45]، استاد حقوق، دادههایی که توسط الگوریتمها استفاده میشوند، صرفاً یافته نمیشوند، بلکه براساس قضاوتهای ارزشی خاصی انتخاب و ساخته نیز میشوند. برای مثال، ایگلین اشاره میکند که دادههای وارد شده به سیستمهای ارزیابی ریسک بازگشت به جرم، به «پرسشهای سیاسی دربارۀ اینکه چه کسی باید به عنوان یک خطر در نظر گرفته شود و جامعه چه میزانی از خطر را تحمل میکند» بستگی دارد.[46] دادههای مورد استفادۀ الگوریتمهای هوش مصنوعی ممکن است بیطرفانه پنداشته شوند، امّا حقیقت آن است که برآمده از هنجارهستند.
تالیا گیلیز، استاد حقوق، با بهره گیری از اصطلاح «مغالطۀ درونداد» استدلال میکند که صِرفِ تلاش برای حذف اطلاعات مربوط به نژاد، دین و دیگر اطلاعات ناظر بر ویژگیهای محافظت شدۀ اشخاص، منجر به منصفانه شدن بروندادها نمیشود. به بیان او «اطلاعات مربوط به ویژگیهای محافظت شدۀ یک شخص، در دیگر اطلاعات آن شخص نهفته است. بنابراین حتی حذف صوری دادههای محافظت شده، مانع از این نمیشود که الگوریتم آنها را “بداند”».[47]
دو) اشکال نوظهور تبعیض
الگوریتمهای هوش مصنوعی بالقوه میتوانند به واسطۀ تمرکز بر خصوصیاتی که مهم میشمارند، اَشکال نوظهوری از تبعیض را بنا نهند. این خصوصیات، ممکن است همانهایی نباشند که به طور سنتی مبنای تبعیض قرار گرفتهاند؛ مانند نژاد، جنسیت و سن. الگوریتمهای هوش مصنوعی ممکن است ویژگیهایی را مبنای تبعیض قرار دهد که به طور معمول ناخوشایند دانسته میشوند؛ مانند کوتاهیِ قد، اضافه وزن یا طاسی. برخی معیارهای مورد استفادۀ الگوریتمها، ممکن است دلبخواهی به نظر برسند؛ چنانچه گویی بر همبستگیهای نامعمول تکیه دارند. برای مثال، اگر یک الگوریتم میان یک رنگ چشم و عملکرد شغلی ضعیف ارتباطی پیدا کند، ممکن است به این رنگ چشم نظری منفی پیدا کند. این امر به ایجاد دسته بندیهای جدید و نامطلوبی منجر میشود و به نحوی سیستماتیک بر افراد اثر میگذارد. در نتیجه، ممکن است شاهد ظهور نوع جدیدی از نابرابری باشیم؛ به نحوی که افراد برپایۀ ویژگیهای تغییرناپذیرشان، با تبعیض رودررو شوند. به دلیل پیچیدگی الگوریتمها، این اَشکال نابرابری ممکن است کمتر نمایان باشند؛ امری که تشخیص و مقابله با آنان را دشوارتر میسازد.
سه) مقابله با تبعیض
قانون باید با تصمیمگیریهای سوگیرانه مقابله کند؛ هرچند دشوار میتوان آنها را ریشه کن کرد. همان طور که آنوپام چندلر[48] استدلال میکند، از آنجایی که «واقعیتهای زندگی، که الگوریتمها بر پایهشان آموزش میبینند و عمل میکنند، عمیقاً مملو از تبعیضهای مغرضانهاند»، خلق نتایج تبعیضآمیز توسط الگوریتمها، نباید ما را به شگفتی بیندازد.[49] بنا به عقیدۀ او، «ما باید الگوریتمهایمان را متناسب با دنیایی طراحی کنیم که انباشته از میراث تبعیضهای گذشته و واقعیت تبعیضهای کنونی است».[50]
تصمیمات سوگیرانه، تصمیماتی غیرمنصفانهاند و باید به نحوی اساسی برای تشخیص سوگیریها واکاوی شوند. الزامات فرآیند-مبنا مفیدند؛ امّا برای حل مشکل کافی نیستند. قانون توانایی رویارویی با تصمیمات غیرمنصفانه را ندارد، مگر آنکه محتوای این تصمیمها را مدِّنظر قرار دهد.[51]
[1] AJUNWA, THE QUANTIFIED WORKER, supra note X, at 138-70. HILKE SCHELLMANN, THE ALGORITHM: HOW AI DECIDES WHO GETS HIRED, MONITORED, PROMOTED & FIRED, & WHY WE NEED TO FIGHT BACK NOW 83-128 (2024).
[2] BERNARD E. HARCOURT, AGAINST PREDICTION: PROFILING, POLICING, AND PUNISHING IN AN ACTUARIAL AGE 41-45 (2007); Jessica M. Eaglin, Predictive Analytics’ Punishment Mismatch, 14 I/S: A J. of L. & Pol’y, 87, 100-01 (2017).
[3] Hideyuki Matsumi & Daniel J. Solove, The Prediction Society: AI and the Problems of Forecasting the Future, work-in-progress.
[4] Hideyuki Matsumi, Predictions and Privacy: Should There Be Rules About Using Personal Data to Forecast the Future?, 48 Cumb. L. Rev. 149 (2018);
[5] Matsumi & Solove, The Prediction Society, supra note X, at X.
[6] همان.
[7] ANDREW GUNTHRIE FERGUSON, THE RISE OF BIG DATA POLICING (2017); Albert Meijer & Martijn Wessels, Predictive Policing: Review of Benefits and Drawbacks, 42 Int’l J. Pub. Admin. 1031, 1031 (2019); Elizabeth E. Joh, The New Surveillance Discretion: Automated Suspicion, Big Data, and Policing, 10 Harvard L. & Pol’y Rev. 15, 15-18 (2016); Orla Lynskey, Criminal Justice Profiling and EU Data Protection Law: Precarious Protection from Predictive Policing, 15 Int’l J. L. in Context 162, 167 (2019); Lindsey Barrett, Reasonably Suspicious Algorithms: Predictive Policing at the United States Border, 41 N.Y.U. Rev. L. & Soc. Change 132 (2017).
[8] CATHY O’NEIL, WEAPONS OF MATH DESTRUCTION: HOW BIG DATA INCREASES INEQUALITY AND THREATENS DEMOCRACY (2016).
[9] Carissa Véliz
[10] Carissa Véliz, If AI Is Predicting Your Future, Are You Still Free? Wired (Dec. 27, 2021).
[11] Wisconsin v. Loomis
[12] این کلمه از سرواژههای Correctional Offender Management Profiling for Alternative Sanctions به معنای «مدیریت پروفایلسازی تأدیبی مجرمان برای مجازاتهای جایگزین» ساخته شدهاست. (م)
[13] Wisconsin v. Loomis, 881 N.W.2d 749 (Wis. 2016).
[14] Ben Green, The Flaws of Policies Requiring Human Oversight of Government Algorithms, 45 Computer Law & Security Rev. 1, 7 (2022).
[15] Ben Green
[16] همان؛ ص 5.
[17] برای مشاهدۀ نقدی بر این استفاده از [قانون] اسرار تجاری، ر. ک. :
Rebecca Wexler, Life, Liberty, and Trade Secrets: Intellectual Property in the Criminal Justice System, 70 Stan. L. Rev. 1343 (2017).
[18] Jeff Larson et al., How We Analyzed the COMPAS Recidivism Algorithm, at 1 (2017), https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm.
[19] Minority Report
[20] Katrina Geddes
[21] Geddes, Legal Subject, supra note X, at 31.
[22] Jessica M. Eaglin, Constructing Recidivism Risk, 67 Emory L.J. 59, 72 (2017).
[23] Sandra G. Mayson, Bias In, Bias Out, 128 Yale L.J. 2218, 2224 (2019); Anupam Chander, The Racist Algorithm?, 115 Mich. L. Rev. 1023, 1036 (2017); Pauline T. Kim, Manipulating Opportunity, 106 Va. L. Rev. 867, 870 (2020) (شیوهای سیستمهای هوش مصنوعی اطلاعات مربوط به فرصتهای آینده را مطابق آن ردهبندی میکنند، احتمالاً منعکسکنندۀ نابرابریهای موجود است و میتواند به تقویت الگوهای تاریخی محرومیت بینجامد).
[24] Geddes, Legal Subject, supra note X, at 5.
[25][25] Nassim Nicholas Taleb
[26] NASSIM NICHOLAS TALEB, THE BLACK SWAN: THE IMPACT OF THE HIGHLY IMPROBABLE xvii, 149, 138, 149 (2007).
[27] GANDY, CHANCE, supra note X, at 124-25.
[28] Hideyuki Matsumi, Right to Rectification, draft on file with author.
[29] Alicia G. Solow-Niederman, Algorithmic Grey Holes, 5 J. Law & Innovation 116, 124 (2023).
[30] Orly Lobel
[31] ORLY LOBEL, THE EQUALITY MACHINE: HARNESSING DIGITAL TECHNOLOGY FOR A BRIGHTER, MORE INCLUSIVE FUTURE (2022).
[32] Cass Sunstein
[33] Cass R. Sunstein, Governing by Algorithm? No Noise and (Potentially) Less Bias, 71 Duke L.J. 1175, 1177 (2022).
[34] See DANIEL KAHNEMAN, THINKING FAST AND SLOW (2011); Solove & Matsumi, Awful Humans, supra note X, at X.
[35] Jenna Burrel and Marion Fourcade, The Society of Algorithms, 47 Annual Rev. Sociology 213, 222-23 (2021) (در اینجا استدلال میشود که الگوریتمهای هوش مصنوعی لزوماً بهتر از تصمیمگیرندگان انسانی عمل نمیکنند).
[36] Solove & Matsumi, Awful Humans, supra note X, at X.
[37] Solove & Matsumi, Awful Humans, supra note X, at X.
[38] MEREDITH BROUSSARD, ARTIFICIAL UNINTELLIGENCE: HOW COMPUTERS MISUNDERSTAND THE WORLD 103 (2018).
[39] Sandra Mason
[40] Sandra G. Mayson, Bias In, Bias Out, 128 Yale L.J. 2218, 2224 (2019).
[41] همان. همچنان نگاه کنید به Anupam Chander, The Racist Algorithm?, 115 Mich. L. Rev. 1023, 1036 (2017) («دادههای برگرفته از دنیای واقعی ضرورتاً بازتابدهندۀ تبعیضهای موجودند؛ و الگوریتمهایی که از طریق این دادهها آموزش میبینند یا عمل میکنند، به احتمال زیاد آن تبعیضها را تکرار خواهند کرد»؛Solon Barocas & Andrew Selbst, Big Data’s Disparate Impact, 104 Cal. L. Rev. 671, 682 (2016).
[42] AJUNWA, THE QUANTIFIED WORKER, supra note X, at 83-84.
[43] Cathy O’Neil
[44] CATHY O’NEIL, WEAPONS OF MATH DESTRUCTION: HOW BIG DATA INCREASES INEQUALITY AND THREATENS DEMOCRACY (2016).
[45] Jesscia Eaglin
[46] Jessica M. Eaglin, Constructing Recidivism Risk, 67 Emory L.J. 59 (2017).
[47] Talia B. Gillis, The Input Fallacy, 106 Minn. L. Rev. 1175 (2022).
[48] Anupam Chander
[49] Anupam Chander, The Racist Algorithm?, 115 Mich. L. Rev. 1023 (2017); see also Elizabeth E. Joh, Feeding the Machine: Policing, Crime Data, & Algorithms, 26 Wm. & Mary Bill Rts. J. 287, 289 (2017) (“هر اقدام – یا امتناع از اقدام – از سوی یک افسر پلیس و هر تصمیم مشابهی از جانب یک ادارۀ پلیس، در عین حال تصمیمی است در این باره که چه دادهای باید تولید شود و اینکه آیا اصولاً یک داده باید تولید شود یا نه”).
[50] همان.
[51] اندرو د. سلبست (Andrew D. Selbst) و سولون باروکاس (Solon Barocas) استدلال میکنند که رویۀ قضایی کمیسیون فدرال تجارت ایالات متحده (FTC) دربارۀ شیوههای تجاری «ناعادلانه» میتواند [بهعنوان یک الگو] برای مقابله با تبعیض بهکار بُرده شود. کاوش در بیعدالتی یک تصمیم، میتواند بر محتوای یک تصمیم متمرکز شود و تمام توجه خود را صرفِ فرآیند نکند.
Andrew D. Selbst and Solon Barocas, Unfair Artificial Intelligence: How FTC Intervention Can Overcome the Limitations of Discrimination Law, 171 U. Pa. L. Rev. _ (2024).