بخش ششم از مقاله (Artificial Intelligence and Privacy (2024
دنیل جی. سولوو
ترجمه سمانه هاشمی نژاد
خودکارسازی
دوست داشتن، احساس کردن، همدلی کردن
همان چیزهاییاند که به ما زندگی میبخشند
و هر چند هوش مصنوعی ممکن است خردمند باشد
صرفاً محملی مصنوعی برای هیاهوست.
«شعری از چتجیپیتی»
هوش مصنوعی در بر گیرندۀ پردازش خودکار دادهها است. به دلیل شیوهای که خودکارسازی به دادهها شکل میدهد و آنان را تحریف میکند و همچنین نحوۀ مواجههاش با افراد، این پردازش خودکار ماهیتاً مشکلات حریم خصوصی را افزایش میدهد. خودکارسازی طبیعت تصمیم گیری و تأثیرات آن بر افراد را دگرگون میکند. این دگرگونی گاهی میتواند موجد تغییراتی مطلوب باشد، امّا معایبی هم دارد و میتواند به تصمیمات تقلیلگرایانهای بینجامد که از حفظ احترام شخصیت منحصر به فرد افراد بازمیمانند.
یک) کمّیسازی و غیرشخصیسازی
دادههای جمعآوری شده برای آموزش الگوریتمها، باید به آن الگوریتم وارد شوند. در این فرآیند، لازم است دادهها استانداردسازی شوند؛ لذا دادههای نامتعارف حذف خواهند شد. دادههای کمّیناشدنی، به راحتی قابل استفاده نیستند. به بیان دن برک[1]، ادغام عناصر مختلف دادهها جهت استفاده از ابزارهای تحلیلی کمّی، «ناچار بخش بزرگی از قالب و زمینههای منحصربه فرد منبع اصلی را از بین میبرد. برای بازپیکربندیِ دادههای ناسازگار، فرآیند تحلیلیْ زمینهمندیِ دادهها را به شکلی ریشهای میزداید و اطلاعات و معانی اضافی را کنار میگذارد»[2]. زمانی که دادههای کیفی حذف میشوند و فقط دادههای کمّی بر جای میمانند، ظرافتها، زمینه و یگانگی افراد از دست میرود.[3] در انتها، بر پایۀ تصویری تحریف شده از افراد، دربارۀ آنان تصمیم گیری میشود.
با اینکه هوش مصنوعی سودای تقلید از تصمیم گیری انسانی را در سر دارد، غالباً در درک باریکبینیها و بیقاعدگیهای تفکر و رفتار انسانی ناکام میماند.[4] تصمیمات خودکار میتوانند فاقد شخصیسازی ضروری برای سناریوهای متنوع و پیچیدۀ زندگی انسانی باشند. هر چند دادههای کمّیِ بزرگ مقیاس میتوانند روندها و الگوهای کلی را آشکار سازند، غالباً تفاوتهای فردی و ویژگیهای منحصربه فرد را نادیده میگیرند. همان طور که پیشگام علم آمار، لامبرت آدولف ژاک کُتله[5] اشاره میکند، «هر چه شمارِ افراد مشاهده شده بیشتر باشد، ویژگیهای فردی – خواه جسمی و خواه اخلاقی – بیشتر محو میشوند و واقعیتهای کلی که جامعه به لطف آنها وجود دارد و میپاید، برجسته میشوند»[6].
دادههایی که به سادگی قابل کمّی سازی نیستند، معمولاً توسط سیستمهای خودکار نادیده گرفته میشوند. این فرآیند شامل تقلیل تجربیات پیچیده و متنوع زندگی است؛ به طوری که به چیزی سرراستتر و الگومحورتر تبدیل شوند. باید اطلاعات غنی و پیچیدۀ برخواسته از تجربۀ انسانی را ساده سازی کرد. تفاوتهای ظریف – که در مسیر کمّی سازی و استاندارد سازی چالش ایجاد میکنند – غالباً در این فرآیند از دست میروند. با این حال، این ظرافتها ضروری هستند؛ چرا که قضاوت انسانی اغلب به آنها تکیه دارد. غنای زندگی اغلب در یگانگی و پیشبینی ناپذیری آن نهفته است و بسیاری از جنبههای حیاتی تجربۀ انسانی در برابر کمّی سازیِ آسان مقاومت میکنند.[7] همان طور که جولی کوهن[8] بیان میکند، نمیتوان انسانها را به «مجموعِ معاملاتشان، نشانگرهای ژنتیکیشان و دیگر خصوصیات قابلاندازهگیریشان تقلیل داد».[9]
فرصتهای فراوانی در تصمیم گیری با هوش مصنوعی نهفته است؛ چرا که میتواند به نحوی بسیار کارآمد و در مقیاسی عظیم عمل کند. در عین حال، این پتانسیل نیز در الگوریتمهای هوش مصنوعی وجود دارد که سوگیریها و پیشداوریهای موجود را تثبیت و روشمند سازند.[10] سولون باروکاس[11] و اندرو سلبْست[12] بر مسألهای حساس در حوزۀ تصمیم گیری خودکار را تأکید کردهاند: سوگیریهای ناشی از تصمیمات گذشته، میتوانند در قلب قواعد رسمی مدّون شوند و تأثیراتی سیستماتیک در پی داشته باشند.[13] نه فقط سوگیریها، بلکه ممکن است تمامی دیگر کاستیهای تصمیم گیری، به واسطۀ هوش مصنوعی تشدید شده و نهادینه شوند.
دو) قاعدهمند کردن خودکارسازی
پرداختن به خودکارسازی، چالشی بزرگ برای قانون است. توانمندترین قانون در زمینۀ تنظیم تصمیم گیری خودکار، مقررات عمومی حفاظت از دادهها (GDPR) در اروپا است که برای افراد این حق را قائل است که « دربارهشان صرفاً بر پایۀ پردازش خودکار تصمیم گیری نشود؛ از جمله در قالب پروفایل سازی».[14] افراد «از این حق برخوردارند که دست کم دخالتی انسانی در کار باشد … این حق که بتوانند با بیان دیدگاه خودشان، با تصمیمات مخالفت کنند».[15] همان طور که مگ لتا جونز[16] اشاره میکند، GDPR بر این فلسفه تکیه دارد که «اینکه با افراد به روشی کاملاً خودکار برخورد کنیم، یا اینکه صرفاً مواجههای خودکار را به آنان عرضه کنیم، به این معناست که در حال انسانیت زدایی آنان هستیم؛ چرا که یک ماشین صرفاً میتواند به طرزی محاسباتی با انسانها برخورد کند».[17]
در ایالات متحده، قانون حریم خصوصی مصرفکنندگان کالیفرنیا (CCPA) حقوقی را در زمینۀ تصمیم گیری خودکار به افراد اعطا میکند؛ از جمله حق انصراف، حق آگاهی از منطق الگوریتمی و حق آگاهی دربارۀ برونداد احتمالی.[18] تعداد اندکی از قوانین ایالتی دیگر نیز – عمدتاً در قالب ارائۀ حق انصراف – به تصمیم گیری خودکار میپردازند.[19]
یکی از محدودیتهای عمده در رویکرد مقررات عمومی حفاظت از دادههای اروپا (GDPR) در قبال خودکارسازی، این است که محافظتهای آن تنها محدود به تصمیماتی است که از مسیری «صرفاً» خودکار گرفته میشوند. با این حال، بسیاری از فرآیندهای خودکار دربرگیرندۀ سطوحی از مداخلۀ انسانیاند؛ امری که این محافظتها را غیرقابل اجرا میکند. مادۀ 22 مقررات عمومی حفاظت از دادهها (GDPR) در اروپا، درخصوص تصمیم گیری خودکار تنها به تصمیماتی محدود میشود که به شیوهای تماماً خودکار اتخاذ میگردند. از آنجا که امروزه بسیاری از تصمیم گیریها به طور مشترک و تلفیقی توسط انسان و ماشین انجام میشوند، GDPR حیطۀ محافظتش را به تصمیماتِ تماماً خودکار محدود کرده است تا دامنۀ این محافظتها چنان گسترش نیابد که تصمیمات بیشماری را دربربگیرد. در حقیقت، در اینجا GDPR با شیبی لغزنده رودرروست؛ چرا که حیطۀ عمل مادۀ 22 GDPR میتواند به تمامی تصمیماتی که شامل داده یا محاسبه میشوند، گسترش یابد؛ تا جایی که حتی زمانی که یک شخص نگاهی اجمالی به یک آمار (که با بهرهگیری از فرآیندهای خودکار به دست آمده است) بیندازد، تصمیمش در قلمرو شمول این ماده قرار بگیرد. با این حال، منحصرکردنِ محافظتها به تصمیماتِ صرفاً خودکار، بیش از حد محدودکننده است. یک محدودۀ موجهتر میتواند دربردارندۀ تصمیماتی باشد که خودکارسازی در آنها نقشی عمده ایفا میکند.
محافظتهایی که GDPR در قبال فرآیندهای خودکار ارائه میکند، به هیچ عنوان کافی نیستند. یکی از مؤلفههای اساسی شیوۀ مواجهۀ GDPR با فرآیندهای خودکار، ایجاد الزام به مشارکت انسانی است. امّا انسانها هماکنون نیز در شمار فزایندۀ تصمیمات تلفیقی – که مشترکاً توسط انسانها و ماشینها اخذ میشوند – دخیلاند. در حقیقت آنچه ضرورت دارد، شمار بیشترِ الزامات بنیادی دربارۀ کیفیت تصمیم گیریهای خودکار و اقداماتی برای مقابله با مشکلات ناشی از خودکارسازی است.
درحالی که قوانین مختلفی تلاش دارند تصمیمات خودکار را از طریق الزام به شفافیت مدیریت کنند، این شفافیت اغلب نمیتواند چندان روشنگر باشد. الگوریتمهایی که نیروی محرکۀ این تصمیماتاند، معمولاً پیچیدهتر از آن هستند که یک شخص عادی بتواند درکشان کند. بهعلاوه، صرفِ درک منطق این تصمیمات، کاری را از پیش نمیبرد؛ چراکه این تصمیمات بر دادههای شخصی میلیونها نفر متکیاند و افشای چنین دادههای بدون نقض قوانین حریم خصوصی ممکن نیست. اینکه بخواهیم بدون دسترسی به دادههایی که این الگوریتمها با آنها آموزش دیدهاند، تصمیمات خودکار مشخصی را ارزیابی کنیم، اگر غیرممکن نباشد، دست کم چالش برانگیز خواهد بود.
سه) ادغام تصمیمگیری انسانی و ماشینی
قوانین حریم خصوصی باید به چگونگی ادغام تصمیم گیری انسان و ماشین بپردازند. مادۀ 22 مقررات عمومی حفاظت از دادهها (GDPR) در اروپا، قواعدی را بر پردازش خودکار وضع میکند؛ امّا این قواعد محدود به پردازش دادهها به صورتی «صرفاً» خودکار هستند.[20]
مادۀ 22 این قانون در ادامه تصریح میکند که اگر دربارۀ شخصی صرفاً بر پایۀ پردازش خودکار تصمیمی گرفته شده باشد، چنانچه آن شخص آن تصمیم را به چالش بکشد، کنترل کنندۀ داده[21] موظف به حفاظت از «حقوق و آزادیها و منافع مشروع» آن فرد خواهد بود و باید «حق بهرهمندی از مداخلۀ انسانی (که عمل به آن بر دوش کنترل کنندۀ داده است) و حق بیان دیدگاه خود و اعتراض به تصمیمِ گرفته شده» را برای شخص فراهم کند.[22]
متأسفانه، همان طور که بسیاری از مفسران اشاره کردهاند، مشارکت انسانی درمان مؤثری برای مشکلات تصمیم گیریهای الگوریتمی نیست.[23] به گفتۀ ربکا کروتف[24]، مارگو کَمینسکی[25] و نیکلسون پرایس[26]، یک «سیستم تلفیقی» متشکل از انسان و ماشین «به آسانی میتواند بدترین جنبههای هر دو جهان را به بار آوَرد؛ به طوری که کُندیِ انسان مانع سرعت الگوریتم شود، سوگیری انسانی استحکام الگوریتمی را تحلیل ببرد یا سرعت و انعطاف ناپذیری الگوریتمی توانایی انسان برای تصمیم گیری موثق و زمینهمند را تضعیف کند».[27] بنا به دیدگاه مارگو کمیسنکی و جنیفر اوربان[28]، انسانها اغلب دچار «سوگیری اتوماسیون» هستند؛ امری که «منجر به اعتماد بیش از حد به تصمیماتی میشود که ماشینها گرفتهاند».[29] انسانها معمولاً در ارزیابی مؤثر تصمیمات خودکار با مشکل مواجهاند و مکرراً تصمیم گیری را به الگوریتمها میسپارند و اشتباهاتش را نادیده میگیرند. متأسفانه، GDPR در این باره که انسانها چگونه باید تصمیمات خودکار را ارزیابی کنند، دستورالعمل مشخصی ارائه نمیکند.[30]
همان طور که بن گرین[31] به درستی اشاره میکند، فرآیندهای تصمیم گیری ماشین و انسان به نحوی قابل توجه با یکدیگر متفاوتند؛ همین امر تلفیق کردن این فرآیندها را به ترکیب آب و روغن شبیه میسازد. تصمیم گیری الگوریتمی، اولویت را به ثبات و پایبندی سختگیرانه به قوانین میبخشد؛ در مقابل، تصمیم گیری انسانی «انعطاف پذیری و آزادی عمل» را دربرمیگیرد. درخواستهایی که دربارۀ نظارت انسان بر الگوریتم مطرح میشوند، «تنش ذاتی» میان این دو رویکرد را نادیده میگیرند.[32]
شکی نیست که خودکارسازی به افزایش بهرهوری میانجامد؛ امّا این افزایش به بهای تولید قضاوتهای سادهانگارانه و تحریف شده تمام میشود؛ قضاوتهایی که از درک پیچیدگیهای موقعیتهای زندگی واقعی بازمیمانند. این مشکل، ناشی از خودِ فناوری نیست؛ بلکه برآمده از این پیش فرض شتاب زده است که تصمیم گیری خودکار بر تصمیم گیری انسانی برتری دارد و بیطرف است. مشکل، برخاسته از نحوۀ درک ما از فناوری است. نباید به تکنولوژی همچون علاجی برای تمامی کاستیهای تصمیم گیری انسانی بنگریم؛ انسانها نیز نباید درمان محدودیتهای تصمیم گیری خودکار تلقی شوند. بلکه، هدف اصلی قانون باید تضمین منصفانه بودن تصمیمات باشد.
تحلیل داده
هوش مصنوعی میتواند از طریق پایش و تشخیص هویت، کنترل اجتماعی را تسهیل کند و آن را تا درجات سرسامآوری گسترش دهد. مصطفی سلیمان[33] مینویسد: «توانایی به دست آوردن و به خدمت گرفتن دادهها در مقیاسی بیسابقه و دقتی بینظیر؛ در جهت ایجاد سیستمهای نظارت و کنترلی که سرتاسر قلمرو را تحت پوشش خود درمیآورند و واکنش آنی نشان میدهند … چنان طرح محدودۀ قدرت دولتی را بهکلی از نو میریزد که به ایجاد موجودیتی از نوعی کاملاً جدید میانجامد».[34]
نظارت
در سال 1791، ایدۀ «سراسربین»[35] به اندیشۀ جرمی بنتام فیلسوف خطور کرد. او طرح زندانی را ارائه داد که سلولهایش دور یک برج دیدبانی مرکزی قرار میگرفتند. این طراحی با هدف کارآییِ حداکثری صورت گرفته بود و شمار زندانبانان لازم برای نظارت بر زندانیان را کاهش میداد. در سراسربین، زندانیان زندگی خود را در هراس دائمی از مشاهده شدن سپری میکردند؛ وضعیتی که به فرمانبرداری و قانونپذیری آنان میانجامید.
قرنها بعد، میشل فوکو[36] گسترش قدرت سراسربین به ورای ساختارهای فیزیکی زندان را مورد توجه قرار داد.[37] او شاهد بود که به واسطۀ گسترش فناوریهای نظارتی، جامعه در حال ساخت زندانی خودخواسته است؛ زندانی که ناظران مخفی را قادر میسازد افراد را از مکانهای دور مورد نظارت قرار دهند.
امروزه، حرکت به سوی یک جامعۀ سراسربین سرعت یافته است. دوربینهای نظارتی همه جا حضور دارند، به سرعت تکثیر میشوند و تصاویرشان از مکانهایی دور، توسط بروکراتها مورد مشاهده قرار میگیرد. اینترنت، تقریباً تمامی وجوه زندگی انسانها را دریابی میکند و حجمی عظیم از ردپای دیجیتال را ثبت میکند. جولی کوهن با تیزبینی اشاره میکند که پیامد جامعۀ نظارتی ما، محدودشدن آزادی اندیشه و دموکراسی است. این نظارتها، مرزهای ابراز عقیده و کاوشهای فکری را میفرسایند و بر چگونگی تفکر و رفتار افراد تأثیر میگذارند.[38]
افزون بر این، نظارت و پایش قدرتی گسترده را در اختیار دولت میگذارد؛ قدرتی که میتواند به سادگی به عنوان ابزاری برای سوءاستفاده به کار بُرده شود. نظارت، فراتر از صرفاً یک جستجوی فیزیکی ساده است؛ چراکه اَعمال، تعاملات اجتماعی و به طور بالقوه یکایک کلمات و کردارهای فرد را ضبط میکند. نظارت این ظرفیت را دارد که مجموعهای گسترده از دادهها را گردآوری کرده و از اهداف اولیۀ خود گذر کند. تحت نظارت طولانی مدت، ممکن است افراد در حال مشارکت در رفتارهای غیرقانونی یا غیراخلاقی مشاهده شوند؛ که دستاویزی برای تنبیه یا بیاعتبارسازی آنان فراهم میکند.
فناوریهای هوش مصنوعی، نظارت گسترده در سطوح بیسابقه را امکانپذیر میسازند. هماکنون نیز، در بسیاری جوامع شالودهای وسیع از نظارت ویدئویی و صوتی، ردیابی موقعیت مکانی و گردآوری دادهها وجود دارد. امّا تصاویر، اسناد صوتی، دادههای مرتبط با ردیابی و دیگر دادهها نیاز به تحلیل دارند. همان طور که بروس اشنایر[39] به درستی استدلال میکند، هوش مصنوعی دادههای نظارتی در حجم انبوه را بسیار «قابل جستوجوتر و قابلفهمتر» از گذشته میکند.[40] اشنایر میان نظارت (جمعآوری دادهها) و جاسوسی (تحلیلکردن دادهها) تمایز قائل میشود. این امر که جاسوسی مستلزم تلاش انسانی فراوانی است، فراگیری و گستردگی آن را محدود میکند. برای بررسی حجم گستردۀ دادههای جمعآوریشده، گوشدادن به تمامی صداهای ضبط شده یا تماشای تصاویر تمامی دوربینهای نظارتی، افراد کافی وجود ندارد. امّا هوش مصنوعی میتواند همۀ این کارها را انجام دهد. اشنایر مینویسد:
خلاصه سازی، کاری است که یک سیستم مدرن هوش مصنوعی موّلد به خوبی انجام میدهد. کافی است که به آن یک جلسۀ یک ساعته بدهید تا به شماره خلاصهای یک صفحهای از گفتههای حاضرین بدهد. کافی است از هوش مصنوعی موّلد بخواهید که درون میلیونها مکالمه کندوکاو کند و آنها را براساس موضوع سازماندهی نماید تا این کار را انجام دهد. میخواهید بدانید چه کسی دربارۀ چه چیزی صحبت میکند؟ هوش مصنوعی به شما خواهد گفت.[41]
نظارت مشکلی است که پیش از هوش مصنوعی وجود داشته است و قانون به طورکلی در برخورد مؤثر با آن ناکام بوده است. هوش مصنوعی آسیبهای نظارت را تا سطوح نگران کنندهای تشدید میکند.
شناسایی افراد
هوش مصنوعی شناسایی افراد با استفاده از ویژگیهای فیزیکی از قبیل چشمها، چهره، نحوۀ راه رفتن و صدا را تسهیل میکند. هوش مصنوعی میتواند الگوهای متمایز رفتاری و گفتاری افراد را شناسایی کند که این امر میتواند روشهای تشخیص هویت بیشماری را امکانپذیر سازد.
سهولت شناسایی افراد، میتواند قدرت دولتها را تشدید کند؛ شرایطی که میتواند نظم اجتماعی را تقویت کند امّا پتانسیل آن را نیز دارد که به ابزاری برای سرکوب تبدیل شود. به لطف تشخیص هویت، دولت میتواند با سهولت بیشتری افرادی را که نامطلوب میشمارد، هدف قرار دهد و بازداشت کند.
زمانی که شناسایی افراد به نحوی سیستماتیک و مخفیانه انجام شود، خطر سوءاستفاده شدیداً افزایش مییابد. همان طور که ریچارد سوبل[42]، دانشمند علوم سیاسی، اشاره میکند، در طول تاریخ از سیستمهای تشخیص هویت جهت کنترل اجتماعی و تبعیض استفاده شدهاست.[43] برای نمونه، بردگان موظف بودهاند هنگام سفر اوراق هویتیشان را به همراه داشته باشند؛ نازیها از کارتهای شناسایی برای یافتن یهودیان استفاده میکردند و سیستمهای شناسایی، نسلکشی روآندا را تسهیل کرد. مقامات دولتی میتوانند از این سوابق و مدارک برای نظارت نابهجا استفاده کنند. برای صاحبان قدرت، داده به ابزاری چند منظوره تبدیل میشود؛ ابزاری که میتوانند از آن برای امیال هر لحظۀ خود بهرهبرداری کنند. به عنوان یک نمونۀ بارز برای این قبیل بهرهبرداریهای سیاسی، میتوان به استفادۀ ادارۀ سرشماری امریکا از دادههای سرشماری سال 1940 برای کمک به بازداشت ژاپنی-امریکاییها طی جنگ جهانی دوم اشاره کرد.[44]
بدون وجود آیندهنگری یا تدابیر حفاظتی کافی، جوامع در سرتاسر جهان به سرعت به سوی چنین واقعیتی از نظارت فراگیر در حرکتاند. هوش مصنوعی این روند را تسریع خواهد کرد. پیشرفتهای اخیر در فناوری تشخیص چهره، هماکنون نیز ما را به سوی این آیندۀ ویرانشهری پیش میبرد. تشخیص چهره، نظارت را قدرتمندتر و مؤثرتر میسازد؛ زیرا این امکان را فراهم میکند که تصاویر دوربینهای نظارتی به سادگی به افراد مشخص مرتبط شوند. تلاشهای نهادهای اجرای قانون و شرکتها برای بهکارگیری فناوریهای تشخیص چهره با چالشهایی مانند عدمدقت و واکنش شدید عمومی مواجه بوده است و به همین دلیل بسیاری از این طرحها کنار گذاشته شدهاند.[45] به رغم این عقبنشینیها، روند توسعه و تکامل این فناوریها ادامه یافته است؛ درست شبیه قارچی که در تاریکی به رشد خود ادامه میدهد.
فناوری تشخیص چهرۀ مبتنی بر هوش مصنوعی، ناشناسی شخصی را با تهدیدی جدی مواجه میسازد. همان طور که وودرو هارتزوگ[46] و ایوان سلینگر[47] مینویسند، «تشخیص چهره ابزاری ایدهآل برای سرکوب است».[48]
همانند دیگر مشکلاتِ حریم خصوصیِ متأثر از هوش مصنوعی، در اینجا نیز تأثیر اصلی هوش مصنوعی تشدید مشکلات است. هوش مصنوعی نمایانگر کمال جامعۀ نظارتی است؛ گامی تهدید کننده که میتواند نظارت فراگیر را بدل به کنترل همه جانبه کند. اکنون مدتهاست که قانون نتوانسته بر پایش و تشخیص هویت کنترل و نظارت کافی اِعمال کند. این تهدید وجود دارد که هوش مصنوعی این شکست را تراژیکتر از قبل سازد.
تفسیر و رمزگشایی
همچنین، هوش مصنوعی میتواند تفسیر دادههای در اختیار دولت را تسهیل کند. برای مثال، فرض کنید دولت یک فایل رمزگذاریشده را بیابد و به کمک یک ابزار هوش مصنوعی آن را رمزگشایی کند. به گفتۀ اورین کِر[49]، رمزگشایی نمیتواند شامل محافظتهای حریم خصوصی برآمده از متمم چهارم قانون اساسی امریکا[50] باشد؛ چراکه «متمم چهارم دسترسی دولت به ارتباطات را تنظیم و قاعدهمند میکند؛ نه درک شناختیِ ارتباطاتی را که از قبل در دسترس بودهاند».[51] طبق این منطق، زمانی که دولت اقلامی را مییابد که دیاِناِی[52] یک شخص را بر خود دارند، میتواند فارغ از حفاظتهای متمم چهارم آن دیانای را تجزیه و تحلیل کند. هوش مصنوعی میتواند در زمینۀ کشف داده دربارۀ مردم، ظرفیتهای جدیدی را برای دولت فراهم کند؛ وضعیتی که میتواند به دورزدن نظارتها و محدودیتهای حفاظتی برآمده از متمم چهارم بینجامد.
کر برای نشاندادن نامعقول بودن اینکه نیروهای اجرای قانون ملزم باشند جهت رمزگشایی حکم قضایی دریافت کنند، مثال «دستخط آشفته یا درک هگل» را ارائه میدهد.[53] واضح است که نباید هر زمان پلیس اقدام به تجزیه و تحلیل دادهها میکند، متمم چهارم به کار گرفته شود؛ چراکه به این ترتیب، متمم چهارم به تقریباً تمامی جنبههای تحقیقات پلیس گسترش مییابد. اگر دولت یادداشتی را بیابد که به فرانسوی نوشته شده است، احمقانه است که برای ترجمهاش نیازمند یک حکم مرتبط با متمم چهارم داشته باشد.
با این حال، هوش مصنوعی در قیاس با این مثالها مسأله را بسیار تشدید میکند و ظرفیتی بینهایت چشمگیر برای تفسیر و رمزگشایی چیزها، از خود نشان میدهد. همان طور که در طرفِ دیگر ماجرا، خطر توالی ناگزیر موقعیتهای نامعقولی از قبیل مواجهه با دستخط آشفته وجود دارد، هوش مصنوعی نیز یک توالی ناگزیر از موقعیتهای مشکل ساز در جهت مقابل به وجود میآورد. برای مثال، دولت میتواند دادههای ناشناسشده را از سطح اینترنت جمعآوری کند و به کمک هوش مصنوعی آنها را شناسایی کند. دولت با استفاده از هوش مصنوعی میتواند از طریق دادههایی که در اختیار دارد یا دادههای موجود در اینترنت، اقدام به استنتاج دادههای فراوانی دربارۀ یک شخص کند. از همین رو، قانون نمیتواند به قوانین ساده و بیقید و شرطی از قبیل آنچه مورد حمایت کِر است، پایبند بماند. لازم است مرزی مشخص شود و این، کاری دشوار است؛ چراکه آنجا که پای درجه و مقدار در میان است، تعیین نقطهای دقیق برای کشیدنِ مرز، ساده نخواهد بود.
این بحث، ماهیت بسیاری از مسائلی که به واسطۀ هوش مصنوعی برای قانون ایجاد میشوند را به تصویر میکشد. هوش مصنوعی مسائل را چنان شدت میدهد که به تغییرات عمده در وضعیت ختم میشود. هوش مصنوعی اغلب قانون را با تناقض «تپه» سردرگم میکند: حذف یک دانۀ شن به این معنا نیست که تپه دیگر تپه نیست. اگر دانههای یکی پس از دیگر برداشته شوند، به نظر نمیرسد هرگز نقطۀ مناسبی برای گفتن اینکه آن شنها دیگر تپه نیستند وجود داشته باشد.
محدودیت و کنترل تحلیل داده
بهترین راهحل برای نگرانیهای مرتبط با استفادۀ دولت از هوش مصنوعی برای نظارت و جمعآوری داده، اصلاح کاستیهای شدید قانون کنونی است. به سبب مجموعهای از تصمیمات اشتباه دیوان عالی ایالات متحده، حفاظتهای متمم چهارم قانون اساسی، در برابر نظارت و جمعآوری دادهها توسط دولت شدیداً تضعیف شده است. در حال حاضر، دولت برای جمعآوری دادهها از اینترنت یا خرید دادهها از شرکتهای تجاری، با محدودیتهای اندکی مواجه است.[54]
در مجموعهای از پروندهها که با عنوان «اصل شخص ثالث»[55] شناخته میشوند، دیوان عالی ایالات متحده حکم کرد که نمیتواند هیچ انتظار معقولی برای حفظ حریم خصوصی دادههایی که برای اشخاص ثالث آشکار شدهاند، وجود داشته باشد. برای مثال، در پروندۀ ایالات متحده علیه میلر[56] که مأموران فدرال، بدون اطلاع قبلی، سوابق بانکی متهم را به دست آوردند، دادگاه حکم داد که در آن مورد هیچ انتظار معقولی برای حفظ حریم خصوصی سوابق مالی قابل تصور نبوده است؛ چراکه اطلاعات از قبل «برای یک شخص ثالث افشا شده است».[57] در پروندۀ اسمیت علیه ایالت مریلند[58]، بنا به تشخیص دادگاه، در موضوع استفاده از دستگاه ذخیره کنندۀ تماسهای گرفته شده[59]، انتظار معقولی از حفظ حریم خصوصی نمیتوانسته وجود داشته باشد؛ چراکه دادههای مربوطه به شرکت تلفنی انتقال یافته بودند.[60] هرچند در پروندۀ کارپنترعلیه ایالات متحده، دامنۀ اصل شخص سوم تا حدودی محدود میشود، امّا دادگاه این اصل را لغو نکرد.[61]
در نهایت، قانون در زمینۀ نظارت و همچنین گردآوری و خرید دادهها اختیاراتی گسترده را برای دولت فراهم میسازد. متمم چهارم قانون اساسی ایالات متحده، در حال حاضر محدودیتهای اندکی دربارۀ مدت زمانی که دولت میتواند دادههای شخصی را ذخیره کند و نحوۀ تحلیل این دادهها ارائه میدهد.[62] این متمم از افراد در برابر عملیاتهای جستجو و کشف غیرمنطقی محافظت میکند؛ امّا در این باره که پس از دستیابی دولت به دادهها چه اتفاقی برایشان میافتد، توضیح چندانی ارائه نمیدهد.[63] به عبارت دیگر، متمم چهارم قانون اساسی به طریقی تفسیر و اِعمال میشود که عمدتاً بر جمعآوری داده متمرکز میشود و از تحلیل دادهها غافل میماند.[64] هوش مصنوعی قدرت دولت در چگونگی استفاده از دادههای جمعآوریشده را افزایش میدهد.
چنانچه متمم چهارم یا قوانین موجود بخواهند اختیارات دولت در تحلیل دادههای در دسترسش را محدود کنند، برای تعیین مرزِ محدودیت چالشی بزرگ درکار خواهد بود. به طور قطع، مأموران اجرای قانون باید بتوانند برای تحقیقات جنایی دادهها را تحلیل کنند. با این حال، از آنجا که هوش مصنوعی تحلیل دادهها را به سطوحی بیسابقه میرساند، تعیین یک مرز مشخص ضروری است.
قانون باید اطمینان یابد که دولت نمیتواند از سیستمهای هوش مصنوعی به شیوههایی استفاده کند که به آسیبها و خطرات غیرضروری بینجامد. در این زمینه، وجود نظارت مستقل و مستمر ضروری است. همچنین لازم است دربارۀ استفاده از این سیستمها و پاسخگویی در صورت سوءاستفاده، مجموعهای از قوانین وضع شود.
در حال حاضر و با وجود ابزارهای هوش مصنوعی، مأموران اجرای قانون همچون کودکانی در یک فروشگاه اسباببازی هستند که میتوانند هر آنچه میخواهند را بخرند و هر طور که میخواهند از آن استفاده کنند؛ بدون آنکه کنترل و پاسخگویی چندانی در کار باشد. مشکلات قانون در تنظیم نظارت دولتی، گردآوری دادهها و به کارگیری فناوری، منجر به عدم آمادگی تأسفبار قانون برای مواجهه با هوش مصنوعی میشود. اگرچه متمم چهارم قانون اساسی به نحوی تدوین شده که گسترده و گشوده باشد و به طورکلی «تفتیشها و توقیفهای نامعقول» را منع کند؛ با وجود این، این متمم چنان محدود و کوتهبینانه تفسیر شده است که در مواجهه با بسیاری از فعالیتهای تکنولوژیک مسألهآمیز و تهدیدگرِ حریم خصوصی، قابلیت اجرایی ندارد. همان طور که فِرد کیت، استاد حقوق، اشاره میکند، «به رغم گسترش برنامههای دادهکاوی دولت، کنگره هیچ قانونی تصویب نکرده است که چارچوب قانونی مشخصی برای نحوۀ اجرای این برنامهها ارائه دهد یا امکانی برای جبران خسارت افراد بیگناهِ آسیبدیده از برنامهها فراهم سازد یا مشخص کند که در این فرآیند چگونه از حریم خصوصی محافظت میشود».[65]
[1] Dan Burk
[2] Dan L. Burk, Algorithmic Legal Metrics, 96 Notre Dame L. Rev. 1147 (2020).
[3] DANIEL J. SOLOVE, THE DIGITAL PERSON, supra note X, at 49.
[4] Andrea Roth, Trial by Machine, 104 Geo. L.J. 1245 (2016) (بحث پیرامون آسیبشناسی خودکارسازی در قضاوت کیفری).
[5] Lambert Adolphe Jacques Quetelet (1796-1874)
[6] Lambert Adolphe Jacques Quetelet quoted in CHRIS WIGGINS AND MATTHEW L. JONES, HOW DATA HAPPENED: A HISTORY FROM THE AGE OF REASON TO THE AGE OF ALGORITHMS 26 (2023).
[7] DANIEL J. SOLOVE, THE DIGITAL PERSON, supra note X, at 49; Burk, Algorithmic Legal Metrics, supra note X, at 1158.
[8] Julie Cohen
[9] Julie E. Cohen, Examined Lives: Informational Privacy and the Subject as Object, 52 Stan. L. Rev. 1373, 1405 (2000).
[10] Margot E. Kaminski & Jennifer R. Urban, The Right to Contest AI, 121 Colum. L. Rev. 1957, 1981 (2021).
[11] Solon Barocas
[12] Andrew Selbst
[13] Solon Barocas & Andrew D. Selbst, Big Data’s Disparate Impact, 104 Cal. L. Rev. 671, 682 (2016),
[14] GDPR, supra note X, art. 22(1)
(«افراد از این حق برخوردارند که موضوع تصمیمی نشوند که صرفاً برپایۀ پردازش خودکار گرفته میشود، از جمله [در قالب] پروفایلسازی؛ تصمیماتی که بر آنان تأثیری قانونی بگذارد یا بهطریق مشابهی آنان را متأثر سازد»).
[15] همان.
[16] Meg Leta Jones
[17] Meg Leta Jones, The Right to a Human in the Loop: Political Constructions of Computer Automation and Personhood, 47 Soc. Stud. Sci. 216 (2017).
[18] CCPA, Cal. Civ. Code § 1798.185(a)(16)
(دادستان کل را ملزم میکند قوانینی را صادر کند که براساس آنها، کسبوکارها موظف شوند «اطلاعات معناداری را دربارۀ منطق دخیل در فرآیندهای تصمیم گیری و همچنین توضیحی دربارۀ برونداد احتمالی فرآیند در ارتباط با مصرفکننده» ارائه دهند.)
[19] Thomas, “Privacy Law Deluge,” supra note X.
[20] GDPR art. 22
[21] اصطلاح «کنترلکنندۀ داده» به نهادی اشاره دارد که اهداف و روشهای پردازش دادههای شخصی را تعیین میکند. بهعنوان مثال، یک شرکت که اطلاعات شخصی مشتریان خود را برای ارائۀ خدمات یا انجام تحقیقات پردازش میکند، یک کنترلکنندۀ داده محسوب میشود. (م)
[22] GDPR art. 22
[23] See, e.g., Kaminski, Binary Governance, supra note X;
(حضور انسان در فرآیند تصمیم گیری، موجب بهبود تصمیم گیری خودکار نمیشود).
Kiel Brennan-Marquez, Karen Levy & Daniel Susser, Strange Loops: Apparent Versus Actual Human Involvement in Automated Decision Making, 24 Berkeley Tech. L.J. 745 (2019);
(حضور انسان در فرآیند تصمیم گیری، ممکن است صرفاً در خدمت حفظ ظاهر باشد).
Aziz Z. Huq, Constitutional Rights in the Machine-Learning State, 105 Cornell L. Rev. 1875, 1908–10 (2020)
(حضور انسان در فرآیند تصمیم گیری، اغلب دقت تصمیمات را افزایش نمیدهد).
[24] Rebecca Crootof
[25] Margot Kaminski
[26] Nicholson Price
[27] Rebecca Crootof, Margot E. Kaminski & W. Nicholson Price II, Humans in the Loop, 76 Vand. L. Rev. 429, 468 (2023).
[28] Jennifer Urban
[29] Kaminski & Urban, The Right to Contest AI, supra note X, at 1961.
[30] Crootof, Kaminski, & Price, Humans in the Loop, supra note X, at 437.
[31] Ben Green
[32] Ben Green, The Flaws of Policies Requiring Human Oversight of Government Algorithms, 45 Computer Law & Security Rev. 1, 12 (2022).
[33] Mustafa Suleyman
[34] MUSTAFA SULEYMAN, THE COMING WAVE: TECHNOLOGY, POWER, AND THE 21ST CENTURY’S GREATEST DILEMMA 192 (2023).
[35] Panopticon
[36] Michel Foucault
[37] MICHEL FOUCAULT, DISCIPLINE AND PUNISH (Alan Sheridan trans., Vintage Books, 2d ed. 1995) (1977); see also OSCAR T. GANDY, THE PANOPTIC SORT: A POLITICAL ECONOMY OF PERSONAL INFORMATION (1993)
(توصیف اثرات سراسربینانۀ موجود در دوران ظهور اقتصاد دیجیتال)
[38] Julie E. Cohen, Examined Lives: Informational Privacy and the Subject as Object, 52 Stanford Law Review 1373 (2000).
[39] Bruce Schneier
[40] Bruce Schneier, The Internet Enabled Mass Surveillance. A.I. Will Enable Mass Spying, Slate, (Dec. 4, 2023).
[41] همان.
[42] Richard Sobel
[43] Richard Sobel, The Degradation of Political Identity Under a National Identification System, 8 B.U. J. Sci. & Tech. L. 37, 39 (2002).
[44] See ERIK LARSON, THE NAKED CONSUMER: HOW OUR PRIVATE LIVES BECOME PUBLIC COMMODITIES 53-54 (1992).
[45] HILL, YOUR FACE BELONGS, supra note X.
[46] Woodrow Hartzog
[47] Evan Selinger
[48] Woodrow Hartzog & Evan Seligner, Facial Recognition Is the Perfect Tool for Oppression, Medium (Aug. 2, 2018), https://medium.com/@hartzog/facial-recognition-is-the-perfect-toolfor-oppression-bc2a08f0fe66; Lindsey Barrett, Ban Facial Recognition Technologies for Children—and for Everyone Else, 26 B.U. J. Sci. & Tech. L. 223 (2020).
[49] Orin Kerr
[50] متن متمم چهارم قانون اساسی ایالات متحده از این قرار است: «حق مردم برای امنیت جان، مسکن، اسناد و داراییهایشان در برابر تفتیش و توقیفهای غیرمعقول نباید نقض شود؛ و هیچ حکمی برای بازداشت اشخاص یا توقیف اموال صادر نمیشود، مگر برپایۀ یک دلیل محتمل و با سوگند یا اعلام رسمی؛ و مکانی که باید جستجو شود و افراد یا اشیائی که باید توقیف شوند را باید بهطور خاص و دقیق مشخص کرد». (م)
[51] Orin S. Kerr, The Fourth Amendment in Cyberspace: Can Encryption Create a Reasonable Expectation of Privacy?, 33 Conn. L. Rev. 503 (2001).
[52] DNA
[53] همان.
[54] Matthew J. Tokson, Government Purchases of Private Data, forthcoming Wake Forest L. Rev. (2023), draft at p. 4, https://ssrn.com/abstract=4574166
(«بهطور کلی افسران پلیس میتوانند اقلام در دسترس عموم را بدون محدودیتهای مرتبط با قانون اساسی خریداری کنند.»)
Orin Kerr, Buying Data and the Fourth Amendment, Hoover Inst., Stan. Univ. 1, 11 (Nov. 2021), https://www.hoover.org/sites/default/files/research/docs/kerr_webreadypdf.pdf. 228 United States v. Miller, 425 U.S. 435, 443 (1976).
[55] Third Party Doctrine
[56] United States v. Miller
[57] United States v. Miller, 425 U.S. 435, 443 (1976).
[58] Smith v. Maryland
[59] دستگاه ذخیرهکنندۀ تماسهای گرفتهشده یا دستگاه ثبتکنندۀ اطلاعات ارتباطی (pen register)، دستگاهی است که اطلاعات مربوط به تماسهای تلفی را جمعآوری میکند. این اطلاعات شامل شمارههای تلفن ورودی و خروجی، تاریخ و زمان تماسها میشوند. (م)
[60] Smtih v. Maryland, 442 U.S. 735, 737 (1979).
[61] United States v. Ellison, 462 F.3d 557 (6th Cir. 2006)
(جستجو در پایگاههای اطلاعاتی اجرای قانون، مصداق نقض متمم چهارم نیست).
[62] United States v. Ellison, 462 F.3d 557 (6th Cir. 2006)
(جستجو در پایگاههای اطلاعاتی اجرای قانون، مصداق نقض متمم چهارم نیست)؛
Daniel J. Solove, Digital Dossiers and the Dissipation of Fourth Amendment Privacy, 75 S. Cal. L. Rev. 1083, 1166 (2002)
(«پس از جمعآوری اطلاعات، چارچوب نظارتی متمم چهارم دیگر اِعمال نمیشود»).
[63] William J. Stuntz, O.J. Simpson, Bill Clinton, and the Transsubstantive Fourth Amendment, 114 Harv. L. Rev. 842, 848 (2001)
(«قوانین برگرفته از متمم چهارم تلاشهای دولت برای کشف اطلاعات را تنطیم میکنند؛ امّا دربارۀ اینکه دولت با اطلاعات کشفشده چهکار میتواند بکند، هیچ حرفی نمیزنند.»).
[64] Daniel J. Solove, Data Mining and the Security-Liberty Debate, 74 U. Chi. L. Rev. 343 (2008).
[65] Fred H. Cate, Government Data Mining: The Need for a Legal Framework, 43 Harv. Civ. R. Civ. L. L. Rev. 435, 461 (2008).