هوش مصنوعی و حریم خصوصی / بخش ششم

فهرست مطالب

بخش ششم از مقاله (Artificial Intelligence and Privacy (2024

دنیل جی. سولوو

ترجمه سمانه هاشمی نژاد

خودکارسازی

دوست داشتن، احساس کردن، همدلی ‌کردن

همان چیزهایی‌اند که به ما زندگی می‌بخشند

و هر چند هوش مصنوعی ممکن است خردمند باشد

صرفاً محملی مصنوعی برای هیاهوست.

                                 «شعری از چت‌جی‌پی‌تی»

هوش مصنوعی در بر گیرندۀ پردازش خودکار داده‌ها است. به دلیل شیوه‌ای که خودکارسازی به داده‌ها شکل می‌دهد و آنان را تحریف می‌کند و همچنین نحوۀ مواجهه‌اش با افراد، این پردازش خودکار ماهیتاً مشکلات حریم خصوصی را افزایش می‌دهد. خودکارسازی طبیعت تصمیم گیری و تأثیرات آن بر افراد را دگرگون می‌کند. این دگرگونی گاهی می‌تواند موجد تغییراتی مطلوب باشد، امّا معایبی هم دارد و می‌تواند به تصمیمات تقلیل‌گرایانه‌ای بینجامد که از حفظ احترام شخصیت منحصر به‌ فرد افراد بازمی‌مانند.

یک) کمّی‌سازی و غیرشخصی‌سازی

داده‌های جمع‌آوری‌ شده برای آموزش الگوریتم‌ها، باید به آن الگوریتم وارد شوند. در این فرآیند، لازم است داده‌ها استانداردسازی شوند؛ لذا داده‌های نامتعارف حذف خواهند شد. داده‌های کمّی‌ناشدنی، به ‌راحتی قابل ‌استفاده نیستند. به بیان دن برک[1]، ادغام عناصر مختلف داده‌ها جهت استفاده از ابزارهای تحلیلی کمّی، «ناچار بخش بزرگی از قالب و زمینه‌های منحصربه ‌فرد منبع اصلی را از بین می‌برد. برای بازپیکربندیِ داده‌های ناسازگار، فرآیند تحلیلیْ زمینه‌مندیِ داده‌ها را به ‌شکلی ریشه‌ای می‌زداید و اطلاعات و معانی اضافی را کنار می‌گذارد»[2]. زمانی که داده‌های کیفی حذف می‌شوند و فقط داده‌های کمّی بر جای می‌مانند، ظرافت‌ها، زمینه و یگانگی افراد از دست می‌رود.[3] در انتها، بر پایۀ تصویری تحریف ‌شده از افراد، دربارۀ آنان تصمیم گیری می‌شود.

با اینکه هوش مصنوعی سودای تقلید از تصمیم گیری انسانی را در سر دارد، غالباً در درک باریک‌بینی‌ها و بی‌قاعدگی‌های تفکر و رفتار انسانی ناکام می‌ماند.[4] تصمیمات خودکار می‌توانند فاقد شخصی‌سازی ضروری برای سناریوهای متنوع و پیچیدۀ زندگی انسانی باشند. هر چند داده‌های کمّیِ بزرگ‌ مقیاس می‌توانند روندها و الگوهای کلی را آشکار سازند، غالباً تفاوت‌های فردی و ویژگی‌های منحصربه‌ فرد را نادیده می‌گیرند. همان‌ طور که پیشگام علم آمار، لامبرت آدولف ژاک کُتله[5] اشاره می‌کند، «هر چه شمارِ افراد مشاهده‌ شده بیشتر باشد، ویژگی‌های فردی – خواه جسمی و خواه اخلاقی –  بیشتر محو می‌شوند و واقعیت‌های کلی که جامعه به لطف آن‌ها وجود دارد و می‌پاید، برجسته می‌شوند»[6].

داده‌هایی که به ‌سادگی قابل کمّی ‌سازی نیستند، معمولاً توسط سیستم‌های خودکار نادیده گرفته می‌شوند. این فرآیند شامل تقلیل تجربیات پیچیده و متنوع زندگی است؛ به ‌طوری که به چیزی سرراست‌تر و الگومحورتر تبدیل شوند. باید اطلاعات غنی و پیچیدۀ برخواسته از تجربۀ انسانی را ساده‌ سازی کرد. تفاوت‌های ظریف – که در مسیر کمّی ‌سازی و استاندارد سازی چالش ایجاد می‌کنند – غالباً در این فرآیند از دست می‌روند. با این حال، این ظرافت‌ها ضروری هستند؛ چرا که قضاوت انسانی اغلب به آن‌ها تکیه دارد. غنای زندگی اغلب در یگانگی و پیش‌بینی ‌ناپذیری آن نهفته است و بسیاری از جنبه‌های حیاتی تجربۀ انسانی در برابر کمّی ‌سازیِ آسان مقاومت می‌کنند.[7] همان ‌طور که جولی کوهن[8] بیان می‌کند، نمی‌توان انسان‌ها را به «مجموعِ معاملات‌شان، نشانگرهای ژنتیکی‌شان و دیگر خصوصیات قابل‌اندازه‌گیری‌شان تقلیل داد».[9]

فرصت‌های فراوانی در تصمیم گیری با هوش مصنوعی نهفته است؛ چرا که می‌تواند به ‌نحوی بسیار کارآمد و در مقیاسی عظیم عمل کند. در عین حال، این پتانسیل نیز در الگوریتم‌های هوش مصنوعی وجود دارد که سوگیری‌ها و پیش‌داوری‌های موجود را تثبیت و روشمند سازند.[10] سولون باروکاس[11] و اندرو سلبْست[12] بر مسأله‌ای حساس در حوزۀ تصمیم گیری خودکار را تأکید کرده‌اند: سوگیری‌های ناشی از تصمیمات گذشته، می‌توانند در قلب قواعد رسمی مدّون شوند و تأثیراتی سیستماتیک در پی داشته باشند.[13] نه فقط سوگیری‌ها، بلکه ممکن است تمامی دیگر کاستی‌های تصمیم گیری، به‌ واسطۀ هوش مصنوعی تشدید شده و نهادینه شوند.

دو) قاعده‌مند کردن خودکارسازی

پرداختن به خودکارسازی، چالشی بزرگ برای قانون است. توانمندترین قانون در زمینۀ تنظیم تصمیم گیری خودکار، مقررات عمومی حفاظت از داده‌ها (GDPR) در اروپا است که برای افراد این حق را قائل است که « درباره‌شان صرفاً بر پایۀ پردازش خودکار تصمیم گیری نشود؛ از جمله در قالب پروفایل ‌سازی».[14] افراد «از این حق برخوردارند که دست ‌کم دخالتی انسانی در کار باشد … این حق که بتوانند با بیان دیدگاه خودشان، با تصمیمات مخالفت کنند».[15] همان‌ طور که مگ لتا جونز[16] اشاره می‌کند، GDPR بر این فلسفه تکیه دارد که «اینکه با افراد به روشی کاملاً خودکار برخورد کنیم، یا اینکه صرفاً مواجهه‌ای خودکار را به آنان عرضه کنیم، به این معناست که در حال انسانیت ‌زدایی آنان هستیم؛ چرا که یک ماشین صرفاً می‌تواند به ‌طرزی محاسباتی با انسان‌ها برخورد کند».[17]

در ایالات متحده، قانون حریم خصوصی مصرف‌کنندگان کالیفرنیا (CCPA) حقوقی را در زمینۀ تصمیم گیری خودکار به افراد اعطا می‌کند؛ از جمله حق انصراف، حق آگاهی از منطق الگوریتمی و حق آگاهی دربارۀ برون‌داد احتمالی.[18] تعداد اندکی از قوانین ایالتی دیگر نیز – عمدتاً در قالب ارائۀ حق انصراف – به تصمیم گیری خودکار می‌پردازند.[19]

یکی از محدودیت‌های عمده در رویکرد مقررات عمومی حفاظت از داده‌های اروپا (GDPR) در قبال خودکارسازی، این است که محافظت‌های آن تنها محدود به تصمیماتی است که از مسیری «صرفاً» خودکار گرفته می‌شوند. با این حال، بسیاری از فرآیندهای خودکار دربرگیرندۀ سطوحی از مداخلۀ انسانی‌اند؛ امری که این محافظت‌ها را غیرقابل‌ اجرا می‌کند. مادۀ 22 مقررات عمومی حفاظت از داده‌ها (GDPR) در اروپا، درخصوص تصمیم گیری خودکار تنها به تصمیماتی محدود می‌شود که به‌ شیوه‌ای تماماً خودکار اتخاذ می‌گردند. از آنجا که امروزه بسیاری از تصمیم گیری‌ها به‌ طور مشترک و تلفیقی توسط انسان و ماشین انجام می‌شوند، GDPR حیطۀ محافظتش را به تصمیماتِ تماماً خودکار محدود کرده ‌است تا دامنۀ این محافظت‌ها چنان گسترش نیابد که تصمیمات بی‌شماری را دربربگیرد. در حقیقت، در اینجا GDPR با شیبی لغزنده رودرروست؛ چرا که حیطۀ عمل مادۀ 22 GDPR می‌تواند به تمامی تصمیماتی که شامل داده یا محاسبه می‌شوند، گسترش یابد؛ تا جایی که حتی زمانی که یک شخص نگاهی اجمالی به یک آمار (که با بهره‌گیری از فرآیندهای خودکار به دست آمده‌ است) بیندازد، تصمیمش در قلمرو شمول این ماده قرار بگیرد. با این حال، منحصرکردنِ محافظت‌ها به تصمیماتِ صرفاً خودکار، بیش ‎از حد محدودکننده است. یک محدودۀ موجه‌تر می‌تواند دربردارندۀ تصمیماتی باشد که خودکارسازی در آن‌ها نقشی عمده ایفا می‌کند.

محافظت‌هایی که GDPR در قبال فرآیندهای خودکار ارائه می‌کند، به هیچ عنوان کافی نیستند. یکی از مؤلفه‌های اساسی شیوۀ مواجهۀ GDPR با فرآیندهای خودکار، ایجاد الزام به مشارکت انسانی است. امّا انسان‌ها هم‌اکنون نیز در شمار فزایندۀ تصمیمات تلفیقی – که مشترکاً توسط انسان‌ها و ماشین‌ها اخذ می‌شوند – دخیل‌اند. در حقیقت آنچه ضرورت دارد، شمار بیشترِ الزامات بنیادی دربارۀ کیفیت تصمیم گیری‌های خودکار و اقداماتی برای مقابله با مشکلات ناشی از خودکارسازی است.

درحالی ‌که قوانین مختلفی تلاش دارند تصمیمات خودکار را از طریق الزام به شفافیت مدیریت کنند، این شفافیت اغلب نمی‌تواند چندان روشنگر باشد. الگوریتم‌هایی که نیروی محرکۀ این تصمیمات‌اند، معمولاً پیچیده‌تر از آن هستند که یک شخص عادی بتواند درک‌شان کند. به‌علاوه، صرفِ درک منطق این تصمیمات، کاری را از پیش نمی‌برد؛ چراکه این تصمیمات بر داده‌های شخصی میلیون‌ها نفر متکی‌اند و افشای چنین داده‌های بدون نقض قوانین حریم خصوصی ممکن نیست. اینکه بخواهیم بدون دسترسی به داده‌هایی که این الگوریتم‌ها با آن‌ها آموزش دیده‌اند، تصمیمات خودکار مشخصی را ارزیابی کنیم، اگر غیرممکن نباشد، دست‌ کم چالش برانگیز خواهد بود.

سه) ادغام تصمیم‌گیری انسانی و ماشینی

قوانین حریم خصوصی باید به چگونگی ادغام تصمیم گیری انسان و ماشین بپردازند. مادۀ 22 مقررات عمومی حفاظت از داده‌ها (GDPR) در اروپا، قواعدی را بر پردازش خودکار وضع می‌کند؛ امّا این قواعد محدود به پردازش داده‌ها به ‌صورتی «صرفاً» خودکار هستند.[20]

مادۀ 22 این قانون در ادامه تصریح می‌کند که اگر دربارۀ شخصی صرفاً بر پایۀ پردازش خودکار تصمیمی گرفته شده باشد، چنانچه آن شخص آن تصمیم را به چالش بکشد، کنترل ‌کنندۀ داده[21] موظف به حفاظت از «حقوق و آزادی‌ها و منافع مشروع» آن فرد خواهد بود و باید «حق بهره‌مندی از مداخلۀ انسانی (که عمل به آن بر دوش کنترل‌ کنندۀ داده است) و حق بیان دیدگاه خود و اعتراض به تصمیمِ گرفته ‌شده» را برای شخص فراهم کند.[22]

متأسفانه، همان‌ طور که بسیاری از مفسران اشاره کرده‌اند، مشارکت انسانی درمان مؤثری برای مشکلات تصمیم گیری‌های الگوریتمی نیست.[23] به گفتۀ ربکا کروتف[24]، مارگو کَمینسکی[25] و نیکلسون پرایس[26]، یک «سیستم تلفیقی» متشکل از انسان و ماشین «به آسانی می‌تواند بدترین جنبه‌های هر دو جهان را به بار آوَرد؛ به‌ طوری که کُندیِ انسان مانع سرعت الگوریتم شود، سوگیری انسانی استحکام الگوریتمی را تحلیل ببرد یا سرعت و انعطاف ‌ناپذیری الگوریتمی توانایی انسان برای تصمیم گیری موثق و زمینه‌مند را تضعیف کند».[27] بنا به دیدگاه مارگو کمیسنکی و جنیفر اوربان[28]، انسان‌ها اغلب دچار «سوگیری اتوماسیون» هستند؛ امری که «منجر به اعتماد بیش ‌از حد به تصمیماتی می‌شود که ماشین‌ها گرفته‌اند».[29] انسان‌ها معمولاً در ارزیابی مؤثر تصمیمات خودکار با مشکل مواجه‌اند و مکرراً تصمیم گیری را به الگوریتم‌ها می‌سپارند و اشتباهاتش را نادیده می‌گیرند. متأسفانه، GDPR در این باره که انسان‌ها چگونه باید تصمیمات خودکار را ارزیابی کنند، دستورالعمل مشخصی ارائه نمی‌کند.[30]

همان‌ طور که بن گرین[31] به ‌درستی اشاره می‌کند، فرآیندهای تصمیم گیری ماشین و انسان به ‌نحوی قابل ‌توجه با یکدیگر متفاوتند؛ همین امر تلفیق ‌کردن این فرآیندها را به ترکیب آب و روغن شبیه می‌سازد. تصمیم گیری الگوریتمی، اولویت را به ثبات و پایبندی سختگیرانه به قوانین می‌بخشد؛ در مقابل، تصمیم گیری انسانی «انعطاف‌ پذیری و آزادی عمل» را دربرمی‌گیرد. درخواست‌هایی که دربارۀ نظارت انسان بر الگوریتم مطرح می‌شوند، «تنش ذاتی» میان این دو رویکرد را نادیده می‎گیرند.[32]

شکی نیست که خودکارسازی به افزایش بهره‌وری می‌انجامد؛ امّا این افزایش به بهای تولید قضاوت‌های ساده‌انگارانه و تحریف ‌شده تمام می‌شود؛ قضاوت‌هایی که از درک پیچیدگی‌های موقعیت‌های زندگی واقعی بازمی‌مانند. این مشکل، ناشی از خودِ فناوری نیست؛ بلکه برآمده از این پیش‌ فرض شتاب ‌زده است که تصمیم گیری خودکار بر تصمیم گیری انسانی برتری دارد و بی‌طرف است. مشکل، برخاسته از نحوۀ درک ما از فناوری است. نباید به تکنولوژی همچون علاجی برای تمامی کاستی‌های تصمیم گیری انسانی بنگریم؛ انسان‌ها نیز نباید درمان محدودیت‌های تصمیم گیری خودکار تلقی شوند. بلکه، هدف اصلی قانون باید تضمین منصفانه‌ بودن تصمیمات باشد.

تحلیل داده

هوش مصنوعی می‌تواند از طریق پایش و تشخیص هویت، کنترل اجتماعی را تسهیل کند و آن را تا درجات سرسام‌آوری گسترش دهد. مصطفی سلیمان[33] می‌نویسد: «توانایی به دست آوردن و به خدمت گرفتن داده‌ها در مقیاسی بی‌سابقه و دقتی بی‌نظیر؛ در جهت ایجاد سیستم‎های نظارت و کنترلی که سرتاسر قلمرو را تحت پوشش خود درمی‌آورند و واکنش آنی نشان می‌دهند … چنان طرح محدودۀ قدرت دولتی را به‌کلی از نو می‌ریزد که به ایجاد موجودیتی از نوعی کاملاً جدید می‌انجامد».[34]

نظارت

در سال 1791، ایدۀ «سراسربین»[35] به اندیشۀ جرمی بنتام فیلسوف خطور کرد. او طرح زندانی را ارائه داد که سلول‌هایش دور یک برج دیدبانی مرکزی قرار می‌گرفتند. این طراحی با هدف کارآییِ حداکثری صورت گرفته بود و شمار زندان‌بانان لازم برای نظارت بر زندانیان را کاهش می‌داد. در سراسربین، زندانیان زندگی خود را در هراس دائمی از مشاهده ‌شدن سپری می‌کردند؛ وضعیتی که به فرمان‌برداری و قانون‌پذیری آنان می‌انجامید.

قرن‌ها بعد، میشل فوکو[36] گسترش قدرت سراسربین به ورای ساختارهای فیزیکی زندان را مورد توجه قرار داد.[37] او شاهد بود که به‌ واسطۀ گسترش فناوری‌های نظارتی، جامعه در حال ساخت زندانی خودخواسته است؛ زندانی که ناظران مخفی را قادر می‌سازد افراد را از مکان‌های دور مورد نظارت قرار دهند.

امروزه، حرکت به سوی یک جامعۀ سراسربین سرعت یافته‌ است. دوربین‌های نظارتی همه ‌جا حضور دارند، به‌ سرعت تکثیر می‌شوند و تصاویرشان از مکان‌هایی دور، توسط بروکرات‌ها مورد مشاهده قرار می‌گیرد. اینترنت، تقریباً تمامی وجوه زندگی انسان‌ها را دریابی می‌کند و حجمی عظیم از ردپای دیجیتال را ثبت می‌کند. جولی کوهن با تیزبینی اشاره می‌کند که پیامد جامعۀ نظارتی ما، محدودشدن آزادی اندیشه و دموکراسی است. این نظارت‌ها، مرزهای ابراز عقیده و کاوش‌های فکری را می‌فرسایند و بر چگونگی تفکر و رفتار افراد تأثیر می‌گذارند.[38]

افزون بر این، نظارت و پایش قدرتی گسترده را در اختیار دولت می‌گذارد؛ قدرتی که می‌تواند به ‌سادگی به‌ عنوان ابزاری برای سوءاستفاده به ‌کار بُرده شود. نظارت، فراتر از صرفاً یک جستجوی فیزیکی ساده است؛ چراکه اَعمال، تعاملات اجتماعی و به ‌طور بالقوه یکایک کلمات و کردارهای فرد را ضبط می‌کند. نظارت این ظرفیت را دارد که مجموعه‌ای گسترده از داده‌ها را گردآوری کرده و از اهداف اولیۀ خود گذر کند. تحت نظارت طولانی ‌مدت، ممکن است افراد در حال مشارکت در رفتارهای غیرقانونی یا غیراخلاقی مشاهده شوند؛ که دستاویزی برای تنبیه یا بی‌اعتبارسازی آنان فراهم می‌کند.

فناوری‌های هوش مصنوعی، نظارت گسترده در سطوح بی‌سابقه را امکان‌پذیر می‌سازند. هم‌اکنون نیز، در بسیاری جوامع شالوده‌ای وسیع از نظارت ویدئویی و صوتی، ردیابی موقعیت مکانی و گردآوری داده‌ها وجود دارد. امّا تصاویر، اسناد صوتی، داده‌های مرتبط با ردیابی و دیگر داده‌ها نیاز به تحلیل دارند. همان ‌طور که بروس اشنایر[39] به ‌درستی استدلال می‌کند، هوش مصنوعی داده‌‌های نظارتی در حجم انبوه را بسیار «قابل ‌جست‌وجوتر و قابل‌فهم‌تر» از گذشته می‌کند.[40] اشنایر میان نظارت (جمع‌آوری داده‌ها) و جاسوسی (تحلیل‌کردن داده‌ها) تمایز قائل می‌شود. این امر که جاسوسی مستلزم تلاش انسانی فراوانی است، فراگیری و گستردگی آن را محدود می‌کند. برای بررسی حجم گستردۀ داده‌های جمع‌آوری‌شده، گوش‌دادن به تمامی صداهای ضبط‌ شده یا تماشای تصاویر تمامی دوربین‌های نظارتی، افراد کافی وجود ندارد. امّا هوش مصنوعی می‌تواند همۀ این کارها را انجام دهد. اشنایر می‌نویسد:

خلاصه ‌سازی، کاری است که یک سیستم مدرن هوش مصنوعی موّلد به‌ خوبی انجام می‌دهد. کافی است که به آن یک جلسۀ یک ‌ساعته بدهید تا به شماره خلاصه‌ای یک ‌صفحه‌ای از گفته‌های حاضرین بدهد. کافی است از هوش مصنوعی موّلد بخواهید که درون میلیون‌ها مکالمه کندوکاو کند و آن‌ها را براساس موضوع سازمان‌دهی نماید تا این کار را انجام دهد. می‌خواهید بدانید چه‌ کسی دربارۀ چه‌ چیزی صحبت می‌کند؟ هوش مصنوعی به شما خواهد گفت.[41]

نظارت مشکلی است که پیش از هوش مصنوعی وجود داشته‌ است و قانون به ‌طورکلی در برخورد مؤثر با آن ناکام بوده ‌است. هوش مصنوعی آسیب‌های نظارت را تا سطوح نگران‌ کننده‌ای تشدید می‌کند.

شناسایی افراد

هوش مصنوعی شناسایی افراد با استفاده از ویژگی‌های فیزیکی از قبیل چشم‌ها، چهره، نحوۀ راه ‌رفتن و صدا را تسهیل می‌کند. هوش مصنوعی می‌تواند الگوهای متمایز رفتاری و گفتاری افراد را شناسایی کند که این امر می‌تواند روش‌های تشخیص هویت بی‌شماری را امکان‌پذیر سازد.

سهولت شناسایی افراد، می‌تواند قدرت دولت‌ها را تشدید کند؛ شرایطی که می‌تواند نظم اجتماعی را تقویت کند امّا پتانسیل آن را نیز دارد که به ابزاری برای سرکوب تبدیل شود. به لطف تشخیص هویت، دولت می‌تواند با سهولت بیشتری افرادی را که نامطلوب می‌شمارد، هدف قرار دهد و بازداشت کند.

زمانی که شناسایی افراد به ‌نحوی سیستماتیک و مخفیانه انجام شود، خطر سوءاستفاده شدیداً افزایش می‌یابد. همان‌ طور که ریچارد سوبل[42]، دانشمند علوم سیاسی، اشاره می‌کند، در طول تاریخ از سیستم‌های تشخیص هویت جهت کنترل اجتماعی و تبعیض استفاده شده‌است.[43] برای نمونه، بردگان موظف بوده‌اند هنگام سفر اوراق هویتی‌شان را به همراه داشته باشند؛ نازی‌ها از کارت‌های شناسایی برای یافتن یهودیان استفاده می‌کردند و سیستم‌های شناسایی، نسل‌کشی روآندا را تسهیل کرد. مقامات دولتی می‌توانند از این سوابق و مدارک برای نظارت نابه‌جا استفاده کنند. برای صاحبان قدرت، داده به ابزاری چند منظوره تبدیل می‌شود؛ ابزاری که می‌توانند از آن برای امیال هر لحظۀ خود بهره‌برداری کنند. به ‌عنوان یک نمونۀ بارز برای این قبیل بهره‌برداری‌های سیاسی، می‌توان به استفادۀ ادارۀ سرشماری امریکا از داده‌های سرشماری سال 1940 برای کمک به بازداشت ژاپنی-امریکایی‌ها طی جنگ جهانی دوم اشاره کرد.[44]

بدون وجود آینده‌نگری یا تدابیر حفاظتی کافی، جوامع در سرتاسر جهان به ‌سرعت به ‌سوی چنین واقعیتی از نظارت فراگیر در حرکت‌اند. هوش مصنوعی این روند را تسریع خواهد کرد. پیشرفت‌های اخیر در فناوری تشخیص چهره، هم‌اکنون نیز ما را به سوی این آیندۀ ویران‌شهری پیش می‌برد. تشخیص چهره، نظارت را قدرتمندتر و مؤثرتر می‌سازد؛ زیرا این امکان را فراهم می‌کند که تصاویر دوربین‌های نظارتی به ‌سادگی به افراد مشخص مرتبط شوند. تلاش‌های نهادهای اجرای قانون و شرکت‌ها برای به‌کارگیری فناوری‌های تشخیص چهره با چالش‌هایی مانند عدم‌دقت و واکنش شدید عمومی مواجه بوده‌ است و به همین دلیل بسیاری از این طرح‌ها کنار گذاشته شده‌اند.[45] به ‌رغم این عقب‌نشینی‌ها، روند توسعه و تکامل این فناوری‌ها ادامه یافته‌ است؛ درست شبیه قارچی که در تاریکی به رشد خود ادامه می‌دهد.

فناوری تشخیص چهرۀ مبتنی بر هوش مصنوعی، ناشناسی شخصی را با تهدیدی جدی مواجه می‌سازد. همان‌ طور که وودرو هارتزوگ[46] و ایوان سلینگر[47] می‌نویسند، «تشخیص چهره ابزاری ایده‌آل برای سرکوب است».[48]

همانند دیگر مشکلاتِ حریم خصوصیِ متأثر از هوش مصنوعی، در اینجا نیز تأثیر اصلی هوش مصنوعی تشدید مشکلات است. هوش مصنوعی نمایانگر کمال جامعۀ نظارتی است؛ گامی تهدید کننده که می‌تواند نظارت فراگیر را بدل به کنترل همه‌ جانبه کند. اکنون مدت‌هاست که قانون نتوانسته بر پایش و تشخیص هویت کنترل و نظارت کافی اِعمال کند. این تهدید وجود دارد که هوش مصنوعی این شکست را تراژیک‌تر از قبل سازد.

تفسیر و رمزگشایی

همچنین، هوش مصنوعی می‌تواند تفسیر داده‌های در اختیار دولت را تسهیل کند. برای مثال، فرض کنید دولت یک فایل رمزگذاری‌شده را بیابد و به کمک یک ابزار هوش مصنوعی آن را رمزگشایی کند. به گفتۀ اورین کِر[49]، رمزگشایی نمی‌تواند شامل محافظت‌های حریم خصوصی برآمده از متمم چهارم قانون اساسی امریکا[50] باشد؛ چراکه «متمم چهارم دسترسی دولت به ارتباطات را تنظیم و قاعده‌مند می‎کند؛ نه درک شناختیِ ارتباطاتی را که از قبل در دسترس بوده‌اند».[51] طبق این منطق، زمانی که دولت اقلامی را می‌یابد که دی‌اِن‌اِی[52] یک شخص را بر خود دارند، می‌تواند فارغ از حفاظت‌های متمم چهارم آن‌ دی‌ان‌ای را تجزیه و تحلیل کند. هوش مصنوعی می‌تواند در زمینۀ کشف داده دربارۀ مردم، ظرفیت‌های جدیدی را برای دولت فراهم کند؛ وضعیتی که می‌تواند به دورزدن نظارت‌ها و محدودیت‌های حفاظتی برآمده از متمم چهارم بینجامد.

کر برای نشان‌دادن نامعقول‎ بودن اینکه نیروهای اجرای قانون ملزم باشند جهت رمزگشایی حکم قضایی دریافت کنند، مثال «دستخط آشفته یا درک هگل» را ارائه می‌دهد.[53] واضح است که نباید هر زمان پلیس اقدام به تجزیه و تحلیل داده‌ها می‌کند، متمم چهارم به ‌کار گرفته شود؛ چراکه به این ترتیب، متمم چهارم به تقریباً تمامی جنبه‌های تحقیقات پلیس گسترش می‌یابد. اگر دولت یادداشتی را بیابد که به فرانسوی نوشته شده ‌است، احمقانه است که برای ترجمه‌اش نیازمند یک حکم مرتبط با متمم چهارم داشته باشد.

با این حال، هوش مصنوعی در قیاس با این مثال‌ها مسأله را بسیار تشدید می‌کند و ظرفیتی بی‌نهایت چشم‌گیر برای تفسیر و رمزگشایی چیزها، از خود نشان می‌دهد. همان ‌طور که در طرفِ دیگر ماجرا، خطر توالی ناگزیر موقعیت‌های نامعقولی از قبیل مواجهه با دستخط آشفته وجود دارد، هوش مصنوعی نیز یک توالی ناگزیر از موقعیت‌های مشکل ‌ساز در جهت مقابل به وجود می‌آورد. برای مثال، دولت می‌تواند داده‌های ناشناس‌شده را از سطح اینترنت جمع‌آوری کند و به کمک هوش مصنوعی آن‌ها را ‌شناسایی کند. دولت با استفاده از هوش مصنوعی می‌تواند از طریق داده‌هایی که در اختیار دارد یا داده‌های موجود در اینترنت، اقدام به استنتاج داده‌های فراوانی دربارۀ یک شخص کند. از همین رو، قانون نمی‌تواند به قوانین ساده و بی‌قید و شرطی از قبیل آنچه مورد حمایت کِر است، پایبند بماند. لازم است مرزی مشخص شود و این، کاری دشوار است؛ چراکه آنجا که پای درجه و مقدار در میان است، تعیین نقطه‌ای دقیق برای کشیدنِ مرز، ساده نخواهد بود.

این بحث، ماهیت بسیاری از مسائلی که به ‌واسطۀ هوش مصنوعی برای قانون ایجاد می‌شوند را به تصویر می‌کشد. هوش مصنوعی مسائل را چنان شدت می‌دهد که به تغییرات عمده در وضعیت ختم می‌شود. هوش مصنوعی اغلب قانون را با تناقض «تپه» سردرگم می‌کند: حذف یک دانۀ شن به این معنا نیست که تپه دیگر تپه نیست. اگر دانه‌های یکی پس از دیگر برداشته شوند، به ‌نظر نمی‌رسد هرگز نقطۀ مناسبی برای گفتن اینکه آن شن‌ها دیگر تپه نیستند وجود داشته باشد.

محدودیت و کنترل تحلیل داده

بهترین راه‌حل برای نگرانی‌های مرتبط با استفادۀ دولت از هوش مصنوعی برای نظارت و جمع‌آوری داده، اصلاح کاستی‌های شدید قانون کنونی است. به سبب مجموعه‌ای از تصمیمات اشتباه دیوان عالی ایالات متحده، حفاظت‌های متمم چهارم قانون اساسی، در برابر نظارت و جمع‌آوری داده‌ها توسط دولت شدیداً تضعیف شده ‌است. در حال حاضر، دولت برای جمع‌آوری داده‌ها از اینترنت یا خرید داده‌ها از شرکت‌های تجاری، با محدودیت‌های اندکی مواجه است.[54]

در مجموعه‌ای از پرونده‌ها که با عنوان «اصل شخص ثالث»[55] شناخته می‌شوند، دیوان عالی ایالات متحده حکم کرد که نمی‌تواند هیچ انتظار معقولی برای حفظ حریم خصوصی داده‌هایی که برای اشخاص ثالث آشکار شده‌اند، وجود داشته باشد. برای مثال، در پروندۀ ایالات متحده علیه میلر[56] که مأموران فدرال، بدون اطلاع قبلی، سوابق بانکی متهم را به دست آوردند، دادگاه حکم داد که در آن مورد هیچ انتظار معقولی برای حفظ حریم خصوصی سوابق مالی قابل تصور نبوده است؛ چراکه اطلاعات از قبل «برای یک شخص ثالث افشا شده است».[57] در پروندۀ اسمیت علیه ایالت مریلند[58]، بنا به تشخیص دادگاه، در موضوع استفاده از دستگاه ذخیره ‌کنندۀ تماس‌های گرفته ‌شده[59]، انتظار معقولی از حفظ حریم خصوصی نمی‌توانسته وجود داشته باشد؛ چراکه داده‌های مربوطه به شرکت تلفنی انتقال یافته بودند.[60] هرچند در پروندۀ کارپنترعلیه ایالات متحده، دامنۀ اصل شخص سوم تا حدودی محدود می‌شود، امّا دادگاه این اصل را لغو نکرد.[61]

در نهایت، قانون در زمینۀ نظارت و همچنین گردآوری و خرید داده‌ها اختیاراتی گسترده را برای دولت فراهم می‌‌سازد. متمم چهارم قانون اساسی ایالات متحده، در حال حاضر محدودیت‌های اندکی دربارۀ مدت زمانی که دولت می‌تواند داده‌های شخصی را ذخیره کند و نحوۀ تحلیل این داده‌ها ارائه می‌دهد.[62] این متمم از افراد در برابر عملیات‌های جستجو و کشف غیرمنطقی محافظت می‌کند؛ امّا در این باره که پس از دستیابی دولت به داده‌ها چه اتفاقی برای‌شان می‌افتد، توضیح چندانی ارائه نمی‌دهد.[63] به عبارت دیگر، متمم چهارم قانون اساسی به طریقی تفسیر و اِعمال می‌شود که عمدتاً بر جمع‌آوری داده متمرکز می‌شود و از تحلیل داده‌ها غافل می‌ماند.[64] هوش مصنوعی قدرت دولت در چگونگی استفاده از داده‌های جمع‌آوری‌شده را افزایش می‌دهد.

چنانچه متمم چهارم یا قوانین موجود بخواهند اختیارات دولت در تحلیل داده‌های در دسترسش را محدود کنند، برای تعیین مرزِ محدودیت چالشی بزرگ درکار خواهد بود. به ‌طور قطع، مأموران اجرای قانون باید بتوانند برای تحقیقات جنایی داده‌ها را تحلیل کنند. با این حال، از آنجا که هوش مصنوعی تحلیل داده‌ها را به سطوحی بی‌سابقه می‌رساند، تعیین یک مرز مشخص ضروری است.

قانون باید اطمینان یابد که دولت نمی‌تواند از سیستم‌های هوش مصنوعی به شیوه‌هایی استفاده کند که به آسیب‌ها و خطرات غیرضروری بینجامد. در این زمینه، وجود نظارت مستقل و مستمر ضروری است. همچنین لازم است دربارۀ استفاده از این سیستم‌ها و پاسخگویی در صورت سوءاستفاده، مجموعه‌ای از قوانین وضع شود.

در حال حاضر و با وجود ابزارهای هوش مصنوعی، مأموران اجرای قانون همچون کودکانی در یک فروشگاه اسباب‌بازی هستند که می‌توانند هر آنچه می‌خواهند را بخرند و هر طور که می‌خواهند از آن استفاده کنند؛ بدون آنکه کنترل و پاسخگویی چندانی در کار باشد. مشکلات قانون در تنظیم نظارت دولتی، گردآوری داده‌ها و به ‌کارگیری فناوری، منجر به عدم آمادگی تأسف‌بار قانون برای مواجهه با هوش مصنوعی می‌شود. اگرچه متمم چهارم قانون اساسی به‌ نحوی تدوین شده که گسترده و گشوده باشد و به ‌طورکلی «تفتیش‌ها و توقیف‌های نامعقول» را منع کند؛ با وجود این، این متمم چنان محدود و کوته‌بینانه تفسیر شده‌ است که در مواجهه با بسیاری از فعالیت‌های تکنولوژیک مسأله‌آمیز و تهدیدگرِ حریم خصوصی، قابلیت اجرایی ندارد. همان‌ طور که فِرد کیت، استاد حقوق، اشاره می‌کند، «به ‌رغم گسترش برنامه‌های داده‌کاوی دولت، کنگره هیچ قانونی تصویب نکرده است که چارچوب قانونی مشخصی برای نحوۀ اجرای این برنامه‌ها ارائه دهد یا امکانی برای جبران خسارت افراد بی‌گناهِ آسیب‌دیده از برنامه‌ها فراهم سازد یا مشخص کند که در این فرآیند چگونه از حریم خصوصی محافظت می‌شود».[65]


[1] Dan Burk

[2] Dan L. Burk, Algorithmic Legal Metrics, 96 Notre Dame L. Rev. 1147 (2020).

[3] DANIEL J. SOLOVE, THE DIGITAL PERSON, supra note X, at 49.

[4] Andrea Roth, Trial by Machine, 104 Geo. L.J. 1245 (2016) (بحث پیرامون آسیب‌شناسی‌ خودکارسازی در قضاوت کیفری).

[5] Lambert Adolphe Jacques Quetelet (1796-1874)

[6] Lambert Adolphe Jacques Quetelet quoted in CHRIS WIGGINS AND MATTHEW L. JONES, HOW DATA HAPPENED: A HISTORY FROM THE AGE OF REASON TO THE AGE OF ALGORITHMS 26 (2023).

[7] DANIEL J. SOLOVE, THE DIGITAL PERSON, supra note X, at 49; Burk, Algorithmic Legal Metrics, supra note X, at 1158.

[8] Julie Cohen

[9] Julie E. Cohen, Examined Lives: Informational Privacy and the Subject as Object, 52 Stan. L. Rev. 1373, 1405 (2000).

[10] Margot E. Kaminski & Jennifer R. Urban, The Right to Contest AI, 121 Colum. L. Rev. 1957, 1981 (2021).

[11] Solon Barocas

[12] Andrew Selbst

[13] Solon Barocas & Andrew D. Selbst, Big Data’s Disparate Impact, 104 Cal. L. Rev. 671, 682 (2016),

[14] GDPR, supra note X, art. 22(1)

 («افراد از این حق برخوردارند که موضوع تصمیمی نشوند که صرفاً برپایۀ پردازش خودکار گرفته می‌شود، از جمله [در قالب] پروفایل‌سازی؛ تصمیماتی که بر آنان تأثیری قانونی بگذارد یا به‌طریق مشابهی آنان را متأثر سازد»).

[15] همان.

[16] Meg Leta Jones

[17] Meg Leta Jones, The Right to a Human in the Loop: Political Constructions of Computer Automation and Personhood, 47 Soc. Stud. Sci. 216 (2017).

[18] CCPA, Cal. Civ. Code § 1798.185(a)(16)

(دادستان کل را ملزم می‌کند قوانینی را صادر کند که براساس آن‌ها، کسب‌وکارها موظف شوند «اطلاعات معناداری را دربارۀ منطق دخیل در فرآیندهای تصمیم گیری و همچنین توضیحی دربارۀ برون‌داد احتمالی فرآیند در ارتباط با مصرف‌کننده» ارائه دهند.)

[19] Thomas, “Privacy Law Deluge,” supra note X.

[20] GDPR art. 22

[21] اصطلاح «کنترل‌کنندۀ داده» به نهادی اشاره دارد که اهداف و روش‌های پردازش داده‌های شخصی را تعیین می‌کند. به‌عنوان مثال، یک شرکت که اطلاعات شخصی مشتریان خود را برای ارائۀ خدمات یا انجام تحقیقات پردازش می‌کند، یک کنترل‌کنندۀ داده محسوب می‌شود. (م)

[22] GDPR art. 22

[23] See, e.g., Kaminski, Binary Governance, supra note X;

(حضور انسان در فرآیند تصمیم گیری، موجب بهبود تصمیم گیری خودکار نمی‌شود).

Kiel Brennan-Marquez, Karen Levy & Daniel Susser, Strange Loops: Apparent Versus Actual Human Involvement in Automated Decision Making, 24 Berkeley Tech. L.J. 745 (2019);

(حضور انسان در فرآیند تصمیم گیری، ممکن است صرفاً در خدمت حفظ ظاهر باشد).

Aziz Z. Huq, Constitutional Rights in the Machine-Learning State, 105 Cornell L. Rev. 1875, 1908–10 (2020)

(حضور انسان در فرآیند تصمیم گیری، اغلب دقت تصمیمات را افزایش نمی‌دهد).

[24] Rebecca Crootof

[25] Margot Kaminski

[26] Nicholson Price

[27] Rebecca Crootof, Margot E. Kaminski & W. Nicholson Price II, Humans in the Loop, 76 Vand. L. Rev. 429, 468 (2023).

[28] Jennifer Urban

[29] Kaminski & Urban, The Right to Contest AI, supra note X, at 1961.

[30] Crootof, Kaminski, & Price, Humans in the Loop, supra note X, at 437.

[31] Ben Green

[32] Ben Green, The Flaws of Policies Requiring Human Oversight of Government Algorithms, 45 Computer Law & Security Rev. 1, 12 (2022).

[33] Mustafa Suleyman

[34] MUSTAFA SULEYMAN, THE COMING WAVE: TECHNOLOGY, POWER, AND THE 21ST CENTURY’S GREATEST DILEMMA 192 (2023).

[35] Panopticon

[36] Michel Foucault

[37] MICHEL FOUCAULT, DISCIPLINE AND PUNISH (Alan Sheridan trans., Vintage Books, 2d ed. 1995) (1977); see also OSCAR T. GANDY, THE PANOPTIC SORT: A POLITICAL ECONOMY OF PERSONAL INFORMATION (1993)

(توصیف اثرات سراسربینانۀ موجود در دوران ظهور اقتصاد دیجیتال)

[38] Julie E. Cohen, Examined Lives: Informational Privacy and the Subject as Object, 52 Stanford Law Review 1373 (2000).

[39] Bruce Schneier

[40] Bruce Schneier, The Internet Enabled Mass Surveillance. A.I. Will Enable Mass Spying, Slate, (Dec. 4, 2023).

[41] همان.

[42] Richard Sobel

[43] Richard Sobel, The Degradation of Political Identity Under a National Identification System, 8 B.U. J. Sci. & Tech. L. 37, 39 (2002).

[44] See ERIK LARSON, THE NAKED CONSUMER: HOW OUR PRIVATE LIVES BECOME PUBLIC COMMODITIES 53-54 (1992).

[45] HILL, YOUR FACE BELONGS, supra note X.

[46] Woodrow Hartzog

[47] Evan Selinger

[48] Woodrow Hartzog & Evan Seligner, Facial Recognition Is the Perfect Tool for Oppression, Medium (Aug. 2, 2018), https://medium.com/@hartzog/facial-recognition-is-the-perfect-toolfor-oppression-bc2a08f0fe66; Lindsey Barrett, Ban Facial Recognition Technologies for Children—and for Everyone Else, 26 B.U. J. Sci. & Tech. L. 223 (2020).

[49] Orin Kerr

[50] متن متمم چهارم قانون اساسی ایالات متحده از این قرار است: «حق مردم برای امنیت جان، مسکن، اسناد و دارایی‌هایشان در برابر تفتیش و توقیف‌های غیرمعقول نباید نقض شود؛ و هیچ حکمی برای بازداشت اشخاص یا توقیف اموال صادر نمی‌شود، مگر برپایۀ یک دلیل محتمل و با سوگند یا اعلام رسمی؛ و مکانی که باید جستجو شود و افراد یا اشیائی که باید توقیف شوند را باید به‌طور خاص و دقیق مشخص کرد». (م)

[51] Orin S. Kerr, The Fourth Amendment in Cyberspace: Can Encryption Create a Reasonable Expectation of Privacy?, 33 Conn. L. Rev. 503 (2001).

[52] DNA

[53] همان.

[54] Matthew J. Tokson, Government Purchases of Private Data, forthcoming Wake Forest L. Rev. (2023), draft at p. 4, https://ssrn.com/abstract=4574166

(«به‎طور کلی افسران پلیس می‎توانند اقلام در دسترس عموم را بدون محدودیت‌های مرتبط با قانون اساسی خریداری کنند.»)

 Orin Kerr, Buying Data and the Fourth Amendment, Hoover Inst., Stan. Univ. 1, 11 (Nov. 2021), https://www.hoover.org/sites/default/files/research/docs/kerr_webreadypdf.pdf. 228 United States v. Miller, 425 U.S. 435, 443 (1976).

[55] Third Party Doctrine

[56] United States v. Miller

[57] United States v. Miller, 425 U.S. 435, 443 (1976).

[58] Smith v. Maryland

[59] دستگاه ذخیره‌کنندۀ تماس‌های گرفته‌شده یا دستگاه ثبت‌کنندۀ اطلاعات ارتباطی (pen register)، دستگاهی است که اطلاعات مربوط به تماس‌های تلفی را جمع‌آوری می‌کند. این اطلاعات شامل شماره‌های تلفن ورودی و خروجی، تاریخ و زمان تماس‌ها می‌شوند. (م)

[60] Smtih v. Maryland, 442 U.S. 735, 737 (1979).

[61] United States v. Ellison, 462 F.3d 557 (6th Cir. 2006)

(جستجو در پایگاه‌های اطلاعاتی اجرای قانون، مصداق نقض متمم چهارم نیست).

[62] United States v. Ellison, 462 F.3d 557 (6th Cir. 2006)

(جستجو در پایگاه‌های اطلاعاتی اجرای قانون، مصداق نقض متمم چهارم نیست)؛

Daniel J. Solove, Digital Dossiers and the Dissipation of Fourth Amendment Privacy, 75 S. Cal. L. Rev. 1083, 1166 (2002)

(«پس از جمع‌آوری اطلاعات، چارچوب نظارتی متمم چهارم دیگر اِعمال نمی‌شود»).

[63] William J. Stuntz, O.J. Simpson, Bill Clinton, and the Transsubstantive Fourth Amendment, 114 Harv. L. Rev. 842, 848 (2001)

(«قوانین برگرفته از متمم چهارم تلاش‌های دولت برای کشف اطلاعات را تنطیم می‌کنند؛ امّا دربارۀ اینکه دولت با اطلاعات کشف‌شده چه‌کار می‌تواند بکند، هیچ حرفی نمی‌زنند.»).

[64] Daniel J. Solove, Data Mining and the Security-Liberty Debate, 74 U. Chi. L. Rev. 343 (2008).

[65] Fred H. Cate, Government Data Mining: The Need for a Legal Framework, 43 Harv. Civ. R. Civ. L. L. Rev. 435, 461 (2008).