تکنولوژی و هوش مصنوعی

همان آش است، فقط با کاسه‌ی سیلیکونی؛ پارادوکسی به‌نام عدالت دیجیتالی

ما گفتیم ماشین قضاوت کند که عدالت برقرار شود. اما انگار فقط «قاضی» عوض شد، نه «حکم». هوش مصنوعی قرار بود بی‌طرف باشد؛ اما اگر داده‌ها ناعادلانه باشند، خروجی هم ناعادلانه است، حتی اگر با دقیق‌ترین محاسبه تولید شده باشد. مسئله این نیست که ماشین خطا می‌کند؛ مسئله این است که خطاها دیگر به‌چشم نمی‌آیند، چون «علمی» و «اتوماتیک» شده‌اند. وقتی سیستم یاد نمی‌گیرد که چرا بعضی‌ها جا مانده‌اند، فقط جا ماندن را دقیق‌تر پیش‌بینی می‌کند.
در دنیایی که کدها تصمیم می‌گیرند، مهم است بپرسیم: این کدها صدای چه کسی‌اند؟ حافظه‌ی چه تاریخی‌اند؟

به‌قلم:محمد حسین افشاری 

عدالت را دادیم دست ماشین، انصافش مال خودش بود

قرار بود سامانه‌های هوش مصنوعی، فرشته‌های بی‌طرف دنیای داده باشند. بی‌چهره، بی‌تبعیض، بی‌غرَض. قرار بود داوری کنند، نه داور را تقلید. اما آن‌چه در عمل می‌بینیم، بیشتر به کابوس شباهت دارد تا تحقق وعده. در جایی که انتظار می‌رفت تبعیض نژادی، جنسیتی، طبقاتی یا جغرافیایی رنگ ببازد، همان زخم‌های کهنه، فقط در لباسی نو ظاهر شده‌اند.

از دادگاه‌ها تا مراکز استخدام، از اتاق‌های تشخیص پزشکی تا فرآیندهای اعطای وام، الگوریتم‌هایی را می‌بینیم که زیر پرچم “عدالت” کار می‌کنند، اما بی‌آن‌که بخواهند یا بدانند، همان نابرابری‌هایی را بازتولید می‌کنند که روزی قرار بود محوشان کنند. اینجا، پارادوکسی پنهان در دل فناوری نهفته است: ابزارهایی که قرار است عدالت را افزایش دهند، در سکوت، بی‌عدالتی را سیستماتیک می‌کنند.

ماجرا فقط یک خطای فنی یا یک نقص آماری نیست. ماجرا، پرسشی اخلاقی و ساختاری‌ست: چه کسی حقیقت را تعریف می‌کند، وقتی داده‌ها خود برآمده از جهانی نابرابرند؟

حکم از پیش نوشته بود؛ فقط قاضی‌اش عوض شد

تصور کنید قاضی‌ای بی‌احساس، بی‌خاطره و بی‌طرف، که فقط با داده قضاوت می‌کند. منطقی‌ست که او عادل‌تر باشد، نه؟ اما چه می‌شود اگر همان داده‌هایی که به دستش می‌رسد، آلوده به تبعیض باشد؟ الگوریتم‌هایی که در سیستم‌های عدالت کیفری به کار می‌روند (از پیش‌بینی خطر تکرار جرم تا توصیه‌های صدور حکم یا تعیین قرار وثیقه) قرار بوده ابزارهای بهبود تصمیم‌گیری باشند. اما در عمل، بیشتر شبیه آینه‌هایی‌اند که تصویر کج و معیوب گذشته را بازتاب می‌دهند، نه چشم‌اندازی عادلانه برای آینده.

به سامانه‌هایی چون سامانه‌ی پروفایل‌سازی مدیریتی مجرمان برای مجازات‌های جایگزین (سامانه‌ی COMPAS) در ایالات متحده نگاه کنیم؛ الگوریتمی که برای پیش‌بینی احتمال ارتکاب جرم دوباره طراحی شده است. در ظاهر بی‌طرف، اما در عمل، سیاه‌پوستان را با احتمال بالاتری «خطرناک» ارزیابی می‌کند. چرا؟ چون داده‌هایی که بر اساس آن آموزش دیده، خود بازتاب تبعیض تاریخی پلیس، نظام قضایی و سیاست‌های نژادپرستانه‌ بوده‌اند.

در ایران شاید چنین سامانه‌هایی هنوز فراگیر نشده باشند، اما روند دیجیتالی‌سازی عدالت، ناگزیر ما را به همین نقطه خواهد رساند. اگر ساختار قدرت را نقد نکنیم، اگر داده را بی‌سابقه و بی‌سوال نپذیریم، عدالت دیجیتالی نه فقط ناکام، که خطرناک خواهد بود.

نکته‌ی مهم آن‌جاست که تبعیض، در این سامانه‌ها عموماً «نیت‌مند» نیست؛ بلکه ساختاری‌ست. و همین ساختاری‌بودن است که آن را ناپیدا، اما عمیق می‌کند. الگوریتم نه دروغ می‌گوید، نه جانب‌دار است؛ فقط همان چیزی را بازتولید می‌کند که به او داده‌ایم. و آن‌چه داده‌ایم، محصول جامعه‌ای نابرابر است.

همان قبلی‌ها قبول می‌شوند، فقط فرم عوض شده

در فرایند استخدام، هوش مصنوعی آمده بود تا دست واسطه‌های تبعیض را کوتاه کند. بی‌نیاز از نام، عکس و لهجه، بی‌خبر از رنگ پوست و محل تولد، قرار بود صرفاً بر اساس مهارت قضاوت کند. اما حقیقت این است که الگوریتم‌ها، حافظه‌ای تاریخی دارند، حافظه‌ای که به‌جای نادیده گرفتن تبعیض، آن را ذخیره و بازتوزیع می‌کنند.

در بسیاری از پلتفرم‌های جذب نیروی کار، سامانه‌های یادگیرنده از داده‌های استخدام‌های گذشته تغذیه می‌کنند. اگر در گذشته، افرادی از طبقه‌ی خاص، جنسیت خاص، یا نژاد خاص بیشتر استخدام شده‌اند، الگوریتم این «الگو» را به عنوان «معیار مطلوب» ثبت می‌کند. نتیجه؟ متقاضیان شایسته‌ای که فقط شباهتی به گذشته‌ی مورد علاقه‌ی سیستم ندارند، به سادگی حذف می‌شوند.

در ایران نیز نشانه‌هایی از تمایل به اتوماسیون در فرایندهای استخدام دیده می‌شود؛ سامانه‌های غربال‌گر، پلتفرم‌های تحلیل رفتار، ابزارهای پیش‌بینی عملکرد آینده. اگر مبانی طراحی این ابزارها را نقد نکنیم، آن‌چه در شرف وقوع است، بازتولید همان مرزهای طبقاتی اما این‌بار با برچسب “علمی” و “بی‌طرف”.

عدالت در استخدام، به معنای فرصت برابر برای شروع است، نه تکرار شانس‌های پیشین. اما الگوریتم، اگر تنها گذشته را ببیند، آینده را هم شبیه آن می‌سازد. و این، همان‌جاست که عدالت، در لباس تکنولوژی، به ضد خودش بدل می‌شود.

این نسخه به درد همه نمی‌خوره

در نظام سلامت، تصور ما از عدالت ساده به‌نظر می‌رسد: هر فرد، صرف‌نظر از موقعیت اجتماعی، باید به یک سطح از مراقبت و تشخیص درست دسترسی داشته باشد. اما وقتی ماشین وارد این میدان می‌شود، عدالت نه فقط به مسئله‌ی دسترسی، بلکه به مسئله‌ی “تفسیر” بدل می‌شود.

الگوریتم‌های پزشکی و تشخیص‌گر، چه در تحلیل تصویر، چه در ارزیابی ریسک و چه در توصیه‌ی درمان، اغلب با این فرض توسعه یافته‌اند که «داده» بی‌طرف است. اما واقعیت آن است که داده‌ی پزشکی، بازتابی‌ست از سال‌ها سیاست‌گذاری نابرابر، نمایندگی ناقص، و حتی بی‌اعتمادی تاریخی گروه‌های به‌حاشیه‌رانده‌شده به نظام سلامت.

برای نمونه، پژوهش‌هایی نشان داده‌اند که سامانه‌های تشخیص بیماری‌های پوستی، دقتی به‌مراتب پایین‌تر در تشخیص مشکلات روی پوست تیره دارند؛ چرا؟ چون پایگاه‌های داده‌ی آموزشی، عمدتاً از تصاویر پوست‌های روشن پر شده‌اند. یا الگوریتم‌هایی که ریسک‌سنجی درمان را انجام می‌دهند، ممکن است بیماران از اقلیت‌های نژادی یا طبقات محروم را کمتر “در معرض خطر” در نظر بگیرند، چرا که این گروه‌ها در داده‌های تاریخی، کمتر به درمان مناسب دست یافته‌اند.

در این میان، خطر آن‌جاست که اعتماد ما به الگوریتم، بیشتر از آن‌چه باید، می‌شود. پزشک، به جای نقد و چالش، ممکن است صرفاً “تصویب‌کننده‌ی خروجی” باشد. و بدین ترتیب، سامانه‌هایی که قرار بوده تشخیص را دقیق‌تر کنند، به ابزارهایی برای تثبیت فاصله‌های درمانی بدل می‌شوند.

در ایران نیز، آغازگرهای این فرایند در حال ظهورند: سامانه‌های توصیه‌گر، ابزارهای تصویربرداری هوشمند، تحلیل‌های سلامت الکترونیک. اگر در همین آغاز، نگاه انتقادی و مسئولانه به طراحی و استفاده از این فناوری‌ها نداشته باشیم، بی‌عدالتی نه‌فقط در بیمارستان، بلکه در خود کدها نوشته خواهد شد.

گناه داده نبود، تقصیر ساختار بود

در سطح ظاهری، مسئله ساده به‌نظر می‌رسد: الگوریتم خطا دارد، اصلاحش کنیم. اما آن‌چه که در این میان اهمیت دارد، چیزی فراتر از خطاست. مسئله نه یک نقص فنی، که یک ناتوانی ساختاری‌ست؛ ناتوانی در درک این‌که بی‌طرفی واقعی، تنها با نادیده‌گرفتن تفاوت‌ها حاصل نمی‌شود. بلکه با مواجهه‌ی صادقانه با ریشه‌های نابرابری ممکن است.

از منظر جامعه‌شناختی، سامانه‌های هوش مصنوعی نه صرفاً ابزارهایی خنثی، بلکه امتداد منطقی نهادهای قدرت‌اند. همان‌طور که دورکیم از نقش ساختار در تولید هنجارهای اجتماعی می‌گوید، یا فوکو از نظم پنهان دانش و قدرت، اینجا نیز الگوریتم‌ها حامل حافظه‌ی ساختارند؛ حافظه‌ای که با داده‌های معیوب تغذیه شده، و بازتولید تبعیض را “منطقی” جلوه می‌دهد.

در حقوق، عدالت نه فقط توزیع برابر، بلکه شناسایی تفاوت و زمینه‌مندی آن است. اصل “رفتار برابر با افراد نابرابر، خود تبعیض است” به‌خوبی توضیح می‌دهد چرا رویکرد صِرف داده‌محور، عدالت را دور می‌زند. الگوریتم، بدون درک موقعیت تاریخی، طبقاتی و فرهنگیِ فرد، تنها آن‌چه «بوده» را پیش‌بینی می‌کند، نه آن‌چه «باید باشد» را.

آن‌چه نیازمند بازاندیشی‌ست، خودِ مفهوم “بی‌طرفی” در طراحی الگوریتم‌هاست. بی‌طرفی واقعی، به‌جای خاموشی در برابر پیش‌داوری‌های گذشته، مستلزم شناخت فعالانه‌ی آن‌هاست. به جای وانمود به نادانی، باید الگوریتم را مسئول شناخت زمینه‌ی اجتماعی داده‌ها کرد. در نهایت، عدالت دیجیتالی نه با اتکا به ماشین، که با بازاندیشی در انسان و ساختار ممکن است. عدالت، آن‌جا شکل می‌گیرد که بپذیریم «فناوریِ خوب»، الزاماً به معنای «جامعه‌ی خوب» نیست.

ما باید بیاموزیم الگوریتم‌ها را نه تنها بر پایه‌ی کارکرد، بلکه بر اساس اخلاق، ساختار و پیامدهای اجتماعی‌شان بسنجیم. چون در عصر دیجیتال، سکوت ماشین‌ها، اغلب پژواکی از نابرابری انسان‌هاست.

نوشته های مشابه

دکمه بازگشت به بالا