زیست اخلاقی در کنار روبات ها
بررسی برخی از چالشهای اخلاقی زیست انسان معاصر در مواجهه با روباتها
سایبرپژوه – این روزها بسیاری از ما درباره تهدیدهایی که روباتها منشأ آنها هستند میشنویم. نگرانیهایی مانند بحران شغلی، پایان یافتن دنیا توسط زیست اخلاقی در کنار روبات ها، روابط عاشقانه با روباتها و … که موضوع داغی برای فیلمها و سریالهای هالیوودی هم شدهاند. معمولا دو نوع تصویر از آینده انسان با روباتها در ذهن ما ترسیم میشود؛ نگاهی آرمانشهری که روباتها را نجاتبخش بشر و پاسخگوی مشکلات او میداند و از هیچ تلاشی برای تولید روباتهای متنوع و استفاده از آنها در عرصههای گوناگون کوتاهی نمیکند. اما در مقابل این نگاه آرمانشهری، نگاهی ویرانشهری هم وجود دارد که روباتها را دشمن بشر و در نهایت، نابودکننده او میپندارد. این دو تصویر موجب شدهاند که تأملات متعادلتر و واقعبینانهتر در باب روباتها به حاشیه رانده شوند و ما خود را در مقابل یک دوراهی ببینیم. در حالی که میتوانیم پرسشهای اخلاقی بسیار متنوع و واقعیتری درباره روباتها و هوش مصنوعی بپرسیم.
اخلاق مقولهای است که به مطالعه درباره چیستی زندگی خوب میپردازد؛ زندگی خوب چیست و چگونه میتوان به آن دست یافت؟ درست و غلط چیست؟ خوب و بد چیست و چگونه و با چه معیارهایی باید تصمیمات اخلاقی گرفت؟ برای اینکه بتوانیم به پرسشهایی از این دست پاسخ بدهیم، باید درباره ارزشهایی که برایمان مهم هستیم تأمل کنیم. ارزشها همان مفاهیمی هستند که به ما میگویند برای رسیدن به زندگی خوب از چه بایدها و نبایدهایی باید پیروی کنیم.
در میان ما، خصوصا از منظر مهندسان، اینطور جا افتاده است که وقتی کسی صحبت از اخلاق و به طور خاص اخلاق روباتها میکند، در پسزمینه ذهنی خود دائما قصد مخالفت با انجام کارهای مهندسی و نوآورانه را دارد و ما را درباره آینده روباتها انذار میدهد. اما اخلاق همانطور که درباره نبایدها به ما هشدار میدهد، درباره چیزهای خوب و ارزشمند هم صحبت میکند و ما را به سمت آنها هدایت میکند.
بنابراین، اخلاق روبات حوزهای است که دغدغه اصلی آن پاسخ به این پرسشهاست: زندگی خوب به همراه روباتها چگونه است؟ روباتها چگونه میتوانند روی ما اثر بگذارند تا به سمت زندگی خوب حرکت کنیم؟ آیا روباتها میتوانند به ما کمک کنند که به این زندگی دست یابیم؟ اگر چنین رویکردی را نسبت به روباتها انتخاب کنیم، مسئله ما صرفا این نخواهد بود که پس از ساختن یک روبات و استفاده از آن به این فکر کنیم که چالشهای اخلاقی پیشآمده چه هستند؟ بلکه به کل چرخه زندگی روباتها نگاه میکنیم؛ از مرحله تصمیمگیری برای ساختن یک روبات تا مرحله کاربرد آن. اخلاق روبات از ما میپرسد که چرا ما میخواهیم روبات این کار خاص را انجام دهد یا به این شکل خاص طراحی شود؟
در اخلاق روبات سه بعد کلی را میتوان بررسی کرد:
- اخلاق طراحان سازنده روباتها و صنایع توزیعکننده آنها؛ روباتدانها، شرکتها، سیاستگذاران
- اخلاق کاربران روباتها؛ نحوه تعامل کاربر با روبات و رفتار با او
- اخلاق خود روباتها (یا اخلاق ماشین)؛ در نظر گرفتن روبات به مثابه یک عامل اخلاقی. آیا میتوانیم به روبات توانایی تفکر بدهیم؟ آیا روبات هم هواهد توانست فرایند تأملی که ما طی میکنیم را طی کند و مثل ما در موقعیتهای مختلف فکر کند و تصمیم بگیرد؟
اخلاق سازندگان روباتها
در این حوزه از اخلاق، پرسشهایی از این دست مطرح میشوند: آیا باید دستورالعملهای اجرایی برای مهندسین و شرکتهای سازنده روباتها داشت؟ مثلا اینکه این شرکتها مجاز نیستند به روباتها برخی از تواناییها را بدهند و طراحی را به شیوههای خاصی انجام دهند. آیا باید قوانینی را برای طراحی روباتها از طریق سیاستگذاران و نمایندگان مجلس تنظیم کرد؟ آیا میتوان به کمک روباتها عدالت را در جوامع توزیع کرد؟ چه کسانی میتوانند به روباتها دسترسی داشته باشد؟ آیا صرفا گروه محدود نخبهها در یک جامعه، یا صرفا جوامع توسعهیافته حق دارند که این دسترسی را داشته باشند؟
تاکنون مخالفتهایی در مقابل ساخته شدن برخی از روباتها در سرتاسر جهان صورت گرفته است. برای مثال، جنبش بزرگی در انگلیس آغاز شده که به مخالفت جدی با تولید سلاحهای هوشمند میپردازند و از سازمان ملل میخواهند که جلوی ساخت سلاحهایی که در غیاب یک انسان عمل کشتن را انجام میدهند، بگیرند. جنبش مشابهی نیز برای مخالفت با روباتهای جنسی به وجود آمده است.
مسئله مهم دیگر، بحرانهای شغلی ناشی از روباتهاست. کارل فری و مایکل آزبورن[۱] تحقیقی انجام دادند درباره اینکه مشاغل را از زاویه چه متغیرهایی میتوان نگریست: ۱. کارهایی که در این شغل انجام میشود چقدر تکراری است؟ ۲. چقدر تعاملات بین فردی برای این شغل لازم است؟ و … که بر اساس معیارهایی از این قبیل پیشبینی کردند که احتمال از بین رفتن مشاغل مختلف به خاطر روباتها چقدر است. نتایج این تحقیق نشان میدهد که حدود ۴۷% از مشاغل در ۲۰ سال آینده احتمالا از بین خواهند رفت.
اخیرا مطالعاتی در هلند انجام شده تحت عنوان «مهارت در روبات[۲]» که ایده اصلی این است که به جای در نظر گرفتن یک شغل به مثابه یک کل، مشاغل را به وظایف و بخشهای مختلفی که افراد انجام میدهند تقسیم کردهاند. شخص در شغلی که انجام میدهد کارهای مختلفی میکند که هوش مصنوعی و روباتها میتوانند در بخشی از آنها به او کمک کنند یا آن بخش را انجام دهند و دیگر جایگزین کل شغل نشود. این مطالعه نشان میدهد که با این نگاه، تنها ۵ تا ۷ درصد از مشاغل با روباتها جایگزین خواهند شد. اما کدام مطالعه را باور کنیم و مبنا قرار دهیم و چگونه برای سناریوهای مختلف آماده شویم؟ این وظیفه سیاستگذاران است که در این باره فکر کنند و محافظ شهروندان خود باشند؛ آیا لازم است به افراد مهارتهای جدیدی آموزش داده شود؟ آیا باید ساخت روباتهایی که مشاغل را انجام میدهند، ممنوع کنیم؟ و سوالاتی از این دست که باید در مجلسها و دولتها بررسی شوند.
اما مشکل جایگزینی روباتها در مشاغل صرفا محدود به این نمیشود. پرسش مهمتر این است که کیفیت این مشاغل با ورود روباتها چگونه تغییر میکند؟ آیا این کار مستلزم صورت گرفتن نظارتی دائمی روی عملکرد ما انسانهاست؟ آیا عملکرد ما در مشاغلمان (میزان استفاده از اینترنت و تلفن، نوع تعامل با همکاران و …) هم در مطالعه و تحلیل کلاندادهها لحاظ میشود و پیشبینیهای مبتنی بر این دادهها میتواند اطلاعاتی را درباره عملکرد ما (حتی پیش از آنکه به آن سطح از عملکرد بد رسیده باشیم) در اختیار کارفرما بگذارد و او را تشویق به اخراج ما بکند؟
نکته دیگر در این باره، مسائل مربوط به زنان است. زنان در بازار جدید مشاغل در کجای ماجرا جای میگیرند؟ این آرایش جدید مشاغل میتواند فرصتی باشد که تعادل جنسیتی در مشاغل بیشتر شود. همچنین، این مشاغل جدید مستلزم توسعه تکنولوژیهای جدید است که برای ساخت آنها نیاز به دانشها و مطالعات مهندسی و علوم کامپیوتر و … داریم. اما آمارها نشان میدهند که اقبال به سمت این رشتهها در بسیاری از کشورها از جمله ایران کاهش یافته است.
مسائل دیگری نیز در سطح طراحی مطرح است. مسئله حریم خصوصی و نحوهای که دادهها جمعآوری، ذخیره و به کار برده میشوند. آیا نیازی به اجازه آگاهانه ما برای استفاده از دادههایمان وجود دارد؟ در دنیای امروز، دادههای ما بسیار ارزشمندند، اما دقیقا نمیدانیم که چه استفادههایی از آنها خواهد شد. اتفاقی که در حال حاضر میافتد این است که شرکتهای فناوری بیشترین مقدار اطلاعات را از مخاطب دریافت میکنند و بالاخره یک جایی از آنها استفاده میکنند. آیا به قیمت اینکه تکنولوژی امنیت و ایمنی ما را تأمین میکند، باید به آن اجازه دهیم که دائما ما را نظارت کند؟ آیا راهکارهایی مانند کمینه کردن دادهها[۳] میتواند تا حدی مسئله حفاظت از دادهها و حریم خصوصی را کمرنگ کند؟
اخلاق کاربران روباتها
آیا کاربران مجازند که هر رفتاری که میخواهند با روباتها داشته باشند؟ چند سال پیش روباتی به شکل یک سگ طراحی شد که میتوانست حرکات پیچیدهای انجام دهد. برای آزمون کردن این روبات و فهمیدن محدوده توانایی او برای حرکت و برقراری تعادل سازندگان باید به او ضربه میزدند. دیدن فیلم این رفتارها با روبات، احساسات عدهای از مردم را جریحهدار کرد و واکنشهایی را برانگیخت. در مثالهایی از این دست این پرسش مطرح میشود که آیا ما انسانها اجازه داریم با روباتها چنین رفتارهایی بکنیم؟ آیا روبات چیزی را احساس نخواهد کرد؟ احساسی نه لزوما شبیه حس درد در ما، ولی نوعی از آزار و اذیت را حس نخواهد کرد؟
تحقیق بسیار جالبی را کیت دارلینگ[۴] در دانشگاه MIT انجام داده و از زاویه دیگری به این موضوع نگاه کرده است. او بررسی میکند که اینگونه رفتار کردنِ ما انسانها با روباتها با خود ما چه میکند؟ آیا چنین رفتارهایی باعث میشوند ما به نوعی احساسزدایی شویم و برایمان سادهتر شود که با انسانها هم چنین رفتارهایی را انجام دهیم؟
اخلاق روباتها یا اخلاق ماشین
چگونه میتوانیم روباتها را به گونهای بسازیم که عاملیت اخلاقی داشته باشند؟ چگونه به آنها قدرت تأمل و تفکر بدهیم تا بین خوب و بد انتخاب کنند؟ آیا میتوانیم و آیا باید چنین کاری را انجام دهیم؟ در خودروهای خودران این مسئله به خوبی واضح است؛ خودروی خودران در موقعیتهای تصادف چگونه و بر اساس چه معیارهایی باید تصمیمگیری کند؟ آیا باید قدرت تأمل اخلاقی داشته باشد یا اینکه این مسئله صرفا با محاسبات و ریاضیات قابل حل است یا اینکه صرفا با معیارهای نتیجهگرایانه میتوان از پس این موقعیتها برآمد؟
اگر قرار باشد روبات را به صورت یک عامل اخلاقی با توانایی تأمل اخلاقی بسازیم، آیا لازم است مهارتها و ویژگیهای دیگری هم داشته باشد تا بتواند عواقب اعمال خود را درک کند؟ لازم است که روبات درد و لذت را حس کند تا مثلا بتواند حقیقت معنای کشتن یک فرد را درک کند؟ آیا میتوانیم چنین ویژگیهایی را در روباتها به وجود بیاوریم؟ اگر چنین قابلیتهایی را به او بدهیم، شاید روبات یا خودروی خودران تصمیم متفاوتی را بگیرد!
مسئله دیگر این است که اگر روبات بتواند درد و لذت را حس کند و مهارت تأمل عقلانی و اخلاقی را داشته باشد، آیا شایسته داشتن حقوقی برای خود است؟ آیا باید از او به شکلی خاص محافظت کنیم؟ در این صورت، آیا مجازیم که از آنها برای کاربردهای خاصی استفاده کنیم؟
در این نوشتار سعی کردیم به طور اجمالی مسائلی را که در حوزه اخلاق روباتها مطرح است، از نظر بگذرانیم و به برخی از پرسشهایی که در این حوزه وجود دارند، اشاره کنیم. همه ما چه در جایگاه کاربر و چه در جایگاه سازنده روباتها مسئولیم که به پرسشهایی از این دست بیندیشیم. چرا که آینده نه چندان دور انسانها با حضور روباتها درآمیخته است و بهتر است برای این آینده خود را آماده کنیم.
[۱] Frey, Carl & Osborne, Michael. (2013). The Future of Employment: How Susceptible Are Jobs to Computerisation?. Oxford Martin. 114. 10.1016/j.techfore.2016.08.019.
[۲] Mastering a Robot
[۳] data minimization: به این معناست که صرفا اطلاعاتی را که در آن لحظه و برای پاسخ به آن سوال خاص لازم است، در اختیار فناوری قرار دهیم.
[۴] Darling, Kate., “Is it Ok to Kick a Robot?,” in: Unlocking the Universe, L. Hawking, S. Hawking, Penguin Random House. 2020.
*Van Wynsberghe, Aimee., 2017. Talk at Rotman Institute of Philosophy.