تکنولوژی و هوش مصنوعیزنان و خانوادهفرهنگ سایبری
موضوعات داغ

زیست اخلاقی در کنار روبات ها

بررسی برخی از چالش‌های اخلاقی زیست انسان معاصر در مواجهه با روبات‌ها

سایبرپژوه – این روزها بسیاری از ما درباره تهدیدهایی که روبات‌ها منشأ آنها هستند می‌شنویم. نگرانی‌هایی مانند بحران شغلی، پایان یافتن دنیا توسط زیست اخلاقی در کنار روبات ها، روابط عاشقانه با روبات‌ها و … که موضوع داغی برای فیلم‌ها و سریال‌های هالیوودی هم شده‌اند. معمولا دو نوع تصویر از آینده انسان با روبات‌ها در ذهن ما ترسیم می‌شود؛ نگاهی آرمانشهری که روبات‌ها را نجات‌بخش بشر و پاسخگوی مشکلات او می‌داند و از هیچ تلاشی برای تولید روبات‌های متنوع و استفاده از آنها در عرصه‌های گوناگون کوتاهی نمی‌کند. اما در مقابل این نگاه آرمانشهری، نگاهی ویرانشهری هم وجود دارد که روبات‌ها را دشمن بشر و در نهایت، نابودکننده او می‌پندارد. این دو تصویر موجب شده‌اند که تأملات متعادل‌تر و واقعبینانه‌تر در باب روبات‌ها به حاشیه رانده شوند و ما خود را در مقابل یک دوراهی ببینیم. در حالی که می‌توانیم پرسش‌های اخلاقی بسیار متنوع و واقعی‌تری درباره روبات‌ها و هوش مصنوعی بپرسیم.

اخلاق مقوله‌ای است که به مطالعه درباره چیستی زندگی خوب می‌پردازد؛ زندگی خوب چیست و چگونه می‌توان به آن دست یافت؟ درست و غلط چیست؟ خوب و بد چیست و چگونه و با چه معیارهایی باید تصمیمات اخلاقی گرفت؟ برای اینکه بتوانیم به پرسش‌هایی از این دست پاسخ بدهیم، باید درباره ارزش‌هایی که برایمان مهم هستیم تأمل کنیم. ارزش‌ها همان مفاهیمی هستند که به ما می‌گویند برای رسیدن به زندگی خوب از چه بایدها و نبایدهایی باید پیروی کنیم.

در میان ما، خصوصا از منظر مهندسان، اینطور جا افتاده است که وقتی کسی صحبت از اخلاق و به طور خاص اخلاق روبات‌ها می‌کند، در پس‌زمینه ذهنی خود دائما قصد مخالفت با انجام کارهای مهندسی و نوآورانه را دارد و ما را درباره آینده روبات‌ها انذار می‌دهد. اما اخلاق همانطور که درباره نبایدها به ما هشدار می‌دهد، درباره چیزهای خوب و ارزشمند هم صحبت می‌کند و ما را به سمت آن‌ها هدایت می‌کند.

بنابراین، اخلاق روبات حوزه‌ای است که دغدغه اصلی آن پاسخ به این پرسش‌هاست: زندگی خوب به همراه روبات‌ها چگونه است؟ روبات‌ها چگونه می‌توانند روی ما اثر بگذارند تا به سمت زندگی خوب حرکت کنیم؟ آیا روبات‌ها میتوانند به ما کمک کنند که به این زندگی دست یابیم؟ اگر چنین رویکردی را نسبت به روبات‌ها انتخاب کنیم، مسئله ما صرفا این نخواهد بود که پس از ساختن یک روبات و استفاده از آن به این فکر کنیم که چالش‌های اخلاقی پیش‌آمده چه هستند؟ بلکه به کل چرخه زندگی روبات‌ها نگاه می‌کنیم؛ از مرحله تصمیم‌گیری برای ساختن یک روبات تا مرحله کاربرد آن. اخلاق روبات از ما می‌پرسد که چرا ما می‌خواهیم روبات این کار خاص را انجام دهد یا به این شکل خاص طراحی شود؟

در اخلاق روبات سه بعد کلی را میتوان بررسی کرد:

  1. اخلاق طراحان سازنده روبات‌ها و صنایع توزیع‌کننده آنها؛ روبات‌دان‌ها، شرکت‌ها، سیاست‌گذاران
  2. اخلاق کاربران روبات‌ها؛ نحوه تعامل کاربر با روبات و رفتار با او
  3. اخلاق خود روبات‌ها (یا اخلاق ماشین)؛ در نظر گرفتن روبات به مثابه یک عامل اخلاقی. آیا می‌توانیم به روبات توانایی تفکر بدهیم؟ آیا روبات هم هواهد توانست فرایند تأملی که ما طی می‌کنیم را طی کند و مثل ما در موقعیت‌‌‌‌های مختلف فکر کند و تصمیم بگیرد؟

 

اخلاق سازندگان روباتها

در این حوزه از اخلاق، پرسش‌هایی از این دست مطرح می‌شوند: آیا باید دستورالعمل‌های اجرایی برای مهندسین و شرکت‌های سازنده روبات‌ها داشت؟ مثلا اینکه این شرکت‌ها مجاز نیستند به روبات‌ها برخی از توانایی‌ها را بدهند و طراحی را به شیوه‌های خاصی انجام دهند. آیا باید قوانینی را برای طراحی روبات‌ها از طریق سیاستگذاران و نمایندگان مجلس تنظیم کرد؟ آیا می‌توان به کمک روبات‌ها عدالت را در جوامع توزیع کرد؟ چه کسانی می‌توانند به روبات‌ها دسترسی داشته باشد؟ آیا صرفا گروه محدود نخبه‌ها در یک جامعه، یا صرفا جوامع توسعه‌یافته حق دارند که این دسترسی را داشته باشند؟

تاکنون مخالفت‌هایی در مقابل ساخته شدن برخی از روبات‌ها در سرتاسر جهان صورت گرفته است. برای مثال، جنبش بزرگی در انگلیس آغاز شده که به مخالفت جدی با تولید سلاح‌های هوشمند می‌پردازند و از سازمان ملل می‌خواهند که جلوی ساخت سلاح‌هایی که در غیاب یک انسان عمل کشتن را انجام می‌دهند، بگیرند. جنبش مشابهی نیز برای مخالفت با روبات‌های جنسی به وجود آمده است.

مسئله مهم دیگر، بحران‌های شغلی ناشی از روبات‌هاست. کارل فری و مایکل آزبورن[۱] تحقیقی انجام دادند درباره اینکه مشاغل را از زاویه چه متغیرهایی می‌توان نگریست: ۱. کارهایی که در این شغل انجام می‌شود چقدر تکراری است؟ ۲. چقدر تعاملات بین فردی برای این شغل لازم است؟ و … که بر اساس معیارهایی از این قبیل پیش‌بینی کردند که احتمال از بین رفتن مشاغل مختلف به خاطر روبات‌ها چقدر است. نتایج این تحقیق نشان می‌دهد که حدود ۴۷% از مشاغل در ۲۰ سال آینده احتمالا از بین خواهند رفت.

اخیرا مطالعاتی در هلند انجام شده تحت عنوان «مهارت در روبات[۲]» که ایده اصلی این است که به جای در نظر گرفتن یک شغل به مثابه یک کل، مشاغل را به وظایف و بخش‌های مختلفی که افراد انجام می‌دهند تقسیم کرده‌اند. شخص در شغلی که انجام می‌دهد کارهای مختلفی می‌کند که هوش مصنوعی و روباتها می‌توانند در بخشی از آنها به او کمک کنند یا آن بخش را انجام دهند و دیگر جایگزین کل شغل نشود. این مطالعه نشان می‌دهد که با این نگاه، تنها ۵ تا ۷ درصد از مشاغل با روبات‌ها جایگزین خواهند شد. اما کدام مطالعه را باور کنیم و مبنا قرار دهیم و چگونه برای سناریوهای مختلف آماده شویم؟ این وظیفه سیاستگذاران است که در این باره فکر کنند و محافظ شهروندان خود باشند؛ آیا لازم است به افراد مهارت‌های جدیدی آموزش داده شود؟ آیا باید ساخت روبات‌هایی که مشاغل را انجام می‌دهند، ممنوع کنیم؟ و سوالاتی از این دست که باید در مجلس‌ها و دولت‌ها بررسی شوند.

اما مشکل جایگزینی روبات‌ها در مشاغل صرفا محدود به این نمی‌شود. پرسش مهم‌تر این است که کیفیت این مشاغل با ورود روبات‌ها چگونه تغییر می‌کند؟ آیا این کار مستلزم صورت گرفتن نظارتی دائمی روی عملکرد ما انسان‌هاست؟ آیا عملکرد ما در مشاغلمان (میزان استفاده از اینترنت و تلفن، نوع تعامل با همکاران و …) هم در مطالعه و تحلیل کلان‌داده‌ها لحاظ می‌شود و پیش‌بینی‌های مبتنی بر این داده‌ها می‌تواند اطلاعاتی را درباره عملکرد ما (حتی پیش از آنکه به آن سطح از عملکرد بد رسیده باشیم) در اختیار کارفرما بگذارد و او را تشویق به اخراج ما بکند؟

نکته دیگر در این باره، مسائل مربوط به زنان است. زنان در بازار جدید مشاغل در کجای ماجرا جای می‌گیرند؟ این آرایش جدید مشاغل می‌تواند فرصتی باشد که تعادل جنسیتی در مشاغل بیشتر شود. همچنین، این مشاغل جدید مستلزم توسعه تکنولوژی‌های جدید است که برای ساخت آنها نیاز به دانش‌ها و مطالعات مهندسی و علوم کامپیوتر و … داریم. اما آمارها نشان می‌دهند که اقبال به سمت این رشته‌ها در بسیاری از کشورها از جمله ایران کاهش یافته است.

مسائل دیگری نیز در سطح طراحی مطرح است. مسئله حریم خصوصی و نحوهای که داده‌ها جمع‌آوری، ذخیره و به کار برده می‌شوند. آیا نیازی به اجازه آگاهانه ما برای استفاده از داده‌هایمان وجود دارد؟ در دنیای امروز، داده‌های ما بسیار ارزشمندند، اما دقیقا نمی‌دانیم که چه استفاده‌هایی از آنها خواهد شد. اتفاقی که در حال حاضر می‌افتد این است که شرکت‌‌های فناوری بیشترین مقدار اطلاعات را از مخاطب دریافت می‌کنند و بالاخره یک جایی از آنها استفاده می‌کنند. آیا به قیمت اینکه تکنولوژی امنیت و ایمنی ما را تأمین می‌کند، باید به آن اجازه دهیم که دائما ما را نظارت کند؟ آیا راهکارهایی مانند کمینه کردن داده‌ها[۳] می‌تواند تا حدی مسئله حفاظت از داده‌ها و حریم خصوصی را کمرنگ کند؟

 

اخلاق کاربران روبات‌ها

آیا کاربران مجازند که هر رفتاری که می‌خواهند با روبات‌ها داشته باشند؟ چند سال پیش روباتی به شکل یک سگ طراحی شد که می‌توانست حرکات پیچیده‌ای انجام دهد. برای آزمون کردن این روبات و فهمیدن محدوده توانایی او برای حرکت و برقراری تعادل سازندگان باید به او ضربه می‌زدند. دیدن فیلم این رفتارها با روبات، احساسات عده‌ای از مردم را جریحه‌دار کرد و واکنش‌هایی را برانگیخت. در مثال‌هایی از این دست این پرسش مطرح می‌شود که آیا ما انسان‌ها اجازه داریم با روبات‌ها چنین رفتارهایی بکنیم؟ آیا روبات چیزی را احساس نخواهد کرد؟ احساسی نه لزوما شبیه حس درد در ما، ولی نوعی از آزار و اذیت را حس نخواهد کرد؟

تحقیق بسیار جالبی را کیت دارلینگ[۴] در دانشگاه MIT انجام داده و از زاویه دیگری به این موضوع نگاه کرده است. او بررسی می‌کند که اینگونه رفتار کردنِ ما انسانها با روبات‌ها با خود ما چه می‌کند؟ آیا چنین رفتارهایی باعث می‌شوند ما به نوعی احساس‌زدایی شویم و برایمان ساده‌تر شود که با انسانها هم چنین رفتارهایی را انجام دهیم؟

 

اخلاق روبات‌ها یا اخلاق ماشین

چگونه می‌توانیم روبات‌ها را به گونه‌ای بسازیم که عاملیت اخلاقی داشته باشند؟ چگونه به آنها قدرت تأمل و تفکر بدهیم تا بین خوب و بد انتخاب کنند؟ آیا می‌توانیم و آیا باید چنین کاری را انجام دهیم؟ در خودروهای خودران این مسئله به خوبی واضح است؛ خودروی خودران در موقعیت‌های تصادف چگونه و بر اساس چه معیارهایی باید تصمیم‌گیری کند؟ آیا باید قدرت تأمل اخلاقی داشته باشد یا اینکه این مسئله صرفا با محاسبات و ریاضیات قابل حل است یا اینکه صرفا با معیارهای نتیجه‌گرایانه می‌توان از پس این موقعیت‌ها برآمد؟

اگر قرار باشد روبات را به صورت یک عامل اخلاقی با توانایی تأمل اخلاقی بسازیم، آیا لازم است مهارت‌ها و ویژگی‌های دیگری هم داشته باشد تا بتواند عواقب اعمال خود را درک کند؟ لازم است که روبات درد و لذت را حس کند تا مثلا بتواند حقیقت معنای کشتن یک فرد را درک کند؟ آیا می‌توانیم چنین ویژگی‌هایی را در روبات‌ها به وجود بیاوریم؟ اگر چنین قابلیت‌هایی را به او بدهیم، شاید روبات یا خودروی خودران تصمیم متفاوتی را بگیرد!

مسئله دیگر این است که اگر روبات بتواند درد و لذت را حس کند و مهارت تأمل عقلانی و اخلاقی را داشته باشد، آیا شایسته داشتن حقوقی برای خود است؟ آیا باید از او به شکلی خاص محافظت کنیم؟ در این صورت، آیا مجازیم که از آنها برای کاربردهای خاصی استفاده کنیم؟

در این نوشتار سعی کردیم به طور اجمالی مسائلی را که در حوزه اخلاق روبات‌ها مطرح است، از نظر بگذرانیم و به برخی از پرسش‌هایی که در این حوزه وجود دارند، اشاره کنیم. همه ما چه در جایگاه کاربر و چه در جایگاه سازنده روبات‌ها مسئولیم که به پرسش‌هایی از این دست بیندیشیم. چرا که آینده نه چندان دور انسان‌ها با حضور روبات‌ها درآمیخته است و بهتر است برای این آینده خود را آماده کنیم.

 

 

[۱] Frey, Carl & Osborne, Michael. (2013). The Future of Employment: How Susceptible Are Jobs to Computerisation?. Oxford Martin. 114. 10.1016/j.techfore.2016.08.019.

[۲] Mastering a Robot

[۳] data minimization: به این معناست که صرفا اطلاعاتی را که در آن لحظه و برای پاسخ به آن سوال خاص لازم است، در اختیار فناوری قرار دهیم.

[۴] Darling, Kate., “Is it Ok to Kick a Robot?,” in: Unlocking the Universe, L. Hawking, S. Hawking, Penguin Random House. 2020.

*Van Wynsberghe, Aimee., 2017. Talk at Rotman Institute of Philosophy.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا