تکنولوژی و هوش مصنوعی

ادب از که آموختی؟ از هوش مصنوعی!

هوش مصنوعی چه تاثیری بر آموزش دارد؟ چه تاثیری بر نهاد خانواده؟ چه تاثیری بر اقتصاد؟ چه تاثیری بر جهان سیاست و امر سیاسی؟ هوش مصنوعی احتمالاً پایان نامه دانشجویان را می‌نویسد و تکالیف دانش آموزان را انجام می‌دهد. معادلات بسیار پیچیده اقتصادی را حل می‌کند و معادلات و روابط قدرت را تغییر می‌دهد. درباره چنین مسائلی هر چند نه بسیار، که کم و بیش اندیشیده‌ایم. اما فارغ از تاثیرات مستقیم هوش مصنوعی، آیا درباره آثار ناخواسته هوش مصنوعی و تاثیرات غیر مستقیم آن، خصوصاً عواقب غیرمستقیم اجتماعی آن فکر کرده‌ایم؟ آیا می‌توان به طور مثال گفت همین تکرار شدن متوالی دستورات آمرانه و بی‌ادبانه به هوش مصنوعی‌هایِ دستیار در خانه‌ها، می‌تواند هنجارها و ارزش‌های اخلاقی و نرم ادبی جامعه را دچار دگردیسی بنیادین کند؟ پروفسور کریستاکیس بر اثرات ناخواسته هوش مصنوعی تمرکز می‌کند. وی با بیان مثال‌هایی از اثرات ناخواسته هوش مصنوعی بر نظام‌ها و الگو‌های اجتماعی، تلویحاً تایید می‌کند که ما لقمان‌های عصر مدرن نه از بی‌ادبان، که از هوش مصنوعی ادب می‌آموزیم!

ترجمه‌: محمدحسین قدمی

تعداد کمی از افراد می‌توانند یک دستیار مجازی را تحمل کنند اگر که بخواهند هر دفعه خاضعانه به او التماس کنند که «ببخشید، الکسا! اگر ممکنه می‌تونی لطف کنی و بهم بگی که امروز هوا چطوره؟» در عوض این دستیار‌ها برای پاسخ دادن به درخواست‌های بی‌ادبانه طراحی شده‌اند: «الکسا! آب و هوا!» و ما از آن‌ها انتظار داریم که بدون چون و چرا پاسخ دهند.

این قضیه مشکلی ایجاد نمی‌کند تا زمانی که دستیارهای مجازی را به خانه‌ای بیاوریم که کودکانی بسیار تاثیرپذیر در آن زندگی می‌کنند که ممکن است به سرعت یاد بگیرند که این نحوه صحبت کردن -که بی‌ادبانه است- روشِ معمول صحبت با دیگران است. این مسئله یک مشکل بالقوه و گسترده درباره هوش مصنوعی را نمایان می‌کند. زمانی که نوبت به این موضوع می‌رسد که هوش مصنوعی چگونه بر تعاملات اجتماعی تاثیر می‌گذارد، بسیاری از افراد بر روی رابطه بین انسان‌ها و هوش مصنوعی تمرکز می‌کنند. توجه کافی‌ای به این موضوع وجود ندارد که انسان‌ها با وجود هوش مصنوعی چگونه با یکدیگر رفتار خواهند کرد؟

برخلاف هوش مصنوعی‌هایی که برای مسائل فنی -همچون پردازش تصاویر پزشکی- مورد استفاده قرار می‌گرفتند، انواع به خصوصی از هوش‌های مصنوعی به‌ گونه‌ای طراحی شده‌اند که بیشتر انسان‌گونه عمل کنند- مثلا خدمات روان‌درمانی ارائه دهند. این تکنولوژی‌ها منجر به پیامد‌های ناخواسته اجتماعی می‌شوند و بر این که چگونه افراد به رفتار دیگران واکنش نشان بدهند یا این که چگونه از رفتار دیگران بیاموزند، اثر می‌گذارند.

مردم به صورت فزاینده‌ای در موبایل‌های خود ربات‌های همکاری خواهند داشت که مجهز به هوش مصنوعی هستند که با آن‌ها وقت می‌گذرانند و به آن‌ها کمک می‌کنند که با دیگر افراد ارتباط برقرار کنند. اما به طور مثال بعضی از کاربران اپلیکیشن‌های دوست‌یابی دریافته‌اند که آن‌ها از خوش و بش با یک پارتنر مجازی بیش از قرار و مدار‌های عاشقانه در دنیای واقعی لذت می‌برند. این امر علاوه بر تغییر شکل ارتباطات میان فردی، تیپیکال افراد و کسانی که می‌توانیم با آن‌ها ارتباط عاشقانه برقرار کنیم را تغییر می‌دهد.

هر چند که پارتنرهای چت‌باتی که برای گفتگو به کار می‌روند و سایر انواع هوش های مصنوعی پیشرفته که از مدل‌های زبانی بزرگ (llm) قدرت گرفته‌اند موثرترین عامل بر رفتار انسانی به نظر می‌آیند، حتی هر نفوذ کوچکی از جانب هوش مصنوعی‌های ساده‌تر به زندگی اجتماعی ما می‌تواند پیامد‌های ناخواسته‌ی عمیقی -چه خوب و چه بد- داشته باشد.

در یک آزمایش ما ۴۰۰۰ نفر را به ۲۳۰ گروه آنلاین تقسیم کردیم. سپس هر گروه به چند دسته تقسیم شد که هر دسته شامل چندنفر معدود بود. اعضای این دسته‌ها می‌بایست با همدیگر در انتخاب رنگ همکاری می‌کردند. اگر آن‌ها به راه حلی می‌رسیدند که هر فردِ دسته رنگ متفاوتی ‌را نسبت به دسته همسایه‌شان انتخاب کند، به کل گروه گفته می‌شد که آن‌ها برنده شدند و هر کسی مقداری پول دریافت می‌کرد.

در هر حال ما در بعضی از این گروه‌ها به صورت ناشناس ربات‌هایی را اضافه کردیم که اعضای آن گروه فکر می‌کردند آن‌ها انسان می‌باشند و جواب‌های ربات‌ها را دستکاری کردیم. ما فهمیدیم که این که ربات‌ها گاه و بیگاه حرکات اشتباهی انجام دهند که به جای کاهش تضاد رنگ‌ها با دسته‌های نزدیک، این تضادها را افزایش دهد، این حرکات اشتباه مجموعاً به نفع کل گروه است و باعث انعطاف‌ پذیری بیشتری می‌شود. افراد شرکت کننده فهمیدند که تنها حل کردن مسئله با احترام به یکدیگر و همسایه نزدیک‌شان لزوماً بهترین راه برای کل گروه نبود. انجام یک حرکت پیش‌بینی نشده که علی الظاهر اتفاق آرا در سطح دسته را کاهش داد، باعث رسیدن به یک راه‌ حل برای کل گروه شد.

در یک آزمایش دیگر، ما با ۱۰۲۴ سوژه در ۶۴ گروه چالش تولید کالاهای عمومی کذایی را آغاز کردیم. منظور کالاهایی است که افراد با یکدیگر کار می‌کنند تا آن را تولید کنند و این کالاها مانند یک فانوس دریایی به همه سود می‌رسانند. ایده این طرح این است که اگر همه وارد میدان شوند، هنگامی که کار تمام شود، همه بیش از مقداری که کمک کرده‌اند سود خواهند برد. اما البته نکته وسوسه آمیز اینجاست که بگذاری بقیه کار کنند تا از منافع همگان حفاظت کنند!

در ابتدا ۶۰ درصد افراد به نحوی با از خودگذشتگی رفتار کردند و کمک کردند. اما ما فهمیدیم که با اضافه کردن تنها چند ربات (که شرکت کنندگان دوباره فکر می‌کردند که آن‌ها انسان‌ هستند) که به شکلی خودخواهانه رفتار می‌کردند، می‌توانستیم گروه را به نحوی خودخواهانه هدایت کنیم که در نتیجه آن‌ها به‌کل به همکاری پایان بدهند. ربات‌ها می‌توانستند گروهی از افراد را که در غیر این صورت از خودگذشتگی می‌کردند، به گروهی از انسان‌های طماع و پست فطرت تبدیل کنند.

اما نقطه مقابل این ماجرا هم درست بود. ما می‌توانستیم از ربات‌ها استفاده کنیم تا همکاری انسان‌ها با یکدیگر را تقویت کنیم. اگر به افراد شرکت کننده چند همکار هوش مصنوعی می‌دادیم، باعث می‌شد که آن‌ها مهربانانه‌تر از حالت عادی‌ای که با دیگر انسان‌ها تعامل می‌کردند، رفتار کنند.

سایر آزمایشات نشان می‌دهند که هنگامی که افراد فرایند تصمیم‌گیری را به عاملان هوش مصنوعی می‌سپارند – و این کاری است که آن‌ها به تدریج در حال انجام دادن آن هستند، از ارسال ایمیل‌های خودکارِ llmگرفته تا کنترل پهپادهای نظامی برای هدف‌گیری- این هوش‌ های مصنوعی از مسئولیت‌های اخلاقی چشم پوشی می‌کنند و مراودات غیراخلاقی با سایر افراد را تقویت می‌کنند.

گروهی در مؤسسه توسعه انسانی ماکس پلانک به رهبری ایاد رهوان آزمایشاتی را انجام دادند که در آن چند دستیار هوش مصنوعی را در اختیار شرکت کنندگان می‌گذاشتند. شرکت کنندگان می‌بایست تاس می‌انداختند و عدد رو آمده را گزارش می‌کردند. حدود ۵ درصد از افراد هنگامی که این کار را به تنهایی انجام می‌دادند، گزارش دروغ می‌دادند. این عدد هنگامی که شرکت کنندگان ماموریت دروغگویی را به انسان دیگری می‌سپردند به ۴۰ درصد می‌رسید و زمانی که آن‌ها می‌توانستد دروغگویی را به یک ماشین محول کنند، این عدد به ۵۰ درصد می‌رسید. اما این تعداد هنگامی که شرکت کنندگان می‌توانستند فرایند دروغگویی را به یک عامل هوش مصنوعی محول کنند که به نفع آن‌ها تقلب کند، به عدد بزرگ ۸۸ درصد می‌رسید.

چنان چه از بین بردن صداقت در تعاملات انسان‌ها با یکدیگر به اندازه کافی نگرانمان نمی‌کند، نگرانی‌هایی در این باره وجود دارد که هوش مصنوعی می‌تواند امنیت فیزیکی را نیز تضعیف کند. با توجه به یک آزمایش تازه منتشر شده به رهبری هیروکازو شیرادو در دانشگاه کارنگی ملون، ما فهمیدیم که حتی نمونه‌های بسیار ابتدایی دستیار هوش مصنوعی برای رانندگان – مانند فرمان خودکار و ترمز خودکار- هنجارهای متقابل اجتماعی را در جاده‌ها از بین می‌برد. این که به انسان‌ها اجازه داده شود که در بازی‌ جوجه‌های پی‌ در پی، وظیفه پیچیدن در مقابل ماشین  روبرو را به دستیار هوش مصنوعی محول کنند متعاقباً منجر به این می‌شود که افراد کمتر مایل باشند که به نوبت به یکدیگر راه بدهند و در نتیجه این امر باعث افزایش فراوانی تصادفات -در زمانی که آن‌ها از دستیار هوش مصنوعی استفاده نمی‌کنند- می‌شود.

این نوع از تاثیرات هوش مصنوعی نشان می‌دهد که هوش مصنوعی می‌تواند تاثیر عظیمی بر هنجارهای اجتماعی‌ای داشته باشد که در طی ملیون‌ها سال تکامل یافته‌اند و نحوه رفتار ما با یکدیگر را در تمام انواع تعاملات روزمره شکل می‌دهند. دولت ها نمی توانند خطرات را نادیده بگیرند. حداقل، آنها باید با دقت بیشتری ارزیابی کنند که آیا سیستم های هوش مصنوعی با منافع اجتماعی انسان همسو هستند یا خیر و باید تست‌های امنیتی بیشتری را تدارک ببینند. همانگونه که بیانیه بلچلی -که در همایش اخیر امنیت هوش مصنوعی در بریتانیا به امضا رسید- بیان کرده است که نوآوری باید دقیقاً همراه با توجه به کاهش خطرات صورت بگیرد. با این وجود، ما نمی‌توانیم -حتی مودبانه- از هوش مصنوعی بخواهیم که به خودش سامان ببخشد.

مرجع:www.economist.com

نوشته های مشابه

دکمه بازگشت به بالا