ادب از که آموختی؟ از هوش مصنوعی!
هوش مصنوعی چه تاثیری بر آموزش دارد؟ چه تاثیری بر نهاد خانواده؟ چه تاثیری بر اقتصاد؟ چه تاثیری بر جهان سیاست و امر سیاسی؟ هوش مصنوعی احتمالاً پایان نامه دانشجویان را مینویسد و تکالیف دانش آموزان را انجام میدهد. معادلات بسیار پیچیده اقتصادی را حل میکند و معادلات و روابط قدرت را تغییر میدهد. درباره چنین مسائلی هر چند نه بسیار، که کم و بیش اندیشیدهایم. اما فارغ از تاثیرات مستقیم هوش مصنوعی، آیا درباره آثار ناخواسته هوش مصنوعی و تاثیرات غیر مستقیم آن، خصوصاً عواقب غیرمستقیم اجتماعی آن فکر کردهایم؟ آیا میتوان به طور مثال گفت همین تکرار شدن متوالی دستورات آمرانه و بیادبانه به هوش مصنوعیهایِ دستیار در خانهها، میتواند هنجارها و ارزشهای اخلاقی و نرم ادبی جامعه را دچار دگردیسی بنیادین کند؟ پروفسور کریستاکیس بر اثرات ناخواسته هوش مصنوعی تمرکز میکند. وی با بیان مثالهایی از اثرات ناخواسته هوش مصنوعی بر نظامها و الگوهای اجتماعی، تلویحاً تایید میکند که ما لقمانهای عصر مدرن نه از بیادبان، که از هوش مصنوعی ادب میآموزیم!
ترجمه: محمدحسین قدمی
تعداد کمی از افراد میتوانند یک دستیار مجازی را تحمل کنند اگر که بخواهند هر دفعه خاضعانه به او التماس کنند که «ببخشید، الکسا! اگر ممکنه میتونی لطف کنی و بهم بگی که امروز هوا چطوره؟» در عوض این دستیارها برای پاسخ دادن به درخواستهای بیادبانه طراحی شدهاند: «الکسا! آب و هوا!» و ما از آنها انتظار داریم که بدون چون و چرا پاسخ دهند.
این قضیه مشکلی ایجاد نمیکند تا زمانی که دستیارهای مجازی را به خانهای بیاوریم که کودکانی بسیار تاثیرپذیر در آن زندگی میکنند که ممکن است به سرعت یاد بگیرند که این نحوه صحبت کردن -که بیادبانه است- روشِ معمول صحبت با دیگران است. این مسئله یک مشکل بالقوه و گسترده درباره هوش مصنوعی را نمایان میکند. زمانی که نوبت به این موضوع میرسد که هوش مصنوعی چگونه بر تعاملات اجتماعی تاثیر میگذارد، بسیاری از افراد بر روی رابطه بین انسانها و هوش مصنوعی تمرکز میکنند. توجه کافیای به این موضوع وجود ندارد که انسانها با وجود هوش مصنوعی چگونه با یکدیگر رفتار خواهند کرد؟
برخلاف هوش مصنوعیهایی که برای مسائل فنی -همچون پردازش تصاویر پزشکی- مورد استفاده قرار میگرفتند، انواع به خصوصی از هوشهای مصنوعی به گونهای طراحی شدهاند که بیشتر انسانگونه عمل کنند- مثلا خدمات رواندرمانی ارائه دهند. این تکنولوژیها منجر به پیامدهای ناخواسته اجتماعی میشوند و بر این که چگونه افراد به رفتار دیگران واکنش نشان بدهند یا این که چگونه از رفتار دیگران بیاموزند، اثر میگذارند.
مردم به صورت فزایندهای در موبایلهای خود رباتهای همکاری خواهند داشت که مجهز به هوش مصنوعی هستند که با آنها وقت میگذرانند و به آنها کمک میکنند که با دیگر افراد ارتباط برقرار کنند. اما به طور مثال بعضی از کاربران اپلیکیشنهای دوستیابی دریافتهاند که آنها از خوش و بش با یک پارتنر مجازی بیش از قرار و مدارهای عاشقانه در دنیای واقعی لذت میبرند. این امر علاوه بر تغییر شکل ارتباطات میان فردی، تیپیکال افراد و کسانی که میتوانیم با آنها ارتباط عاشقانه برقرار کنیم را تغییر میدهد.
هر چند که پارتنرهای چتباتی که برای گفتگو به کار میروند و سایر انواع هوش های مصنوعی پیشرفته که از مدلهای زبانی بزرگ (llm) قدرت گرفتهاند موثرترین عامل بر رفتار انسانی به نظر میآیند، حتی هر نفوذ کوچکی از جانب هوش مصنوعیهای سادهتر به زندگی اجتماعی ما میتواند پیامدهای ناخواستهی عمیقی -چه خوب و چه بد- داشته باشد.
در یک آزمایش ما ۴۰۰۰ نفر را به ۲۳۰ گروه آنلاین تقسیم کردیم. سپس هر گروه به چند دسته تقسیم شد که هر دسته شامل چندنفر معدود بود. اعضای این دستهها میبایست با همدیگر در انتخاب رنگ همکاری میکردند. اگر آنها به راه حلی میرسیدند که هر فردِ دسته رنگ متفاوتی را نسبت به دسته همسایهشان انتخاب کند، به کل گروه گفته میشد که آنها برنده شدند و هر کسی مقداری پول دریافت میکرد.
در هر حال ما در بعضی از این گروهها به صورت ناشناس رباتهایی را اضافه کردیم که اعضای آن گروه فکر میکردند آنها انسان میباشند و جوابهای رباتها را دستکاری کردیم. ما فهمیدیم که این که رباتها گاه و بیگاه حرکات اشتباهی انجام دهند که به جای کاهش تضاد رنگها با دستههای نزدیک، این تضادها را افزایش دهد، این حرکات اشتباه مجموعاً به نفع کل گروه است و باعث انعطاف پذیری بیشتری میشود. افراد شرکت کننده فهمیدند که تنها حل کردن مسئله با احترام به یکدیگر و همسایه نزدیکشان لزوماً بهترین راه برای کل گروه نبود. انجام یک حرکت پیشبینی نشده که علی الظاهر اتفاق آرا در سطح دسته را کاهش داد، باعث رسیدن به یک راه حل برای کل گروه شد.
در یک آزمایش دیگر، ما با ۱۰۲۴ سوژه در ۶۴ گروه چالش تولید کالاهای عمومی کذایی را آغاز کردیم. منظور کالاهایی است که افراد با یکدیگر کار میکنند تا آن را تولید کنند و این کالاها مانند یک فانوس دریایی به همه سود میرسانند. ایده این طرح این است که اگر همه وارد میدان شوند، هنگامی که کار تمام شود، همه بیش از مقداری که کمک کردهاند سود خواهند برد. اما البته نکته وسوسه آمیز اینجاست که بگذاری بقیه کار کنند تا از منافع همگان حفاظت کنند!
در ابتدا ۶۰ درصد افراد به نحوی با از خودگذشتگی رفتار کردند و کمک کردند. اما ما فهمیدیم که با اضافه کردن تنها چند ربات (که شرکت کنندگان دوباره فکر میکردند که آنها انسان هستند) که به شکلی خودخواهانه رفتار میکردند، میتوانستیم گروه را به نحوی خودخواهانه هدایت کنیم که در نتیجه آنها بهکل به همکاری پایان بدهند. رباتها میتوانستند گروهی از افراد را که در غیر این صورت از خودگذشتگی میکردند، به گروهی از انسانهای طماع و پست فطرت تبدیل کنند.
اما نقطه مقابل این ماجرا هم درست بود. ما میتوانستیم از رباتها استفاده کنیم تا همکاری انسانها با یکدیگر را تقویت کنیم. اگر به افراد شرکت کننده چند همکار هوش مصنوعی میدادیم، باعث میشد که آنها مهربانانهتر از حالت عادیای که با دیگر انسانها تعامل میکردند، رفتار کنند.
سایر آزمایشات نشان میدهند که هنگامی که افراد فرایند تصمیمگیری را به عاملان هوش مصنوعی میسپارند – و این کاری است که آنها به تدریج در حال انجام دادن آن هستند، از ارسال ایمیلهای خودکارِ llmگرفته تا کنترل پهپادهای نظامی برای هدفگیری- این هوش های مصنوعی از مسئولیتهای اخلاقی چشم پوشی میکنند و مراودات غیراخلاقی با سایر افراد را تقویت میکنند.
گروهی در مؤسسه توسعه انسانی ماکس پلانک به رهبری ایاد رهوان آزمایشاتی را انجام دادند که در آن چند دستیار هوش مصنوعی را در اختیار شرکت کنندگان میگذاشتند. شرکت کنندگان میبایست تاس میانداختند و عدد رو آمده را گزارش میکردند. حدود ۵ درصد از افراد هنگامی که این کار را به تنهایی انجام میدادند، گزارش دروغ میدادند. این عدد هنگامی که شرکت کنندگان ماموریت دروغگویی را به انسان دیگری میسپردند به ۴۰ درصد میرسید و زمانی که آنها میتوانستد دروغگویی را به یک ماشین محول کنند، این عدد به ۵۰ درصد میرسید. اما این تعداد هنگامی که شرکت کنندگان میتوانستند فرایند دروغگویی را به یک عامل هوش مصنوعی محول کنند که به نفع آنها تقلب کند، به عدد بزرگ ۸۸ درصد میرسید.
چنان چه از بین بردن صداقت در تعاملات انسانها با یکدیگر به اندازه کافی نگرانمان نمیکند، نگرانیهایی در این باره وجود دارد که هوش مصنوعی میتواند امنیت فیزیکی را نیز تضعیف کند. با توجه به یک آزمایش تازه منتشر شده به رهبری هیروکازو شیرادو در دانشگاه کارنگی ملون، ما فهمیدیم که حتی نمونههای بسیار ابتدایی دستیار هوش مصنوعی برای رانندگان – مانند فرمان خودکار و ترمز خودکار- هنجارهای متقابل اجتماعی را در جادهها از بین میبرد. این که به انسانها اجازه داده شود که در بازی جوجههای پی در پی، وظیفه پیچیدن در مقابل ماشین روبرو را به دستیار هوش مصنوعی محول کنند متعاقباً منجر به این میشود که افراد کمتر مایل باشند که به نوبت به یکدیگر راه بدهند و در نتیجه این امر باعث افزایش فراوانی تصادفات -در زمانی که آنها از دستیار هوش مصنوعی استفاده نمیکنند- میشود.
این نوع از تاثیرات هوش مصنوعی نشان میدهد که هوش مصنوعی میتواند تاثیر عظیمی بر هنجارهای اجتماعیای داشته باشد که در طی ملیونها سال تکامل یافتهاند و نحوه رفتار ما با یکدیگر را در تمام انواع تعاملات روزمره شکل میدهند. دولت ها نمی توانند خطرات را نادیده بگیرند. حداقل، آنها باید با دقت بیشتری ارزیابی کنند که آیا سیستم های هوش مصنوعی با منافع اجتماعی انسان همسو هستند یا خیر و باید تستهای امنیتی بیشتری را تدارک ببینند. همانگونه که بیانیه بلچلی -که در همایش اخیر امنیت هوش مصنوعی در بریتانیا به امضا رسید- بیان کرده است که نوآوری باید دقیقاً همراه با توجه به کاهش خطرات صورت بگیرد. با این وجود، ما نمیتوانیم -حتی مودبانه- از هوش مصنوعی بخواهیم که به خودش سامان ببخشد.
مرجع:www.economist.com