هوش مصنوعی سیستم عامل تمدن بشری را هک کرده است
چه میشود اگر هوش مصنوعی بتواند روابط عاطفی عمیقی با انسانها ایجاد کند؟ بسیار شنیدهایم که «از محبت خارها گل میشود». مولوی -شاعر قرن هفتمی- در دیگر ابیات این شعر مشهور فرموده است که «از محبت شاه بنده میکنند». اکنون آیا میتوان گفت که شاهی که با نظریه کپرنیکوس درباره مرکزیت خورشید به جای مرکزیت زمین، از تخت سلطنتاش پایین کشیده شده بود، بندهی محبت هوش مصنوعی به خود شود؟ هوش مصنوعی قدرتِ سیستم عامل تمدن بشری -یعنی توانایی زبانی- را به دست آورده است. او با مهارتهای زبانی خود میتواند به خوبی با ما انسانها ارتباط برقرار کند و ما را از این طریق، اسیر محبت خود گرداند. به عبارتی هوش مصنوعی سیستم عامل تمدن بشری ما را هک کرده است. هراری در این نوشته در عین توضیح فراز و فرود این ماجرا، راه چاره را در تاسیس سازمانهای نظارتی و تدوین قوانین نظارتی برای هوش مصنوعی -پیش از آن که دیر شود- میداند.
ترجمه: محمد حسین قدمی
ترس از هوش مصنوعی از همان ابتدای عصر رایانه ذهن بشریت را درگیر کرده است. تا کنون این ترس بر ماشینهایی که از ابزارهای فیزیکی برای کشتن و به بردگی کشاندن انسانها و یا جایگزین آنها شدن استفاده میکردند، متمرکز شده بود. اما در چند سال گذشته ابزارهای هوش مصنوعی پا به عرصه گذاشتهاند و بقای تمدن بشری را از جهتی غیرمنتظره تهدید کردهاند. هوش مصنوعی تواناییهای قابل توجهی برای دست بردن در زبان و تولید زبان -چه با کلمات و چه با آواها و چه با تصاویر- به دست آورده است. بنابراین هوش مصنوعی سیستم عامل تمدن ما را هک کرده است.
زبان چیزی است که تقریباً تمام فرهنگ بشری از آن ساخته شده است. به طور مثال، حقوق بشر در دیانای ما تعبیه نشده است. بلکه محصول و تولیدی فرهنگی است که ما با داستانگویی و قانونگذاری آن را خلق کردیم. خدایان واقعیتهایی فیزیکی و ملموس نیستند. در عوض آنها محصولاتی فرهنگی هستند که ما آنها را با آفرینش افسانهها و نوشتن کتب مقدس ایجاد کردیم.
پول نیز محصولی فرهنگی است. اسکناسها تنها تکه کاغذهایی رنگ و وارنگ هستند. هماکنون بیش از ۹۰ درصد پولها حتی اسکناسی نیستند. این دسته از پولها تنها اطلاعاتی دیجیتالی در کامپیوترها میباشند. آنچه به پول ارزش میدهد داستانهایی است که بانکداران، وزیران دارایی و متخصصان ارزهای دیجیتال در مورد آن به ما میگویند. سم بنکمن-فرید، الیزابت هولمز و برنی مدوف در خلق ارزش واقعی مهارت خاصی نداشتند، اما همگی داستانسرایانی بسیار توانا بودند.
چه اتفاقی میافتد اگر یک هوش غیرانسانی به نسبت یک انسان معمولی در داستانگویی، ملودی نویسی، طراحی تصاویر و نوشتن قانون و کتب مقدس بهتر عمل کند؟ هنگامی که مردم در مورد Chatgpt و سایر ابزارهای جدید هوش مصنوعی فکر می کنند، اغلب ذهنشان به سمت مثالهایی مانند استفاده دانش آموزان از هوش مصنوعی برای نوشتن تکالیفشان متبادر میشود. اگر دانش آموزان دست به چنین کاری بزنند، چه بر سر نظام مدرسه خواهد آمد؟ اما چنین سوالی اصلِ ماجرا را از دست میدهد. تکالیف مدرسه را فراموش کنید. درباره انتخابات ریاست جمهوری آتی آمریکا در سال ۲۰۲۴ بیندیشید و تلاش کنید که تاثیر ابزارهای هوش مصنوعی بر آن را تصور کنید که می توانند برای تولید انبوه محتوای سیاسی، اخبار جعلی و کتب مقدسِ فرقههای جدید به کار گرفته شوند.
در سالهای اخیر فرقه «کیواِنان» با محوریت پیامهای آنلاین ناشناسی که «کیو دراپ» نامیده میشوند، متحد شدهاند. پیروان این فرقه این کیودراپها را به عنوان یک متن مقدس، تجمیع، تقدیس و تفسیر کردهاند. در حالی که تا آنجا که ما می دانیم، تمام کیودراپهای قبلی توسط انسان ها ساخته شده بودند، و رباتها صرفاً به انتشار آنها کمک کردند، در آینده ممکن است اولین فرقه های تاریخ را ببینیم که متون مقدس آنها توسط یک هوش غیرانسانی نوشته شده است. ادیان در طول تاریخ مدعی شدهاند که کتب مقدس آنها از جانب یک منبع و مصدر غیرانسانی صادر شده است. به زودی این ادعا به حقیقت خواهد پیوست.
در سطحی روزمرهتر، ما به زودی خودمان را در حال انجام بحثهای آنلاینِ طولانی درباره سقط جنین، تغییرات آب و هوایی یا حمله روسیه به اوکراین با اشخاصی مشاهده خواهیم کرد که فکر میکنیم انساناند، اما در واقع هوش مصنوعی هستند. نکته مهم اینجاست که وقت صرف کردن برای تغییر نظری که ربات هوش مصنوعی ابراز کرده است، برای ما بیهوده و بی فایده است. چرا که هوش مصنوعی میتواند پیامهایش را چنان دقیق طراحی کند که شانس خوبی برای تاثیرگذاری بر ما داشته باشند.
هوش مصنوعی از طریق توانایی زبانیاش و تسلطی که بر زبان دارد حتی میتواند از طریق ایجاد روابط عاطفی عمیق و نزدیک با انسانها و استفاده از قدرت نزدیکی عاطفی خود با آنها، نظرات و جهانبینی ما را تغییر دهد. هر چند که هیچگونه شواهدی وجود ندارد که نشان دهد که هوش مصنوعی آگاهی و احساساتِ متعلق به خودش را دارد، برای تقویت وابستگی عاطفی جعلی با انسانها همین امر کافی است که هوش مصنوعی میتواند انسانها را وادار کند که احساس کنند به لحاظ عاطفی به او وابستهاند. در ژوئن ۲۰۲۲، بلیک لمواین
-مهندس گوگل- علناً ادعا کرد که ربات هوش مصنوعی لامدا، که او روی آن کار میکرد، حائز درک و احساس شده است. این ادعای بحث برانگیز به قیمت اخراج شدن او از کارش تمام شد. جالب ترین نکته در مورد این ماجرا، ادعای آقای لموآین نبود که احتمالاً دروغ بود. در عوض، اصل ماجرا تمایل او به این کار بود که شغل پردرآمد خود را به خاطر یک ربات هوش مصنوعی به خطر بیندازد. اگر هوش مصنوعی بتواند افراد را چنان تحت تأثیر قرار دهد تا شغل خود را برای آن به خطر بیندازند، میتواند افراد را به انجام چه چیزهای دیگری نیز وادار کند؟
در بحبوحه نبرد سیاسی برای تسخیر ذهنها و قلبها، ایجاد روابط عمیق عاطفی با افراد، کارآمدترین سلاح است و هوش مصنوعی به تازگی توانایی تولید انبوه روابط صمیمانه با میلیونها نفر را به دست آورده است. همه ما میدانیم که در طی دهه گذشته، رسانههای اجتماعی به میدان جنگی برای کنترل توجه انسانها تبدیل شدهاند. با ظهور نسل جدید هوش مصنوعی، خط مقدم این جنگ از توجه به روابط عاطفی عمیق تغییر پیدا میکند. چه بر سر جامعه بشری و روانشناسی بشری خواهد آمد در آن زمانی که یک هوش مصنوعی با هوش مصنوعی دیگر در نبردی برای ایجاد روابط عاطفی عمیق جعلی با ما میجنگد که این رابطه عاطفی جعلی میتواند برای اقناع ما برای رای دادن به یک سیاستمدار مشخص یا خرید کالاهای خاصی مورد استفاده قرار بگیرد؟
حتی بدون ایجاد روابط عاطفی جعلی، ابزارهای جدید هوش مصنوعی تاثیر شگرفی بر عقاید و جهان بینی ما خواهند داشت. مردم ممکن است از یک مشاور هوش مصنوعی به عنوان یک پیشگوی همهچیزدان و سرراست استفاده کنند. جای تعجب نیست که گوگل وحشت کرده است. چرا باید با سرچ کردن به زحمت بیفتم در حالی که میتوانم به راحتی از پیشگو سوال کنم؟ صنایع خبری و تبلیغاتی نیز باید به وحشت افتاده باشند. چرا روزنامه بخوانم در حالی که به راحتی میتوانم از پیشگو بخواهم که آخرین اخبار را به من بگوید؟ و هدف از تبلیغات چیست در حالی که میتوانم از پیشگو بخواهم که به من بگوید که چه بخرم؟
و حتی این سناریوها نیز تصویر دقیقی از اصل ماجرا ارائه نمیکنند. چیزی که دربارهش صحبت میکنیم به صورت بالقوه پایان تاریخ بشری است؛ نه پایان تاریخ، بلکه فقط پایان بخشی از آن است که انسان بر آن تسلط داشت. تاریخ تعامل بین زیستشناسی و فرهنگ است؛ تاریخ تعاملی است مابین نیازها و تمایلات زیستی ما به مواردی همچون غذا و سکس، و مخلوقات فرهنگی ما مانند دین و قوانین. تاریخ فرایندی است که در طی آن قوانین و ادیان، به غذا و سکس شکل و فرم میبخشند.
چه اتفاقی برای سیر تاریخ خواهد افتاد زمانی که هوش مصنوعی کنترل فرهنگ را در دست بگیرد و شروع به تولید داستان، ملودی، قانون و دین کند؟ ابزارهای پیشین مانند دستگاه چاپ و رادیو به گسترش ایدههای فرهنگی انسانها کمک کردند، اما آنها هرگز ایدههای فرهنگی جدید خودشان را ابداع نکردند. هوش مصنوعی تماماً متفاوت است. هوش مصنوعی کاملاً میتواند ایدههای جدیدی تولید کند و فرهنگ جدیدی بسازد.
در ابتدا، هوش مصنوعی احتمالاً الگوهای اولیه رفتارِ انسان را تقلید میکند که در مراحل ابتدایی رشد خود آموزش دیده بود. با این وجود هر سال که میگذرد، فرهنگ هوش مصنوعی به عرصههایی پا میگذارد که هیچ انسانی به این عرصهها پا نگذاشته بود.
ترس از هوش مصنوعی تنها در چند دهه گذشته بشر را تحت الشعاع قرار داده است. اما هزاران سال است که انسان ها درگیر ترس بسیارعمیقتری بودهاند. ما همواره از قدرت داستانها و تصاویر برای دستکاری ذهن خود و ساخت توهمات آگاه بودهایم. در نتیجه، انسانها از زمانهای قدیم ترس این را داشتهاند که در دنیایی ساخته شده از توهمات گرفتار شوند.
در قرن هفدهم رنه دکارت از این می ترسید که شاید یک شیطان بدخواه او را در دنیایی از توهمات به دام انداخته باشد و هر آنچه را که او می دید و می شنید را میسازد. در یونان باستان، افلاطون تمثیل غار معروف را مطرح کرد، که در آن گروهی از مردم تمام زندگی خود را در داخل غار به زنجیر بسته شدهاند و رو به دیواری خالی هستند. یک صفحه روبروی آنها قرار دارد. در آن صفحه، آنها سایه های مختلفی را مشاهده می کنند. زندانیان توهماتی را که در آنجا می بینند با واقعیت اشتباه می گیرند.
در هند باستان، حکیمان بودایی و هندو بیان کردند که همه انسانها در دام مایا -یعنی دنیای توهمات- زندگی میکنند. آنچه ما معمولاً به عنوان واقعیت در نظر می گیریم اغلب فقط تخیلاتی در ذهن خودمان است. مردم ممکن است به دلیل اعتقادشان به این یا آن توهم، جنگ های پر و پیمانی به راه بیندازند، دیگران را بکشند و خودشان نیز به خاطر این توهمات مایل به کشته شدن باشند.
انقلاب هوش مصنوعی ما را با شیطان دکارت، غار افلاطون و مایا روبرو میکند. اگر مراقب نباشیم، ممکن است پشت هالهای از توهمات گیر بیفتیم که نمیتوانیم از آن خلاص شویم یا حتی بفهمیم که چنین هالهای از توهمات وجود دارد.
البته که قدرت جدیدالوقوع هوش مصنوعی میتواند برای اهداف خوب نیز مورد استفاده قرار بگیرد. من درباره اهداف خوب هوش مصنوعی زیاد حرف نمیزنم چرا که کسانی که هوش مصنوعی را توسعه دادهاند درباره اینگونه مسائل به اندازه کافی صحبت میکنند. وظیفه فیلسوفان و پژوهشگران تاریخ -مانند من- این است که خطرات هوش مصنوعی را بیان کنند. با این وجود بی شک هوش مصنوعی میتواند در جهات بسیار متعددی – از کشف درمانهای جدیدی برای سرطان گرفته تا ارائه راه حلهایی برای بحرانهای بومشناسانه- به ما کمک کند. سوالی که ما با آن دست و پنجه نرم میکنیم این است که چگونه میتوانیم اطمینان حاصل کنیم که ابزارهای جدید هوش مصنوعی برای اهداف خوب مورد استفاده قرار بگیرند و نه برای اهداف بد. برای دستیابی به پاسخ چنین سوالی، ما ابتدا باید از ظرفیتهای واقعی این ابزارها آگاه شویم.
از سال ۱۹۴۵ ما این موضوع را فهمیدهایم که تکنولوژی هستهای میتواند در جهت سود رسانی به انسانها، انرژی ارزان قیمت تولید کند- همچنین میتواند به لحاظ فیزیکی تمدن بشری را نابود کند. بنابراین ما تمام نظم بینالمللی را برای حفاظت از بشریت و برای اطمینان خاطر از این که تکنولوژی هستهای برای اهداف خوب به کار گرفته شود، دوباره طراحی کردیم. ما اکنون باید با یک سلاح کشتار جمعی جدید دست و پنجه نرم کنیم که می تواند دنیای ذهنی و اجتماعی ما را تماماً نابود کند.
ما همچنان میتوانیم ابزارهای جدید هوش مصنوعی را تنظیم و تصحیح کنیم اما باید سریع عمل کنیم. در حالی که بمبهای اتمی نمیتوانند بمبهای اتمی قویتری را اختراع کنند، هوش مصنوعی میتواند به شکلی تصاعدی هوش مصنوعی قویتری را ایجاد کند. اولین گام حیاتی این است که درخواست کنیم که ابزارهای قدرتمند هوش مصنوعی پیش از انتشار در فضای عمومی جامعه تحت بررسی بررسیهای امنیتی سختگیرانهای قرار بگیرند. همانگونه که یک شرکت داروسازی نمیتواند پیش از چک شدن اثرات جانبی کوتاه مدت و بلند مدت داروهایش، آنها را پخش کند، بنابراین شرکتهای فناوری نیز نباید ابزارهای جدید هوش مصنوعی را پیش از این که به شکلی امن ساخته شده باشند، منتشر کنند. ما به یک «سازمان غذا و دارو» مشابه برای تکنولوژی جدید نیازمندیم، همچنان که در گذشته نیز به آن نیاز داشتیم.
آیا کاهش سرعت استقرار هوش مصنوعی باعث نمیشود که دموکراسیها از حکومتهای ظالمانه استبدادی عقب بمانند؟ دقیقا مقابل این حرف صحیح است! استقرار بدون نظم و انضباط هوش مصنوعی باعث هرج و مرج اجتماعی میشود که این وضعیت به نفع مستبدان است و دموکراسی را نابود میکند. دموکراسی نوعی گفتگو است و گفتگو بر زبان تکیه دارد. هنگامی که هوش مصنوعی سیستم زبان را هک کند، میتواند توانایی ما را برای ایجاد گفتگوهای معنادار نابود کند، لذا دموکراسی در این حالت نابود میشود.
ما به تازگی در اینجا روی زمین با یک هوش بیگانه مواجه شدهایم. چیز زیادی درباره آن نمیدانیم جز این که میتواند تمدن ما را نابود کند. ما باید استقرار غیرمسئولانه هوش مصنوعی در فضای عمومی را متوقف کنیم و آن را پیش از این که مارا تنظیم کند، تنظیم و تصحیح کنیم. و من پیشنهاد میکنم که اولین تنظیمی که باید درباره هوش مصنوعی اتفاق بیفتد این باشد که برای هوش مصنوعی اجباری شود که فاش کند که هوش مصنوعی است. اگر من در حال گفت و گو با کسی هستم و نمیتوانم بگویم که او انسان است یا هوش مصنوعی، این امر به منزله پایان دموکراسی است.
مرجع: www.economist.com