تکنولوژی و هوش مصنوعی

هوش مصنوعی سیستم عامل تمدن بشری را هک کرده است

چه می‌شود اگر هوش مصنوعی بتواند روابط عاطفی عمیقی با انسان‌ها ایجاد کند؟ بسیار شنیده‌ایم که «از محبت خارها گل می‌شود». مولوی -شاعر قرن هفتمی- در دیگر ابیات این شعر مشهور فرموده است که «از محبت شاه بنده می‌کنند». اکنون آیا می‌توان گفت که شاهی که با نظریه کپرنیکوس درباره مرکزیت خورشید به جای مرکزیت زمین، از تخت سلطنت‌اش پایین کشیده شده بود، بنده‌ی محبت هوش مصنوعی به خود شود؟ هوش مصنوعی قدرتِ سیستم عامل تمدن بشری -یعنی توانایی زبانی- را به دست آورده است. او با مهارت‌های زبانی خود می‌تواند به خوبی با ما انسان‌ها ارتباط برقرار کند و ما را از این طریق، اسیر محبت خود گرداند. به عبارتی هوش مصنوعی سیستم عامل تمدن بشری ما را هک کرده است. هراری در این نوشته در عین توضیح فراز و فرود این ماجرا، راه چاره را در تاسیس سازمان‌های نظارتی و تدوین قوانین نظارتی برای هوش مصنوعی -پیش از آن که دیر شود- می‌داند.

ترجمه: محمد حسین قدمی

ترس از هوش مصنوعی از همان ابتدای عصر رایانه ذهن بشریت را درگیر کرده است. تا کنون این ترس بر ماشین‌هایی که از ابزارهای فیزیکی برای کشتن  و به بردگی کشاندن انسان‌ها و یا جایگزین آن‌ها شدن استفاده می‌کردند، متمرکز شده بود. اما در چند سال گذشته ابزارهای هوش مصنوعی پا به عرصه گذاشته‌اند و بقای تمدن بشری را از جهتی غیرمنتظره تهدید کرده‌اند. هوش مصنوعی توانایی‌های قابل توجهی برای دست بردن در زبان و تولید زبان -چه با کلمات و چه با آواها و چه با تصاویر- به دست آورده است. بنابراین هوش مصنوعی سیستم عامل تمدن ما را هک کرده است.

زبان چیزی است که تقریباً تمام فرهنگ بشری از آن ساخته شده است. به طور مثال، حقوق بشر در دی‌ان‌ای ما تعبیه نشده است.  بلکه محصول و تولیدی فرهنگی است که ما با داستان‌گویی و قانون‌گذاری آن را خلق کردیم. خدایان واقعیت‌هایی فیزیکی و ملموس نیستند. در عوض آن‌ها محصولاتی فرهنگی هستند که ما آن‌ها را با آفرینش افسانه‌ها و نوشتن کتب مقدس ایجاد کردیم.

پول نیز محصولی فرهنگی است. اسکناس‌ها تنها تکه ‌کاغذ‌هایی رنگ و وارنگ هستند. هم‌اکنون بیش از ۹۰ درصد پول‌ها حتی اسکناسی نیستند. این دسته از پول‌ها تنها اطلاعاتی دیجیتالی در کامپیوترها می‌باشند. آنچه به پول ارزش می‌دهد داستان‌هایی است که بانکداران، وزیران دارایی و متخصصان ارزهای دیجیتال در مورد آن به ما می‌گویند. سم بنکمن-فرید، الیزابت هولمز و برنی مدوف در خلق ارزش واقعی مهارت خاصی نداشتند، اما همگی داستان‌سرایانی بسیار توانا بودند.

چه اتفاقی می‌افتد اگر یک هوش غیرانسانی به نسبت یک انسان معمولی در داستان‌گویی، ملودی نویسی، طراحی تصاویر و نوشتن قانون و کتب مقدس بهتر عمل کند؟ هنگامی که مردم در مورد Chatgpt و سایر ابزارهای جدید هوش مصنوعی فکر می کنند، اغلب ذهنشان به سمت مثال‌هایی مانند استفاده دانش آموزان از هوش مصنوعی برای نوشتن تکالیف‌شان متبادر می‌شود. اگر دانش آموزان دست به چنین کاری بزنند، چه بر سر نظام مدرسه خواهد آمد؟ اما چنین سوالی اصلِ ماجرا را از دست می‌دهد. تکالیف مدرسه را فراموش کنید. درباره انتخابات ریاست جمهوری آتی آمریکا در سال ۲۰۲۴ بیندیشید و تلاش کنید که تاثیر ابزارهای هوش مصنوعی بر آن را تصور کنید که می توانند برای تولید انبوه محتوای سیاسی، اخبار جعلی و کتب مقدسِ فرقه‌های جدید به کار گرفته شوند.

در سال‌های اخیر فرقه «کیواِنان» با محوریت پیام‌های آنلاین ناشناسی که «کیو دراپ» نامیده می‌شوند، متحد شده‌اند. پیروان این فرقه این کیودراپ‌ها را به عنوان یک متن مقدس، تجمیع، تقدیس و تفسیر کرده‌اند. در حالی که تا آنجا که ما می دانیم، تمام کیودراپ‌های قبلی توسط انسان ها ساخته شده بودند، و ربات‌ها صرفاً به انتشار آنها کمک کردند، در آینده ممکن است اولین فرقه های تاریخ را ببینیم که متون مقدس آنها توسط یک هوش غیرانسانی نوشته شده است. ادیان در طول تاریخ مدعی شده‌اند که کتب مقدس آن‌ها از جانب یک منبع و مصدر غیرانسانی صادر شده است. به زودی این ادعا به حقیقت خواهد پیوست.

در سطحی روزمره‌تر، ما به زودی خودمان را در حال انجام بحث‌های آنلاینِ طولانی درباره سقط جنین، تغییرات آب و هوایی یا حمله روسیه به اوکراین با اشخاصی مشاهده خواهیم کرد که فکر می‌کنیم انسان‌اند، اما در واقع هوش مصنوعی هستند. نکته مهم اینجاست که وقت صرف کردن برای تغییر نظری که ربات هوش مصنوعی ابراز کرده است، برای ما بیهوده و بی‌ فایده است. چرا که هوش مصنوعی می‌تواند پیام‌هایش را چنان دقیق طراحی کند که شانس خوبی برای تاثیرگذاری بر ما داشته باشند.

هوش مصنوعی از طریق توانایی زبانی‌‌اش و تسلطی که بر زبان دارد حتی می‌تواند از طریق ایجاد روابط عاطفی عمیق و نزدیک با انسان‌ها و استفاده از قدرت نزدیکی عاطفی خود با آن‌ها، نظرات و جهان‌بینی ما را تغییر دهد. هر چند که هیچ‌گونه شواهدی وجود ندارد که نشان دهد که هوش مصنوعی آگاهی و احساساتِ متعلق به خودش را دارد،  برای تقویت وابستگی عاطفی جعلی با انسان‌ها همین امر کافی است که هوش مصنوعی می‌تواند انسان‌ها را وادار کند که احساس کنند به لحاظ عاطفی به او وابسته‌اند. در ژوئن ۲۰۲۲، بلیک لمواین

-مهندس گوگل- علناً ادعا کرد که ربات هوش مصنوعی لامدا، که او روی آن کار می‌کرد، حائز درک و احساس شده است. این ادعای بحث برانگیز به قیمت اخراج شدن او از کارش تمام شد. جالب ترین نکته در مورد این ماجرا، ادعای آقای لموآین نبود که احتمالاً دروغ بود. در عوض، اصل ماجرا تمایل او به این کار بود که شغل پردرآمد خود را به خاطر یک ربات هوش مصنوعی به خطر بیندازد. اگر هوش مصنوعی بتواند افراد را چنان تحت تأثیر قرار دهد تا شغل خود را برای آن به خطر بیندازند، می‌تواند افراد را به انجام چه چیز‌های دیگری نیز وادار کند؟

در بحبوحه نبرد سیاسی برای ‌تسخیر ذهن‌ها و قلب‌ها، ایجاد روابط عمیق عاطفی با افراد، کارآمدترین سلاح است و هوش مصنوعی به تازگی توانایی تولید انبوه روابط صمیمانه با میلیون‌ها نفر را به دست آورده است. همه ما می‌دانیم که در طی دهه گذشته، رسانه‌های اجتماعی به میدان جنگی برای کنترل توجه انسان‌ها تبدیل شده‌اند. با ظهور نسل جدید هوش مصنوعی، خط مقدم این جنگ از توجه به روابط عاطفی عمیق تغییر پیدا می‌کند. چه بر سر جامعه بشری و روان‌شناسی بشری خواهد آمد در آن زمانی که یک هوش مصنوعی با هوش مصنوعی دیگر در نبردی برای ایجاد روابط عاطفی عمیق جعلی با ما می‌جنگد که این رابطه عاطفی جعلی می‌تواند برای اقناع ما برای رای دادن به یک سیاستمدار مشخص یا خرید کالاهای خاصی مورد استفاده قرار بگیرد؟

حتی بدون ایجاد روابط عاطفی جعلی، ابزارهای جدید هوش مصنوعی تاثیر شگرفی بر عقاید و جهان بینی ما خواهند داشت. مردم ممکن است از یک مشاور هوش مصنوعی به عنوان یک پیش‌گوی همه‌‌‌چیز‌دان و سرراست استفاده کنند. جای تعجب نیست که گوگل وحشت کرده است. چرا باید با سرچ کردن به زحمت بیفتم در حالی که می‌توانم به راحتی از پیشگو سوال کنم؟ صنایع خبری و تبلیغاتی نیز باید به وحشت افتاده باشند. چرا روزنامه بخوانم در حالی که به راحتی می‌توانم از پیشگو بخواهم که آخرین اخبار را به من بگوید؟ و هدف از تبلیغات چیست در حالی که می‌توانم از پیشگو بخواهم که به من بگوید که چه بخرم؟

و حتی این سناریوها نیز تصویر دقیقی از اصل ماجرا ارائه نمی‌کنند. چیزی که درباره‌ش صحبت می‌کنیم به صورت بالقوه پایان تاریخ بشری است؛ نه پایان تاریخ، بلکه فقط پایان بخشی از آن است که انسان بر آن تسلط داشت. تاریخ تعامل بین زیست‌شناسی و فرهنگ است؛ تاریخ تعاملی است مابین نیازها و تمایلات زیستی ما به مواردی همچون غذا و سکس، و مخلوقات فرهنگی ما مانند دین و قوانین. تاریخ فرایندی است که در طی آن قوانین و ادیان، به غذا و سکس شکل و فرم می‌بخشند.

چه اتفاقی برای سیر تاریخ خواهد افتاد زمانی که هوش مصنوعی کنترل فرهنگ را در دست بگیرد و شروع به تولید داستان، ملودی، قانون و دین کند؟ ابزارهای پیشین مانند دستگاه چاپ و رادیو به گسترش ایده‌های فرهنگی انسان‌ها کمک کردند، اما آن‌ها هرگز ایده‌های فرهنگی جدید خودشان را ابداع نکردند. هوش مصنوعی تماماً متفاوت است. هوش مصنوعی کاملاً می‌تواند ایده‌های جدیدی تولید کند و فرهنگ جدیدی بسازد.

در ابتدا، هوش مصنوعی احتمالاً الگوهای اولیه رفتارِ انسان را تقلید می‌کند که در مراحل ابتدایی رشد‌ خود آموزش دیده بود. با این وجود هر سال که می‌گذرد، فرهنگ هوش مصنوعی به عرصه‌هایی پا می‌گذارد که هیچ انسانی به این عرصه‌ها پا نگذاشته بود.

ترس از هوش مصنوعی تنها در چند دهه گذشته بشر را تحت الشعاع قرار داده است. اما هزاران سال است که انسان ها درگیر ترس بسیارعمیق‌تری بوده‌اند. ما همواره از قدرت داستان‌ها و تصاویر برای دستکاری ذهن خود و ساخت توهمات آگاه بوده‌ایم. در نتیجه، انسان‌ها از زمان‌های قدیم ترس این را داشته‌اند که در دنیایی ساخته شده از توهمات گرفتار شوند.

در قرن هفدهم رنه دکارت از این می ترسید که شاید یک شیطان بدخواه او را در دنیایی از توهمات به دام انداخته باشد و هر آنچه را که ‌او می دید و می شنید را می‌سازد. در یونان باستان، افلاطون تمثیل غار معروف را مطرح کرد، که در آن گروهی از مردم تمام زندگی خود را در داخل غار به زنجیر بسته شده‌اند و رو به دیواری خالی هستند. یک صفحه روبروی آن‌ها قرار دارد. در آن صفحه، آنها سایه های مختلفی را مشاهده می کنند. زندانیان توهماتی را که در آنجا می بینند با واقعیت اشتباه می گیرند.

در هند باستان، حکیمان بودایی و هندو بیان کردند که همه انسان‌ها در دام مایا -یعنی دنیای توهمات- زندگی می‌کنند. آنچه ما معمولاً به عنوان واقعیت در نظر می گیریم اغلب فقط تخیلاتی در ذهن خودمان است. مردم ممکن است به دلیل اعتقادشان به این یا آن توهم، جنگ های  پر و پیمانی به راه بیندازند، دیگران را بکشند و خودشان نیز به خاطر این توهمات مایل به کشته شدن باشند.

انقلاب هوش مصنوعی ما را با شیطان دکارت، غار افلاطون و مایا روبرو می‌کند. اگر مراقب نباشیم، ممکن است پشت هاله‌ای از توهمات گیر بیفتیم که نمی‌توانیم از آن خلاص شویم یا حتی بفهمیم که چنین هاله‌ای از توهمات وجود دارد.

البته که قدرت جدیدالوقوع هوش مصنوعی می‌تواند برای اهداف خوب نیز مورد استفاده قرار بگیرد. من درباره اهداف خوب هوش مصنوعی زیاد حرف نمی‌زنم چرا که کسانی که هوش مصنوعی را توسعه داده‌اند درباره اینگونه مسائل به اندازه کافی صحبت می‌کنند. وظیفه فیلسوفان و پژوهشگران تاریخ -مانند من- این است که خطرات هوش مصنوعی را بیان کنند. با این وجود بی‌ شک هوش مصنوعی می‌تواند در جهات بسیار متعددی – از کشف درمان‌های جدیدی برای سرطان گرفته تا ارائه راه‌ حل‌هایی برای بحران‌های بوم‌شناسانه- به ما کمک کند. سوالی که ما با آن دست و پنجه نرم می‌کنیم این است که چگونه می‌توانیم اطمینان حاصل کنیم که ابزارهای جدید هوش مصنوعی برای اهداف خوب مورد استفاده قرار بگیرند و نه برای اهداف بد. برای دستیابی به پاسخ چنین سوالی، ما ابتدا باید از ظرفیت‌های واقعی این ابزار‌ها آگاه شویم.

از سال ۱۹۴۵ ما این موضوع را فهمیده‌ایم که تکنولوژی هسته‌ای می‌تواند در جهت سود رسانی به انسان‌ها، انرژی ارزان قیمت تولید کند- همچنین می‌تواند به لحاظ فیزیکی تمدن بشری را نابود کند. بنابراین ما تمام نظم بین‌المللی را برای حفاظت از بشریت و برای اطمینان خاطر از این که تکنولوژی هسته‌ای برای اهداف خوب به کار گرفته شود، دوباره طراحی کردیم. ما اکنون باید با یک سلاح کشتار جمعی جدید دست و پنجه نرم کنیم که می تواند دنیای ذهنی و اجتماعی ما را تماماً نابود کند.

ما همچنان می‌توانیم ابزار‌های جدید هوش مصنوعی را تنظیم و تصحیح کنیم اما باید سریع عمل کنیم. در حالی که بمب‌های اتمی نمی‌توانند بمب‌های اتمی‌ قوی‌تری را اختراع کنند، هوش مصنوعی می‌تواند به شکلی تصاعدی هوش مصنوعی قوی‌تری را ایجاد کند. اولین گام حیاتی این است که درخواست کنیم که ابزار‌های قدرتمند هوش مصنوعی پیش از انتشار در فضای عمومی جامعه تحت بررسی بررسی‌های امنیتی سختگیرانه‌ای قرار بگیرند. همانگونه که یک شرکت داروسازی نمی‌تواند پیش از چک شدن اثرات جانبی کوتاه مدت و بلند مدت داروهایش، آن‌ها را پخش کند، بنابراین شرکت‌های فناوری نیز نباید ابزارهای جدید هوش مصنوعی را پیش از این که به شکلی امن ساخته شده باشند، منتشر کنند. ما به یک «سازمان غذا و دارو» مشابه برای تکنولوژی جدید نیازمندیم، همچنان که در گذشته نیز به آن نیاز داشتیم.

آیا کاهش سرعت استقرار هوش مصنوعی باعث نمی‌شود که دموکراسی‌ها از حکومت‌های ظالمانه استبدادی عقب بمانند؟ دقیقا مقابل این حرف صحیح است! استقرار بدون نظم و انضباط هوش مصنوعی باعث هرج و مرج اجتماعی می‌شود که این وضعیت به نفع مستبدان است و دموکراسی را نابود می‌کند. دموکراسی نوعی گفتگو است و گفتگو بر زبان تکیه دارد. هنگامی که هوش مصنوعی سیستم زبان را هک کند، می‌تواند توانایی ما را برای ایجاد گفتگوهای معنادار نابود کند، لذا دموکراسی در این حالت نابود می‌شود.

ما به تازگی در اینجا روی زمین با یک هوش بیگانه مواجه شده‌ایم. چیز زیادی درباره آن نمی‌دانیم جز این که می‌تواند تمدن ما را نابود کند. ما باید استقرار غیرمسئولانه هوش مصنوعی در فضای عمومی را متوقف کنیم و آن را پیش از این که مارا تنظیم کند، تنظیم و تصحیح کنیم. و من پیشنهاد می‌کنم که اولین تنظیمی که باید درباره هوش مصنوعی اتفاق بیفتد این باشد که برای هوش مصنوعی اجباری شود که فاش کند که هوش مصنوعی است. اگر من در حال گفت و گو با کسی هستم و نمی‌توانم بگویم که او انسان است یا هوش مصنوعی، این امر به منزله پایان دموکراسی است.

مرجع: www.economist.com

نوشته های مشابه

دکمه بازگشت به بالا