سال ۲۰۲۳ نقطه عطفی در تاریخ هوش مصنوعی
در تاریخ نقاط عطفی وجود دارد. نقاط عطفی که برای همیشه ماندگار خواهند بود. سال ۲۰۲۳ هم به نظر می رسد چنین ویژگی داشته باشد. زیرا در همین سال بود که برای نخستین بار انسانها توانستند با رباتها چت کنند، حرف بزنند، پرسش و پاسخ داشته باشند. بنابراین این سال را سالی بنامیم که بسیاری از ما یاد گرفتیم با رباتها ارتباط برقرار کنیم، خلق کنیم، تقلب کنیم و همکاری کنیم و به عبارت دیگر «رباتها دیگر واقعا وارد زندگیمان شدند. حالا دیگر جدی جدی رباتها خود را از عمومی کردهاند. آنقدر عمومی که دانش آموزان سال اول هم میتوانند برای تقلب از آن ها کمک بگیرند.
یادداشت بسیار جالب مجله نیویورکر را در وب سایت cyberpajooh.com مطالعه کنید
سال ۲۰۲۳ را سالی بنامید که بسیاری از ما یاد گرفتیم با رباتها ارتباط برقرار کنیم، خلق کنیم، تقلب کرده و همکاری کنیم.
کمی بیش از یک سال پیش، زمانی که شرکت OpenAI برنامه چت جیپیتی[۱] را منتشر کرد، به نظر میرسید که جهان با وعده و خطرات هوش مصنوعی بیدار شود، برنامهای که کاربران را قادر میسازد تا با یک کامپیوتر به روشی منحصر به فرد انسان صحبت کنند. ظرف پنج روز، چتبات[۲] یک میلیون کاربر داشت. در عرض دو ماه، صد میلیون کاربر ماهانه ثبت کرد. این تعداد اکنون تقریباً دو برابر شده است. این سال را سالی بنامیم که بسیاری از ما یاد گرفتیم با رباتها ارتباط برقرار کنیم، خلق کنیم، تقلب کنیم و همکاری کنیم.
مدت کوتاهی پس از انتشار چت جیپیتی، گوگل ربات چت خود را با نام بارد[۳] منتشر کرد. مایکروسافت مدل OpenAI را در موتور جستجوی بینگ[۴] خود گنجاند، متا LLaMA را معرفی کرد و آنتروپیک با کلود[۵]، یک “دستیار هوش مصنوعی نسل بعدی برای تکالیف شما، صرف نظر از مقیاس” وارد بازار شد. ناگهان اینترنت تقریباً جاندار به نظر رسید. این نبود که خود هوش مصنوعی جدید بود: در واقع، هوش مصنوعی چنان بخشی از زندگی ما شده است که وقتی الگوریتم نتفلیکس فیلمی را توصیه میکند، شرکت کارت اعتباری به طور خودکار فعالیتهای کلاهبرداری را تشخیص میدهد یا الکسای آمازون خلاصهای از اخبار صبح را ارائه میدهد، به سختی آن را تشخیص میدهیم.
اما، در حالی که این هوش مصنوعیها در پسزمینه کار میکنند، اغلب به صورت اسکریپت و شکننده، چتباتها پاسخگو و بداهه هستند. آنها همچنین غیرقابل پیشبینی هستند. وقتی از آنها کمک میخواهیم، در مورد چیزهایی که نمیدانیم سؤال میکنیم، یا از آنها کمک خلاقانه میخواهیم، آنها اغلب چیزهایی را تولید میکنند که قبلاً وجود نداشتند. شعرها، نقدهای ادبی، مقالات، مقالات پژوهشی و نمایشنامههای سه پردهای به زبانی ساده و بدون تردید انسانی، ارائه میشود. انگار خدای ماشین به شکل ما ساخته شده است. از چت جیپیتی بخواهید آهنگی در مورد ماشینهای خودران به سبک جانی کش[۶] بنویسد و ممکن است شعری مانند این دریافت کنید:
رایدین انفرادی، اما من هرگز تنها نیستم،
تفنگ ساچمهای رایدین هوش مصنوعیام را گرفتم، ثابت مثل یک سنگ.
در جاده بیپایان، زیر آسمان بسیار وسیع،
یک راننده ارواح در فرمان، ردپایی از گذشته.
از آن بخواهید آهنگی در مورد ماشینهای خودران به سبک جوزپه وردی[۷] بنویسد و چت جیپیتی صحنه آواز یک تنور را تنظیم میکند.
ببین کالسکه بدون اسب!
در طول شب میچرخد، بیصدا مثل سرنوشت.
نبوغ انسان، افتخار پیشرفت،
در این رقص پولاد، ما سرنوشت خود را میبافیم.
چتباتهایی مانند چت جیپیتی باعث میشوند دستگاههای هوشمند ما احمقانه به نظر برسند. آنها نه تنها زبانهای خارجی را بلدند، بلکه زبانهای کدنویسی را نیز میدانند. آنها میتوانند به سرعت اسناد حقوقی و مالی طولانی را خلاصه کنند. آنها شروع به تشخیص شرایط پزشکی کردهاند. آنها میتوانند بدون مطالعه در آزمون وکالت شرکت کنند. از طرف دیگر، ممکن است ما فریب بخوریم و فکر کنیم که مدلهای هوش مصنوعی واقعاً هوشمند هستند – نه مصنوعی – و آنها معنی و مفاهیم محتوایی که ارائه میدهند را میفهمند. در حالی که آنها این فهم را ندارند. به قول امیلی بندر[۸]، زبانشناس و سه نویسنده همکار، آنها “طوطیهای تصادفی” هستند. نباید فراموش کرد که قبل از اینکه هوش مصنوعی، هوشمند در نظر گرفته شود باید بخش عظیمی از اطلاعات مربوط به هوش انسانی را میبلعید و قبل از اینکه یاد بگیریم چگونه با رباتها همکاری کنیم، باید به رباتها آموزش داده میشد که چگونه با ما همکاری کنند.
حتی برای اینکه بفهمیم این چتباتها چگونه کار میکنند، باید به واژگان جدید از “مدلهای زبان بزرگ” (L.L.M.s) و “شبکههای عصبی” گرفته تا “پردازش زبان طبیعی” (N.L.P.) و “هوش مصنوعی مولد” تسلط پیدا میکردیم. تا به حال، ما متوجه چند نکته مهم شدهایم: چتباتها اینترنت را میبلعند و آن را با نوعی یادگیری ماشینی تحلیل میکنند که مغز انسان را تقلید میکند. آنها کلمات را از نظر آماری با هم ترکیب میکنند که بر اساس آن کلمات و عبارات معمولاً به یکدیگر تعلق دارند. با این حال، اختراعات خالص هوش مصنوعی تا حد زیادی غیرقابل فهم هستند، همانطور که متوجه شدیم چت باتها اطلاعات غلط تولید میکنند.
برای مثال، بارد گوگل، اطلاعاتی در مورد تلسکوپ جیمز وب اختراع کرد. بینگ مایکروسافت اصرار داشت تا برنامه بیلی آیلیش[۹] در بین دو نیمههای لیگ سوپربول ۲۰۲۳ را اجرا کند. یک وکیل دادگستری که دادگاه فدرال او مملو از استنادات جعلی و نظرات قضایی ساختگی ارائهشده توسط چت جیپیتی بود، گفت: «من متوجه نشدم که چت جیپیتی میتواند پروندهسازی کند.» (دادگاه جریمه پنج هزار دلاری صادر کرد.) چت جیپیتی ممکن است قابل اعتماد نباشد و میتواند اشتباه کند. یک مطالعه که اخیرا انجام شده نشان میدهد که در سال گذشته، وقتی از چت جیپیتی خواسته شده تا برخی کارهای خاص را انجام دهد، دقت کمتری داشته است. محققان این نظریه را مطرح میکنند که این موضوع، مرتبط با متریالی میباشد که چت جیپیتی روی آن آموزش داده شده است؛ اما از آنجایی که OpenAI آنچه را که برای آموزش L.L.M خود استفاده میکند به اشتراک نمیگذارد، این فقط یک حدس است.
آگاهی از اینکه چتباتها اشتباه میکنند باعث نشده است تا دانشآموزان دبیرستانی و کالج از چتباتها برای انجام تحقیقات، تکالیف و نوشتن مقالات خود استفاده نکنند. (در هفته پایانی، می گذشته، یکی از دانشآموزان من در کتابخانه قدم زد و دید که تقریباً در هر لپتاپ چت جیپیتی باز است.) بیش از نیمی از جوانانی که به نظرسنجی اخیر Junior Achievement پاسخ دادند، گفتند که از یک ربات چت استفاده میکنند. کمک به انجام تکالیف مدرسه از نظر آنها تقلب بود. با این حال، تقریباً نیمی از آنها گفتند که احتمالاً از آن استفاده خواهند کرد.
درگیری مدیران مدرسه با این مساله نیز کمتر از این نبود. به نظر نمیرسید که آنها قصد داشته باشند تا تصمیم بگیرند که بالاخره چتباتها عامل فریب هستند یا ابزاری برای یادگیری. در ژانویه، دیوید بنکس[۱۰]، رئیس مدارس شهر نیویورک، چت جیپیتی را ممنوع کرد. یک نفر به واشنگتنپست گفت که «چتبات، نمیتواند مهارتهای تفکر انتقادی و حل مسئله را که برای موفقیت تحصیلی و مادامالعمر ضروری هستند را آموزش دهد.» چهار ماه بعد، بنکس این ممنوعیت را لغو کرد و آن را مبتنی بر ترس نامید و گفت که «این ممنوعیت، پتانسیل هوش مصنوعی مولد برای حمایت از دانشآموزان و معلمان و همچنین واقعیتی را که دانشآموزان ما در آن شرکت میکنند و در دنیایی که درک هوش مصنوعی مولد بسیار مهم است را نادیده میگیرد.» سپس یک استاد در تگزاس بود که تصمیم گرفت از چت جیپیتی برای شناسایی دانشآموزانی که با چت جیپیتی تقلب میکردند، استفاده کند. پس از اینکه ربات تشخیص داد که کل کلاس این کار را انجام داده است، استاد تهدید کرد که همه را خواهد انداخت. مشکل این بود که چت جیپیتی حاوی اطلاعات غلط بسیاری بود. (برنامههای هوش مصنوعی دیگری برای شناسایی متقلبان وجود دارد؛ تشخیص ربات چت یک صنعت در حال رشد است.) به عبارت دیگر، همه ما ممکن است ظرفیتهایمان را بیش از حد تخمین بزنیم، اشتباه برداشت کنیم و یا به سادگی برخی چیزها را درک نکنیم.
هوش مصنوعی در حال حاضر برای تولید گزارشهای مالی، کپی تبلیغات و اخبار ورزشی استفاده میشود. در ماه مارس، گرگ براکمن[۱۱]، یکی از بنیانگذاران OpenAI و رئیس آن، با خوشحالی پیشبینی کرد که در آینده چتباتها همچنین به نوشتن فیلمنامهها و بازنویسی صحنههایی که بینندگان دوست ندارند کمک خواهند کرد. دو ماه بعد، انجمن نویسندگان آمریکا دست به اعتصاب زد و خواستار قراردادی شد که از همه ما در برابر فیلمهای بد خلق شده توسط هوش مصنوعی محافظت کند. آنها احساس کردند که هر پلتفرم هوش مصنوعی که قادر به تولید آثار معتبر در بسیاری از حوزههای انسانی باشد، میتواند یک تهدید وجودی برای خود خلاقیت باشد.
در ماه سپتامبر، در حالی که فیلمنامهنویسان در حال مذاکره برای پایاندادن به اعتصاب پنج ماهه خود بودند و استودیوها را متقاعد کردند که فیلمنامههای هوش مصنوعی را کنار بگذارند، انجمن نویسندگان به همراه گروهی از رماننویسان برجسته شکایتی را علیه OpenAI تنظیم کردند. آنها ادعا کردند که این شرکت از آثار دارای حق چاپ آنها بدون رضایت یا غرامت استفاده میکند. اگرچه نویسندگان نمیتوانستند به طور قطع بدانند که شرکت کتابهای آنها را تصاحب کرده است، با توجه به خطمشی کمتر باز[۱۲] OpenAI در به اشتراکگذاری دادههای آموزشی، شکایت اشاره کرد که در اوایل، چت جیپیتی به سوالات مربوط به کتابهای خاص با نقل قولهای کلمه به کلمه پاسخ میدهد و پیشنهاد میکند که L.L.M باید این کتابها را به طور کامل استفاده کرده باشد. (اکنون چتبات، برای گفتن “نمیتوانم گزیدهای از متنهای دارای حق نسخهبرداری را به طور کلمه به کلمه ارائه کنم” آموزش داده شده است.) برخی از کسبوکارها اکنون درخواستهایی را میفروشند تا به کاربران کمک کنند هویت جعلی نویسندگان معروف را بسازند و بدیهی است نویسندهای که میتوان بدون زحمت هویتش را جعل کرد، شاید ارزش چندانی نداشته باشد.
در ماه ژوئیه، گزارشی از قلم غیرانتفاعی ادبی آمریکا[۱۳] منتشر شد که در آن بیان شده است که هوش مصنوعی مولد، آزادی بیان را با “افزایش” انتشار اطلاعات نادرست و سوء استفاده آنلاین تهدید میکند. در این گزارش آمده است: «همچنین این امکان وجود دارد که مردم اعتماد خود را به زبان و در نتیجه به یکدیگر از دست بدهند». این خطرات اکنون فراتر از کلام مکتوب است. OpenAI از موتوری به نام DALL-E 2 رونمایی کرد که متن را به تصاویر مصنوعی تبدیل میکند. چند ماه بعد، Stability AI ابزار مشابهی به نام Stable Diffusion را منتشر کرد. به گفته مرکز تحقیقات و گزارشهای هنری[۱۴]، هنر تولیدشده توسط هوش مصنوعی “خونآشام” است و از نسلهای گذشته آثار هنری لذت میبرد و مسلماً “بزرگترین سرقت هنری در تاریخ” به حساب میآید. همانقدر که “هنر ساختن” از این طریق سرگرمکننده و جادویی است، به ویژه برای ما که از نظر هنری به چالش کشیدهایم، صحنههای فوتورئالیستی از رویدادهایی که اتفاق نیفتادهاند نیز تهدیدی برای حقیقت هستند. هر کسی میتواند از یک هوش مصنوعی بخواهد تصویری از مردی که صندوق رای را پر میکند، یا از رویارویی بین معترضان و پلیس تهیه کند. (این کار را انجام دادم و نتایج تا حدودی واقع بینانه بود.)
در حالی که تلاشها برای واترمارککردن تصاویر تولیدشده توسط هوش مصنوعی در حال انجام است، تا کنون، محققان نتوانستهاند یک سیستم واترمارکی ایجاد کنند که نتوان آن را با ابزارهای گسترده در دسترس تضعیف کرد. آنها همچنین توانستهاند واترمارکهای جعلی را به تصاویر واقعی اضافه کنند. OpenAI همچنان به کاربران اجازه میدهد که واترمارک ها را به دلخواه حذف کنند.
در ماه مارس، بیش از هزار تکنولوژیست، از جمله ایلان ماسک[۱] و استیو وزنیاک[۲]، یکی از بنیانگذاران اپل، نامهای را امضا کردند و در آن از شرکتهای هوش مصنوعی خواستند تا کار روی پیشرفتهترین فناوری خود را به مدت شش ماه متوقف کنند تا فضا برای وضع نوعی مقررات ایجاد شود. در بخشی از آن نامه آمده بود:
آیا باید اجازه دهیم ماشینها کانالهای اطلاعاتی ما را پر از پروپاگاندا و تبلیغات نادرست کنند؟ آیا باید تمام مشاغل را خودکار کنیم؟ آیا باید ذهنهای غیرانسانی را پرورش دهیم که ممکن است در نهایت از تعداد ما پیشی گرفته، منسوخ و جایگزین ما شوند؟ آیا باید در خطر از دستدادن کنترل تمدن خود باشیم؟ چنین تصمیماتی نباید به رهبران فناوری نامنتخب واگذار شود.
اینها دغدغههای نظری نبود. برای مثال، یک تیم تحقیقاتی از I.B.M تنها به پنج دقیقه زمان نیاز داشت برای آن که چت جیپیتی را فریب دهد تا ایمیلهای فیشینگ بسیار متقاعدکننده بنویسد. محققان دیگر از هوش مصنوعی مولد برای نوشتن بدافزاری استفاده کردهاند که میتواند پروتکلهای ایمنی را دور بزند و آن را به منبعی بالقوه برای مجرمان سایبری تبدیل کند. گلدمن ساکس[۳] تخمین زده است که هوش مصنوعی به زودی میتواند جایگزین سیصد میلیون شغل تمام وقت شود.
جای تعجب نیست که هیچ مکثی و هیچ مقررات معنیداری وجود نداشت. در عوض، در پایان ماه اکتبر، دولت بایدن فرمان اجرایی توسعه ایمن، مطمئن، قابل اعتماد و استفاده از هوش مصنوعی را صادر کرد؛ سندی طولانی که بیشتر شبیه به فهرست آرزوها است تا یک دستور. این نشان میدهد که قوه مجریه درگیر یک عمل متعادلکننده پیچیده بین خطرات و احتمالات هوش مصنوعی است. تنها یک هفته بعد، OpenAI مجموعه جدیدی از محصولات را معرفی کرد. از جمله یک مدل هوش مصنوعی که میتواند اعلانات را به اندازه یک کتاب سیصد صفحهای بخواند. کیت “چتبات شخصیات را بساز[۴]” و چیزی به نام “سپر کپیرایت[۵]” که وعده پرداخت هزینههای قانونی توسعهدهندگان متهم به نقض حق چاپ را میدهد.
با کمک این ابزارهای جدید، من توانستم از چت جیپیتی برای ایجاد یک چتبات استفاده کنم که تعیین میکند کدام داروها برای مصرف با هم بیخطر نیستند و دیگری که فهرستی از تمام رستورانهای موجود در یک مکان خاص که میتوانند آلرژیها و ممنوعیتهای غذایی خاصی داشته باشند را فهرست میکند. ساختن این چتباتها بسیار ساده بود. من از الگوریتمهایی که آنها را هدایت میکردند، منشأ دادههای آموزشی آنها را نادیده میگرفتم. آیا من به نحوی حق چاپ را نقض میکردم؟ و اینکه آیا اطلاعات تولید شده توسط چتباتها دقیق بود یا خیر؟ همچنین نمیدانستم که چقدر از قدرت محاسباتی استفاده میکنم، یا تأثیر محیطی من ممکن است چه باشد. اما در هر صورت آنها جالب بودند و از نوع چیزی که مردم ممکن است برای آن هزینه کنند.
توسعه تجاری هوش مصنوعی مولد احتمالاً بدون وقفه ادامه خواهد داشت. هوش مصنوعی بر تعداد فزایندهای از فعالیتهای پیچیده مانند رادیولوژی، کشف دارو، رواندرمانی، استخدام و پذیرش در کالج تأثیر خواهد گذاشت. شرکتهای مختلف از آن در نسل بعدی سختافزار استفاده خواهند کرد. به عنوان مثال، سامسونگ احتمالاً هوش مصنوعی مولد را در گوشیهای پرچمدار آینده خود که در ژانویه رونمایی خواهد کرد، قرار خواهد داد. گزارش شده است که سام آلتمن[۶]، یکی از بنیانگذاران OpenAI که اخیراً از نقش مدیر عاملی خارج شده و سپس دوباره به آن رسیده است، با جانی آیو[۷]، طراح مشهور اپل، برای طراحی “آیفون هوش مصنوعی” همکاری کرده است. ممکن است با نوعی نوستالژی به سال ۲۰۲۳ نگاه کنیم؛ برای زمانی که هوش هنوز به یک محصول تبدیل نشده بود.
متن اصلی را میتوانید در این لینک بخوانید.
[۱] Elon Musk
[۲] Steve Wozniak
[۳] Goldman Sachs
[۴] Build-your-own-chatbot kit
[۵] copyright shield
[۶] Sam Altman
[۷] Jony Ive
[۱] ChatGPT
[۲] Chatbot
[۳] Bard
[۴] Bing
[۵] Claude
[۶] Johnny Cash
[۷] Giuseppe Verdi
[۸] Emily Bender
[۹] Billie Eilish
[۱۰] David Banks
[۱۱] Greg Brockman
[۱۲] OpenAI’s less-than-open policy
[۱۳] The literary nonprofit pen America
[۱۴] Center for Artistic Inquiry and Reporting