آیا باید مسئولیت ارتکاب جرم را متوجه هوش مصنوعی بدانیم؟
اگر سارقان با پیامک سرقت از بانک را سازماندهی کنند، مسئولیت سرقت بر سازندگان تلفن همراه است؟ حالا خسارتی را در نظر بگیرید که به سبب هوش مصنوعی ایجاد شود؛ مثلاً راهنماییهای لازم برای یک حمله سایبری را از هوش مصنوعی بگیرند؛ مسئولیتش با سازندگان هوش مصنوعی است؟ بعضیها میگویند بله و با مسئول دانستنشان، مجبور میشوند سرویسهای مطمئنتری بسازند. اما آیا به همین سادگی است؟ اگر در باغوحش، قفس شیر را بدون قفل بگذارند، احتمالاً همه مسئولیت را متوجه مجموعه باغوحش میدانند؛ ولی کسی بهخاطر اینکه یک قاتل از اطلاعات مندرج در یک کتاب برای قتل استفاده کرده است، ناشرش را مسئول نمیداند. اگر مسئولیت همه خروجیهای هوش مصنوعی و پیامدهایی که این خروجیها به بار میآورند، متوجه سازندهها کنیم، احتمالاً خیلی سریع نابود میشوند. هدف ما باید حمایت از هوش مصنوعی باشد؛ پس باید موقع اعمال محدودیتها و قوانین بر هوش مصنوعی، بااحتیاط عمل کنیم.
تصور کنید که سارقان با رایانامه و پیامک، سرقت از بانکی را سازماندهی کنند؛ آیا مسئولیت سرقت بر عهده ارائهدهنگان سرویس رایانامه یا سازندگان تلفن همراه است؟ معلوم است که نه؛ هرگونه کیفر یا مجازاتی شامل حال سارقان میباشد. درباره مسئولیت هوش مصنوعی و استفاده از آن، چطور ؟
حالا پیامدی زیانبار را در نظر بگیرید که به سبب هوش مصنوعی به بار آید: انتشار اتهامنامه، توصیه نادرستی که موجب ضرر مالی شود یا دستورالعملهایی برای حمله سایبری مخرب. آیا باید شرکت سازنده هوش مصنوعی را مسئول بدانیم؟ متفکران باملاحظهای مثل اِزرا کلاین[۱] و لوک میولهاسر[۲] ادعا میکنند که باید اینطور باشد[۳]؛ حداقل باید تا حدی مقصر شناخته شوند تا از این طریق آن شرکتها ترغیب شوند سرویسهای مطمئنتری بسازند.
متأسفانه، عملیکردن این طرح دشوار است. یکی از دلایلش چیزی است که اقتصاددانان به آن «قضیه یا نظریه کوز»[۴] (Coase Theorem) میگویند. این نظریه توضیح میدهد که باید مسئولیت متوجه عاملی باشد که میتوانست با پرداخت کمترین هزینه از وقوع آسیب جلوگیری کند.
در مثال سرقت از بانک، ارائهدهندگان خدمات ارتباطاتی (حساب کاربری رایانامه) یا فناوریهای چندمنظوره (دستگاه تلفن همراه) نه چنین خصوصیتی دارند و نه تسلطی بر وقوع آسیب. ازآنجاکه فناوریهای چندمنظوره – مثل تلفن همراه، یا در موضوع بحثمان، مدلهای زبانی بزرگِ[۵] (LLM) هوش مصنوعی – در عمل کاربردهای فراوانی دارند، قانون نباید با بار مسئولیت اضافی ارائهدهندگان آنها را دلسرد کند.
بهعنوان یک مثال نقض ساده، مقایسه ناقص دیگری را در نظر بگیرید: باغ وحشی که در آن قفس شیر را بدون قفل میگذارند. احتمالاً مجموعه باغوحش بهخاطر وحشیگری این حیوان درنده مقصر شناخته میشود؛ زیرا واقعاً میتوانستند یکراست و با هزینه کم به این مشکل رسیدگی کنند.
رهیافت کوز برای گرفتن هر تصمیمی راهگشا نیست؛ ولی یک راهنمای خیلی ابتدایی برای گرفتن تصمیمی است که از لحاظ اقتصادی سودمند باشد.
در حال حاضر اگر کاربر، اطلاعات پزشکی نادرستی را از یک جستجو در گوگل به دست آورد، گوگل را مسئول نمیدانند. [البته] گوگل قبول کرده است که در پاسخ به سؤالات متداول، اتکاپذیری نتایج پزشکی ارائه شده را افزایش دهد؛ همان گونه که میبایست چنین کند. ولی اگر کسی روی بیست و هفتمین پیوند (link) کلیک کند و تصمیم بگیرد از زدن واکسن کرونا صرفنظر کند، بهدرستی مسئولیت را متوجه خود او میدانند. باتوجهبه تنوعی که مدلهای زبانی بزرگ در پاسخ به پرسشها و استفهامهای تکراری به نمایش میگذارند، مشخص نیست که مجازاتهای قانونی بتواند همه پاسخهایشان را مطابق معیار سازد.
مشابه این موضوع، کتابها و نقشهها اطلاعات خطرناکی در اختیار تبهکاران و تروریستهای بسیاری قرار دادهاند؛ ولی بهطورکلی، مسئولیت اینگونه جرمها با ناشر نیست. غیرواقعبینانه است که بخواهیم همه آنچه انتشار مییابد به طور کامل ترکیبی از اطلاعات درست و بیضرر باشد. مگر خروجی مدل زبانی بزرگ چیزی غیر از نوعی کتاب یا نقشه خیلی خوب است؟ (یا یک سؤال شیطنتآمیزتر: اگر در سؤال از مدل زبانی بزرگ بخواهند که پاسخ را قالب کتاب تحویل دهد، چهطور؟)
اگر واقعبینانهتر به موضوع بنگریم، اختصاصدادن مسئولیت به ارائهدهنده سرویس هوش مصنوعی در بسیاری از حوزهها عملی نیست. نظام حقوقی آمریکا، حتی وقتی خوب عمل میکند، همیشه نمیتواند تشخیص دهد کدام اطلاعات بهاندازه کافی مضر است. همچنین امکان دارد بعضیها خیلی از اطلاعات خوب و پربار را – مثل آموزش تولید و مهار انرژی به اشخاص – برای مقاصد نادرست به کار گیرند.
اینکه مسئولیت همه انواع خروجیهای متفاوت هوش مصنوعی و نتایجی که این خروجیها به بار میآورند، به طور کامل بر عهده ارائهدهندگان این سرویسها بگذاریم، احتمالاً آنها را ورشکست میکند. محتواهایی که مدلهای زبانی بزرگ فعلی میتوانند تولید کنند، تقریباً بینهایت است؛ این محتواها به زبانهای بسیاری میتواند باشد که شامل زبانهای برنامهنویسی و ریاضی هم میگردد. اگر واقعاً هدف ورشکست کردن ارائهدهندگان است، کسانی که میگویند آنان باید بار مسئولیت را بیشتر به دوش گیرند، [صادقانه] هدفشان را اعلام کنند.
اگر این امکان وجود داشته باشد که با اعمال اصلاحات سادهای در مدلهای زبانی بزرگ بشود مانع تولید بعضی از اقسام اطلاعات زیانبار شد، در این صورت احتمالاً مسئول دانستن ارائهدهندگان به شکل جزئی یا مشترک برای مطمئنتر شدن مدلهای زبانی بزرگ، دیدگاه معقولی است. اگر تصمیم بگیریم از این مسیر برویم، بهجاست که رویکرد خیلی مثبتتری نسبت به هوش مصنوعی اتخاذ کنیم؛ مقصودمان و طرز رفتارمان باید بیشتر در جهت حمایت از هوش مصنوعی باشد، نه تحت قاعده در آوردن و کاهش سرعت پیشرفت آن. حتی در این سناریو ممکن است که شرکتها داوطلبانه اصلاحاتی سودمندانه بر خروجیهایشان اعمال کنند تا موقعیتشان را در بازار بهتر کنند و از خود در برابر اقدامات متقابل تنظیمگرانه محافظت کنند.
بههیچوجه اینطور نیست که به همه مسائلی که در مورد مسئولیت هوش مصنوعی و مدلهای زبانی بزرگ وجود دارد، پاسخ داده باشیم؛ اینگونه هم نیست که رهیافت کوز راهنمای کاملی برای سیاستگذاریها باشد؛ ولی وقتی یک سرویس، چنین دامنه گستردهای از اطلاعات را ارائه میدهد، الزاماً با مقررات دستوپاگیرتر یا اختصاص مسئولیت بیشتری به آن، نمیشود مطمئنتر یا بهدردبخورترش کرد.
بعضیها نگران این هستند که شتاب حرکت هوش مصنوعی بیش از حد است.[۶] [اما] دیدگاه من این است که باید موقع اعمال محدودیتها و قوانین بر هوش مصنوعی، بااحتیاط عمل کنیم. [۷]
برای خواندن متن اصلی این مقاله به زبان انگلیسی روی این لینک کلیک کنید.
[۱] Ezra Klein
[۲] Luke Muelhauser
[۳] به ترتیب در:
https://www.openphilanthropy.org/research/12-tentative-ideas-for-us-ai-policy
[۴] https://en.wikipedia.org/wiki/Coase_theorem
[۵] https://en.wikipedia.org/wiki/Large_language_model
[۶] https://futureoflife.org/open-letter/pause-giant-ai-experiments
[۷] https://www.bloomberg.com/opinion/articles/2023-04-03/should-we-pause-ai-we-d-only-be-hurting-ourselves