فرهنگ سایبری

آیا باید مسئولیت ارتکاب جرم را متوجه هوش مصنوعی بدانیم؟

اگر سارقان با پیامک سرقت از بانک را سازماندهی کنند، مسئولیت سرقت بر سازندگان تلفن همراه است؟ حالا خسارتی را در نظر بگیرید که به سبب هوش مصنوعی ایجاد شود؛ مثلاً راهنمایی‌های لازم برای یک حمله سایبری را از هوش مصنوعی بگیرند؛ مسئولیتش با سازندگان هوش مصنوعی است؟ بعضی‌ها می‌گویند بله و با مسئول دانستنشان، مجبور می‌شوند سرویس‌های مطمئن‌تری بسازند. اما آیا به همین سادگی است؟ اگر در باغ‌وحش، قفس شیر را بدون قفل بگذارند، احتمالاً همه مسئولیت را متوجه مجموعه باغ‌وحش می‌دانند؛ ولی کسی به‌خاطر اینکه یک قاتل از اطلاعات مندرج در یک کتاب برای قتل استفاده کرده است، ناشرش را مسئول نمی‌داند. اگر مسئولیت همه خروجی‌های هوش مصنوعی و پیامدهایی که این خروجی‌ها به بار می‌آورند، متوجه سازنده‌ها کنیم، احتمالاً خیلی سریع نابود می‌شوند. هدف ما باید حمایت از هوش مصنوعی باشد؛ پس باید موقع اعمال محدودیت‌ها و قوانین بر هوش مصنوعی، بااحتیاط عمل کنیم.

تصور کنید که سارقان با رایانامه و پیامک، سرقت از بانکی را سازماندهی کنند؛ آیا مسئولیت سرقت بر عهده ارائه‌دهنگان سرویس رایانامه یا سازندگان تلفن همراه است؟ معلوم است که نه؛ هرگونه کیفر یا مجازاتی شامل حال سارقان می‌باشد. درباره مسئولیت هوش مصنوعی و استفاده از آن، چطور ؟

حالا پیامدی زیان‌بار را در نظر بگیرید که به سبب هوش مصنوعی به بار آید: انتشار اتهام‌نامه، توصیه نادرستی که موجب ضرر مالی شود یا دستورالعمل‌هایی برای حمله سایبری مخرب. آیا باید شرکت سازنده هوش مصنوعی را مسئول بدانیم؟ متفکران باملاحظه‌ای مثل اِزرا کلاین[۱] و لوک میول‌هاسر[۲] ادعا می‌کنند که باید این‌طور باشد[۳]؛ حداقل باید تا حدی مقصر شناخته شوند تا از این طریق آن شرکت‌ها ترغیب شوند سرویس‌های مطمئن‌تری بسازند.

متأسفانه، عملی‌کردن این طرح دشوار است. یکی از دلایلش چیزی است که اقتصاددانان به آن «قضیه یا نظریه کوز»[۴] (Coase Theorem) می‌گویند. این نظریه توضیح می‌دهد که باید مسئولیت متوجه عاملی باشد که می‌توانست با پرداخت کمترین هزینه از وقوع آسیب جلوگیری کند.

در مثال سرقت از بانک، ارائه‌دهندگان خدمات ارتباطاتی (حساب کاربری رایانامه) یا فناوری‌های چندمنظوره (دستگاه تلفن همراه) نه چنین خصوصیتی دارند و نه تسلطی بر وقوع آسیب. ازآنجاکه فناوری‌های چندمنظوره – مثل تلفن همراه، یا در موضوع بحثمان، مدل‌های زبانی بزرگِ[۵] (LLM) هوش مصنوعی – در عمل کاربردهای فراوانی دارند، قانون نباید با بار مسئولیت اضافی ارائه‌دهندگان آن‌ها را دلسرد کند.

مسئولیت هوش مصنوعی

به‌عنوان یک مثال نقض ساده، مقایسه ناقص دیگری را در نظر بگیرید: باغ وحشی که در آن قفس شیر را بدون قفل می‌گذارند. احتمالاً مجموعه باغ‌وحش به‌خاطر وحشی‌گری این حیوان درنده مقصر شناخته می‌شود؛ زیرا واقعاً می‌توانستند یک‌راست و با هزینه کم به این مشکل رسیدگی کنند.

رهیافت کوز برای گرفتن هر تصمیمی راهگشا نیست؛ ولی یک راهنمای خیلی ابتدایی برای گرفتن تصمیمی است که از لحاظ اقتصادی سودمند باشد.

در حال حاضر اگر کاربر، اطلاعات پزشکی نادرستی را از یک جستجو در گوگل به دست آورد، گوگل را مسئول نمی‌دانند. [البته] گوگل قبول کرده است که در پاسخ به سؤالات متداول، اتکاپذیری نتایج پزشکی ارائه شده را افزایش دهد؛ همان گونه که می‌بایست چنین کند. ولی اگر کسی روی بیست و هفتمین پیوند (link) کلیک کند و تصمیم بگیرد از زدن واکسن کرونا صرف‌نظر کند، به‌درستی مسئولیت را متوجه خود او می‌دانند. باتوجه‌به تنوعی که مدل‌های زبانی بزرگ در پاسخ به پرسش‌ها و استفهام‌های تکراری به نمایش می‌گذارند، مشخص نیست که مجازات‌های قانونی بتواند همه پاسخ‌هایشان را مطابق معیار سازد.

مشابه این موضوع، کتاب‌ها و نقشه‌ها اطلاعات خطرناکی در اختیار تبهکاران و تروریست‌های بسیاری قرار داده‌اند؛ ولی به‌طورکلی، مسئولیت این‌گونه جرم‌ها با ناشر نیست. غیرواقع‌بینانه است که بخواهیم همه آنچه انتشار می‌یابد به طور کامل ترکیبی از اطلاعات درست و بی‌ضرر باشد. مگر خروجی مدل زبانی بزرگ چیزی غیر از نوعی کتاب یا نقشه خیلی خوب است؟ (یا یک سؤال شیطنت‌آمیزتر: اگر در سؤال از مدل زبانی بزرگ بخواهند که پاسخ را قالب کتاب تحویل دهد، چه‌طور؟)

اگر واقع‌بینانه‌تر به موضوع بنگریم، اختصاص‌دادن مسئولیت به ارائه‌دهنده سرویس هوش مصنوعی در بسیاری از حوزه‌ها عملی نیست. نظام حقوقی آمریکا، حتی وقتی خوب عمل می‌کند، همیشه نمی‌تواند تشخیص دهد کدام اطلاعات به‌اندازه کافی مضر است. همچنین امکان دارد بعضی‌ها خیلی از اطلاعات خوب و پربار را – مثل آموزش تولید و مهار انرژی به اشخاص – برای مقاصد نادرست به کار گیرند.

اینکه مسئولیت همه انواع خروجی‌های متفاوت هوش مصنوعی و نتایجی که این خروجی‌ها به بار می‌آورند، به طور کامل بر عهده ارائه‌دهندگان این سرویس‌ها بگذاریم، احتمالاً آن‌ها را ورشکست می‌کند. محتواهایی که مدل‌های زبانی بزرگ فعلی می‌توانند تولید کنند، تقریباً بی‌نهایت است؛ این محتواها به زبان‌های بسیاری می‌تواند باشد که شامل زبان‌های برنامه‌نویسی و ریاضی هم می‌گردد. اگر واقعاً هدف ورشکست کردن ارائه‌دهندگان است، کسانی که می‌گویند آنان باید بار مسئولیت را بیشتر به دوش گیرند، [صادقانه] هدفشان را اعلام کنند.

AI, Machine learning, Hands of robot and human touching on big data network connection background, Science and artificial intelligence technology, innovation and futuristic.

اگر این امکان وجود داشته باشد که با اعمال اصلاحات ساده‌ای در مدل‌های زبانی بزرگ بشود مانع تولید بعضی از اقسام اطلاعات زیان‌بار شد، در این صورت احتمالاً مسئول دانستن ارائه‌دهندگان به شکل جزئی یا مشترک برای مطمئن‌تر شدن مدل‌های زبانی بزرگ، دیدگاه معقولی است. اگر تصمیم بگیریم از این مسیر برویم، به‌جاست که رویکرد خیلی مثبت‌تری نسبت به هوش مصنوعی اتخاذ کنیم؛ مقصودمان و طرز رفتارمان باید بیشتر در جهت حمایت از هوش مصنوعی باشد، نه تحت قاعده در آوردن و کاهش سرعت پیشرفت آن. حتی در این سناریو ممکن است که شرکت‌ها داوطلبانه اصلاحاتی سودمندانه بر خروجی‌هایشان اعمال کنند تا موقعیتشان را در بازار بهتر کنند و از خود در برابر اقدامات متقابل تنظیم‌گرانه محافظت کنند.

به‌هیچ‌وجه این‌طور نیست که به همه مسائلی که در مورد مسئولیت هوش مصنوعی و مدل‌های زبانی بزرگ وجود دارد، پاسخ داده باشیم؛ این‌گونه هم نیست که رهیافت کوز راهنمای کاملی برای سیاست‌گذاری‌ها باشد؛ ولی وقتی یک سرویس، چنین دامنه گسترده‌ای از اطلاعات را ارائه می‌دهد، الزاماً با مقررات دست‌وپاگیرتر یا اختصاص مسئولیت بیشتری به آن، نمی‌شود مطمئن‌تر یا به‌دردبخورترش کرد.

بعضی‌ها نگران این هستند که شتاب حرکت هوش مصنوعی بیش از حد است.[۶] [اما] دیدگاه من این است که باید موقع اعمال محدودیت‌ها و قوانین بر هوش مصنوعی، بااحتیاط عمل کنیم. [۷]

 

برای خواندن متن اصلی این مقاله به زبان انگلیسی روی این لینک کلیک کنید.

[۱] Ezra Klein

[۲] Luke Muelhauser

[۳] به ترتیب در:

https://www.nytimes.com/2023/04/16/opinion/this-is-too-important-to-leave-to-microsoft-google-and-facebook.html

https://www.openphilanthropy.org/research/12-tentative-ideas-for-us-ai-policy

[۴] https://en.wikipedia.org/wiki/Coase_theorem

[۵] https://en.wikipedia.org/wiki/Large_language_model

[۶] https://futureoflife.org/open-letter/pause-giant-ai-experiments

[۷] https://www.bloomberg.com/opinion/articles/2023-04-03/should-we-pause-ai-we-d-only-be-hurting-ourselves

نوشته های مشابه

دکمه بازگشت به بالا