هوش مصنوعی در جایگاه تمدنسازی
سایبرپژوه – تکنولوژی زندگی مردم جهان را متحول کرده است و راهکارهای جدید آن راحتی و رفاه بیشتری با خودشان به همراه آوردهاند. با این اوصاف است که بسیاری از کارشناسان و تحلیلگران معتقدند که هوش مصنوعی بهعنوان یکی از جدیدترین و مفیدترین راهکارهای تکنولوژی در سالهای اخیر، به مثابه چراغی برای روشن کردن راه جوامع، قدرتمندتر کردن دموکراسیها، محافظت از حریم خصوصی افراد و آزادی آنهاست؛ تا جایی که به گفته دکتر «سافیا نابل»، هوش مصنوعی یکی از مسائل مهم و حساس حقوقبشری در عصر ماست. همچنین طبق ادعای «کوین اسکات» مدیر ارشد تکنولوژی شرکت مایکروسافت، دانش هوش مصنوعی بخش مهمی از ماهیت وجودی یک شهروند آگاه در قرن بیستویکم است. در همین راستا مجله VentureBeat به بررسی راههایی پرداخته است که به توانمند کردن جوامع کمک میکنند.
یادگیری ماشینی برای آگاهی بیشتر و بهتر
آگاهی از منابع گسترده یا OSINT، گردآوری و تحلیل آزادانه منابع عمومی در دسترس است که به راهکارهای رمزنگاری و امنیتی قدرت میبخشد و همچنین باعث میشود که دولتها پاسخگو باشند. گروههایی مانند کنسرسیوم بینالمللی روزنامهنگاران تحقیقی (ICIJ) از یادگیری ماشینی برای جمعآوری اطلاعات مورد نیازشان استفاده میکنند. در سال گذشته میلادی این کنسرسیوم با استفاده از راهکارهای هوش مصنوعی برای جمعآوری اطلاعات تحقیقاتی خود با لابراتوار هوش مصنوعی دانشگاه استنفورد همکاری کرد. در ماه مه گذشته هم محققان دانشگاه Universidade Nove de Julho در شهر سائوپائولو در برزیل هم نتایج بررسیهای سیستماتیک خود بر مبنای استفاده از هوش مصنوعی برای گردآوری اطلاعات را منتشر کردند. براساس این بررسیها، نزدیک به ۲۵۰ نمونه گردآوری اطلاعات با استفاده از هوش مصنوعی در فاصله سالهای ۱۹۹۰ تا ۲۰۱۹ انجام شده است. در همین راستا محققان دانشگاه Swansea هم از یادگیری ماشینی برای جمعآوری اطلاعات در زمینه جنایات جنگی که در یمن رخ میدهند، استفاده میکنند.
شناسایی تبعیض جنسیتی از سوی پلیس
محققان دانشگاه استنفورد با بهرهگیری از مزایای زبانشناسی محاسباتی یا NLP برای پردازش اطلاعات، به ثبت مکالماتی پرداختند که میان افسران پلیس و مردمی که برای تخلفات ترافیکی متوقف شده بودند، برقرار شده است. این محققان به کمک زبانهای کامپیوتری توانستند نشان بدهند که افسران پلیس در زمان چنین اتفاقاتی، احترام کمتری برای شهروندان سیاهپوست قائل هستند. نتایج این بررسیها که در بولتن آکادمی ملی علوم در سال ۲۰۱۷ منتشر شد، نشان داد که استفاده پلیس از دوربینهای قابل نصب روی بدنشان میتواند به ایجاد اعتماد میان مردم جامعه و نهادهای قانونگذار کمک کند. این بررسیهای تحلیلی بر اساس ثبت مکالمات میان افسران پلیس و مردم در طول سالها انجام شد و در آن از گردآوری اطلاعات به جای تحقیقات میدانی فردبهفرد، استفاده شد.
اطلاع مردم از بررسیهای الگوریتمی
ایده این موضوع از جلسات تحلیلی میان متخصصان علم روباتیک برای ایجاد راهکارهای هوش مصنوعی بهتر، بیرون آمد. این مفهوم که اولین بار در سال ۲۰۱۹ در کتابی به نام «راهنمای انسانی هوش ماشینی» به کار برده شد، در واقع به ایده شفافیت در روابط اجتماعی برمیگردد و به این معناست که هر فرد حق این را داشته باشد که بداند چه وقت یک الگوریتم در حال گرفتن تصمیمی است که زندگی او را تحت تاثیر قرار میدهد و همچنین در این الگوریتم تصمیمگیری چه عواملی در نظر گرفته میشوند. سند حقوق الگوریتمی شامل دسترسی هر فرد به اطلاعات شخصی در دسترس نهادها و سازمانها و امکان رد یا پذیرش اجازه آنها برای استفاده از این اطلاعات میشود. بررسیها نشان میدهند که بعضی از این مفاهیم در لوایح قانونی ارائه شده در کنگره آمریکا هم وجود دارند؛ مانند قانون شفافیت الگوریتمی سال ۲۰۱۹.
کنترل درستی اطلاعات و مبارزه با تقلب
صرفنظر از باتهایی که خدمات شهری ارائه میدهند یا شفافیت و آگاهی عمومی را بالا میبرند، هوش مصنوعی میتواند با انتشار اطلاعات غلط و تقلب مبارزه کند. بهعنوان مثال، انتشار اطلاعات غلط یکی از مهمترین نگرانیهای پیش روی دولت آمریکا در انتخابات پیشرو در ماه نوامبر امسال است. در گزارشی که در پاییز سال ۲۰۱۹ و درباره انتخابات آینده منتشر شد، مرکز حقوق انسانی و تجاری دانشگاه نیویورک نسبت به اشکال بومی و داخلی انتشار اطلاعات نادرست و همچنین پتانسیل دخالتهای خارجی از سوی دولتهای چین یا روسیه هشدار داد. در همین راستا چالش شناسایی اطلاعات نادرست با هدف کمک به شمارش ویدئوهای گولزننده شکل گرفته و همچنین فیسبوک هم ویدئوهایی را برای آموزش سیستمهای شناسایی اطلاعات نادرست و غلط ارائه کرده است.
جلوگیری از تبعیض و اسکان بیخانمانها
در لسآنجلس افراد بیخانمان و سفیدپوست تا ۴/ ۱ برابر سریعتر از افراد بیخانمان رنگینپوست، اسکان داده میشوند و این به ضعف سیاستهای مربوط به اسکان افراد بیخانمان یا تبعیض میان آنها برمیگردد. نتایج بررسیهای مربوط به نژادپرستی ساختاری در اسکان افراد بیخانمان لسآنجلس در ماه گذشته منتشر شد و نشان داد که تنها ۸ درصد از شهروندان این شهر سیاهپوست هستند؛ اما حدود ۳۴ درصد از این جمعیت بیخانمان هستند. برای جلوگیری از این جریان، مرکز تحقیقات کاربردی هوش مصنوعی در اجتماع دانشگاه کالیفرنیای جنوبی به تحقیق درباره راهکارهای هوش مصنوعی پرداخته است که با استفاده از آنها میتوان این تضمین را ایجاد کرد که اسکان افراد بیخانمان بهصورت عادلانه انجام خواهد شد. در همین راستا، این مرکز در ماه گذشته از کمک ۵/ ۱ میلیون دلاری به اداره خدمات ویژه بیخانمانهای لسآنجلس خبر داد. موضوع اسکان بیخانمانها در کالیفرنیا معضلی جدی است و به همین خاطر مرکز تحقیقات کاربردی هوش مصنوعی در اجتماع دانشگاه کالیفرنیای جنوبی از سال ۲۰۱۷ به کمک نهادهای خیریه و ذیربط در این حوزه به تحقیقات گستردهای پرداخته است تا با کمک ابزارهای هوش مصنوعی تا حد امکان از افزایش بیخانمانی در این ایالت جلوگیری کند.
محافظت در برابر حملات باجافزاری
از پیش از شیوع ویروس کرونا و تظاهرات گسترده در اعتراض به نژادپرستی، موضوع حمله باجافزارها و تهدید آنها برای بخشهای مختلف اداری و مالی، همیشه به شکلی پررنگ و مهم وجود داشته است. در سال ۲۰۱۹ حملات باجافزاری به سازمانها و موسسات عمومی مانند بیمارستانها، مدارس و نهادهای دولتی با نرخی بیسابقه افزایش یافتند و هزینههای هنگفتی را برای بازیابی اطلاعات و فایلها به آنها تحمیل کردند. حالا اما شرکتهای امنیتی بزرگ دنیا درحال بررسی راهکارهای یادگیری ماشینی برای مبارزه و جلوگیری از تکرار چنین حملاتی هستند.