skip to Main Content
نقش ناشران علمی در گسترش الگوریتم‌های نژادپرستانه
دانش سیاست کیوسک

محققان هوش مصنوعی به اسپرینگر نیچر نامه اعتراضی نوشتند

نقش ناشران علمی در گسترش الگوریتم‌های نژادپرستانه

عده‌ای از محققان هوش مصنوعی دو روز پیش در نامه‌ای سرگشاده از ناشر علمی اسپرینگر نیچر (Springer Nature) برای یک مقاله کنفرانسی که قرار بود در کتاب «معامله‌های علوم محاسباتی و هوش محاسباتی» منتشر شود انتقاد کرده‌اند.

این مقاله با عنوان «الگوی شبکه عصبی عمیق برای پیش‌بینی جرم با استفاده از پردازش تصویر» ادعا می‌کند با استفاده از سیستم تشخیص چهره می‌تواند پیش‌بینی کند فردی مجرم است یا خیر. این تحقیق در دانشگاه هریسبورگ انجام شده‌ است و قرار بود در کنفرانسی ارائه شود.

در پاسخ به نامه، اسپرینجر اعلام کرد این مقاله را منتشر نخواهد کرد. همچنین دانشگاه هریسبورگ اطلاع داد برای رفع نگرانی‌های مطرح‌شده مقاله را به‌روز می‌کنند. در عین حال، دانشگاه هریسبورگ و نویسندگان مقاله از ارائه نسخه اصلی مقاله سرباز زدند.

از سوی دیگر، امضاکنندگان این نامه گفته‌اند که همچنان به دنبال تحقق خواسته‌های دوم و سوم نامه‌اند. خواسته دوم صدور بیانیه‌ای توسط اسپرینگر است که در آن استفاده از تکنیک‌های آماری مانند یادگیری ماشین (machine learning) برای پیش‌بینی جرم و جنایت را محکوم کند و نقش خودش را در پیشبرد چنین تحقیقاتی که تاکنون انجام شده‌اند بپذیرد. خواسته سوم معترضان هم تعهد تمامی ناشران علمی به عدم انتشار مقالات مشابه در آینده است.

هدف نویسندگان این نامه نشان دادن مشکل سیستماتیک در انتشار مقالات علمی است؛ مشکلی که مدت‌هاست محققان را به رعایت نکردن مسائل اخلاقی سوق می‌دهد. از زمان مرگ جورج فلوید و شکل‌گیری جنبشی بین‌المللی برای تحقق عدالت نژادی، صنعت فناوری و حوزه هوش مصنوعی هم به‌طور خاص در رابطه با نقشی که در تقویت نژادپرستی ساختاری ایفا کرده‌اند مورد پرسش قرارگرفته‌اند.

همچنین بخوانید:  کسی مسئولیت اسب‌های دانشگاه اصفهان را به عهده نمی‌گیرد

به‌عنوان‌مثال، IBM، مایکروسافت و آمازون همگی تعلیق دائمی یا موقت محصولات تشخیص چهره خود را اعلام کردند. این اقدام نتیجه دو سال فعالیت و دفاع محققان و کنشگران برای نشان دادن ارتباط بین این فناوری‌ها و نظارت بیش‌ازحد و تبعیض‌آمیز بر جوامع اقلیتی بوده است. این نامه جدیدترین دستاورد این جنبش رو به رشد است، قدمی به سمت پذیرش مسئولیت اخلاقی بیشتر در هوش مصنوعی.

0 نظر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

Back To Top
🌗