نقش ناشران علمی در گسترش الگوریتمهای نژادپرستانه
عدهای از محققان هوش مصنوعی دو روز پیش در نامهای سرگشاده از ناشر علمی اسپرینگر نیچر (Springer Nature) برای یک مقاله کنفرانسی که قرار بود در کتاب «معاملههای علوم محاسباتی و هوش محاسباتی» منتشر شود انتقاد کردهاند.
این مقاله با عنوان «الگوی شبکه عصبی عمیق برای پیشبینی جرم با استفاده از پردازش تصویر» ادعا میکند با استفاده از سیستم تشخیص چهره میتواند پیشبینی کند فردی مجرم است یا خیر. این تحقیق در دانشگاه هریسبورگ انجام شده است و قرار بود در کنفرانسی ارائه شود.
در پاسخ به نامه، اسپرینجر اعلام کرد این مقاله را منتشر نخواهد کرد. همچنین دانشگاه هریسبورگ اطلاع داد برای رفع نگرانیهای مطرحشده مقاله را بهروز میکنند. در عین حال، دانشگاه هریسبورگ و نویسندگان مقاله از ارائه نسخه اصلی مقاله سرباز زدند.
از سوی دیگر، امضاکنندگان این نامه گفتهاند که همچنان به دنبال تحقق خواستههای دوم و سوم نامهاند. خواسته دوم صدور بیانیهای توسط اسپرینگر است که در آن استفاده از تکنیکهای آماری مانند یادگیری ماشین (machine learning) برای پیشبینی جرم و جنایت را محکوم کند و نقش خودش را در پیشبرد چنین تحقیقاتی که تاکنون انجام شدهاند بپذیرد. خواسته سوم معترضان هم تعهد تمامی ناشران علمی به عدم انتشار مقالات مشابه در آینده است.
هدف نویسندگان این نامه نشان دادن مشکل سیستماتیک در انتشار مقالات علمی است؛ مشکلی که مدتهاست محققان را به رعایت نکردن مسائل اخلاقی سوق میدهد. از زمان مرگ جورج فلوید و شکلگیری جنبشی بینالمللی برای تحقق عدالت نژادی، صنعت فناوری و حوزه هوش مصنوعی هم بهطور خاص در رابطه با نقشی که در تقویت نژادپرستی ساختاری ایفا کردهاند مورد پرسش قرارگرفتهاند.
بهعنوانمثال، IBM، مایکروسافت و آمازون همگی تعلیق دائمی یا موقت محصولات تشخیص چهره خود را اعلام کردند. این اقدام نتیجه دو سال فعالیت و دفاع محققان و کنشگران برای نشان دادن ارتباط بین این فناوریها و نظارت بیشازحد و تبعیضآمیز بر جوامع اقلیتی بوده است. این نامه جدیدترین دستاورد این جنبش رو به رشد است، قدمی به سمت پذیرش مسئولیت اخلاقی بیشتر در هوش مصنوعی.