skip to Main Content
دانش عمومی

شش داستان الهام بخش برای تنظیم مقررات بهتر

وقتی نظارت بر محتوا آسیب می‌زند

معمولا شنیده می‌شود که به اینترنت لقب «غرب وحشی» را می‌دهند چون هر اتفاقی ممکن است در آن بیفتد. داستان‌های پیش رو نشان می‌دهد که این لقب از واقعیت به دور است.

اعداد به تنهایی نمی‌توانند تاثیر انسانی یک تصمیم اشتباه محتوایی بر روی بزرگترین سامانه‌های اینترنتی دنیا را نشان دهند. پیدا کردن توضیحی مشخص و یا جبران اشتباهات می‌تواند بی‌نهایت آزاردهنده باشد، چه این اشتباهات محتوا‌هایی هستند که باید حذف شوند، چه محتواهایی که به‌ناحق حذف می‌شوند. 

در این مطلب، مثالی‌هایی برای نشان دادن چالش‌های اصلی و همچنین فرصت‌های بهبود تنظیم مقررات سامانه‌های اینترنتی (پلتفرم) را در قالب شش داستان کوتاه و مختصر به اشتراک می‌گذاریم، چالش‌هایی مانند؛ محدودیت‌های اتوماسیون و فیلترینگ، شکاف‌های موجود در شفافیت و یک‌دستی قوانین، و فرصت تعامل با  اکوسیستمی از افراد و گروه‌هایی که در جستجوی جایگزین‌های اجتماعی، فنی و قانونی سالم‌تر هستند.

فشار عموم جامعه برای کاهش نفرت‌پراکنی، و محتواهای غیرقانونی در فضای اینترنت نیز به درخواست‌هایی مبنی بر تنظیم مقررات بیشتر برای پاسخگویی بهتر سامانه‌ها اضافه شده است، با این حال اکثر اوقات، تلاش‌های قانون‌گزاران برای پاسخگویی به درخواست‌ها بیشتر مخرب بوده‌اند تا سازنده و نتوانسته‌اند مشکلات اصلی را ریشه‌یابی کنند. در عین حال برخی از مشکلات حاد همچنان وجود دارند و در روند سیاست‌گذاری کم ارزش شمرده می‌شوند، برای مثال؛ تاثیر نظارت محتوا بر سلامت جسم و ذهن ناظران انسانی.

با به اشتراک گذاشتن این داستان‌ها ما می‌خواهیم الهام بخش سیاست‌گذاری کلی بر اساس شواهد و مدارک باشیم تا اشتباهات گذشته تکرار نشوند. قوانین عموما اقدامات شتاب‌زده‌ای را برای مقابله با درگیری‌ها و رسوایی‌ها ( و یا پاندمی‌ها) در نظر می‌گیرند، به جای اینکه روندی واضح و پایدار به سوی اینترنتی سالم‌تر برای همه را پیش بگیرند. پیچیدگی‌هایی که در این داستان‌ها بیان می‌شود نشان‌دهنده‌ی این است که تنظیم مقررات موثرتر به این راحتی‌‌ها بدست نمی‌آید و مطمئنا در همه جا به یک شکل نخواهد بود. ولی نشان می‌دهد که همکاری با هم‌نظران خود برای بهتر شدن وضعیت چقدر مهم است.

اتوماسیون و فیلترینگ

سیستم‌های متمرکز بر محتوا، معمولاً از اتوماسیون و فیلترینگ به عنوان یک روش موثر برای نظارت بر محتوا در سامانه‌های بزرگ استفاده می‌کنند. متاسفانه این تکنولوژی هنوز پیشرفت کافی را نداشته، و بیشتر از داده‌هایی با جهت گیری خاص و ناقص استفاده می‌کند; و خیلی اوقات منجر به موقعیت‌هایی می‌شود که محتوای «بد» بر روی اینترنت باقی می‌ماند و محتوای «خوب» پایین می‌آید. امروزه، در مقیاس کلی، هوش مصنوعی موئلفه‌ی اصلی نظارت بر محتوا است، اما زمانی که کار می‌رسد به نظارت بر نظرات عمومی که باید در قالب انسانی فهمیده شود، این ابزار ناکارآمد می‌شود. پس قوانینی که استفاده از این سیستم‌ها را اجبار می‌کند دلیل بروز آسیب‌ها هستند.

داستان اول

شیوع اطلاعات غلط و کووید۱۹

 وقتی اوایل شیوع جهانی این ویروس، ناظران بر محتوای سامانه‌های بزرگ مثل فیسبوک و یوتیوب به خانه فرستاده شدند، خیلی از مردم حذف اتوماتیک تعداد زیادی پست در مورد کووید ۱۹ را گزارش دادند. بلاگ سازندگان یوتیوب در تاریخ ۱۶ مارچ نوشت: «کاربران و سازندگان ممکن است شاهد افزایش پاک شدن ویدئو‌ها باشند، حتی ویدیوهایی که قوانین را زیر پا نگذاشته‌اند» و توضیح می‌دهد که سیستم یادگیری اتوماتیک بدون نظارت انسان شروع به پاک کردن محتوا خواهد کرد. در همان حین، اطلاعات غلط در مورد ویروس کرونا سرتاسر وب پخش و همه‌گیر می‌شدند. سامانه‌ها با سرعتی ثابت مشغول پاک کردن، کم اهمیت کردن و خارج کردن اطلاعات کذب در تبلیغات و لینک‌ها بودند. اما طبق نظر نت جینز (Nat Gyenes) از مرکز سلامت دیجیتال میدن (Meedan)، شیوع اطلاعات غلط اتفاق تازه‌ای نیست. او می‌گوید؛ «سامانه‌های اینترنتی بزرگ برای اجرای استراتژی‌های نظارت بر محتوای موثر نیاز به تشکیل تیم‌های پاسخگو به سلامت عمومی دارند». جینز می‌گوید که حتی برای مشکلات قدیمی مانند اطلاعات غلط درباره‌ی سرطان نیز همکاری سامانه‌ها با متخصصین سلامت عمومی و محققین جهان ناکافی است. او می‌گوید: «پاندمی‌ها جهانی هستند ولی به صورت منطقه‌ای و محلی تجربه می‌شوند، و چالش ناظران بر محتوا نیز به همین شکل است». مردم در همه‌جای جهان در ایمیل‌ها و انجمن‌های اینترنتی و گروه‌های مجازی با زبان عامیانه سوال‌هایی در مورد بهداشت و سلامت می‌پرسند. وجود ناظران انسانی ضروری است. در پاسخ سریع به پاندمی کووید۱۹، «میدن» در حال توسعه یک پایگاه‌داده‌ی سلامت تخصصی است که می‌تواند توسط جامعه بین المللی مورد بررسی صحت و درستی اطلاعات قرارگیرد. این پایگاه داده شامل اطلاعات مختلف سلامت و بهداشت از سراسر جهان از جمله هند، برزیل، کنیا و سنگال است که از طرف متخصصین تایید شده‌اند. همچنین اطلاعات را به کارکنان حوزه‌ی سلامت و سپس به سمت سامانههای اینترنتی بزرگ‌تر هدایت می‌کند. در نهایت، راه‌حل‌های اتوماتیک نظارت بر محتوا محدودیت‌هایی دارند و این واقعیتی سخت است که توسط پاندمی کووید۱۹ نمایان شد. مشکلات نظارت بسیار پیچیده هستند و هیچ راه حل جادویی نیز وجود ندارد.

داستان دوم

شبکه‌های اجتماعی به عنوان مدرک و حافظه

میلیون‌ها ویدیو نقض حقوق بشر، اگر یک فیلتر اتوماتیک آن‌ها را به عنوان محتوای تروریستی بشناسد، می‌توانند در یک چشم به هم زدن پاک شوند. آرشیو سوریه سازمانی است که شواهد تصویری که مدرک نقض حقوق بشر هستند را جمع آوری، تایید و نگهداری می‌کند. آنها سال‌هاست به سامانه‌های اینترنتی فشار وارد کرده‌اند که مدارک ویدئویی را نگهداری کنند و حتی اگر می‌خواهند آنها را از دید عموم مخفی کنند، در دسترس محققان قرار دهند. این سازمان از این که سامانههای رسانه‌های اجتماعی به «آرشیو‌های شانسی» تبدیل شده‌اند ناراضی هستند و هدفشان عرضه‌ی یک آرشیو جایگزین است. جف داچ (Jeff Deutch) محقق اصلی این سازمان می‌گوید؛ «بسیار مایوس کننده است. در خیلی موارد، اینگونه مدارک تنها شواهد موجود برای اثبات وقوع یک جنایت هستند. وقتی آن‌ها حذف شوند، کار خبرنگاران و محققین برای گزارش وقایع و دادستان‌ها برای پیگیری عدالت بسیار سخت می‌شود». او می‌گوید علاوه بر این، فرآیند قانونی بازیابی محتوا یکدست و مطمئن نیست، مخصوصا هنگامی که اکانت‌های تعلیق‌شده متعلق به کسانی‌ست که یا کشته یا بازداشت شده‌اند. «برای مثال، وقتی از سایت یوتیوب بازیابی حدود ۳۰۰ ویدئو را که حمله به بیمارستان‌ها و مراکز پزشکی ثبت کرده بودند درخواست کردیم، بازیابی شش ماه به طول کشید». متاسفانه خیلی از کشورها و منطقه‌ها، قوانین ضد تروریستی مشکل‌سازی را اجرا می‌کنند که باعث حذف شدن محتوای نقض‌کننده حقوق بشری می‌شود. برای نمونه؛ اتحادیه اروپا در حال تدوین مقررات محتوای تروریستی جدیدی با تعهدات حذف سخت‌گیرانه‌تری است که به معنی حذف هرچه بیشتر محتواهایی است که باید در دسترس عموم باشند، و این باعث ترس فعالان شده است

فضاهای عمومی، قوانین خصوصی

سامانه‌های بزرگ از طرف دولت‌ها برای شناسایی و اقدام نسبت به محتواهای غیرقانونی و آسیب‌زننده تحت فشار هستند. اما حتی هنگامی که قوانین مکتوب هستند نیز تصمیم بر این که چه چیزی حذف شود و چه چیزی باقی بماند کاملا به سامانه مورد نظر بستگی دارد. به عبارت دیگر، در واقع دستورالعمل خدمات و نظارت بر محتوای هر سامانه شبیه قانون عمل می‌کند، اما بدون هیچ ضمانت‌، روند‌ و یا پاسخگویی‌هایی که از قانون انتظار می‌رود. این می‌تواند منجر به حذف بیان نظر عمومی مهمی بدون فرصت پیگیری و دادخواست شود، همچنین می‌تواند به این معنی باشد که سامانه‌های بزرگ اولویت نظارت بر محتوا را در کشورهایی که دولت قدرت فشار بیشتر به آنها دارند را در اولویت قرار می‌دهند. در این فرایند به نظر میرسد افرادی که در مناطقی زندگی می‌کنند که اهمیت تجاری کمتری دارند، در تلاش‌های امنیتی و اعتمادسازی نادیده گرفته شده‌اند.

داستان سوم

سیاست‌های توجه آنلاین

تفاوت اهمیت و توجه به کاربران در بین کشورهای مختلف اولین بار توسط رزماری آجایی (Rosemary Ajayi) محقق دیجیتالی در حین انتخابات سال ۲۰۱۹ نیجریه شناخته شد. او به همراه یک تیم هشت نفره ناظر صدها توییت را که حاوی اطلاعات نادرست، نفرت‌پراکنی و جعل هویت نامزد‌ها بودند جمع آوری کردند. او می‌گوید نه تنها ارتباط با افرادی از سایت توییتر سخت بود، بلکه او متوجه شد که ابزارهای گزارش محتوای نادرست برای حفظ سلامت انتخابات که در انگلستان و دیگر کشورها وجود دارد در نیجریه وجود ندارد. حتی پیدا کردن تیک آبی به نشانه مورد تایید بودن اکانت نامزدهای سیاسی نیز سخت بود. «هیچ توضیحی وجود ندارد که چرا ابزار‌های موجود که می‌توانند از کاربران نیجریه‌ای محافظت کنند، در دسترس آن‌ها قرار نمی‌گیرد. در کل، من بیشتر نگران بالا گرفتن خشونت در حین انتخابات نیجریه هستم تا در انگلستان». آجایی به صورت سیستماتیک محتواهای آسیب زننده را نشان‌گذاری و گزارش می‌داد و زمان پاسخ‌دهی را ثبت می‌کرد. «بعضی پاسخ‌ها پس از یک ساعت می‌رسیدند. بعضی پس از ۲۴ساعت و بعضی‌ها حتی بیشتر از آن به طول می‌کشید. اگر پاسخ گزارش یک موضوع مهم در روز انتخابات یک هفته زمان ببرد، فایده‌ی آن چیست؟» تیم او با اسم «گروه تحقیقاتی دیجیتال آفریقا» جمع‌آوری هزاران توییت را در طول سال ۲۰۱۹ همچنان ادامه‌ دادند. نظر آجایی این است که مقررات ضروری هستند. اما او نگران لایحه‌ی جدید شبکه‌های اجتماعی در نیجریه است (که از یک قانون در سنگاپور الهام گرفته شده) که جریمه‌های سنگینی برای تخلفات در نظر دارد. «آسیب‌های زیادی در شبکه‌های اجتماعی وجود دارد ولی آن‌ها باید به دنبال اعمال مقررات برای سامانه‌ها باشند نه فرد به فرد». او به همراه دیگر محققان از کشورهای دیگر به صورت غیر‌رسمی به مشاوره با شرکت‌های رسانه‌های مجازی در مورد مسایل محلی داوطلب شده‌اند. او می‌گوید: « این شرکت‌ها لزوما متوجه معضلات نیستند، اما حتی زمانی هم که متوجه آن‌ها شدند نیز مطمئن نیستم که اراده‌ی رسیدگی به آن‌ها را داشته باشند».

داستان چهارم

کاهش آسیب مواد‌ مخدر و آموزش آن

بازگرداندن یک تصمیم نظارت بر محتوا اگر پاسخگویی انسانی و یا یک روند قانونی نداشته باشد، می‌تواند به یک امر بسیار آزاردهنده‌ تبدیل شود. در لهستان یک سازمان به نام SIN که کارش آموزش خطرات استفاده از مواد مخدر به جوانان است از تجربه‌شان از زمانی که فیسبوک صفحه‌ و گروهشان با ۴۰۰۰ عضو را به دلیل «تخلف از دستورالعمل‌های اصلی» در سال ۲۰۱۸ بست می‌گویند. جرزی آفاناسجو (Jerzy Afanasjew) از SIN می‌گوید: «یک روز بیدار شدم و دیدم همه‌اش رفته. فکر کردیم یک تصمیم اتوماتیک است و دکمه‌ی بازبینی را زدیم. تلاش کردیم با ارتباط انسانی تماس برقرار کنیم. حتی دادخواست‌های امضا شده برای دفترهای ورشو، دوبلین و کالیفرنیای فیسبوک فرستادیم». پس از یک سال انتظار برای بازگرداندن این تصمیم، در سال ۲۰۱۹ آن‌ها یک پرونده‌ی دادگاهی علیه فیسبوک با حمایت از گروه حقوق دیجیتالی لهستان» باز کردند. آن‌ها خواستار عذرخواهی و بازگرداندن اکانت و صفحات SIN بودند. گروه‌های کاهش آسیب‌های مواد مخدر عموما تحت تاثیر فیلتر سیستم‌های نظارت بر محتوا برای جلوگیری از فروش مواد مخدر قرار می‌گیرند. اما بعضی وقت‌ها نیز بازگردانده می‌شوند. «آفاناسجو» می‌گوید: «من به شخصه گروه‌هایی در ایالات متحده‌ می‌شناسم که درگیر همین مشکل بودند ولی توانستند آن را حل کنند. انگار ما برای آن‌ها کاربران درجه دو هستیم، مگر آنکه پول زیادی هزینه‌ی تبلیغات کنیم. حس می‌کنم ۵سال کارم به باد هوا رفته است».

نوآوری برای جایگزین‌های آتی

در کنار مقررات موثر، بیشمار نمونه از ابتکارات اجتماعی برای مبارزه با تاثیرات جانبی آسیب‌زننده‌ی نظارت بر محتوا و یا جایگزین‌هایی برای اقدامات ناکافی وجود دارد. مخصوصا از طریق توسعه‌ی نرم‌افزاری و ارتباط مستقیم با سامانه‌های اینترنتی و این تلاش‌ها برای پیدا کردن جایگزینی مناسب نسبت به وضعیت موجود حیاتی هستند و باید آن‌ها را تشویق و حمایت کرد. قانون‌گذاران باید از رویکرد‌های جدید موفق استفاده کنند و با افراد و سازمان‌هایی که به دنبال راه‌حل‌های متفکرانه برای مشکلات ریشه‌ای هستند همکاری وسیع‌تری داشته باشند.

داستان پنجم

تزریق جایگزین‌های فمینیستی

زنان و اقلیت‌های جنسی بیشتر در معرض آزار و اذیت آنلاین هستند ولی تبعیض جنسیتی در مقایسه با نفرت پراکنی، به ندرت اولویت نظارت بر محتوا بوده است. آیا امکاناتی وجود دارد که کاربران تجربه‌شان را خودشان کنترل کنند؟ ترزا اینگرام (Teresa Ingram) به عنوان تنها زن برنامه‌نویس نرم‌افزار در یک بانک انگلستان مشغول به کار بود که متوجه آزار و اذیت آنلاین زنان کارمند دولت از طریق دوست‌دخترش شد که در پارلمان دانمارک کار می‌کرد. او‌ در مورد ایده‌ی افزونه‌ی مرورگرش به نام Opt Out که توییت‌های تبعیض جنسیتی را با استفاده از یک مدل یادگیری ماشین از صفحه‌ی اصلی کاربر پنهان می‌کند توضیح می‌دهد: «به خودم گفتم در این مورد اگر خودم کاری نکنم، هیچ کس نمی‌کند». اکنون Opt Out یکی از پروژه‌های گروه فعالان تکنولوژی ٰOpt Out tool است که توانسته از همان ابتدا داوطلبانی از رشته‌های مختلف برنامه‌نویسی آزمایشی و فمینیستی به خود جذب کند. اینگرام با اشاره به اینکه گزارش توییت‌های توهین‌آمیز، زنان را از آزار و اذیت رها نمی‌کند، می‌گوید : «مشکلی که ما در حال رفع آن هستیم حتی توسط سامانه‌ها به عنوان مشکل شناخته نمی‌شود». هدف آن‌ها ساخت افزونه‌ای برای مرورگرها است که هر فردی بتواند آن‌ را هم‌راستای نیازهای خود تنظیم کند. او می‌گوید: «ما روند <خواهر بزرگ> را به جای <برادر بزرگ> برای نظارت بر محتوا در پیش گرفته‌ایم. کاربر تصمیم می‌گیرد که چه چیز را می‌خواد ببیند و چه چیز را نمی‌خواهد ببیند. هیچ وقت مدل نظارتی که برای تک‌تک افراد جهان مناسب باشد پیدا نخواهد شد. پس ما می‌خواهیم به افراد کمک کنیم خودشان سیستم مناسب‌شان را بسازند».

داستان ششم

همگام‌سازی اصول مدنی با حقوق کاربری

تصادفی نیست که طی سال‌های گذشته گزارش‌های شفاف‌سازی سامانه‌ها بیشتر و بیشتر با خواسته‌های کاربران، سازمان‌ها و دولت‌ها هم راستا شده‌است. یکی از تلاش‌های گروهی موثر در ساخت زمینه‌های استاندارد تدوین اصول سانتا کلارا است که در سال ۲۰۱۸ در کنار یک کنفرانس بزرگ نظارت بر محتوا در کالیفرنیا شکل گرفت. طی دوسال، سامانه‌های متعددی این اصول را تایید کردند و به اجرای درجات مختلفی از درخواست‌های بازنگری و پی‌گیری قانونی متعهد شدند. جیلیان یورک (Jillian York) مدیر آزادی بیان بین‌المللی EFF می‌گوید: «ما نیاز کاربران برای اجرای روندی که آن‌ها را از مقررات نظارتی ناعادلانه و مبهم محافظت می‌کند شناخته‌ایم». وی اکنون برای توسعه و اجرای استاندارد‌های جدیدی که حامی صداهای به حاشیه رفته هستند در حال تنظیم درخواست همگانی است. سازمان‌هایی مانند Ranking Digital Rights که در صف اول نظارت بر محتوا و شفافیت‌سازی شرکت‌ها هستند نیز مدل‌‌های تبلیغاتی که باعث افزایش محتواهای آسیب زننده به نحوی می‌شوندکه نظارت بر محتوا هم به تنهایی قادر به برطرف کردن آن نیست را مورد انتقاد قرار می‌دهند. ناتالی مارچال (Nathalie Maréchal) می‌گوید: « ما فکر می‌کنیم زمان آن رسیده که قانون‌کذاران سامانه‌ها را مسئول نحوه پخش و هدف‌گذاری محتواها بدانند تا کاربران را برای محتوا‌هایشان». فعالان، هم در مقابل و هم در کنار سامانه‌ها، خواهان درگیر کردن قانون‌گذاران برای دست‌یابی به قوانینی سالم و در راستای حقوق بشر و آزادی بیان هستند که ادامه‌ی راه سال‌ها تلاش افراد و گروه‌ها باشد.

چه‌ می‌توان کرد؟

گاها شنیده می‌شود که به اینترنت لقب «غرب وحشی» را می‌دهند که هر اتفاقی ممکن است بیفتد. داستان‌های بالا نشان می‌دهد که این لقب از واقعیت به دور است. در هر لحظه، تصمیماتی برای محتوای آنلاین گرفته می‌شود که تاثیر واقعی بر حقوق بشر و تجربه‌ی زیستی شهروندان جهان دارند. 

در حالی که نظارت بر محتوا توسط مقررات هر سامانه‌ انجام می‌شود، ولی نباید تاثیر فشار و اجرای مقررات توسط دولت‌ها را نیز نادیده گرفت. امروزه توجه اکثر این قوانین به تکنولوژی فیلتر محتوای نامناسب جلب است و کمتر به اطمینان از پاسخگویی و قبول مسئولیت سامانه‌ها و نحوه‌ی پیگیری‌های قضایی توجه می‌شود.

امیدواریم این داستان‌ها در به تصویر کشیدن هزینه‌های انسانی این واقعیت کمک کرده باشند و بتوانند نشان دهند که وقتی قانون‌گذاران مقررات تنظیم محتوا را شکل می‌دهند، چه چیزی در خطر است. در عین حال که ما می‌دانیم رسیدن به یک توازن که برای همه مناسب باشد چقدر سخت است، امیدواریم با این داستان‌ها توانسته باشیم نشان دهیم که اگر قوانین به‌درستی تنظیم شوند، شرایط چگونه خواهد بود.

 

همچنین بخوانید:  دشمنان نامرئی
Back To Top
🌗