فضای مجازی

نقص در سیستم حذف خودکار تصاویر فیسبوک

در سال ۲۰۱۹، مارک زاکربرگ، مدیر عامل متا (فیسبوک) از ایجاد یک هیئت نظارت مستقل بر محتوا خبر داد. این هیئت متشکل از ۲۳ کارشناس و رهبر مدنی وظیفه بررسی تصمیمات بحث برانگیز تعدیل را در پی فشار منتقدان و کاربران در مورد سیاست‌های پیچیده و به ظاهر ناهموار شرکت داشتند. به گفته زاکربرگ در آن زمان، تصمیمات دادگاه عالی رسانه‌های اجتماعی او الزام آور خواهد بود، حتی اگر او یا هر کسی در فیسبوک با آن مخالف باشد. از آن زمان این هیئت احکام زیادی در مورد مسائلی از جمله سخنان نفرت پراکن، اطلاعات نادرست و برهنگی صادر کرده است؛ اما آخرین تصمیم این گروه شاید بدترین راهبرد شرکت متا و توانایی آن برای مقابله با مشکل تعدیل مداوم باشد.

هیئت نظارت اخیرا یافته‌های خود را از یک فرآیند تجدیدنظر در مورد حذف قبلی یک کارتون سیاسی کلمبیایی که خشونت پلیس را به تصویر می‌کشید، اعلام کرد. در بیانیه‌ای هیئت مدیره توضیح داد که چرا فیسبوک باید آثار هنری را از بانک‌های سرویس تطبیق رسانه‌ای خود با کمک هوش مصنوعی حذف کند، سیستمی که از اسکن هوش مصنوعی برای شناسایی و حذف تصاویر پرچم‌گذاری شده که خط‌مشی‌های محتوای وب‌سایت را نقض می‌کنند، استفاده می‌کند. آن‌ها همچنین استدلال کردند که چرا کل سیستم فعلی به شدت ناقص است.

هیئت نظارت پیش از اخطار می‌نویسد: «متا اشتباه کرد که این کارتون را به بانک خدمات تطبیق رسانه خود اضافه کرد که منجر به حذف انبوه و نامتناسب تصویر از پلتفرم، از جمله محتوای ارسال شده توسط کاربر در این مورد شد. علی‌رغم اینکه ۲۱۵ کاربر برای این حذف‌ها درخواست تجدیدنظر دادند و ۹۸ درصد از این درخواست‌ها موفقیت‌آمیز بود، متا همچنان کارتون را از این بانک حذف نکرد تا اینکه پرونده به هیئت مدیره رسید.

هیئت نظارت در ادامه توضیح می‌دهد که سیستم‌های حذف خودکار محتوای فیسبوک می‌توانند تصمیمات نادرست کارمندان انسانی را تقویت کنند. این امر به ویژه با توجه به اثرات موج دار چنین انتخاب‌هایی مشکل ساز است. در توصیه‌های خود، هیئت مدیره از فیسبوک خواسته است که نرخ خطای بانک‌های خدمات تطبیق رسانه را عمومی و براساس خط‌مشی محتوا برای شفافیت و پاسخگویی بهتر تجزیه و تحلیل کند.

متاسفانه، اینجا جایی است که «دادگاه عالی» رسانه‌های اجتماعی با دادگاه واشنگتن دی سی متفاوت است، علیرغم اینکه فیسبوک یک کمیته مستقل است، هیچ تعهد قانونی برای پایبندی به این پیشنهادات ندارد؛ با این حال در افشای نظرات کمیته نظارت برای عموم، مدیران زاکربرگ و متا ممکن است حداقل با فشار بیشتری برای ادامه اصلاح استراتژی‌های تعدیل خود مواجه شوند.


بیشتر بخوانید

  • گروه افشاگر آسیب‌های فیسبوک برای جامعه منحل شد

منبع:popsci

دیتاسنتر من فضای مجازی دريچه فناوری

مجله خبری دیتاسنتر من

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.

دکمه بازگشت به بالا