فیسبوک از کوتاهی‌اش در حذف محتوای نامناسب 'سال‌ها مطلع بوده است'

فیسبوک از کوتاهی‌اش در حذف محتوای نامناسب 'سال‌ها مطلع بوده است'
بی بی سی فارسی
فیسبوک از کوتاهی‌اش در حذف محتوای نامناسب 'سال‌ها مطلع بوده است'۳ ساعت پیش

منبع تصویر، Reuters

فیسبوک سال‌هاست که در جلوگیری از انتشار محتوای نفرت‌پراکن، تفرقه‌انگیز، آشوب‌برانگیز، توهین‌آمیز و آزارگرانه کوتاهی کرده است، بخصوص در کشورهایی که بیشتر از این نظر آسیب‌پذیر بودند.

خبرگزاری رویترز می‌گوید گفتگو با پنج نفر از کارکنان سابق و همچنین بررسی اسناد داخلی فیسبوک نشان می‌دهد این شرکت هم‌پای گسترش سریع به کشورهای مختلف دنیا در بیش از یک دهه گذشته، در پیشگیری از انتشار محتوای نامناسب نکوشیده است.

به گزارش رویترز، کارکنان فیسبوک سالها در این باره هشدار می‌داده‌اند.

فیسبوک (مالک اینستاگرام و واتس‌اپ) خود را بزرگترین شبکه اجتماعی دنیا می‌داند، با ماهی ۲/۸ میلیارد کاربر در ۱۶۰ کشور دنیا.

  • 'فیس‌بوک برای کودکان مضر است و دموکراسی را تضعیف می‌کند'
  • فیسبوک: شبکه مرتبط با سپاه برای تاثیرگذاری مخفی را حذف کردیم
  • 'شناسایی یک شبکه جاسوسی ایران در فیس‌بوک'

منبع تصویر، Getty Images

به گزارش رویترز اسناد داخلی این شرکت نشان می‌دهند که فیسبوک در شماری از کشورهای در حال توسعه به تعداد کافی افراد آشنا به زبان و رویدادهای محلی استخدام نکرده بوده تا محتوای نامناسب را بشکلی موثر از این شبکه اجتماعی پاک کنند.

این اسناد نشان می‌دهند هوش مصنوعی که فیسبوک برای برداشتن محتوای نامناسب بکار گرفته هم این کار را بدرستی انجام نمی‌داده و کار را برای کاربرانی که می‌خواستند نقض مقررات خود فیسبوک را گزارش کنند هم آسان نکرده بوده است.

بر اساس این اسناد و مدارک، کارکنان فیسبوک هشدار می‌دادند که به وعده‌اش در جلوگیری از انتشار نفرت‌پراکنی در کشورهایی مثل افعانستان و یمن عمل نکرده است.

علاوه بر این، پارسال بر اساس یک بررسی داخلی یکی از کارکنان فیسبوک هشدار داده بود که نظارت بر محتوای نامناسب "شکاف‌های قابل‌توجهی" دارد بخصوص در کشورهایی که در خطر خشونت واقعی هستند مثل اتیوپی و میانمار.

این اسناد را چندی پیش فرانسیس هاگن از مدیران سابق فیسبوک ابتدا در اختیار روزنامه وال‌استریت جورنال و بعد کمیسیون بورس و اوراق بهادار و کنگره آمریکا قرار داده و رویترز هم آنها را دیده است.

منبع تصویر، Reuters

توضیح تصویر،

فرانسیس هاگن در حال شهارت در سنای آمریکا

میویس جونز سخنگوی فیسبوک در بیانیه‌ای گفت محتوای فیسبوک به "هفتاد زبان" بررسی می‌شود و این شرکت کارکنانی دارد که خود به همین زبان‌ها سخن می‌گویند و همینطور کارشناسان حقوق بشر و امور انسان‌دوستانه که دائم در تلاش برای جلوگیری از انتشار محتوای نامناسبند بخصوص در کشورهایی که در خطر خشونت و درگیری‌اند.

به گفته رویترز، اسنادی که دیده است حکایتی دیگر دارد و کارکنان در سال‌های اخیر هم کمبود نیروی انسانی هم نقص فناوری‌ را برای حذف محتوایی که ناقض مقررات خود فیسبوک است گزارش کرده بودند. به گفته رویترز این موضوع فراتر از کشورهایی مثل میانمار است که پیشتر کوتاهی فیسبوک در آنها گزارش شده بود.

بر اساس این اسناد فیسبوک الگوریتم نظارتی برای برخی کشورهایی که خود "در معرض خطر" طبقه‌بندی کرده بود نداشته است.

به گفته کارکنان سابق، فیسبوک بر اساس میزان ناآرامی، خشونت‌ قومی، تعداد کاربران و قوانین موجود، بعضی کشورها را "در معرض خطر" ارزیابی می‌کند. هدف از این کار تخصیص نیرو و امکانات به کشورهایی است که محتوای نامناسب بیشتر اثر منفی را دارد.

سخنگوی فیسبوک گفت این شرکت فهرست کشورهای در معرض خطر را هر شش ماه براساس دستوالعمل‌های سازمان ملل بازنگری می‌کند.

مسئله زبان

بر اساس اسناد نظارت انسانی فیسبوک که برای یافتن محتوای نامناسب ضروری است در برخی زبان‌ها نقص داشته از جمله در گویش‌های مختلف زبان عربی در کشورهای "در معرض خطر" و حتی در بین ناظران عرب زبان فیسبوک، "یمنی‌ها، لیبیایی‌ها، سعودی‌ها (در واقع تمام کشورهای خلیج [فارس]) یا غایبند یا حضوری اندک دارند."

مکاتبات داخلی فیسبوک همچنین نشان می‌دهد که کارکنانش همین امسال هشدار داده بودند که برای شناسایی محتوای نامناسب که کاربران در پاکستان و ایران و افغانستان منتتشر می‌کنند ناظر کافی به زبان‌های اردو و پشتو ندارد.

گزارش رویترز همچنین به مشکلی مشابه در زبان‌های دیگر اشاره می‌کند مثل زبان هندی و بنگالی (محتوای "ضداسلامی")، اورومو (یکی از زبان‌های اتیوپی)، امهری (رایجترین زیان اتیوپی که دو سال است در منطقه تیگرای ان جنگ داخلی است).

فیسبوک می‌گوید ۱۵۰۰۰ ناظر محتوا دارد و در این زبان‌ها و چند زبان دیگر اکنون نیروی مناسب و کافی را به کار گرفته است.

کارشناسان سازمان ملل که در سال ۲۰۱۸ در باره کشتار و سرکوب بی‌رحمانه صدها هزار مسلمان روهینگیا در میانمار تحقیق کردند به این نتیجه رسیدند که از فیسبوک برای نفرت‌پراکنی بر ضد این اقلیت مسلمان استفاده وسیعی شده است.

فیسبوک بعد از آن شمار ناظران محتوایش را بیشتر کرد اما خود پذیرفته باید بیش از این سعی می‌کرده است.

منبع خبر: بی بی سی فارسی

اخبار مرتبط: فیسبوک از کوتاهی‌اش در حذف محتوای نامناسب 'سال‌ها مطلع بوده است'