چرا ما باید مراقبت که در Facebook به طور تصادفی Deplatformed صدها نفر از کاربران


A Facebook logo blurred on a screen

اولیویه Douliery/گتی ایماژ

این هفته به عنوان بخشی از شرکت را تلاش برای جمع اوری کردن “بد بازیگران” Facebook به طور تصادفی deplatformed صدها حساب. قربانیان ؟ ضد نژادپرستانه نهاوند و اعضای ska پانک و رگی جوامع—از جمله هنرمندان از رنگ. برخی از کاربران حتی اعتقاد حساب های خود را به حالت تعلیق در آمد فقط برای “میل” غیر نژادپرستانه skinhead صفحات و پانک فن صفحات. در حالی که Facebook نگه داشته است مادر در دلایل اشتباه به نظر می رسد به احتمال زیاد به عنوان OneZero گزارش شده که پلت فرم اشتباه این خرده فرهنگ ها با راست, neo-Nazi نهاوند.

این دقیقا یک اشتباه را. این skinhead زیبایی شده است در ارتباط با supremacist گروه. (مرکز قانون فقر جنوب در نظر نژادپرستانه نهاوند “در میان خطرناک ترین رادیکال راست تهدیدات رو به اجرای قانون است.”) اما اولین نهاوند که پدید آمده در دهه 1960 در لندن تا به حال غیر نژادپرستانه و فرهنگی ریشه—آنها را تحت تاثیر قرار جامائیکا مهاجران و مشترک روابط نزدیک به ska رگی و پانک ، با ظهور نئو نازی ها به گروه های جنبش تقسیم در ’70s و 80s به نژادپرستانه و غیر نژادپرست جناح که امروز وجود دارد. در حالی که دومی که وجود دارد در سراسر جهان تلاش کرده اند به مجموعه ای از رکورد مستقیم برای چند دهه گذشته به طور پیش فرض تصویر از وضوح بالا-به-سفید-supremacist باقی مانده است.

Facebook سردرگمی نمی شد وحشتناکی حادثه جدی و پلت فرم سریع برای صاف کردن آن را بیش از چند روز بعد حساب ابقاء شد و این شرکت عذرخواهی کرد.
در عین حال در حالی که آن را ممکن است تنها باعث ناراحتی جزئی اشتباه روشن تنش در قلب محتوای اعتدال امروز. به عنوان ما در حال آمدن به شرایط غیر قابل اجتناب از اشتباهات در سیستم عامل این مقیاس ما چپ با یک حساب ساده: هر دو سیستم عامل می توانید تنها خطرناک ترین مطالب, ترک برخی مضر سخنرانی و یا آنها می توانند بازیگران شبکه ای گسترده و حذف بی ضرر سخنرانی در این فرآیند است. اگر ما به نفع دومی و سیستم عامل واقع شده است حرکت به سمت این—پس از آن ما نیاز به در نظر گرفتن میزان که اشتباهات لازم است و یا قابل اغماض در یک شرکت رسانه های اجتماعی را بیشتر ماموریت برای پاک کردن اطلاعات غلط و بیان نفرت از پلت فرم آن است.

این deplatforming حادثه می آید به عنوان رسانه های اجتماعی شرکت ها را افزایش داده اند تلاش های خود را برای تنظیم محتوا در پاسخ به دو فشارهای انتخابات ریاست جمهوری و به خصوص این بیماری همه گیر کوروناویروس. فقط در ماه نوامبر گذشته Facebook انتقاد قرار گرفته بود برای امتناع از ممنوعیت سفید گرایان و دیگر گروه های نفرت با وجود وعده به انجام این کار. و در حالی که این شرکت دقیقا نمی رها آن بی بند و مداخله رویکرد به محتوای اعتدال, Facebook, در میان دیگر سیستم عامل اتحاد گلچین پرچم اطلاعات غلط سخنرانی نفرت و محتوای مضر در بی سابقه نرخ در ماه های پس از. هفته گذشته مثلا Facebook حذف نزدیک به 200 حساب به سفید supremacist گروه.

ضد نژادپرستانه نهاوند و نوازندگان فقط آخرین قربانیان این سیاست ها. در ماه آوریل برای مثال Facebook تهدید به ممنوعیت DIY ماسک سازندگان از ارسال و یا اظهار نظر و حذف گروه هماهنگی تلاش های داوطلبانه به سادگی آنها را. (خودکار محتوای اعتدال سیستم تا به حال اشتباه داوطلب پست با فروش تجهیزات پزشکی.) این ماه Facebook و Instagram رفع انسداد از #سیک برچسب پس از پایدار عمومی فشار برای معکوس سه ماه محدودیت. دلایل اولیه بلوک شد نامشخص—Instagram گفت: این یک اشتباه بود با توجه به “گزارش شد که نادرست نوشته شده توسط تیم ما”—اما منتقدان اشاره کرد که در آن رخ داده است در طول 36امین سالگرد عملیات آبی ستاره هند, ارتش, حمله به یک معبد سیک که به کشته شدن حداقل 400 شهروندان است.

یکی از دلایل اصلی برای چنین اشتباهات افزایش تکیه بر هوش مصنوعی است. شرکت رسانه های اجتماعی استفاده کرده اند A. I. سال برای نظارت بر محتوا اما در شروع این بیماری همه گیر آنها گفتند که تکیه A. I. حتی بیشتر به عنوان انسان مدیران به خانه فرستاده شدند, اعتراف است که آنها “انتظار برای اشتباهات بیشتر” به عنوان یک نتیجه. این یک لحظه نادر از خلوص: “[F]یا سال این سیستم عامل شده اند شعار A. I. ابزار به عنوان نوش دارو که به رفع تمام محتوای اعتدال” گفت: ساناز Douek دانشجوی دکتری در دانشکده حقوق دانشگاه هاروارد و وابسته در دانشگاه هاروارد برکمن کلاین مرکز اینترنت و جامعه است.

در حالی که A. I. بزرگ اجازه می دهد تا سیستم عامل به وزش محتوا در یک مقیاس غیر قابل دسترس برای انسان و موجب صرفه جویی در underpaid کارگران از قرار گرفتن در معرض بیشتر به اخلال پست—کاستی های آن به خوبی مستند شده است. به عنوان سارا T. رابرتز استادیار اطلاعات مطالعات انجام شده در UCLA نوشت: در تخته سنگ در اوایل سال جاری A. I. ابزار “بیش از حد گسترده ای در بازده بازدید قادر به خوب یا ظریف تصمیم گیری فراتر از آنچه که آنها شده اند به صراحت برنامه ریزی شده است.” و بسیاری از حقوق بشر و آزادی بیان سازمان نگاه کنید به “bluntness از این ابزار به عنوان کمتر از یک اشتباه و بیشتر از یک تخلف در سمت راست برای ایجاد دسترسی و گردش اطلاعات” رابرتز نوشت.

مشکل این است که A. I. در اینجا به ماندن است—و این که تا حدودی به عنوان یک نتیجه از این کار ما باید انتظار برای دیدن بسیاری از اشتباهات در این سیستم عامل است. اما این بدان معنا نیست که ما باید در محتوای اعتدال از یک defeatist نظر. “ما نیاز به شروع به فکر کردن در مورد چه نوع از اشتباهات ما می خواهید سیستم عامل را گفت:” Douek که همچنین به ذکر است که این گفتگو کند بوده است در ابتلا به این نقطه “از آنجا که مردم مضطرب صحبت کردن در مورد این نوع از حساب دیفرانسیل و انتگرال در زمینه گفتار حقوق.”

یکی از راه های نزدیک شدن به این سوال Douek معتقد است با توجه به انواع مختلف سخنرانی که سیستم عامل تنظیم و فهیم آنهایی که به اولویت بندی بیش از دیگران است. “من فکر می کنم که واقعا وجود دارد و منافع مختلف در خطر است هنگامی که شما در حال صحبت کردن در مورد سخنرانی” Douek گفت. “مضر سخنرانی در زمینه یک بیماری همه گیر که در آن خط بین اطلاعات غلط و آسیب فیزیکی به خصوص مستقیم و فوری است تا حدودی متفاوت به نحوه برخورد سیاسی با اطلاعات غلط یا دروغ که در آن بهترین پاسخ ممکن است لزوما سانسور, اما ممکن است ابزارهای دیگر است که سیستم عامل را در اختیار خود مانند چک حقیقت و پرچم.” او افزود: “من خواهد بود مردد به overlearn درس از این بیماری همه گیر.”

گام دیگری است که به تقاضای شفافیت بیشتر از رسانه های اجتماعی شرکت ها. بسیاری از مردم نگران در مورد الگوریتمی تعصب, مثلا, اما آن را هنوز مشخص نیست چه کسی است که تعصب را تحت تاثیر قرار در محتوای اعتدال. به عنوان Douek ذکر مکالمات در اطراف ضد محافظه کار تعصب ضد چپ و ضد تعصب نژادی رخ می دهد به طور همزمان. مشکل این است که سیستم عامل معروف cagey خود را در مورد داده ها و الگوریتم ها. “ما نیاز به کرک این سیستم عامل باز و محققان مستقل دسترسی به داده ها برای شروع به کار کردن دقیقا چه می گذرد به طوری که ما می توانیم ساخت تجربی بر اساس پاسخ به این,” او گفت:.

اما این شفافیت فراتر از درک چگونه Facebook را A. I. ابزار تابع. فقط در نظر بگیرید که از حساب های مرتبط با ضد نژادپرستانه نهاوند: اگر چه Facebook عذرخواهی این شرکت و در عین حال به توضیح دهد که چه چیزی را اشتباه رفت. ما نمی دانیم که به عنوان Douek با اشاره به اینکه این اقدام مربوط به اخیر deplatformings; ما نمی دانیم که اگر آن را در پاسخ به شرایط اضطراری; ما نمی دانیم که اگر آن را به سادگی بخشی از تعمیر و نگهداری روزمره. برای همه ما می دانیم انسان محتوای مدیران می تواند اشتباه گرفته اند رابطه بین خرده فرهنگ های مختلف.

در حالت ایده آل وجود دارد نیاز به یک سیستم بهتر برای درک و به چالش کشیدن این نوع از اشتباهات. “در حال حاضر این سیستم عامل فقط کافی تجدید نظر و تصحیح خطا فرآیندهای.” Douek گفت. اگر ما در نهایت رفتن به قبول است که در یک پست-همه گیر جهان بسیاری از اشتباهات ساخته خواهد شد—و این که آنها خواهد شد که پیامدهای جدی برای سخنرانی—پس حداقل ما نیاز به تغییر مکالمه به چگونه ما می خواهیم این سیستم عامل آنها را به آدرس.

Future Tense یک مشارکت
تخته سنگ جدید امریکا و دانشگاه ایالتی آریزونا که به بررسی فن آوری های نوظهور, عمومی, سیاست و جامعه است.

tinyurlis.gdu.nuclck.ruulvis.net

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>