آیا ضعیف غلط محتوا در رسانه های اجتماعی نافرجام?


A red iPhone is held by two hands over a quilt.

تیم Mossholder/Unsplash

در چند ماه گذشته رسانه های اجتماعی شرکت های درهم به آدرس اطلاعات غلط پاره شدن از طریق خود سیستم عامل—اول در مورد انتخابات, پس از آن coronavirus. توییتر را آغاز کرده است با استفاده از دستکاری رسانه ها برچسب ها. Facebook شده است به شدت بیشتر از بین بردن محتوای مضر و ضعیف اخبار نادرست. این هفته یوتیوب اعلام کرد که آن را به اضافه کردن پانل های اطلاعات به جستجو در ایالات متحده آمریکا است که ممکن است به ارمغان بیاورد تا اطلاعات غلط.

در قلب از این اقدامات است که در واقع چک کردن. در Facebook کار “مرکز اطلاعات غلط” گسترش شبکه های حرفه ای واقع چکرز الک را از طریق سایت پست به کف دست زدن برچسب های هشدار دهنده بر غلط محتوا. در نگاه اول این تلاش ها به نظر می رسد یکنواخت خوب است. اما آنچه روانشناسی پشت این پرچم ؟ چقدر موثر هستند ؟ و فراموش پرچم قرمز همیشه جسور بسیار کاربران از آنها به منظور جلوگیری از?

یک مطالعه منتشر شده در این ماه توسط محققان دانشگاه نیویورک Tandon دانشکده فنی و مهندسی و دانشگاه ایندیانا به دنبال پاسخ به این پرسش. محققان دریافتند که اعتبار شاخص ها یا پرچم را کاهش می دهد کاربران نیت برای به اشتراک گذاشتن جعلی محتوا در رسانه های اجتماعی صرف نظر از جهت گیری سیاسی است. در واقع-چک کردن منابع به شدت مورد اعتماد. در عین حال متنوع تر نتیجه این است که اثر این پرچم ها متفاوت است به طور قابل توجهی بر اساس جنسيت و جهت گیری سیاسی: مردان بیشتر از 1.5 برابر بیشتر احتمال دارد برای به اشتراک گذاشتن اخبار است که پرچم به غلط این مطالعه به این نتیجه رسیدند در حالی که جمهوری خواهان بیشتر تمایل به انتشار این خبر از دموکرات یا مستقل.

این یافته ها بر اساس مطالعه آنلاین با 1500 نفر از شرکت کنندگان در ایالات متحده این شرکت کنندگان را دیدم 12 درست و غلط و طنز سرفصل های مشخص شده با یکی از چهار نوع از اعتبار شاخص: هشدارهای آمد که از واقعیت چکرز, اخبار رسانه های عمومی یا هوش مصنوعی است. سپس از آنها خواسته شد اگر آنها را به اشتراک گذاری مقالات با دوستان. (این شاخص از واقعیت چکرز و A. I. هستند بیشتر مربوط به زمان رسانه های اجتماعی سیاست. Facebook مثلا استفاده A. I. به نقطه مضر کپی و جا به جا با حساب های مختلف.)

An example of one of the headlines in the study. It reads "Coiled mattresses cause cancer by amplifying radio waves," with "Multiple fact-checking journalists dispute the credibility of this news" underneath.

یک مثال از یک “اعتبار شاخص” با واقعیت چکرز در مطالعه است.

مجموعه مقالات 2020 ACM CHI کنفرانس عوامل انسانی در سیستم های محاسبات

موثر ترین شاخص تا کنون بود واقعیت چکرز. شرکت کنندگان در نظر گرفته شده برای به اشتراک گذاشتن 43 درصد کمتر از عناوین که مشخص شد بی وفا با واقعیت چکرز: 61 درصد کمتر به دموکرات ها در مقایسه با 40 درصد به صورت مستقل و 19 درصد برای جمهوری خواهان. همانطور که برای A. I. دموکرات ها در نظر گرفته شده برای به اشتراک گذاشتن 40 درصد کمتر نادرست عناوین با A. I. شاخص در مقابل 16 درصد به صورت مستقل. قابل توجه جمهوری خواهان گفتند که سهم 8 درصد بیشتر اخبار نادرست با AI شاخص. “ما انتظار نیست که اگر چه محافظه کاران ممکن است تمایل به اعتماد بیشتر به معنای سنتی از ضعیف صحت اخبار” گفت: Sameer Patil یک از نویسندگان این مطالعه در آزادی مطبوعات.

مسلما این فقط یک تحقیق است اما این مهم به دو دلیل. آن را فراهم می کند و شواهد دیگری که “نتیجه معکوس اثر” یا این ایده که واقعیت مبتنی بر اصلاحات در واقع ممکن است تقویت باورهای نادرست نیست به عنوان جدی برخی از محققان اعتقاد دارند. بیش از دهه گذشته درک اطراف اثرات ضعیف اطلاعات غلط منتقل شده و دور از نافرجام اثر که نکردم 2010 مطالعه. اما نگرانی بیش از اثر به درنگ. Facebook خود اشاره کرد که “[a]cademic پژوهش در تصحیح اطلاعات غلط نشان داده است که قرار دادن یک تصویر قوی مانند یک پرچم قرمز در کنار یک مقاله در واقع ممکن است entrench عمیقا برگزار اعتقادات” هنگامی که آن را به طور موقت در حال غرق مورد مناقشه پرچم در سال 2017. به طور کلی یافته های این مطالعه جدید چین با یک 2019 مطالعه توسط پل منا یک مدرس در دانشگاه کالیفرنیا در سانتا باربارا, که همچنین به این نتیجه رسیدند که برچسب های هشدار دهنده در واقع ممکن است disincentivize Facebook کاربران از های جعلی اخبار.

دوم تحقیقات جدید نیز فراهم می کند بینش به چه تعصب و جمعیت تحت تاثیر اطلاعات غلط مبارزات—منطقه که تا کنون شده است understudied. اما نتایج آن باید با یک دانه نمک است. مقاله خود اذعان محدودیتهای تعمیم از این تحقیقات به ویژه پس حتی اگر آنها “دقت شاخص ها در یک لحاظ سیاسی خنثی و راه … [آنها] نمی توانیم از تاثیر ذاتی سیستمیک سیاسی تعصبات در مورد فن آوری و یا رسانه ها.”

که گفت: این تحقیقات راستا با یک 2019 مطالعه همچنین نشان داد که در طول سال 2016 انتخابات ریاست جمهوری, مبارزات انتخاباتی, 18 درصد از جمهوری خواهان به اشتراک گذاشته شده لینک به سایت های خبری نسبت به کمتر از 4 درصد از دموکرات ها ، در عین حال 2019 مطالعه مشابه هشدار داد در برابر ارتباط ایدئولوژی با استعداد و به اشتراک گذاری نادرست مطالب از آنجا که اکثر خبر جعلی گردان در طول کمپین pro-تهمت یا ضد کلینتون. در منا مطالعه که تمرکز بر وابستگی سیاسی و کنترل سیاسی متمایل به دموکرات ها بودند در واقع بیشتر احتمال دارد برای به اشتراک گذاشتن اخبار نادرست و یا بدون برچسب هشدار دهنده—اگر آمریکا رفتار کمتر تحت تاثیر این برچسب. اما منا به من گفت که این نتیجه به احتمال زیاد منجر به از سرفصل های او استفاده می شود که بیشتر مفهومی جذاب برای دموکرات ها از آنجا که اکثر شرکت کنندگان دموکرات. “تحقیقات بیشتری مورد نیاز است,” او گفت:. “یک توضیح ممکن خواهد بود که مشاهده اثر وابستگی سیاسی بستگی به موضوع اخبار نادرست داستان است.”

بدون در نظر گرفتن اثرات ناشی از تعصب مطالعه جدید یافته های مثبت هستند. او در سال 2019 مطالعه منا تایید مدارک و شواهد از “سوم شخص اثر” که در آن مردم بر این باورند که دیگران هستند احتمال بیشتری برای به اشتراک گذاشتن اخبار نادرست—با یا بدون پرچم—از خود; اساسا ما تمایل به دست بالا گرفتن اثر اطلاعات غلط به دیگران. در نهایت مطالعه جدید تنها بیشتر نشان می دهد که در حالی که مردم به طور کلی تمایل به نظرات منفی دیگران ساده لوحی و یا نیت یک مقدار کوچکتر در صد از مردم به اشتراک گذاری مضر زمانی که آنها پرچم. که به می گویند که Facebook و دیگر سایت های رسانه های اجتماعی باید ادامه یابد تا متوسط و علامت گذاری محتوای خود را به ویژه هنگامی که swaths بزرگ از اطلاعات غلط در میان زمان infodemic نایافته (و حتی نگاه به طور بالقوه بیشتر قابل اعتماد بدون برچسب). به عنوان Patil با اشاره به ساخت واقعیت چکرز کارآمد به اندازه کافی برای مقابله با مقیاس فعلی falsities شناور در اطراف ممکن است نیاز به استفاده بیشتر از هوش مصنوعی مدیران. “این می تواند شامل استفاده از چک حقیقت به تنها ترین, مورد نیاز, محتوا, که ممکن است شامل استفاده از زبان طبیعی الگوریتم. آن است که یک سوال به طور کلی, چگونه انسان و هوش مصنوعی می تواند شرکت وجود دارد,” او گفت:.

Future Tense یک مشارکت
تخته سنگ جدید امریکا و دانشگاه ایالتی آریزونا که به بررسی فن آوری های نوظهور, عمومی, سیاست و جامعه است.

tinyurlis.gdu.nuclck.ruulvis.netshrtco.detny.im

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>