“رمزی تعصب” در معرض چگونه تشخیص صورت تبعیض بر اساس نژاد و جنسیت و بیشتر

به عنوان تعجب آور آن را به عنوان موذی صورت الگوریتم های تشخیص گرایش دارد. آنها در برابر تبعیض نژاد و قومیت و جنسیت و حتی توانایی. فن آوری های در حال تکان دهنده و غیر قابل تنظیم در ایالات متحده آمریکا به عنوان یک نتیجه از این الگوریتم می تواند — و هستند — به طور گسترده و آزادانه مورد استفاده در درنده, راه هایی برای بهره برداری از فقیر و آسیب پذیر است. آنها را کاهش می دهد پیشرفت اجتماعی ایجاد ناخواسته نفوذ (در شیوه های استخدام پذیرش کالج و تبلیغات به عنوان مثال) و حتی پیامدهای عمیقی در اجرای قانون است. این الگوریتم های سرکوبگر; آنها می تواند باعث شود مردم و مردم از رنگ به خصوص به از دست دادن شغل خود و ثروت و مسکن شخصی و آزادی و امنیت و همچنین نابرابر دسترسی به مراقبت های بهداشتی. در پنسیلوانیا الگوریتم های طراحی شده برای پیش بینی نرخ تکرار جرم سال و قضات برای تعیین دستورالعمل صدور حکم.

“رمزی تعصب” است Shalini Kantayya را فوری قانع کننده مستند غربالگری 20 ژوئن در AFI اسناد که تواریخ راه های تشخیص چهره تکنولوژی و مرتبط با الگوریتم های تأثیر زندگی ما است. Kantayya بر قهرمانانه و تلاش لازم را از شادی Buolamwini یک MIT محقق ساخته شده است که یک “آرزوی آینه” به عنوان بخشی از یک پروژه تنها به کشف کنند که نرم افزار تشخیص چهره به ثبت نام نیست رنگ پوست او. هنگامی که او ملبس به یک صورت آن را انجام داد. ممکن است که ماشین آلات طراحی شده اند که ناخودآگاه تعصب و تشخیص مردان سفید چون آنها طراحی شده توسط سفید ،

تبلیغات:

Kantayya با استفاده از Buolamwini یافته است به عنوان یک پرش کردن نقطه به بررسی دیگر نامتقارن قدرت مواقع مانند بروکلین آپارتمان ساختمان است که مانیتور خود را و مستاجران انگلستان سازمان به نام “برادر بزرگ دیده بان” که در برابر مضر و نادرست استفاده از تشخیص چهره توسط دوربین های پلیس.

“رمزی تعصب” نیز به نمایش گذاشته ریاضیدان کتی اونیل نویسنده از “سلاح های ریاضی نابودی” که توضیح می دهد که زشت و غیر اخلاقی با استفاده از الگوریتم های داده های بزرگ و تکنولوژی به پیش بینی که بیشتر نژادی و نابرابری اقتصادی.

فیلمساز گفتگو با سالن درباره فیلم جدید او و خطرات الگوریتم.

تبلیغات:

اول, اجازه دهید من از شما درخواست چه وب سایت شما اغلب بازدید از آنچه به شما دستور داده اند که از آمازون در سال جاری و چه در صف Netflix بکشد خود را? فکر نمی کنم از این به عنوان پروفایل. من فقط به دنبال گرفتن به شما می دانید بهتر است.

من می خواهم بگویم در “Devs” الکس گارلند سری. بالای سر من من تماشا جفری اپستاین مستند. سازمان دیده بان که قبل از شما کار می کنند چرا که شما می خواهید به چیزی برخورد کرد. من نوشتن یک فیلم است که شامل یک آدم ربایی بنابراین من به تماشای بسیاری از آدم ربایی چیز است. این Patty Hearst مستند. آن را عجیب و غریب اگر شما در حال برفلد در مورد آنچه شما دنبال آن هستید.

چگونه شما پیدا کردن شادی Buolamwini و تعیین وجود یک فیلم اینجا ؟ آیا شادی برای اولین بار می آیند و یا آیا شما ایده و سپس پیدا کردن شادی ؟

تبلیغات:

من فکر می کنم با مستند وجود دارد یک فرایند ریخته گری و پرتاب اسپاگتی در مقابل یک دیوار و پیدا کردن یک داستان. با شادی وجود دارد به اندازه کافی وجود دارد. شما درخشش نور بر روی مردم عادی انجام کارهای فوق العاده ای. او کاریزماتیک و ابلاغ این مسائل هست. شما اطلاع چیزی است که اتفاق می افتد اما شما نمی دانید که چه چیزی است. هنگامی که او در شهادت خود در کنگره من می دانستم که من تا به حال قوی doc.

آنچه من احترام در مورد خود فیلم است که شما مصاحبه زنان و مردم رنگ تقریبا به طور انحصاری. آنچه می تواند به شما می گویند در مورد آن تصمیم و انتخاب خود سر صحبت?

تبلیغات:

من برای پیدا کردن آن خنده دار است که هر غربالگری خواسته است که سوال اما با همه مردان سفید صحبت کردن در مورد هوش مصنوعی هستند و هرگز نمی خواست که. من خوش آمدید, سوال, اما من امیدوارم که این چالش ها که مفهوم در دسترس نباشد. به عنوان یک زن و کسی از رنگ من آگاه است که من به عنوان چهره های قدرت. زنان پیشرو در این. من متوجه شده است که ساخت این فیلم است. این نه یک فیلم و شما هرگز می دانید که زنان اقلیت ها در هوش مصنوعی و فناوری, مستند فضا. آن را بیشتر یک انتخاب آگاهانه است اما مردم پیشرو این برش لبه علم – زنان باید یک هویت به عنوان یک خارجی است که اجازه می دهد تا آنها را برای دیدن چیزهایی در این صنعت است که بیشتر نمی بینیم و یا نادیده می گیرند.

شما باز کردن, بررسی, مشاهده و کشف راه های مختلف تشخیص چهره تکنولوژی و الگوریتم ها استفاده می شود. فیلم شما قطعا افزایش فوق العاده ای نگرانی, اما آنچه شما را کشف کنند ساخت این فیلم که آشفته شما به درجه ای است که آن را تغییر رفتار خود را?

من به سختی با استفاده از رسانه های اجتماعی به دلیل آن است که دشمن از تفکر عمیق. آنچه که بیشتر نگران کننده بود این تکنولوژی در مورد حفظ حریم خصوصی است که مفهوم از حقوق مالکیت است. اما من به ترس تهاجمی نظارت و سیستم های شاغل در مقیاس انبوه شده و تست شده برای صحت و یا تعصب در مورد مراقبت های بهداشتی مشاغل و احکام زندان و اعتماد ضمنی ما در این الگوریتم ها طراحی و به کار گرفته شده توسط یک گروه کوچک از مردم است.

تبلیغات:

فقط این هفته آی بی ام رو از بازی خارج و مایکروسافت در حال رفتن به فروش تحقیقات تکنولوژی شناسایی چهره به پلیس. آمازون فشرده مکث برای یک سال. آنها در حال حاضر فروش تکنولوژی بود که نژادپرستانه و مستقر در یک جمعیت با هیچ حاکم و موقعیت هدایت این رفتار است. و سه نابغه تکنولوژی زنان نمیفهمد این بود که نژادپرست است. که نمی تواند در این مورد. ما باید بیش از این سه نفر به بالا رفتن در برابر فن آوری است. ما نیاز به قوانین در محل برای چه این الگوریتم که تاثیر همه ما دریافت مستقر شده اند.

وجود دارد بسیار مهم است و اغلب از دست رفته اخلاق جزء این الگوریتم است. چقدر از این که آیا شما فکر می کنم به خاطر مردمی در ساختمان فن آوری قادر به آموزش هوش مصنوعی ضد تبعیض و چقدر از این درنده قصد?

من می گویند که آن را به قصد و یا مخرب — اما این چیزی است که بسیار خطرناک است. این عواقب را ما نمی بینیم; چه چیزی را در ما نقطه کور. آنها فکر می کنند این سیستم ها خواهد شد عادلانه تر از انسان است اما این شرکت نیاز به خارج از نظارت و مستقل تخته. آنها نیاز به تنظیم فن آوری به عنوان آنها را در هر بخش از جامعه است. آن را ایجاد یک عدم تعادل در قدرت که خطرناک است به دموکراسی است.

تبلیغات:

“رمزی تعصب” را نشان می دهد, چند نمونه منفی از تشخیص چهره تکنولوژی و الگوریتم های مورد استفاده در اجرای قانون از یک دختر 14 ساله, سیاه, جوانان که ناعادلانه زندانی در بریتانیا به فیلادلفیا زن بودن خواسته به او گزارش افسر آزادی مشروط پس از سال ها از دستاوردهای مثبت. آیا شما فکر می کنید مردم در قدرت را تغییر دهید و یا حتی انتقادی فکر می کنم در مورد چگونه آنها با استفاده از فن آوری خود را پس از آگاهی از کمبود ؟

شرکت های مختلف عکس العمل های متفاوتی. شرکت تنها عمل می کنند زمانی که شهروندان تعامل و خیابان و آنها دیگر هیچ نتیجه. وجود دارد باید قوانین در جای خود به آنها پاسخ دهند.

جذاب وجود دارد بخش در این فیلم که در آن شما آدرس چین در تلاش برای حفظ نظم اجتماعی. آنها به ایجاد یک “اجتماعی نمره اعتباری” است که “اراده مردم رفتار کنند.” یکی از مصاحبه شونده قدردانی از این خدمات به دلیل او اعتماد افرادی که اجتماعی بالا نمره اعتباری بیشتر است.

من فکر می کنم که یک “آینه سیاه” قسمت. چه چیزی است که بیان چیزی است که همه ما احساس می کنید: “نگاه کنید که چگونه کارآمد این است.” من می توانید ببینید خود Instagram followers and Facebook را دوست دارد و تصمیم می گیرید که چگونه مهم شما هستند. از جمله این که یک آینه است و نشان می دهد که چگونه ما بزرگ شده اند به عشق برادر بزرگ در یک راه خاص.

تبلیغات:

آیا این وحشتناک ،

داشتن دسترسی نامحدود به اطلاعات و داشتن صورت خود را نمره خود را ؟ کاملا! آن را از روی حیله و تزویر برای قرار دادن کسی در دوربین گفت: چیزی علیه نظام [در چین] بدون قرار دادن آنها در معرض خطر است.

من کنجکاو در چه راه هایی می توانم شما فکر می کنم این تکنولوژی می تواند مورد استفاده قرار گیرد برای خوب است ؟

هر کس در این فیلم عاشق تکنولوژی. من “سیمی” متعصب. من ساخته شده این فیلم چون من عاشق تکنولوژی. مدل کسب و کار و فقدان قانون است و ایجاد انحصارات بزرگ. چه اتفاقی افتاد به ما قوانین ضد تراست? فن آوری است که حاکم ما آزادی بیان است. ما تکنولوژی می تواند تجاوز به بسیاری از حقوق که ما دموکراسی است که بر اساس. ما باید در این نگاه و این غرب وحشی وحشی. مدل کسب و کار است که اجازه می دهد تا شرکت ها برای فروش شما به عنوان محصول به هر کس دیگری را تغییر دهید. من می خواهم به رول پشت پرده در جادوگر شهر از. سحر و جادو نیست. ما باید اعتماد این سیستم ها به طور ضمنی. ما نمی باید انتخاب کند. که در آن شما می توانید بروید برای پنهان کردن از گوگل جستجو کنم ؟ هیچ گزینه دیگری وجود دارد. زندگی مدرن ما در حال زندگی می کردند حاضر حتی بیشتر را دارد به دلیل این بیماری همه گیر. ما باید به حقوق و حدود این در یک دموکراسی است. اگر ما در مورد مراقبت از داشتن یک دموکراسی قوی ما باید برای حمایت از شهروندان عادی در این فضا است. ما نمی توانیم را انتخاب کنید و یا انتخاب کردن از این تکنولوژی بنابراین ما نیاز به تقاضای مشارکت مدنی است که معنی دار آنلاین.

تبلیغات:

فیلم خود را کاملا باعث می شود من تجدید نظر من حضور رسانه های اجتماعی.

شرکت های بازاریابی به من از مکالمه من تا به حال بر روی گوشی من. ما نیاز به حمایت: این نمی تواند خوب است. این فراگیر نظارت باعث می شود COINTELPRO و شرق آلمان بود نگاه مانند آنها نور را لمس کنید. که در آن است از این اطلاعات برای گرفتن به فروش می رسد ؟ کسی می تواند کامل مشخصات اجتماعی که شما هستند. این که آیا شما یک کودک در شش ماه و یا گرایش جنسی خود را. ما نیاز به مهار این در و آن دولت و قوانین در اطراف آن است. سناتور اورین هچ بالا نمی تواند بالاترین فن آوری چیزی که در کنگره است.

برخی از این مسائل در فیلم شما ممکن است قابل مشاهده برای سال. افکار خود را بر روی برد بلند پیامدهای این ؟

کتی [اونیل] پیشنهاد FDA برای الگوریتم های بررسی سیستم است که این تکنولوژی نمی کند بی ضرر مانند صنعت داروسازی است. ترک نمی tech bros به تنهایی در مورد این مسائل. داخلی خود را اخلاق تخته نمی توانید مسئولیت رسیدگی به این یکی. زمانی که مارک زوکربرگ تصمیم که او نمی خواهد دامپزشک تبلیغات سیاسی برای حقیقت او پشت خود را بر روی دموکراسی است. ما می خواهم به دانستن آنچه که اتفاق افتاده در جلسه محرمانه با مغلوب ساختن پیشی جستن. او نیاز برگزار می شود به استاندارد های مختلف قبل از این اتفاق می افتد. وجود دارد نیاز به یک پروسه بررسی. کتی خواستار آن را “سلاح های ریاضی تخریب” از آنجا که این فن آوری می تواند مستقر در یک مقیاس گسترده و آزار مردم در یک مقیاس گسترده. همه ما باید نگران آن است.

تبلیغات:

ما همچنین می تواند یک کمی مشکوک تر و انتقادی و پرسش از سیستم ما استفاده از هر روز. چرا این آینده در خوراک من? برخی بسیار موذی و مات. آن را سخت بدانید که اگر ما رد شده است یک فرصت به دلیل یک الگوریتم است. امیدوارم عمومی آموزش خود را به دلیل این است که اولین گام برای ساخت تغییر دهید.

که گفت:, من در واقع کمی امیدوار. داشتن سه عظیم شرکت های فن آوری جلوگیری از فروش به پلیس یک قدم بزرگ و اذعان دارد که یک مسئله وجود دارد. ما هنوز یک شانس برای اینکه صدای ما شنیده می شود. بسیاری از این سیستم ها در سنگ تنظیم نشده; سیمان است که هنوز مرطوب است. فعلی معترض است یک لحظه واقعی می گویند ما می خواهید یک جامعه انسانی و فن آوری است که همیشه انسانی ترین و یا بهترین راه حل است. ما نیاز به نگاه کنید که چگونه بشریت از دست داده می شود زمانی که ما اولویت بندی بهره وری در هزینه از همه چیز است.

“رمزی تعصب” روی صفحه نمایش خواهد شد به عنوان بخشی از AFI اسناد در چهار شنبه, ژوئن 20 تا 24 ساعت شروع 12:01 a. m. ET.

tinyurlis.gdclck.ruulvis.netshrtco.de

ایندکسر

خرید کتاب زبان اصلی