کد QR مطلبدریافت لینک صفحه با کد QR

به گفته یک افشاگر ناشناس

الگوریتم‌های فیس‌بوک ویدئوهای افراطی تولید می‌کنند

4 خرداد 1398 ساعت 12:46

ایتنا - یکی از سخنگویان فیس‌بوک در پاسخ به مشبل گفت: «پس از سرمایه‌گذاری‌های هنگفت، ما توانسته‌ایم محتوای تروریستی را با نرخ موفقیت به مراتب بالاتری نسبت به حتی دو سال پیش شناسایی و حذف کنیم.»


مطابق نظر کارشناسان، فیس‌بوک یک مشکل اتوماسیون دارد.
 
به گزارش ایتنا از رایورز به نقل از مشبل، یک افشاگر که نام وی فاش نشده، شکوائیه‌ای را به SEC ارائه کرده که بر اساس آنچه به دست اسوشیتد پرس رسیده مدعیست که این شبکه اجتماعی به طور پیش‌فرض ویدئوها، تصاویر و محتوای افراط گرایانه تولید می‌کرده است.
محتوای مورد نظر، که ظاهرا به طور کامل توسط فیس‌بوک مستقل از هر انسان خاصی تولید شد، از صفحات برتری‌طلبان سفیدپوست تا صفحات مربوط به القاعده را دربرمی‌گیرد.
بله، این خبر بدیست.
 
به نوشته اسوشیتد پرس، ابزارهای فیس‌بوک «اطلاعات شغلی را از صفحات کاربران [می‌تراشد] تا صفحات بیزینس ایجاد کند». وقتی صفحات این کاربران دربرگیرنده محتوای افراط گرایانه باشد، مثلا تصاویر جلیقه‌های انتحاری یا ابرهای قارچی در شهرها در کنار «حکومت داعش» (که دو مثال واقعی هم هستند)، آن تصاویر می‌توانند راهشان را به سمت محتوای تولید شده اتوماتیک توسط فیس‌بوک بگشایند.
 
فیس‌بوک در یک پست بلاگ F8 توضیح داده بود: «هوش مصنوعی به طیف وسیعی از محصولات در فیس‌بوک کمک می‌رساند. در سال‌های اخیر، این باعث شده تا به طور پیشدستانه به شناسایی محتواهایی که ناقض خط مشی‌های ما هستند بپردازیم. برای کمک به یافتن این محتواهای مشکل‌ساز، ما در حال کار هستیم تا اطمینان حاصل شود که سیستم‌های AI ما بتوانند با حداقل نظارت ممکن محتوا را درک کنند.»
 


در رابطه با آنچه کمک به خلق متریال پروپاگاندا ذکر شده است، الگوریتم‌های فیس‌بوک نشان داده‌اند که هنوز نیاز به اصلاحات زیادی دارند.
 
یکی از سخنگویان فیس‌بوک در پاسخ به مشبل گفت: «پس از سرمایه‌گذاری‌های هنگفت، ما توانسته‌ایم محتوای تروریستی را با نرخ موفقیت به مراتب بالاتری نسبت به حتی دو سال پیش شناسایی و حذف کنیم. ادعا نمی‌کنیم که همه چیز را پیدا می‌کنیم، و ساعیانه به تلاش‌هایمان در مقابل گروه‌های تروریستی در نقاط مختلف جهان ادامه می‌دهیم.»
 
مارک زاکربرگ در توجیه این موضوع، غالبا به این بهانه متوسل شده است که روزی، که چه بسا به زودی خواهد بود، AI قادر خواهد شد تا محتوا را بر روی پلتفرمش اصلاح نماید.
با این حال، گزارش اخیر اسوشیتدپرس نشان می‌دهد که برنامه‌هایی که تحت نظارت نباشند به چه سرعتی ممکن است انحراف پیدا کنند.
 


کد مطلب: 56585

آدرس مطلب: https://www.itna.ir/news/56585/الگوریتم-های-فیس-بوک-ویدئوهای-افراطی-تولید-می-کنند

ايتنا
  https://www.itna.ir