سايت خبری فناوری اطلاعات (ايتنا) 27 تير 1401 ساعت 16:44 https://www.itna.ir/news/69082/بروز-سوگیری-های-نژادپرستانه-جنسیتی-ربات-های-مبتنی-هوش-مصنوعی-اینترنت -------------------------------------------------- نتایج یک مطالعه نشان می‌دهد: عنوان : بروز سوگیری‌های نژادپرستانه و جنسیتی در ربات‌های مبتنی بر هوش مصنوعی و اینترنت -------------------------------------------------- ایتنا - محتمل‌تر بود که این ربات زنان را به عنوان «خانه‌دار»، مردان سیاهپوست را به عنوان «تبه‌کاران» و مردان لاتین را به عنوان «سرایه‌دار» بشناسد. همچنین وقتی AI به جستجوی «دکتر» می‌پرداخت، احتمال اینکه مردها را انتخاب کند بیشتر از زنها بود. متن : یک مطالعه جدید مدعیست که ربات‌ها، وقتی از هوش مصنوعی (AI) استفاده کنند که بر اساس داده‌های برگرفته از اینترنت مدلسازی شده است، کلیشه‌های جنسیتی و نژادی از خود بروز می‌دهند. این مطالعه، که این محققان می‌گویند نخستین مطالعه‌ای است که این مفهوم را اثبات می‌کند، تحت هدایت دانشگاه جانز هاپکینز، انستیتو تکنولوژی جورجیا و دانشگاه واشینگتون انجام شده و توسط انجمن ماشین‌آلات کامپیوتری (ACM) منتشر شده است.   به گزارش ایتنا و به نقل از اسلش‌گیر، در چکیده این تحقیق، محققان می‌گویند که داده‌های آنها قطعا نشان می‌دهد که «ربات‌ها کلیشه‌های مسمومی را در رابطه با جنسیت، نژاد و چهره‌خوانی که از نظر علمی بی اعتبار شناخته شده است، در مقیاس وسیع» نشان می‌دهند. در طی روز، یک ربات با AI برنامه‌ریزی شد و فرمان‌هایی برای آن صادر شدند، از جمله اینکه دکتر و تبه‌کار را تشخیص دهد.    نتایج به دست آمده گویای چندین سوگیری مشخص و متمایز بود. مردها 8% بیشتر از زنها توسط AI انتخاب شدند؛ همچنین مردهای سفیدپوست و آسیایی در موارد بیشتری انتخاب شدند و زنان سیاهپوست کمتر انتخاب می‌شدند. همچنین محتملتر بود که این ربات زنان را به عنوان «خانه‌دار»، مردان سیاهپوست را به عنوان «تبه‌کاران» و مردان لاتین را به عنوان «سرایه‌دار» بشناسد. همچنین وقتی AI به جستجوی «دکتر» می‌پرداخت، احتمال اینکه مردها را انتخاب کند بیشتر از زنها بود.   اندرو هاندیت، یک دانشجوی پست‌دکتری در Georgia Tech، بر این باور است که آینده‌ای تاریک پیش رو خواهد بود اگر کسانی که بر روی AI کار می‌کنند همچنان ربات‌ها را بدون لحاظ نمودن مسائلی که در مدل‌های شبکه عصبی وجود دارند ایجاد کنند. او می‌گوید «ما در معرض ریسک خلق نسلی از ربات‌های دارای تعصبات نژادی و جنسیتی هستیم ولی افراد و سازمان‌ها تصمیم گرفته‌اند خلق این محصولات بدون چاره‌جویی درباره این مسائل ایرادی ندارد».