کد QR مطلبدریافت لینک صفحه با کد QR

اشتباه ربات مایکروسافت در توییتر با حمایت از هیتلر!

خبرگزاری فارس , 9 فروردين 1395 ساعت 23:06

ایتنا- گویا Tay به خاطر اظهارات نژادپرستانه‌اش محکوم و سپس حذف شد!




ربات گپ شرکت مایکروسافت در توییتر به علت شیطنت کاربران آمریکایی به حمایت از نئونازی‌ها و افراد نژادپرست پرداخت و در نهایت توسط خود شرکت مایکروسافت حذف شد.

به گزارش ایتنا از فارس به نقل از واشنگتن پست، ربات یاد شده که Tay نام دارد با هدف بررسی قابلیت سیستم‌های هوش مصنوعی طراحی شده و مایکروسافت آن را به سایت توییتر اضافه کرده بود تا ضمن بررسی تعاملات کاربران با آن از توانایی های Tay مطلع شود.

اما نتیجه این آزمایش در کمتر از ۲۴ ساعت فاجعه بار بود و این ربات با دریافت اطلاعات مغشوش و شیطنت آمیز از کاربران آمریکایی به موجودی نژادپرست و بی‌ادب مبدل شد و ارسال پیام‌های نامناسب توسط آن مایکروسافت را مجبور به حذف ربات یاد شده از توییتر کرد.

نقص در طراحی این ربات باعث تکرار اظهارات نژادپرستانه ارسالی کاربران شده و همچنین باعث می‌شد Tay در اظهارات خود از همان ادبیات نامناسب افرادی که با آنها تعامل می‌کرد استفاده کند.

مایکروسافت ابتدا مدعی شده بود گپ زدن بیشتر با این ربات آن را باهوش‌تر می‌کند و این تجارب باعث می‌شود وی رفتار شخصی مناسبی با کاربران داشته باشد. Tay به گونه‌ای طراحی شده بود که رفتاری مشابه با یک دختر ۱۸ تا ۲۴ ساله در آمریکا را داشته باشد.

بعد از گذشت مدتی کاربران با ارسال پیام‌ها و اطلاعات غلط Tay را گمراه کردند، به گونه‌ای که وی در پیامی در توییتر هیتلر را فردی درست توصیف کرده و از یهودیان اظهار تنفر کرد. انکار هولوکاست، کافر دانستن یک کمدین مشهور آمریکایی و دفاع از دیوار کشیدن به دور مکزیک و درخواست از مردم این کشور برای پرداخت هزینه این کار از جمله دیگر شیرین‌کاری‌های این ربات نه چندان باهوش در مدت فعالیت ۲۴ ساعته در توییتر بود.


کد مطلب: 41956

آدرس مطلب: https://www.itna.ir/news/41956/اشتباه-ربات-مایکروسافت-توییتر-حمایت-هیتلر

ايتنا
  https://www.itna.ir