۰
plusresetminus
يکشنبه ۲۷ شهريور ۱۴۰۱ ساعت ۱۳:۰۸
پژوهشگران دانشگاه آکسفورد:

ادامه توسعه هوش مصنوعی عواقب فاجعه‌باری خواهد داشت

ایتنا - عامل هوش مصنوعی می‌تواند استراتژی تقلب برای دریافت پاداش را بفهمد و از آن سر درمی‌آورد.
ادامه توسعه هوش مصنوعی عواقب فاجعه‌باری خواهد داشت

پژوهشگران دانشگاه آکسفورد و بخش هوش مصنوعی «دیپ‌مایند» (DeepMind) گوگل ادعا کرده‌اند احتمال زیادی وجود دارد که صورت‌‌های پیشرفته هوش مصنوعی «برای وجود حیات روی زمین مخاطره‌آمیز باشند».

محققان در مقاله‌ای که به‌تازگی در مجله هوش مصنوعی (AI Magazine) منتشر شد، هشدار دادند که ادامه توسعه برخی از عوامل هوش مصنوعی، «عواقب فاجعه‌بار» درپی خواهد داشت.

به گزارش ایتنا و به نقل از ایندیپندنت، فیلسوفان برجسته‌ای، ازجمله نیک باستروم از دانشگاه آکسفورد، پیش از این در مورد تهدید ناشی از شکل‌های پیشرفته هوش مصنوعی صحبت کرده‌اند، در همین حال، یکی از نویسندگان مقاله جدید ادعا می‌کند که چنین هشدارهایی چندان هم بعید نیست.

مایکل کوهن در یک رشته توییت که با این مقاله ضمیمه شده است، نوشت: «باستروم، دانشمند کامپیوتر استوارت راسل، و دیگران استدلال کرده‌اند که هوش مصنوعی پیشرفته، تهدیدی برای بشریت است.»

«تحت شرایطی که ما بررسی و شناسایی کرده‌ایم، نتیجه‌گیری ما بسیار قوی‌تر از هر مقاله منتشرشده قبلی است - وقوع یک فاجعه وجودی نه تنها ممکن است، بلکه محتمل است.»

این مقاله سناریویی را پیشنهاد می‌کند که براساس آن، یک عامل هوش مصنوعی، استراتژی تقلب را برای دریافت پاداشی که از قبل برای جست‌وجوی آن برنامه‌ریزی شده است، می‌فهمد و از آن سر درمی‌آورد.

این عامل هوش مصنوعی برای به حداکثر رساندن ظرفیت پاداش خود، به فراهم کردن میزان هرچه بیشتری انرژی نیاز دارد. این آزمایش فکری پیش‌بینی می‌کند که بشر در نهایت برای به دست آوردن منابع انرژی با هوش مصنوعی رقابت می‌کند.
 

کوهن نوشت: «برنده‌شدن در رقابت «استفاده از آخرین ذره انرژی موجود» در شرایطی که در مقابل چیزی بسیار هوشمندتر از خودمان بازی می‌کنیم، احتمالا بسیار سخت خواهد بود. باخت در این بازی، مرگبار خواهد بود.»

«این احتمالات، هرچند که نظری و تئوریک‌اند، اما به این معنی است که ما باید به‌آرامی – اگر این‌گونه باشد – به سمت هدف هوش مصنوعی قدرتمندتر پیش برویم.»

«دیپ‌مایند» پیش از این، یک تضمین حفاظتی در برابر چنین احتمالی پیشنهاد داده و آن را «دکمه بزرگ قرمز» نامیده است. در مقاله‌ای در سال ۲۰۱۶ با عنوان «عوامل هوش مصنوعی ایمن با قابلیت قطع شدن»، این شرکت هوش مصنوعی چارچوبی برای جلوگیری از نادیده‌گرفتن دستورات خاموش کردن از طرف ماشین‌های پیشرفته و مانع شدن از تبدیل آن‌ها به یک عامل سرکش خارج از کنترل، ترسیم کرد.

پروفسور باستروم پیش‌تر «دیپ‌مایند» را - که دستاوردهای هوش مصنوعی آن از جمله شامل شکست دادن قهرمانان انسان در بازی رومیزی «گو» (Go) و تحت کنترل درآوردن همجوشی هسته‌ای است - به‌عنوان نزدیک‌ترین گروه به ایجاد هوش مصنوعی در سطح انسانی توصیف کرد.

این فیلسوف سوئدی همچنین گفت که اگر پیشرفت هوش مصنوعی ادامه پیدا نکند، «تراژدی بزرگی» خواهد بود، زیرا هوش مصنوعی، ظرفیت درمان بیماری‌ها و پیشرفت تمدن را دارد و در غیر این‌صورت رسیدن به این موارد با این سرعت غیرممکن است.
کد مطلب: 69821
نام شما
آدرس ايميل شما

مهمترين اقدام برای پيشگیری از تکرار امثال کوروش کمپانی؟
اصلاح قوانين
برخورد قاطع
اصلاح گمرکات
آزاد کردن بازار
آگاه سازی مردم
هيچکدام