کد QR مطلبدریافت لینک صفحه با کد QR

هشدار استفان هاوکینگ درباره خطر هوش مصنوعی برای انسان

بد شگون ترین تهدید برای بشر

خبرگزاری مهر , 13 ارديبهشت 1393 ساعت 15:10

ایتنا- هاوکینگ: دانشمندان ماشینی را خواهند ساخت که بسیار هوشمندتر از انسان باشد.




استفان هاوکینگ دانشمند بزرگ معاصر در فیزیک می گوید: بدشگون ترین تهدید برای بشر درآمیختگی عمیق با محصولات آزمایشگاه های فناوری در "سیلیکون ولی" است.


به گزارش ایتنا از مهر، به گفته هاوکینگ، هوش مصنوعی که خود را در قالب کمک دیجیتالی و خودروهای بدون راننده مستتر کرده در حال آماده کردن جای پا برای خودش است و این امر می تواند روزی به پایان عصر انسان منجر شود.

وی هشدار داد بشر با آینده مبهمی مواجه است چرا که فناوری، فکر کردن برای خود را می آموزد و با محیطش سازگار می شود.

برنده جایزه نوبل فیزیک با انتشار مقاله ای در روزنامه ایندیپندنت آخرین فیلم "جانی دپ" با عنوان "برتری" را مورد بحث قرار داده است. در این فیلم شخصیت اصلی جهانی را کاوش می کند که در آن رایانه ها می تواند از توانایی های انسانی پیشی بگیرند.

پروفسور هاوکینگ می گوید تلقی این فیلم صرفا به عنوان یک روایت علمی تخیلی، بزرگ ترین اشتباه تاریخ است.

وی اظهار داشت توسعه دستاوردهای شخصی دیجیتال موسوم به Siri، Google Now و Cortana و نشانه های های رقابت ارتش IT ، در برابر آنچه که قرار است طی دهه های آینده ظهور کند، ناچیز هستند.

وی خاطر نشان کرد: البته فواید بالقوه دیگر از این فناوری می تواند چشمگیر باشد و جنگ، بیماری ها و فقر را از بین ببرد.

به گفته وی موفقیت در خلق AI می تواند بزرگترین رویداد در تاریخ بشر باشد اما متاسفانه این دستاورد می تواند آخرین نیز باشد مگر آنکه یاد بگیریم چگونه از خطرات دوری کنیم.

در دوره های کوتاه و متوسط، ارتش ها در سراسر جهان در حال کار کردن بر روی ساخت سیستم های تسلیحاتی خودکار هستند و این در حالی است که سازمان ملل نیز به طور همزمان بر روی ممنوعیت آنها کار می کند. این دانشمند اظهار داشت: اگر به آینده نگاه کنیم می بینیم هیچ محدودیت بنیادی برای آنچه که می توانیم به دست آوریم وجود ندارد.

به گفته وی هیچ قانون فیزیکی وجود ندارد که بتوان با آن مانع از تشکیل شدن ذرات به گونه ای شد که محاسبات بسیار پیشرفته تری نسبت به تنظیم ذرات در مغز انسان، انجام ندهند.

وی اظهار داشت: در حقیقت امروز IBM تراشه های هوشمندی ساخته است که می توانند راه را برای شبکه های حسی که ظرفیت مغز را در درک، عمل و تفکر تقلید می کنند، هموار سازد.

هاوکینگ معتقد است یک روز این امر می تواند به دانشمندان علوم رایانه کمک کند تا ماشینی بسازند که بسیار هوشمند تر از انسان باشد.

برنده جایزه نوبل فیزیک می گوید همانطور که "ایروینگ گود" در سال ۱۹۶۵ دریافت ماشین ها با هوش ابر انسانی می توانند طراحی های خود را بهتر و بهتر کنند، کارشناسان هنوز برای این سناریوها آماده نیستند. وی برای مقایسه گفت: اگر بیگانگان به ما بگویند ظرف چند دهه آینده به زمین می آیند دانشمندان بیکار نمی مانند.

وی تاکید کرد: اگرچه با بهترین یا بدترین چیزی که قرار است برای تاریخ انسان روی بدهد مواجه ایم ، تحقیقات اندک جدی در این زمینه در حال انجام است.

نخبه فیزیک معاصر گفت: همه ما باید از خود بپرسیم چه کاری می توانیم برای استفاده حداکثری از فواید و دوری از خطرات هوش مصنوعی انجام دهیم.


کد مطلب: 30373

آدرس مطلب: https://www.itna.ir/news/30373/هشدار-استفان-هاوکینگ-درباره-خطر-هوش-مصنوعی-انسان

ايتنا
  https://www.itna.ir