۰
plusresetminus
يکشنبه ۱۰ دی ۱۴۰۲ ساعت ۰۶:۱۳

سرمایه‌گذاری 10 میلیون دلاری اپن‌ای‌آی برای افزایش کنترل انسان بر هوش مصنوعی

ایتنا - لابراتوارهای دانشگاهی، سازمان‌های غیرانتفاعی و اشخاص پژوهشگر می‌توانند برای این کمک هزینه‌ها که بین 100000 تا 2 میلیون دلار هستند درخواست دهند.
سرمایه‌گذاری 10 میلیون دلاری اپن‌ای‌آی برای افزایش کنترل انسان بر هوش مصنوعی
شرکت OpenAI اعلام کرد که، با توجه به پیش‌بینی ظهور سیستم‌های فوق‌هوشمند، به تمرکز خود بر افزایش کنترل انسان بر مدل‌های هوش مصنوعی ادامه می‌دهد.
 
OpenAI در یک پست وبلاگی گفت که این استارتاپ پیشرو در حوزه هوش مصنوعی قصد دارد 10 میلیون دلار کمک مالی برای حمایت از تحقیقات فنی در مورد این موضوع اختصاص دهد. لابراتوارهای دانشگاهی، سازمان‌های غیرانتفاعی و اشخاص پژوهشگر می‌توانند برای این کمک هزینه‌ها که بین 100000 تا 2 میلیون دلار هستند درخواست دهند.
 
طبق این پست وبلاگ، OpenAI «به ویژه علاقه‌مند» به تأمین مالی تحقیقات مرتبط با این موارد است: تأثیر بازبینان انسانی در زمانی که یک سیستم هوش مصنوعی بسیار هوشمندتر باشد، درک تفسیرپذیری مدل، استفاده از سیستم‌های هوش مصنوعی برای پایش سایر سیستم‌های هوش مصنوعی، و قوت تخاصمی
 
تنظیم‌کننده‌های مقررات (رگولاتورها)، ارائه‌دهندگان و رهبران شرکت‌ها بر روی راه‌هایی برای بررسی چالش‌های پیش روی هوش مصنوعی در آینده، با توجه به توسعه فناوری، متمرکز شده‌اند.
 
بر اساس اعلامیه‌ای که در ماه اکتبر منتشر شد، دستور اجرایی کاخ سفید با هدف قرار دادن تمهیدات احتیاطی حول مدل‌های هوش مصنوعی که از یک آستانه رایانشی مشخص فراتر رفته بودند صادر شد. الزامات اولیه قانون هوش مصنوعی اتحادیه اروپا که اخیراٌ اعلام شد، شامل الزامی بود که به شهروندان این امکان را می‌دهد که درباره سیستم‌های هوش مصنوعی به طرح شکایت بپردازند و توضیحاتی در مورد تصمیمات مبتنی بر سیستم‌های هوش مصنوعی پرریسک که بر آنها تأثیر منفی می‌گذارند دریافت کنند.
 

در پست وبلاگ این شرکت آمده است که OpenAI پیشبنی می‌کند که مدیریت سیستم‌های هوش مصنوعی در دهه آینده به طور قابل توجهی سخت‌تر شود.
 
OpenAI گفت: «امروز، ما سیستم‌های هوش مصنوعی را برای اطمینان از ایمن بودن آنها با استفاده از یادگیری تقویتی مبتنی بر نظرات مردم منطبق‌سازی می‌کنیم. تکنیک‌های منطبق‌سازی موجود مانند «یادگیری تقویت‌کننده با استفاده از بازخورد انسانی» که بر نظارت توسط انسانی متک است دیگر نمی‌توانند کفایت کنند».
 
مدل‌های بنیادی، مانند GPT OpenAI، اغلب به دلیل پیچیدگی و ماهیت چالش‌برانگیز تفسیر عملکرد درونی‌شان به عنوان جعبه‌های سیاه مورد ارجاع قرار می‌گیرند. از آنجا که مدل‌های بنیادی به طور فزاینده‌ای به مجموعه‌های فناوری سازمانی و دولتی اضافه می‌شوند، محققان در حال تلاش برای پیشبرد و تقویت منابع نظارتی موجود هستند.
کد مطلب: 76306
نام شما
آدرس ايميل شما

مهمترين اقدام برای پيشگیری از تکرار امثال کوروش کمپانی؟
اصلاح قوانين
برخورد قاطع
اصلاح گمرکات
آزاد کردن بازار
آگاه سازی مردم
هيچکدام