کد QR مطلبدریافت لینک صفحه با کد QR

چالش های اخلاقی هوش مصنوعی

سايت خبری ايتنا , 7 مرداد 1397 ساعت 13:01

ایتنا - شرکت‌ها باید به اپلیکیشن‌های AI خود بیاموزند که توضیح‌های روشنی برای اقداماتی داشته باشند که به اجرا درمی‌آورند.


 
با پیشرفت AI، نیاز خواهد بود که سیستم‌ها تا حدود زیادی مانند انسان‌ها آموزش و «تربیت» شوند.
 
به گزارش ایتنا به نقل از ZDNet، یکی از مسائلی که در زمان بحث درباره استفاده از هوش مصنوعی (AI) مطرح می­‌شود این است که چگونه می‌توان از اخلاقی بودن تصمیمات مبتنی بر AI اطمینان حاصل کرد. این دغدغه‌ای بجا است.
 
مایکل بیلتز، یکی از مسئولان شرکت مشاوره‌ای Accenture، می‌گوید: «با اینکه AI به هیچ عنوان انسان نیست، به هیچ عنوان هم نمی‌توانیم آن را مانند فقط یک برنامه لحاظ کنیم. در واقع، ایجاد AI ها باید بیش از انکه برنامه‌نویسی یک اپلیکیشن لحاظ شود شبیه بزرگ کردن یک کودک در نظر گرفته شود. این بدان خاطر است که AI تا نقطه‌ای رشد کرده است که می‌تواند درست به اندازه افرادی که از آن استفاده می‌کنند بر آنها تاثیر بگذارد.»
 
کارکنان در شرکت‌ها آموزش می‌بینند که علاوه بر اجرای یک کار مشخص، مثلا، خط مشی‌های حول تنوع و حریم خصوصی را نیز درک کنند.
بیلتز می‌گوید: «AIها باید تا حدود زیادی به همین صوت آموزش دیده و تربیت شوند، که علاوه بر اینکه کار مشخصی را انجام می‌دهند، به عنوان یک همکار مسئولیتشناس و نماینده شرکت نیز عمل کنند.»
 
به گفته بلیتز، سازمان‌ها می‌توانند به شیوه‌های مختلفی برای مسائل اخلاقی مرتبط با AI چاره‌جویی کنند. یکی از آنها اسفاده تقویتی از آنها است.
بلیتز می‌گوید: «اساسا، ماشین‌ها باید به شکلی طراحی شوند که با انسان‌ها کار کنند. AI باید انسان‌ها را محور قرار دهد، و نیروی کار را با اعمال قابلیت‌های ماشینها "تقویت" نماید تا افراد بتوانند بر تحلیل ارزش بالاتر، تصمیم‌گیری و نوآوری تمرکز نمایند.»
 


همچنین، شرکت‌ها باید به اپلیکیشن‌های AI خود بیاموزند که توضیح‌های روشنی برای اقداماتی داشته باشند که به اجرا درمی‌آورند.
بلیتز گفت: «اگر یک ارائه وام مسکن که از AI استفاده می‌کند از دادن وام به یک خریدار مسکن بالقوه خودداری کند اگر او نتواند علت آن را توضیح دهد، تصمیماتش قابل اعتماد نخواهند بود. شیوه ارتباط برقرار کردن و همکاری انسان‌ها با یکدگیر از طریق بیان و توضیح است، از این رو باید به کارکنان مبتنی بر AI آموزش داده شود که به این طریق رفتار کنند.»
 
همچنین، یک آیین‌نامه شفاف و صریح اخلاقیات درباره اینکه AI چه کاری را می‌تواند و نمی‌تواند انجام دهد باید تدوین شود تا از مسئولانه رفتار کردن AI در قبال اقداماتش اطمینان حاصل شود.
 


کد مطلب: 53588

آدرس مطلب: https://www.itna.ir/news/53588/چالش-های-اخلاقی-هوش-مصنوعی

ايتنا
  https://www.itna.ir