اتحادیه اروپا: سیستم‌های AI باید پاسخگو، توضیح‌پذیر و بی‌طرف باشند

7 ارديبهشت 1398 ساعت 15:54

ایتنا - اتحادیه اروپا گروهی از 52 کارشناس را گرد هم آورد که به هفت الزام رسیدند که به نظر آنها سیستمهای AI آینده باید منطبق بر آنها باشند.


اتحادیه اروپا دستورالعمل‌های جدیدی را درباره توسعه هوش مصنوعی(AI) اخلاقی منتشر کرده است.
 
به گزارش ایتنا از رایورز به نقل از ورج، هدف این قواعد، چاره‌جویی برای مسائل مبهم و پراکنده‌ای است که با تلفیق AI در بخش‌هایی مانند سلامت، آموزش، و تکنولوژی مصرفی بر جامعه تاثیر می‌گذارند.
 
از این رو، به عنوان مثال، اگر یک سیستم AI در آینده سرطان را در شما تشخیص دهد، دستورالعمل‌های اتحادیه اروپا این هدف را دنبال خواهند کرد که در چند مورد اطمینان حاصل شود: اینکه نرم‌افزار آن در قبال نژاد یا جنسیت شما بی‌طرفی را رعایت می‌کند، اینکه مخالفت‌های یک انسان پزشک را لغو نخواهد کرد، و اینکه این امکان را برای بیمار فراهم بیاورد که بیماری تشخیص داده شده برایش توضیح داده شود.  
 
با این تفاصیل مشخص می‌شود که هدف این دستورالعمل‌ها جلوگیری از رفتار جنون‌آمیز AI و قرار گرفتن آن در مسیری نظام‌مند است.
 
هوش مصنوعی

به منظور کمک به این هدف، اتحادیه اروپا گروهی از 52 کارشناس را گرد هم آورد که به هفت الزام رسیدند که به نظر آنها سیستم‌های AI آینده باید منطبق بر آنها باشند. این الزامات از این قرارند:
 
- قدرت و ایمنی فنی: AI باید امن و دقیق باشد، و نباید به راحتی با حملات بیرونی قابل دستکاری باشد؛ همچنین باید در حدی معقولانه قابل اتکا باشد.
 
- محرمانگی و حاکمیت داده‌ها: داده‌های شخصی گردآوری شده توسط سیستمهای AI باید امن و خصوصی باشند. این داده‌ها نباید توسط دیگران قابل دسترسی باشند، و نباید به آسانی قابل سرقت باشند.
 
- شفافیت: داده‌ها و الگوریتم‌های مورد استفاده برای ایجاد یک سیستم AI باید قابل دسترسی باشند، و تصمیمات اتخاذ شده توسط نرم‌افزار باید «توسط انسان‌ها درک و ردگیری شود.» به عبارت دیگر، اپراتورها باید بتوانند تصمیماتی که سیستم‌های AI آنها اتخاذ می‌کنند را توضیح دهند.
 
- پذیرش تنوع انسان‌ها، عدم تبعیض، و منصفانه بودن: سرویس‌های ارائه شده توسط AI باید برای برای همه قابل دسترسی باشد، فارغ از سن، نژاد و مشخصه‌های دیگر.
 
- سلامت محیطی و اجتماعی: سیستم‌های AI باید از نظر اکولوژیکی مسئولیت‌پذیر باشند و «تغییر اجتماعی مثبت را ارتقاء دهند.»
 
- قابلیت حسابرسی: سیستم‌های AI باید قابل حسابرسی و ممیزی بوده و تحت پوشش حفاظت‌های موجود ارائه شده توسط نهادهای نظارتی باشند. اثرات منفی سیستم‌ها باید از قبل مورد اذعان قرار گرفته و گزارش شوند.
 
روشن است که حداقل برخی از این الزامات، از طریق نظارت دولتی قابل آزمایش هستند. مثلا اشتراک‌گذاری داده‌های استفاده شده برای آموزش سیستم‌های AI دولتی می‌تواند راه خوبی برای مبارزه با الگوریتم‌های جهت‌دار(فاقد بی‌طرفی) باشد.
 
گفتنی است این دستورالعمل‌ها قانونا الزام‌آور نیستند، ولی می‌تواند به هرگونه شکل‌دهی قوانین تنظیم شده توسط اتحادیه اروپا در آینده کمک کنند.
 


کد مطلب: 56210

آدرس مطلب: https://www.itna.ir/news/56210/اتحادیه-اروپا-سیستم-های-ai-باید-پاسخگو-توضیح-پذیر-بی-طرف-باشند

ايتنا
  https://www.itna.ir