کد QR مطلبدریافت لینک صفحه با کد QR

قواعد تازه برای پذیرش هوش مصنوعی در کسب‌وکارها

21 تير 1402 ساعت 12:59

ایتنا - همان‌طور که توافق بر سر مخاطرات هوش مصنوعی از جمله تاثیرات آن بر مشاغل و حریم خصوصی افراد، ادامه دارد؛ اما همچنان بسیاری درباره اینکه چنین قوانینی باید چطور وضع شوند یا حسابرسی از شرکت‌های فعال در این حوزه باید بر چه مواردی متمرکز باشد، نگرانی‌های متعددی دارند.



روند رشد و توسعه هوش مصنوعی به دغدغه‌ای جهانی تبدیل شده و مباحث مربوط به مخاطرات و قانون‌گذاری آن اهمیت ویژه‌ای پیدا کرده است. درست به همین دلیل هم هست که مدتی پیش سنای آمریکا، سم آلتمن، مدیرعامل شرکت OpenAI را برای ارائه توضیحاتی درباره روند رشد هوش مصنوعی مولد و چت‌بات‌های مبتنی بر آن فراخواند و در اتحادیه اروپا هم به تازگی از اصلاح قانون هوش مصنوعی خبر داده است تا بر اعمال قوانین بیشتر بر این فناوری تاکید کند. اما آنچه جالب به نظر می‌رسد، اتفاق نظر میان دولت‌ها، محققان و توسعه‌دهندگان هوش مصنوعی بر سر نیاز به قوانین ویژه برای توسعه این فناوری است.

سم آلتمن در مجلس سنا خواستار ایجاد یک نهاد دولتی جدید شد تا مجوزهای مربوط به توسعه الگوهای زبانی بزرگ مبتنی بر هوش مصنوعی را صادر کند. او پیشنهادهای متنوعی برای شیوه قانون‌گذاری این صنعت توسط این نهاد دولتی جدید را ارائه کرد؛ از جمله ایجاد ترکیبی از صدور مجوز و آزمایش ملزومات. او همچنین اعلام کرد که شرکت‌هایی مانند OpenAI باید به صورت مستقل، حسابرسی شوند.

با این همه، همان‌طور که توافق بر سر مخاطرات هوش مصنوعی از جمله تاثیرات آن بر مشاغل و حریم خصوصی افراد، ادامه دارد؛ اما همچنان بسیاری درباره اینکه چنین قوانینی باید چطور وضع شوند یا حسابرسی از شرکت‌های فعال در این حوزه باید بر چه مواردی متمرکز باشد، نگرانی‌های متعددی دارند.

در همین راستا، مجمع جهانی اقتصاد میزبان اجلاس هوش مصنوعی مولد شد و رهبران هوش مصنوعی از کسب‌وکارها، دولت‌ها و موسسات تحقیقاتی را گرد هم آورد تا بر سر چگونگی مدیریت ملاحظات اخلاقی و قانونی جدید به توافق برسند. از خلال این اجلاس، مباحث و توافقات متعددی به دست آمد که می‌توانند در ادامه مسیر توسعه هوش مصنوعی راهگشا باشند.

لزوم حسابرسی مسوولانه و توجیه‌پذیر
قبل از هر چیز بهتر است تصویر موجود از ملزومات کسب‌وکارها برای به‌کارگیری و توسعه الگوهای هوش مصنوعی شفاف‌تر شود. این موضوع وقتی اهمیت بیشتری پیدا می‌کند که به معنای حقیقی نوآوری مسوولانه می‌رسیم. بریتانیا این بحث را به شکل جدی دنبال می‌کند و اخیرا دولت این کشور راهنمایی برای هوش مصنوعی بر اساس پنج اصل شامل امنیت، شفافیت و عدالت را ارائه کرده است.

علاوه بر این، به تازگی دانشگاه آکسفورد تحقیقی انجام داده و به این نتیجه رسیده است که «الگوهای زبانی بزرگ مبتنی بر هوش مصنوعی مانند چت جی‌پی‌تی برای انطباق با مفهوم مسوولیت‌پذیری، باید به‌روزرسانی شوند.»

پیشران اصلی برای این مسوولیت‌های جدید، مشکلات مربوط به درک و حسابرسی از نسل جدید الگوهای هوش مصنوعی هستند که به مرور افزایش می‌یابند. کارشناسان معتقدند که برای ارزیابی دقیق این مشکلات بهتر است «هوش مصنوعی اولیه» با «الگوهای زبانی بزرگ مبتنی بر هوش مصنوعی» مقایسه شده و به صورت موردی مانند پیشنهاد شغل به کارجویان، مورد بررسی قرار بگیرند.

اگر هوش مصنوعی در مفهوم اولیه خود از داده‌ها برای آموزش کمک می‌گرفت تا کارمندانی از یک نژاد یا جنسیت مشخص در مشاغل سطوح بالا شناسایی کند، اما ممکن است با پیشنهاد افرادی از یک نژاد یا جنسیت برای مشاغل، باعث ایجاد تبعیض میان آنها شود. خوشبختانه این موضوعی است که به کمک داده‌های مورد استفاده برای آموزش الگوهای زبانی هوش مصنوعی، قابل پیگیری و حسابرسی باشد.

شناسایی این تبعیض‌ها برای الگوهای زبانی بزرگ مبتنی بر هوش مصنوعی، سخت‌تر می‌شود؛ در صورتی که امکان آزمودن کیفیت شناسایی این الگوها وجود نداشته باشد. به عنوان مثال این دغدغه وجود دارد که اگر از چت جی‌پی‌تی بخواهیم سخنرانی یک نامزد انتخابات ریاست‌جمهوری را خلاصه کند، بر چه اساس و جهت‌گیری سخنان او را قضاوت و انتخاب می‌کند. بنابراین این چالش را می‌توان به موضوعات دیگری مانند انتخاب محصولات برای مشتریان هم تعمیم داد و به ابهاماتی برای چگونگی پیگیری پیشنهاد محصولات و تضمین درستی این پیشنهادها رسید.

شناسایی محدودیت‌های شناختی در الگوهای زبانی بزرگ مبتنی بر هوش مصنوعی کمک می‌کند تا تصمیم‌گیری درباره اعتماد به نتایج ارائه شده توسط آنها را به شکلی دقیق‌تر انجام دهیم. اگر چه چشم‌انداز قانون‌گذاری در زمینه به‌کارگیری هوش مصنوعی به سرعت در حال تغییر و تحول است، اما به تدریج دغدغه‌ها از این هم فراتر خواهد رفت و به مواردی مانند چگونگی تصمیم‌گیری هوش مصنوعی و داده‌ها و اسنادی که به آنها برای تصمیم‌گیری اتکا می‌کند، خواهد رسید.

شفافیت برای ایجاد استانداردها
نیاز دولت‌ها به تعریف استانداردهای شفاف‌تر و گسترده‌تر درباره اینکه تکنولوژی‌های هوش مصنوعی چطور شکل بگیرند و این استانداردها چطور برای مصرف‌کنندگان و کارمندان، شفاف‌تر بشوند، موضوع بااهمیت دیگری است که ذهن کارشناسان و مدیران را به خود‌ مشغول کرده است.

کریستینا مونتگومری، مدیر ارشد حریم خصوصی در شرکت IBM، در جلسه استماع مجلس سنا با حضور سم آلتمن بر نیاز به استانداردهایی تاکید کرد که تضمین می‌کنند که مصرف‌کنندگان در هر زمان از مخاطرات کار با یک چت‌بات آگاه باشند. این شکل از شفافیت، همان موضوع کلیدی است که در ملاحظات اخیر اتحادیه اروپا برای قانون هوش مصنوعی مورد تاکید قرار گرفته است تا حتما عملکرد الگوهای زبانی بزرگ مبتنی بر هوش مصنوعی را تحت تاثیر قرار دهد و از حریم خصوصی کاربران محافظت کند.  در مواجهه با رشد چشمگیر الگوهای زبانی و تکنولوژی‌های جدید، نیاز به کنترل و قانون‌گذاری بیشتر احساس می‌شود و وقتی بحث به تجارت و مسائل مربوط به آن می‌رسد، این نیاز بیشتر شده و نگرانی‌های مربوط به ملاحظات آن شدیدتر می‌شود.

با این اوصاف است که کارشناسان و مدیران کسب‌وکارها معتقدند با شفاف‌سازی استانداردهای لازم برای به‌کارگیری هوش مصنوعی در تجارت و بازرگانی، فرصت‌ها و چالش‌های پیش‌رو را شناسایی کرده و نگاهی دقیق‌تر و بهتر به آینده در سایه توسعه تکنولوژی‌های جدید داشته باشند.

این در حالی است که تحولات و تاثیرات توسعه هوش مصنوعی در داخل کسب‌وکارها و به خصوص برای تیم‌های نیروی انسانی ایجاد می‌شود که احتمالا با چالش‌های جدید و جدی از سوی کارمندان در مواجهه با ابزارهای هوشمند روبه‌رو خواهند شد. آنها نیازمند هم‌افزایی بیشتر با استانداردهای تازه در این زمینه هستند تا بتوانند پیش‌بینی‌ها و برنامه‌های تازه‌ای برای نیروی انسانی در نظر بگیرند که آنها را با مهارت‌های جدید مورد نیازشان آشنا کرده و برای پذیرش فناوری‌های نوظهور از جمله ابزارهای هوش مصنوعی، آماده کنند.

منبع: روزنامه دنیای اقتصاد


کد مطلب: 73755

آدرس مطلب: https://www.itna.ir/news/73755/قواعد-تازه-پذیرش-هوش-مصنوعی-کسب-وکارها

ايتنا
  https://www.itna.ir