۰
plusresetminus
سه شنبه ۱۶ ارديبهشت ۱۴۰۴ ساعت ۰۹:۴۲

وابستگی به ChatGPT برای تشخیص بیماری؛ نگاهی به یافته‌های نگران‌کننده

آیا به چت‌بات‌ها برای مشاوره پزشکی اعتماد کنیم؟ هشدار آکسفورد را جدی بگیرید!
افزایش اعتماد مردم به چت‌بات‌های هوش مصنوعی برای مشاوره‌های پزشکی، اگرچه رایج شده، اما نتایج یک مطالعه جدید نشان می‌دهد که این وابستگی می‌تواند خطرناک و گمراه‌کننده باشد. پژوهشگران هشدار می‌دهند که کاربران اغلب اطلاعات ناکافی می‌دهند و پاسخ‌های ترکیبی چت‌بات‌ها، دقت تصمیم‌گیری را کاهش می‌دهد.
وابستگی به ChatGPT برای تشخیص بیماری؛ نگاهی به یافته‌های نگران‌کننده

با توجه به صف‌های انتظار طولانی و افزایش هزینه‌ها در نظام‌های بهداشتی که تحت فشار شدید قرار دارند، بسیاری از افراد برای دریافت تشخیص‌های پزشکی به سراغ چت‌بات‌های هوش مصنوعی مانند ChatGPT می‌روند. بر اساس نتایج یک نظرسنجی اخیر، حدود یک‌ششم از بزرگسالان آمریکایی دست‌کم ماهی یک‌بار از این چت‌بات‌ها برای مشاوره‌ در زمینه سلامت استفاده می‌کنند.

به گزارش ایتنا و به نقل از تک‌کرانچ، پژوهشی تازه به رهبری دانشگاه آکسفورد هشدار می‌دهد که تکیه بیش از حد به پاسخ‌های این چت‌بات‌ها می‌تواند خطرآفرین باشد؛ بخشی از این خطر به این دلیل است که بسیاری از کاربران نمی‌دانند چه نوع اطلاعاتی را باید در اختیار چت‌بات قرار دهند تا بهترین توصیه ممکن را دریافت کنند.

آدام مهدی (Adam Mahdi)، مدیر تحصیلات تکمیلی در مؤسسه اینترنت آکسفورد و یکی از نویسندگان این مطالعه، در گفت‌وگو با وب‌سایت تک‌کرانچ توضیح داد: «نتایج این تحقیق نشان داد که بین کاربران و چت‌بات‌ها نوعی اختلال ارتباطی دوجانبه وجود دارد. تصمیمات اتخاذشده توسط این افراد، در مقایسه با کسانی که از روش‌های سنتی مانند جست‌وجوی اینترنتی یا قضاوت شخصی بهره می‌بردند، از کیفیت یا دقت بالاتری برخوردار نبود.»


 


در این تحقیق، پژوهشگران حدود هزار و سیصد نفر از ساکنان بریتانیا را برای شرکت در مطالعه انتخاب کردند و سناریوهایی پزشکی تهیه‌شده توسط یک گروه پزشک را در اختیار آن‌ها قرار دادند. از شرکت‌کنندگان خواسته شد تا با بررسی این سناریوها، مشکلات احتمالی سلامت را تشخیص داده و اقدام مناسب—مانند مراجعه به پزشک یا رفتن به بیمارستان—را با استفاده از چت‌بات‌ها یا روش‌های معمول خودشان انتخاب کنند.

چت‌بات‌هایی که در این مطالعه مورد استفاده قرار گرفتند شامل نسخه‌های پیش‌فرض مدل‌های هوش مصنوعی نظیر ChatGPT، مدل GPT-4o، مدل Command R+ شرکت Cohere و مدل Llama 3 شرکت Meta بودند. طبق گزارش پژوهشگران، استفاده از چت‌بات‌ها نه‌تنها توانایی شرکت‌کنندگان را در تشخیص بیماری‌ها کاهش داد، بلکه در مواردی حتی باعث شد شدت بیماری‌ها نیز کمتر از واقعیت ارزیابی شود.

مهدی افزود که بسیاری از شرکت‌کنندگان هنگام پرسش از چت‌بات‌ها، اطلاعات کلیدی را فراموش می‌کردند یا پاسخ‌هایی دریافت می‌کردند که فهم آن‌ها دشوار بود.

او همچنین گفت: «پاسخ‌هایی که شرکت‌کنندگان از چت‌بات‌ها دریافت می‌کردند، اغلب ترکیبی از توصیه‌های درست و نادرست بود. در حال حاضر، شیوه‌های ارزیابی عملکرد چت‌بات‌ها نمی‌توانند پیچیدگی تعامل آن‌ها با انسان‌ها را به‌خوبی بازتاب دهند.»
کد مطلب: 84543
نام شما
آدرس ايميل شما