کد QR مطلبدریافت لینک صفحه با کد QR

آیا درباره خطرات جعل عمیق اغراق می‌شود؟

سايت خبری ايتنا , 17 اسفند 1402 ساعت 6:10

ایتنا - دیپ‌فیک‌های هوش مصنوعی اغلب برای ایجاد آسیب استفاده می‌شوند، اما روش‌های موجود طراحی شده برای کاهش یا جلوگیری از تقلب باید برای محافظت در برابر این فناوری کافی باشد.




در عصر دیجیتالی که در آن زندگی می‌کنیم، مرز بین واقعیت و فانتزی مبهم شده است. ظهور فناوری جعل عمیق (دیپ فیک) نگرانی‌های عمده و بحث های جنجالی را در مورد صحت محتوای بصری ایجاد کرده است. 

همانقدر که تصاویر دستکاری شده پیچیده‌تر می‌شوند، درک فناوری زیربنایی و تاثیر بالقوه آن ضروری‌تر می‌شود، به خصوص که ظهور جعل عمیق پیامدهای زیادی برای جنبه‌های مختلف جامعه از جمله سیاست، روزنامه نگاری، سرگرمی و حریم خصوصی دارد. 

با کنترل‌های صحیح و هوشیار بودن نسبت به خطرات احتمالی جعل عمیق، می‌توانیم این طوفان حوزه تکنولوژی را پشت سر بگذاریم.

این نکته را باید در نظر داشت که  فناوری دیپ فیک، پدیده نوظهوری نیست، بلکه سال‌هاست در استودیوهای فیلمسازی هالیوود استفاده می‌شود، اما اکنون از طریق اپلیکیشن‌های تجاری در دسترس همگان قرار گرفته است که منجر به افزایش حجم محتوای جعلی در حال گردش در فضای مجازی شده است.

هنگامی که از دیپ فیک برای تبلیغ اطلاعات نادرست و گمراه کننده استفاده می‌شود، دانستن اینکه ابزارهایی در حال توسعه هستند که ویدیوهای اصلاح شده توسط هوش مصنوعی را شناسایی می‌کنند، نیز امری ضروری است. 

البته چیزی که امیدوار کننده است، همگرایی غول‌های فناوری مانند گوگل، متا، اوپن‌‌ای‌آی، مایکروسافت و دیگر شرکت‌ها است که صریحا اعلام کردند باید روش‌های جدیدی برای محدود کردن گسترش فناوری دیپ‌فیک ایجاد شود. مانند افزودن برچسب‌ها واترمارک نامرئی  روی ویدئوها و تصاویری  که با استفاده از دیپ‌فیک و هوش مصنوعی ایجاد یا اصلاح می‌شوند. 

یکی دیگر از عوامل اطمینان بخش این است که اخیرا قانونی پیشنهادی که توسط کمیسیون تجارت فدرال ایالات متحده تعیین شده است به زودی برای کمک به جلوگیری از تقلب از طریق هوش مصنوعی اجرایی می‌شود.

متا نیز به زودی شروع به برچسب گذاری تصاویر جعل عمیق یا تولید شده توسط هوش مصنوعی در پلتفرم‌های خود در فیس‌بوک، اینستاگرام و Threads به عنوان "تولید شده توسط هوش مصنوعی" می‌کند تا آنها را از محتوای واقعی متمایز کند.

علاوه بر گسترش آگاهی فردی در بین کاربران اینترنت، اکثریت مردم در حال حاضر صحت محتوا را قبل از اشتراک‌گذاری تأیید می‌کنند و این امر نقش اساسی در کاهش خطرات ناشی از جعل عمیق دارد.

تشخیص جعل عمیق به طور فزاینده‌ای دشوار شده اما غیرممکن نیست. در اینجا برجسته ترین روش‌ها آمده است:

 

 

برنامه‌ای برای تشخیص تغییرات هوش مصنوعی


برای تعیین اینکه آیا یک تصویر، ویدئو یا فایل صوتی دستکاری شده است یا نه، این نوع نرم‌افزار اثر انگشت دیجیتالی به جا مانده از محتوای تولید شده توسط هوش مصنوعی را تجزیه و تحلیل می‌کند.
 

واترمارکینگ مبتنی بر هوش مصنوعی


این تکنیک شامل افزودن یک شناسه منحصر به فرد به یک تصویر یا متن است که مبدأ آن را مشخص می‌کند. این کار ردیابی منبع را آسان‌تر می‌کند و می‌تواند به تعیین صحت آن کمک کند.
 

منبع محتوا


هدف این استراتژی حفظ منبع رسانه‌های دیجیتال اعم از طبیعی و مصنوعی است. نگه داشتن سوابق منابع رسانه‌ای و تاریخچه به کاربران کمک می‌کند تشخیص دهند که آیا کسی آنها را دستکاری کرده است.

بدون استانداردهای جهانی برای شناسایی محتوای واقعی و جعلی، آشکارسازها ممکن است همه چیز را تشخیص ندهند، زیرا باید روی جزئیات دیگری تمرکز کنند که به تمایز بین محتوای واقعی و جعلی کمک می کند، از جمله:
 

صورت و بدن


 اکثر دیپ‌فیک‌ها به جایگزین‌های اعضای صورت محدود می‌شوند. از این رو، یکی از راه‌های شناسایی جعلی بودن، تشخیص ناهماهنگی بو عدم تناسب بین بدن و صورت، یا بین حالات چهره و حرکات یا موقعیت‌های بدن است.
 

طول ویدیو


ساخت دیپ‌فیک‌های با کیفیت بالا به ساعت‌های زیادی کار و آموزش روی الگوریتم نیاز دارند. بنابراین ویدئوهای جعلی معمولا فقط چند ثانیه تا چند دقیقه طول می‌کشند.
 

صوتی تصویری


برنامه‌هایی برای ساخت صداهای جعلی وجود دارد. اگر ویدیو صدا ندارد یا صدایی دارد که با تصویر مطابقت ندارد، مخصوصاً حرکت لب، مراقب باشید.
 

داخل دهان


در نظر داشته باشید که فناوری دیپ فیک در بازتولید زبان، دندان‌ها و حفره دهان در هنگام صحبت کردن بی‌نقص عمل نمی‌کند. بنابراین تار شدن داخل دهان نشان دهنده یک تصویر نادرست و جعلی است.
 

جزئیات دیگر


 جزئیات، پاشنه آشیل نرم افزار دیپ‌فیک است. بنابراین می‌توانیم آن‌ها را با تمرکز بر جنبه‌های کوچک مانند سایه‌های مات دور چشم، موهای غیر واقعی صورت، پوست بیش از حد صاف یا چروک، خال‌های غیرواقعی و رنگ غیر طبیعی لب، تشخیص دهیم.


کد مطلب: 77790

آدرس مطلب: https://www.itna.ir/news/77790/آیا-درباره-خطرات-جعل-عمیق-اغراق-می-شود

ايتنا
  https://www.itna.ir