آرشيو برچسب: دیپ فیک
نمایش خبر در روز :  
ماه :  
سال :  
نوع مطلب :  
بخش :  
 صفحه قبل    |     صفحه بعد 
هفت نشانه ویدیوی دیپ فیک
۶ مرداد ۱۴۰۳ ساعت ۰۳:۱۱
یوتیوب اجازه حذف محتوایی را می دهد که چهره یا صدای شما را تقلید می کند
۱۷ تير ۱۴۰۳ ساعت ۰۹:۵۳
فناوری‌های جدید آنر برای ردیابی دیپ‌فیک و نزدیک‌بینی کاربران
۹ تير ۱۴۰۳ ساعت ۱۲:۰۵
مسئولیت جرایم هوش مصنوعی بر عهده کیست؟
۲۸ خرداد ۱۴۰۳ ساعت ۰۰:۴۱
آموزش: چگونه عکس‌ها و فیلم‌های اصلاح شده با هوش مصنوعی را تشخیص دهیم؟
۲۴ خرداد ۱۴۰۳ ساعت ۰۴:۱۸
افزایش نگرانی‌ها از نقش هوش مصنوعی در «جعل عمیق» و انتشار اطلاعات نادرست
۱۶ خرداد ۱۴۰۳ ساعت ۰۴:۳۵
آیا فناوری نسل انسان را منقرض می‌کند؟
۲۳ ارديبهشت ۱۴۰۳ ساعت ۰۱:۰۱
تیک‌تاک یک فناوری تشخیص جعل عمیق توسعه می‌دهد
۲۲ ارديبهشت ۱۴۰۳ ساعت ۰۵:۰۷
هوش مصنوعی کتی پری و ریانا را بدون دعوت به موزه متروپولیتن نیویورک برد
۱۹ ارديبهشت ۱۴۰۳ ساعت ۱۱:۰۳
یوتیوب از سازندگان ویدیوها می‌خواهد که محتوای تولید شده با هوش مصنوعی را فاش کنند
۱۴ ارديبهشت ۱۴۰۳ ساعت ۰۵:۳۰
Imagen 2؛ سازنده کلیپ ویدئویی گوگل منتشر شد
۲۵ فروردين ۱۴۰۳ ساعت ۰۶:۳۶
4 ابزار جدید از گوگل برای تایید اطلاعات و تصاویر
۲۱ فروردين ۱۴۰۳ ساعت ۰۱:۲۰
ابزار شبیه سازی صوتی OpenAI که کاربران هنوز نمی‌توانند از آن استفاده کنند!
۲۰ فروردين ۱۴۰۳ ساعت ۰۲:۰۱
شرکت‌های فناوری جعل عمیق ساخته شده توسط هوش مصنوعی را شناسایی کنند
۸ فروردين ۱۴۰۳ ساعت ۰۶:۰۶
آموزش: چگونه تصاویر دستکاری‌شده را تشخیص دهیم؟
۲۶ اسفند ۱۴۰۲ ساعت ۰۰:۰۰
آیا درباره خطرات جعل عمیق اغراق می‌شود؟
۱۷ اسفند ۱۴۰۲ ساعت ۰۶:۱۰
ماجرای هدیه ۱۰ هزار دلاری ایلان ماسک به کاربران رمزارزها چه بود؟
۷ اسفند ۱۴۰۲ ساعت ۱۴:۰۲
کارشناسان هوش مصنوعی: دیپ‌فیک قانونمند شود
۴ اسفند ۱۴۰۲ ساعت ۱۶:۵۷
تلاش متا و اوپن‌ای‌آی برای جلوگیری از جا زدن تصاویر جعلی هوش مصنوعی به عنوان واقعی
۲۷ بهمن ۱۴۰۲ ساعت ۰۲:۰۶
با ۵ بهترین ابزار و تکنیک برای تشخیص جعل عمیق آشنا شوید
۲۵ بهمن ۱۴۰۲ ساعت ۱۰:۱۹
 صفحه قبل    |     صفحه بعد