۰
plusresetminus
سه شنبه ۴ تير ۱۳۹۸ ساعت ۱۷:۴۲
پلتفرم‌ها ما را گول می‌زنند

دیپ فیک مشکل فناوری نیست، مساله قدرت است

ایتنا - جعل عمیق استفاده از هوش مصنوعی برای دستکاری چند رسانه ای هاست؛ به نحوی که با استفاده از تصویر یا صدای افراد، آنها را در حال اظهار مطالبی نشان می دهند که در واقع چنین حرفی نزده اند. اکنون این تهدید جدی گرفته شده است.
دیپ فیک مشکل فناوری نیست، مساله قدرت است

اسکار شوارتز*
در بحبوحه انتخابات ریاست جمهوری سال 2016 ایالات متحده، کمتر کسی پیش بینی می کرد که اطلاعات نادرست (misinformation) تا این حد می تواند بر روند دموکراسی تاثیر منفی بگذارد. اما حالا در آستانه انتخابات 2020 حساسیت ویژه ای درباره تهدیدات جدیدی که اکوسیستم اطلاعات را شکننده کرده است، وجود دارد.

امروز دیگر بات‌های روسی در صدر سیاهه نگرانی ها نیستند؛ بلکه جعل عمیق یا دیپ فیک جای آنها را گرفته است.
جعل عمیق استفاده از هوش مصنوعی برای دستکاری چند رسانه ای هاست؛ به نحوی که با استفاده از تصویر یا صدای افراد، آنها را در حال اظهار مطالبی نشان می دهند که در واقع چنین حرفی نزده اند. اکنون این تهدید جدی گرفته شده است.

پنج شنبه گذشته، نخستین جلسه ارایه گزارش کمیته اطلاعات کنگره آمریکا دراین باره برگزار شد و آدام شیف، رییس این کمیته در سخنرانی خود، با بیان اینکه جامعه در معرض یک انقلاب فناورانه است، گفت: این انقلاب به طور موثر شیوه تولید اخبار جعلی را متحول می کند.
او از نوآوری ها در هوش مصنوعی گفت که در کارزارهای انتخاباتی به کار گرفته خواهد شد و با الگوریتم های بهبود یافته اش، تشخیص اصالت تصاویر، ویدیوها، متون و صوت را بسیار دشوار خواهد کرد.
به طور خلاصه، او مشکل محتواهای رسانه ای دستکاری شده را تهدید جدیدی عنوان کرد که فناوری های پیچیده در حال رشد منجر به ظهور آن شده است.

البته شیف در این نظر تنها نیست. گفتمان گسترده‌تری درباره محتوای جعلی با تمرکز بر محتواهای تولید شده با هوش مصنوعی ایجاد شده است؛ یعنی درباره استفاده از تکنیک‌های پیشرفته یادگیری ماشینی به منظور ایجاد کپی‌های غیر واقعی از چهره، صدا یا دستخط افراد. اگرچه این دستاوردهای فناورانه بسیار جذاب هستند؛ این نگرانی وجود دارد که شیفته جذابیت این فناوری شویم و از درک مشکل عمیقی که ایجاد می کند، غافل بمانیم.

برای درک بهتر موضوع، آخرین نمونه از دستکاری رسانه ای که از یک فرد سطح بالا در فضای آنلاین منتشر شده را به یاد بیاورید: ویدیویی ساختگی از نانسی پلوسی، سخنگوی کنگره که او را مشغول صحبت کردن در حال مستی نشان می دهد. تازه این ویدیو به دست متخصصان هوش مصنوعی و به عنوان بخشی از آن انقلاب فناورانه ساخته نشده، بلکه صرفا حاصل ویرایش و کند کردن ویدیوی صحبت های پلوسی به دست یک بلاگر طرفدار ترامپ به نام شان بروکس است.
دلیل اینکه این ویدیو تا این حد گسترده بازنشر شده، این نیست که از نظر فناوری کار پیشرفته ای بوده یا از نظر بصری گمراه کننده بوده است؛ بلکه این اتفاق در نتیجه طبیعت شبکه های اجتماعی رخ داده است.

وقتی مدل کسب وکار یک پلتفرم به حداکثر رساندن زمان درگیری مخاطب با محتوا به منظور کسب درآمد از نمایش آگهی باشد، محتوای تفرقه انگیز، شوک آور و توطئه آمیز در صدر خوراک‌های خبری این رسانه ها قرار می گیرد. هنر بروکس نیز مانند بقیه ترول های اینترنتی، درک و استفاده از این ویژگی بوده است.
در واقع ویدیوی پلوسی نشان می دهد که اخبار جعلی و پلتفرم های اجتماعی ارتباطی دوجانبه پیدا کرده و به هم وابسته شده‌اند.
فیس بوک به حذف این ویدیوی دستکاری شده تن نداد و اعلام کرد که بر اساس سیاست های محتوایی اش، واقعی بودن ویدیوها ضروری نیست. (البته این شبکه اجتماعی در تلاش برای به حداقل رساندن آسیب ها، سطح انتشار این ویدیو را در فیدهای خبری اش محدود کرد.) واقعیت این است که محتواهای تفرقه انگیز از جنبه مالی برای پلتفرم های شبکه اجتماعی برد محسوب می شوند و تا زمانی که این منطق کسب وکار حاکم بر حیات آنلاین ما باشد، جاعلان محتواهای بدبینانه به جعل و انتشار این محتواهای تفرقه انگیز ادامه می دهند، حال چه با استفاده از یادگیری ماشین و چه بدون آن.

مشکل نیز همین جا نهفته است: با معرفی کردن جعل عمیق به عنوان یک مشکل فناورانه، به پلتفرم های شبکه اجتماعی اجازه می دهیم که به ارایه و تبلیغ راهکارهای فناورانه خود برای این مشکل بپردازند و با هوشمندی، توجه عموم را از این واقعیت دور کنند که مشکلات اصلی و پایه ای، قدرت بیش از حد پلتفرم های فناوری سیلیکون ولی است.

قبلا هم این اتفاق افتاده است. پارسال، زمانی که کنگره مارک زاکربرگ را برای پاسخگویی درباره مشکلات حریم خصوصی و دخالت داشتن فیس بوک در انتشار اخبار جعلی فراخواند، زاکربرگ به جای پرداختن به مشکلات ساختاری موجود در شرکت اش، سعی کرد به کنگره اطمینان بدهد که راهکارهای فناورانه در آینده ای که مشخص نیست کی فرامی رسد، برای همه مشکلات راهکار ارایه خواهد داد.
زاکربرگ در آن جلسه بیش از 30 بار از هوش مصنوعی، به عنوان حلال مشکلات، نام برد.

با توجه به همه اینهاست که یوگنی موروزوف، پدیده راهکارگرایی فناورانه (technological solutionism) را مطرح می کند. منظور او ایدئولوژی حاکم بر سیلیکون ولی است که سعی دارد مسایل پیچیده اجتماعی را به صورت مسایلی شسته و رفته با راهکارهای عملیاتی و قطعی مطرح کند که در آنها هر مشکلی در صورت داشتن یک الگوریتم مناسب، قابل حل است.
این طرز تفکر به شدت روش‌مند، قراردادی و در عین حال از نظر اجتماعی کوته نظرانه، آنچنان درون صنعت فناوری پرطرفدار و فراگیر است که به نوعی خصلت ژنتیک این صنعت تبدیل شده و هر سوالی را با آن پاسخ می‌دهند: «چطور مشکل نابرابری ثروت را حل کنیم؟ با بلاک چین»؛ «چطور مشکل دوقطبی ها را در سیاست حل کنیم؟ با هوش مصنوعی» یا «چطور مشکل تغییرات آب وهوایی را حل کنیم؟ با بلاک چین مبتنی بر هوش مصنوعی»...

این اشتیاق و انتظار دایمی برای راهکارهای فناورانه که قرار است در آینده نزدیک ارایه شود، ما را از توجه به واقعیت های تلخی که هم اکنون با آنها درگیریم، باز می دارد. زاکربرگ سال گذشته در برابر کنگره، به ما وعده مدیریت بهتر محتوا را با استفاده از هوش مصنوعی داد، اما از آن پس گزارش های متعدد حاکی از این است که مدیریت محتوا در این شرکت همچنان متکی به نیروی انسانی است که هر روزه با محتواهای خشونت بار، شوکه کننده و نفرت انگیز مواجهند و شرایط کاری بسیار سختی دارند و فیس بوک با صحبت کردن بی وقفه درباره مدیریت محتوا با هوش مصنوعی، عملا ذهن ها را از شرایط سخت این انسان های واقعی منحرف می کند.

ایدیولوژی راهکارگرایی فناورانه، بر گفتمان مربوط به شیوه مواجهه با محتواهای رسانه ای دستکاری شده نیز اثر می گذارد. راهکارهایی که ارایه می شود، عمدتا ماهیت فناورانه دارند؛ از واترمارک های دیجیتال گرفته تا تکنیک های جدید بازرسی مبتنی بر یادگیری ماشین.
مطمئنا کارشناسان متعددی به تحقیقات امنیتی با اهمیتی برای شناسایی محتواهای جعلی درآینده مشغولند. این کاری ضروری است، اما لزوما به حل مشکل عمیق اجتماعی فروپاشی حقیقت و قطبی سازی که پلتفرم های رسانه های اجتماعی سودهای کلانی از آن می برند و در آن نقش دارند، نمی انجامد.

بزرگ ترین نقطه ضعف راهکارگرایی فناورانه، یکی این است که می توان از آن برای پنهان کردن مشکلات عمیق ساختاری در صنعت فناوری استفاده کرد. همچنین این ایدئولوژی می تواند مانعی جدی در برابر کنشگرانی باشد که با تمرکز قدرت در دست شرکت هایی که شیوه دسترسی ما به اطلاعات را کنترل می کنند، مخالف هستند.

اگر ما همچنان دیپ فیک را به جای یک مفسده اساسی در قلب اقتصاد توجه (attention economy)، به عنوان یک مشکل فناورانه جا بزنیم، خودمان را در انتخابات 2020 نیز در معرض بلای اطلاعات نادرست قرار داده ایم؛ همان بلایی که در سال 2016 سرمان آمد.
 منبع: گاردین
* اسکار شوارتز نویسنده مستقل و محقق ساکن نیویورک آمریکاست.

(منبع: فناوران)
 
کد مطلب: 57092
نام شما
آدرس ايميل شما

مهمترين اقدام برای پيشگیری از تکرار امثال کوروش کمپانی؟
اصلاح قوانين
برخورد قاطع
اصلاح گمرکات
آزاد کردن بازار
آگاه سازی مردم
هيچکدام