سايت خبری فناوری اطلاعات (ايتنا) 1 دی 1397 ساعت 10:53 https://www.itna.ir/news/55092/وارد-کردن-اشیاء-تصاویر-استفاده-هوش-مصنوعی-گوگل -------------------------------------------------- عنوان : وارد کردن اشیاء به تصاویر با استفاده از هوش مصنوعی گوگل -------------------------------------------------- ایتنا- سیستم هوش مصنوعی گوگل قصد دارد که اشیاء را با شکلی واقع‌بینانه و منسجم وارد تصویر کند؛ به شکلی که تفاوت چندانی با واقعیت نداشته باشد. متن : استفاده از نرم‌افزار تولید پست برای قرار دادن اشیاء به صورت واقعی در صحنه‌ها، برای کامپیوتر خیلی مشکل است. برای این کار باید موقعیت درست اشیاء مذکور مشخص شود و ظاهر آن اشیاء در نقطه هدف به خوبی پیش‌بینی شود. برای جای‌گذاری درست یک شیء در یک تصویر باید به مقیاس، انسداد، حالت و وضعیت جسم توجه شود. به گزارش ایتنا از رایورز به نقل از ونچربیت، خوشبختانه هوش مصنوعی این امکان را فراهم کرده است. در مقاله‌ای که در دانشگاه‌های سئول و کالیفرنیا آماده و ارائه شد، مشخص شد که هوش مصنوعی گوگل، سیستمی را فراهم کرده است که می‌تواند نحوه قرار دادن یک شیء در یک تصویر را به شکلی معنادار و منسجم آموزش ببیند.   پژوهشگران بر این باور هستند که قرار دادن یک شکل در یک تصویر، در واقع بیانگر آن است که معناشناسی تصویر یک کار چالش برانگیز و جالب است. این کار با بسیاری از اپلیکیشن‌های دنیای واقعی در ارتباط است و شامل ترکیب تصویر، ویرایش محتوای واقعیت مجازی و افزوده و تصادفی سازی دامنه است. این مدل کار می‌تواند کار برنامه‌های تجزیه و تحلیل صحنه و ویرایش تصویر را تسهیل نماید.   چارچوب سرتاسری آنها شامل دو ماژول است که یکی مربوط به تعیین محل وارد کردن اشیاء و دیگری با تعیین ظاهر کار در ارتباط است. این موضوع نیازمند شبکه‌های عصبی دو بخشی است. این دو بخش شامل تولیدکننده‌ها و تفکیک کننده‌هاست. تولیدکننده، کار تولید نمونه را انجام می‌دهد و تفکیک‌کننده امکان تشخیص و تمیز بین نمونه‌های تولیدشده و نمونه‌های واقعی را فراهم می‌کند.   از آنجا که این سیستم، توزیع را از نظر تصویر واردشده مدل‌سازی می‎‌کند، می‌تواند هر دو ماژول را به صورت هم‌زمان بهینه سازی کند و با هر دو ارتباط برقرار کند. نوآوری اصلی این کار، ساخت و ایجاد یک شبکه عصبی آموزش‌پذیر سرتاسری است که بتواند موقعیت‌ها و اشکال مناسب برای اشیاء جدید را نمونه سازی کند.