Nvidia

دسته بندی: 

Nvidia قصد دارد از هوش مصنوعی برای ارتقای بازی‌ها و ارتقای Ray Tracing استفاده نماید

این هفته در SIGGRAPH، هم AMD و هم Nvidia، تکنولوژی‌های نرم‌افزاری و سخت‌افزاری گوناگونی را معرفی می‌کنند. SIGGRAPH یک شوی سالانه است که بر گرافیک‌های کامپیوتری و پیشرفت‌های انجام گرفته در تکنیک‌های رندرینگ متمرکز است. در شوی امسال، Nvidia روش‌هایی که هوش مصنوعی می‌تواند برای ارتقای گیمینگ یا خلق تصاویر فوق واقع‌گرایانه مورد استفاده قرار گیرد، بدون توان کامپیوتری و محاسباتی فوق‌العاده زیادی که برای brute force بعضی استانداردهای بصری خاص مورد نیاز خواهد بود به نمایش گذاشت. این مورد آخر، چیزی بیش‌تر از یک مسئله‌ی اتفاقی است. مشکل ساده است: اگر یک انیمیشن مبتنی بر کاراکتر سال 2017 را با بهترین سخت‌افزار سال 2015 مقایسه کنید مسلما متوجه تفاوت آن‌ها خواهید شد. هرچند به طور همزمان، بعید است فکر کنید که حتی جالب‌ترین CG هم در واقع یک فیلم است. باید اشاره کنیم که این یک پروژه‌ی تحقیقاتی است نه نشانه‌ای که Nvidia طی چند هفته‌ی آینده GTX 1100 AI Series را منتشر خواهد کرد. اما برخی از دموهایی که Nvidia منتشر کرده است به نوبه‌ی خود بسیار تاثیرگذار هستند و تعدادی از آن‌ها پیشنهاد می‌کنند که ممکن است روشی برای یکپارچه‌سازی ray tracing درون گیمینگ و رندرینگ نرم‌تر زمان‌واقعی 3D در مقایسه با چیزی که در گذشته مشاهده کرده‌ایم وجود داشته باشد. یک پٌست وبلاگی جدید این مسئله را نشان می‌دهد. Aaron Lefohn گزارش می‌دهد که Nvidia چگونه با Remedy entertainment همکاری کرده تا GPUها را آموزش دهد انیمیشن‌های چهره‌ای را مستقیما از ویدئوهای بازی‌گر تولید کنند. او می‌نویسد: به جای این که مجبور باشیم تبدیل داده‌های لابراتواری را انجام دهیم و ساعت‌ها با ویدئوهای بازی‌گر سر و کله بزنیم، راه‌حل Nvidia فقط به 5 دقیقه از داده‌های آموزشی نیاز دارد. شبکه‌ی آموزش‌دیده به طور اتوماتیک تمامی انیمیشن‌های چهره‌ای مورد نیاز برای کل یک بازی را از یک استریم ساده‌ی ویدئویی ایجاد می‌کند. راه‌حل هوش مصنوعی Nvidia، انیمیشنی تولید می‌کند که سازگار‌تر و مثل روش‌های جاری از کیفیت مطلوبی برخوردار است. ترسیم صِرف انیمیشن‌ها تنها کاری نیست که Nvidia فکرمی‌کند هوش مصنوعی می‌تواند انجام دهد. یکی از دلایلی که از ray tracing هرگز به عنوان روش اصلی ترسیم گرافیک‌ها در بازی‌های کامپیوتری استفاده نشده این است که از نظر محاسباتی به شدت گران تمام می‌شود. ray tracing به روش خلق صحنه‌ها از طریق ردگیری مسیر نور، در حالی‌که یک منبع نوری (شبیه‌سازی شده) را تَرک می‌کند و با سایر اشیاء همجوار تعامل برقرار می‌کند اشاره می‌نماید. یک صحنه‌ی ray trace شده به تعداد عظیمی شعاع نوری نیاز دارد. انجام محاسبات مورد نیاز برای این که ray tracing را در مقایسه با تکنیک‌هایی که امروز مورد استفاده قرار می‌گیرد و rasterization نام دارد ارجح سازد عموما ورای توانایی سخت‌افزار GPU مدرن بوده است. این بدان معنا نیست که بخواهیم بگوئیم ray tracing هرگز مورد استفاده قرار نگرفته است اما نوعا به شکلی محدود پیاده‌سازی شده و یا از روش‌های هیبریدی استفاده می‌شود که برخی از جنبه‌ها و مفاهیم ray tracing و rasterization را با هم تلفیق می‌کند. کاری که Nvidia این هفته در SIGGRAPH به نمایش می‌گذارد مثالی از این است که هوش مصنوعی چگونه می‌تواند یک تصویر نسبتا خام را بگیرد و فرم نهایی آن را بسیار سریع‌تر از کاری که ray tracing برای خلق آن نتایج از طریق brute force انجام می‌دهد پیش‌بینی نماید. Ray tracing تنها حوزه‌ای نیست که می‌تواند از مزایای هوش مصنوعی بهره‌مند شود. همان‌گونه که در بالا نشان داده شد، امکان استفاده از هوش مصنوعی برای حذف نویز از یک تصویر وجود دارد- چیزی که می‌تواند در آینده و مثلا در حالی که مشغول تماشای ویدئویی با کیفیت پائین یا انجام بازی‌هایی در رزولوشن پائین به واسطه‌ی محدودیت‌های پانل هستید به شدت مفید واقع شود. درواقع هوش مصنوعی می‌تواند برای انجام دقیق‌تر antialiasing مورد استفاده قرار گیرد. اگر موضوع AA را دنبال کرده باشید احتمالا از این نکته آگاهی دارید که همه‌ی روش‌های antialiasing- که به معنای نرم کردن پیکسل‌های ناهمواری که شما را دیوانه می‌کنند است- نقاط ضعفی دارند. Supersampled antialiasing‪(SSAA)‬ بهترین کیفیت کلی تصویر را فراهم می‌کند اما گاهی اوقات براساس grid order، تصویر را تار می‌کند و یک جریمه‌ی عظیم کارآیی را تحمیل می‌نماید. Multisample antialiasing تاثیر کارآیی را کاهش می‌دهد اما به طور کامل کل تصویر را supersample نمی‌کند. سایر روش‌های شبیه‌سازی AA نظیر FXAA یا SMAA، از نظر محاسباتی بسیار کم‌هزینه‌تر هستند اما در عین حال سطح مشابی از پیشرفت بصری را ارائه نمی‌کنند. اگر Nvidia درباره‌ی استفاده از هوش مصنوعی برای ایجاد AA دٌرٌست بگوید می‌تواند مشکلی که طراحان سخت‌افزار GPU و مهندسان نرم‌افزار برای چندین دهه با آن دست به گریبان بوده‌اند برطرف کند. 

افزودن دیدگاه جدید