اخبار

کاهش 95 درصدی مصرف VRAM با فناوری جدید Nvidia

انویدیا در سال‌های اخیر روی روشی کار کرده که می‌تواند بافت‌های گرافیکی را به‌صورت هوشمند فشرده کند و به شکل قابل‌توجهی حافظه گرافیکی (VRAM) را کاهش دهد. این فناوری که هنوز در مرحله بتا قرار دارد، در یک دموی جدید قدرت خود را نشان داده و پتانسیل بالایی دارد تا مشکل محدودیت حافظه را که این روزها میان کارت‌های گرافیکی مدرن رایج است، برطرف کند. «فشرده‌سازی عصبی بافت» (Neural Texture Compression) ممکن است کمی پیچیده به‌نظر برسد، اما اساس کارش بر یک شبکه عصبی است که بافت‌های مختلف را به‌صورت پویا فشرده و دوباره از حالت فشرده خارج می‌کند. این یعنی، به‌جای این‌که بازی یا نرم‌افزار مجبور باشد حجم بالایی از بافت‌ها را به‌طور دائمی در حافظه بارگذاری کند، فقط هنگامی که قسمتی از بافت واقعاً مورد نیاز است، آن را از حالت فشرده خارج می‌کند.

دموی جدیدی که توسط کانال یوتیوب Compusemble تست شده، جزئیات جالبی از این فناوری ارائه می‌دهد. در این تست، سه حالت رندر بررسی می‌شود: حالت نخست که از هیچ‌گونه فشرده‌سازی عصبی استفاده نمی‌کند و بافت‌ها همان‌طور که هستند بارگذاری می‌شوند. حالت دوم از روش NTC و سپس تبدیل این بافت‌ها به فرمت‌های بلوکی مرسوم (BCn) بهره می‌برد؛ و حالت سوم که هنگام نیاز، بافت‌ها را با استفاده از شبکه عصبی از فشردگی خارج می‌کند. طبق گزارش، تفاوت اصلی بین این سه حالت در مقدار فضایی است که روی دیسک و به‌خصوص روی حافظه گرافیکی اشغال می‌شود. در حالت سوم، بالاترین سطح صرفه‌جویی حاصل می‌شود؛ چراکه بافت فقط وقتی نیاز باشد، «از طریق نمونه‌گیری» از حالت فشرده خارج می‌شود و این روند تا 95 درصد میزان استفاده از VRAM را پایین می‌آورد.

به‌عنوان نمونه، در رزولوشن 1440p و استفاده از DLSS، وقتی از روش تبدیل‌شده به BCn استفاده شد، حافظه گرافیکی از 272 مگابایت به 98 مگابایت کاهش یافت که کاهش 64 درصدی را نشان می‌دهد. اما وقتی از حالت «استنتاج هنگام نمونه‌گیری» یا همان Inference on Sample استفاده شد، مصرف حافظه به 11.37 مگابایت رسید؛ عددی که نشان می‌دهد ما با یک جهش بزرگ در کاهش مصرف VRAM طرف هستیم. البته این صرفه‌جویی چشمگیر می‌تواند روی نرخ فریم نیز تأثیر بگذارد، زیرا شبکه عصبی نیاز دارد در لحظه بافت را از حالت فشرده خارج کند و این کار به منابع محاسباتی بیشتری احتیاج دارد. در تستی که روی کارت گرافیک GeForce RTX 4090 انجام شده، استفاده از DLSS و رزولوشن‌های بالاتر، فشار بیشتری روی هسته‌های تنسور (Tensor Cores) وارد کرده و در برخی موارد به افت نسبی فریم منجر شده است.

با این حال، باید توجه داشت که فناوری‌های آینده ممکن است به نحوی بهینه‌سازی شوند که این اختلاف عملکرد ناچیز شود. انویدیا طی سال‌های اخیر روی روش‌های متنوعی از رندرینگ مبتنی بر هوش مصنوعی سرمایه‌گذاری کرده و NTC هم قطعاً نقش مهمی در این مسیر دارد. طبیعی است که با عرضه کارت‌های نسل جدیدتر و بهبود معماری هسته‌های تنسور، افت عملکرد به حداقل برسد و در عین حال، صرفه‌جویی عظیم در حافظه گرافیکی و فضای دیسک همچنان حفظ شود.

نکته دیگر در این دمو، تأکید بر مفهوم «بردارهای تعاملی» (cooperative vectors) است؛ مایکروسافت اخیراً توضیح داده که این بردارها به طور ویژه برای کارهای هوش مصنوعی بهینه‌سازی شده‌اند و می‌توانند سرعت رندر آنی را در بازی‌ها بالا ببرند. در مجموع، آن‌چه در این نسخه بتا دیده می‌شود، نشان می‌دهد ترکیب معماری کارت‌های گرافیکی انویدیا با قدرت شبکه‌های عصبی نه‌تنها می‌تواند گرافیک بازی‌ها را غنی‌تر کند، بلکه محدودیت‌های حافظه را از سر راه برمی‌دارد. هرچند هنوز راهی طولانی در پیش است تا توسعه‌دهندگان به صورت گسترده از NTC استفاده کنند، اما به نظر می‌رسد این فناوری قدمی اساسی در حل مشکلات فزاینده مربوط به محدودیت و هزینه حافظه گرافیکی باشد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *