انویدیا شجره ای قوی برای ساخت کارت های گرافیک عالی دارد. انویدیا هرگز ضعیف نبوده است و بهترین پردازنده های گرافیکی آن بارها و بارها از رقیب خود AMD پیشی گرفتهاند. اما علیرغم تمایل انویدیا به نوآوری و پیشرفت تکنولوژی، کارت های بسیار ضعیفی را منتشر کرده است که نه لزوما توسط فناوری بد، بلکه اغلب به دلیل تصمیمگیری ضعیف مورد استقبال قرار نگرفته اند. بیایید برخی از پردازنده های گرافیکی انویدیا که عملکرد ضعیفی دارند را با هم بررسی کنیم با ما همراه باشید .
GeForce GTX 480
راهی که قرار است کباب شود
اگرچه انویدیا بیش از 20 سال است که در حال فعالیت است، اما واقعا تنها یک GPU وجود دارد که این شرکت تا به حال ساخته است که در سطح تکنولوژی واقعا وحشتناک بود و آن GTX 480 است. با معماری Fermi، GTX 480 (و کل سری 400 به طور گسترده) با مشکلات متعددی دست و پنجه نرم می کرد که به نوبه خود به AMD اجازه داد تا به تولید کننده پیشرو تراشه های گرافیکی تبدیل شود و تقریباً از Nvidia در سهم بازار پیشی بگیرد.
بزرگترین ادعای شهرت (یا بدنامی) دهه 480 مصرف انرژی و گرمای آن بود. در آزمایش Anandtech، مشخص شد که یک GTX 480 به اندازه سیستم های GPU دوگانه انرژی مصرف میکند و در بازی های معمولی می تواند به دمای ۹۴ درجه سانتیگراد برسد، که در آن زمان دیوانهکننده بود.
این تصادفی تاسف بار بود که کولر استوک 480 مانند یک کباب پز به نظر می رسید، و مخالفان را بر آن داشت تا شعار انویدیا را «آنطور که باید اجرا شود» را به «طرز کباب کردن» تبدیل کنند. نویدیا تنها هشت ماه بعد با عرضه سری GTX 500 که اساسا یک نسخه ثابت از Fermi بود، سری GTX 400 را به طرز شرم آوری کشت. GTX 580 جدید سریع تر از GTX 480 بود، انرژی کمتری مصرف می کرد و برچسب قیمت یکسانی داشت.
GeForce GTX 970
3.5 مساوی با 4 است:
هنگامی که برای اولین بار عرضه شد، GTX 970 در واقع بسیار مورد استقبال قرار گرفت، دقیقا مانند سایر کارت های سری 900 که با معماری افسانه ای Maxwell طراحی شده اند. 329 دلار بود و به سرعت پرچمدار 2013 AMD R9 290X بود و در عین حال انرژی کمتری مصرف می کرد. به نظر Anandtech، این یک مدعی قوی برای بهترین قهرمان ارزش نسل بود. بنابراین، 970 چه کار بدی انجام داد که در نهایت در این لیست قرار گرفت؟
خوب، چند ماه پس از عرضه 970، اطلاعات جدیدی در مورد مشخصات آن منتشر شد. اگرچه GPU دارای 4 گیگابایت VRAM GDDR5 بود، اما تنها 3.5 گیگابایت از آن با سرعت کامل قابل استفاده بود، با نیم گیگابایت باقی مانده به سختی سریع تر از DDR3 کار می کرد، حافظه سیستم یک GPU در صورت تمام شدن VRAM به آن می رود.برای همه مقاصد، 970 یک پردازنده گرافیکی 3.5 گیگابایتی بود، نه 4 گیگابایتی، و این منجر به شکایتی شد که Nvidia خارج از دادگاه حل و فصل کرد و به هر 970 مالک هر کدام 30 دلار پرداخت کرد.
طبق گفته Anandtech، در واقعیت، پیامدهای عملکرد داشتن نیم گیگابایت VRAM کمتر اساسا وجود نداشت. در آن زمان، بیشتر بازی هایی که بیش از 3.5 گیگابایت VRAM نیاز داشتند، در وهله اول بسیار فشرده بودند، حتی برای GTX 980 که دارای 4 گیگابایت VRAM بود. امروزه چند بازی وجود دارد که 970 به دلیل پیکربندی حافظه نامناسب با مشکل مواجه است.
اما عملکرد در اینجا مهم نیست. در نهایت، انویدیا کم و بیش در مورد آنچه که GTX 970 داشت دروغ گفت و این قابل قبول نیست و واقعاً میراث یک کارت عالی را لکه دار می کند. متأسفانه، بازی سریع و آزاد با مشخصات پردازنده گرافیکی عادتی است که انویدیا از آن زمان تاکنون با مشکل مواجه شده است.
GeForce GTX 1060 3GB
پس از شکست 970، انویدیا هرگز سعی نکرد GPU دیگری بسازد که بخش کند VRAM داشته باشد و اطمینان حاصل کند که هر کارت با مقدار مناسب حافظه تبلیغ می شود. با این حال، انویدیا مشخصات دیگری را پیدا کرد که راحت تر به آن دست زد: تعداد هسته های CUDA.
قبل از سری 10، مشاهده پردازنده های گرافیکی با چندین نسخه (معمولاً دو) که در ظرفیت VRAM متفاوت بودند، مانند GTX 960 2GB و GTX 960 4GB معمول بود. پردازنده های گرافیکی با VRAM بیشتر فقط همین بودند. آن ها حتی در اکثر موارد پهنای باند حافظه بیشتری نداشتند. اما همه چیز با سری 10 انویدیا تغییر کرد که پردازنده های گرافیکی مانند GTX 1060 3 گیگابایتی را معرفی کرد. در ظاهر، شبیه GTX 1060 با نیمی از 6 گیگابایت معمولی به نظر می رسد، اما یک نکته وجود دارد: هسته های کمتری نیز داشت.
به گفته منتقدانی مانند Techspot و Guru3D، GTX 1060 3GB به عنوان یک محصول واقعی، قابل قبول بود، که حتی به کاهش تعداد هسته ها اهمیتی نمی دادند. اما 1060 3GB رگباری از انواع GPU را آغاز کرد که هم VRAM کمتر و هم هسته های کمتری داشتند و صادقانه بگویم، این روند چیزی جز سردرگمی ایجاد نکرده است. احتمالاً تعداد هسته های GPU چیزی است که مدل های مختلف پردازنده های گرافیکی را متفاوت میکند و VRAM تنها یک عامل ثانویه عملکرد است.
بدترین نمونه انویدیا که این طعمه و سوئیچ را انجام میدهد، RTX 4080 12GB است، که قرار بود تنها 78 درصد از هسته های RTX 4080 16GB را داشته باشد و این باعث می شود که بیشتر از هر چیز دیگری شبیه RTX 4070 باشد. با این حال، واکنش ها به این موضوع آنقدر شدید بود که انویدیا در واقع RTX 4080 12GB را لغو کرد.
GeForce RTX 2080
یک قدم به جلو و دو قدم به عقب
با سری GTX 10، انویدیا به تسلط کامل در بازار GPU دست یافت. کارت هایی مانند GTX 1080 Ti و GTX 1080 به راحتی برخی از بهترین پردازنده های گرافیکی انویدیا در تمام دوران هستند. انویدیا نیز سرعت خود را کاهش نداد، زیرا نسل بعدی سری RTX 20 ردیابی پرتوهای بلادرنگ و ارتقاء رزولوشن مبتنی بر هوش مصنوعی را معرفی کرد. سری 20 از نظر فناوری بسیار پیشرفته تر از سری 10 بود که اساساً سری 900 در گره بهتری بود.
در واقع، انویدیا آنقدر به فناوری جدید خود فکر می کرد که به سری RTX 20 قیمتی را داد که فکر می کرد شایسته آن است، با قیمت RTX 2080 با قیمت 800 دلار و RTX 2080 Ti با قیمت 1200 دلار. انویدیا فکر میکرد که ردیابی پرتو و DLSS چیز بزرگ بعدی بودند، بنابراین میتوانست آن را جبران کند.
به جز، این برای هیچ کس واضح نبود، زیرا در روز راه اندازی، هیچ بازی با ردیابی پرتو یا DLSS وجود نداشت و ماه ها وجود نداشت. تنها زمانی که کارت های RTX 30 عرضه شدند، بازی های زیادی با پشتیبانی از این ویژگی های جدید وجود داشت. RTX 2080 پردازنده گرافیکی سری 20 بدی بود. 100 دلار یا بیشتر گرانتر از GTX 1080 Ti بود در حالی که در تست ما عملکرد کمی کمتر داشت.
حداقل 2080 Ti می تواند ادعا کند که حدود 25 درصد سریعتر از پرچمدار قدیمی است. حتی زمانی که ردیابی پرتو و DLSS وارد عمل شدند، فعال کردن ردیابی پرتو آنقدر فشرده بود که در اکثر عناوین برای رسیدن به سرعت 60 فریم در ثانیه مشکل داشت، در حالی که DLSS 1.0 خیلی خوب به نظر نمی رسید. زمانی که DLSS 2 در اوایل سال 2020 عرضه شد، RTX 30 کمی فراتر از افق بود.
انویدیا دست خود را بیش از حد باز کرده بود و می دانست. تنها هشت ماه پس از عرضه سری 20، انویدیا پردازندههای گرافیکی RTX 20 Super GPU خود را منتشر کرده که بازگشتی به سری GTX 500 و نحوه اصلاح سری 400 بود. نسخه های جدید Super 2060، 2070 و 2080 دارای هسته های بیشتر، حافظه ی بهتر و برچسب قیمت پایین تر بودند که تا حدودی مشکلات سری 20 اصلی را برطرف کرد.
GeForce RTX 3080 12GB
چگونه یک GPU خوب را وحشتناک کنیم
بنابراین ما دیدیم که وقتی انویدیا یک GPU خوب می گیرد و VRAM و شمارش معکوس هسته خود را بدون تغییر نام قطع می کند چه اتفاقی می افتد، اما وقتی یک GPU خوب استفاده می کند و VRAM و هسته های بیشتری اضافه می کند چه اتفاقی می افتد؟ ساختن یک GPU خوب حتی سریع تر به نظر یک ایده عالی است. خوب، در مورد RTX 3080 12GB، منجر به ایجاد چیزی شد که ممکن است بی معنی ترین GPU انویدیا از هر نظر باشد.
در مقایسه با RTX 3080 10 گیگابایتی اصلی، 3080 12GB در واقع ارتقاء چندانی نداشت. مانند سایر پردازنده های گرافیکی انویدیا با حافظه بیشتر، هسته های آن نیز بیشتر بود، اما تنها حدود 3 درصد بیشتر. در بررسی ما متوجه شدیم که مدل های 10 گیگابایتی و 12 گیگابایتی عملکرد تقریبا یکسانی داشتند، برخلاف اینکه 1060 3 گیگابایتی به طور قابل توجهی کندتر از 1060 6 گیگابایتی بود. به اعتبار انویدیا، نام 3080 12GB بسیار دقیق بود، که نسبت به 1060 3GB پیشرفت قابل توجهی داشت.
بنابراین، مشکل ارائه یک نسخه جدید از یک GPU با حافظه بیشتر چیست؟ خوب، انویدیا 3080 12GB را در خلال کمبود GPU در سالهای 2020-2022 عرضه کرد، و طبیعتاً با قیمتی بسیار بالا در هر جایی بین 1250 تا 1600 دلار به فروش رسید. در همین حال، انواع 10 گیگابایتی با قیمت 300 تا 400 دلار کمتر به فروش میرسیدند، و از آنجایی که ارتقاء حافظه به وضوح اهمیتی نداشت، واضح بود که کدام کارت را باید بخرید.
شاید شرم آورترین چیز برای 3080 12 گیگابایتی نسخه ارزان تر 10 گیگابایتی آن نبود، بلکه وجود RTX 3080 Ti بود که اندازه و پهنای باند حافظه 3080 12 گیگابایتی داشت. نکته اینجاست که 14 درصد هسته بیشتر و در نتیجه عملکرد بسیار بالاتری داشت. در روز بررسی، 3080 Ti ارزان تر بود، و 3080 12GB را از هر زاویه ای بی معنا میکرد و تنها کارت دیگری را که در طول کمبود عرضه شد که اصلا معنی نداشت.
ترک یک پاسخ