AMD vs. NVIDIA. Az örök küzdelem, amelyre a billentyűzettel felfegyverkezett emberek nemcsak hosszú estéket, hanem sokszor az életük jelentős részét is rászánják. Néha pedig még erőszakos végkifejlethez is vezet. Ebben a cikkben viszont senkit sem fogunk megölni, inkább szélesebb nézőpontból és objektíven nézzük meg a témát, hogy neked se kelljen senkit lemészárolnod, és az értékes idődet valami értelmesebbre fordíthasd. Összehasonlítjuk az AMD és az NVIDIA videókártyáit technológiák és teljesítmény szempontjából. AMD vagy NVIDIA? Nézzük, hogy melyik a jobb!
AMD vagy NVIDIA?
Minden azon múlik, hogy hogyan és mire használod a gamer PC-det. Felbontás, szükséges teljesítmény, részletesség, az általad kedvelt játékstílusok, sőt akár konkrét játékok is számítanak. Látványorgiára vágysz, vagy inkább a nyers teljesítmény a fontos? Elmerülnél a játékvilágokban, vagy ranglistát döntenél és versenyeket nyernél? Tervezel esetleg streamelni?
Rögtön az elején tisztázzuk a morbid felütést az első bekezdésben. Történt egyszer, hogy valahol keleten két barát összeveszett azon, hogy vajon melyik a jobb, az AMD vagy az NVIDIA? Aleksander valószínűleg nem bírta tovább Evgeny érvelését, és hát… örökre elnémította. Tényleg ennyire forró és érzékeny téma ez. Miért? Nem tudjuk. Na de mire lesz jó neked ez a cikk? Olvasd tovább!
Azoknak, akik szeretnének kiigazodni a témában, elmagyarázzuk, hogy mi számít, és hogyan érdemes választani a videókártyák között. A többieknek pedig adunk néhány erős muníciót egy alapos szóbeli vitához.
Ebben a cikkben a főbb különbségekre és arra fogunk koncentrálni, hogy mi számít majd igazán a jövőben. Bár első pillantásra úgy tűnhet, hogy a képmegjelenítés folyamata azonos, az elmúlt években – és különösen a legutóbbi videókártya-generációnál – a játékok renderelésének módja látványosan kettévált.
Míg az AMD továbbra is elsősorban a raszterizációra (a hagyományos képfeldolgozásra) épít, addig az NVIDIA egyre többet támaszkodik a ray tracingre, amelyet upscalinggel kombinál. Ehhez pedig saját mesterséges intelligenciáját használja. És hogy a ray tracing miért borzolja a kedélyeket? Pont emiatt a két, gyökeresen eltérő megközelítés miatt szít újra és újra vitákat.
A videókártyák természetesen jóval többre képesek annál, minthogy játékok képkockáit számolják. A streamelők számára kulcsfontosságú az enkódolt videó minősége és az olyan funkciók, mint például a green screen kivágása. Emellett a tartalomgyártók döntő többsége a videókártyát használja videók exportálására is olyan programokban, mint az Adobe Premiere, a DaVinci Resolve vagy a Sony Vegas.
Ennek a fejezetnek a lényege nem csupán a videókártyák funkcióinak rövid felsorolása, hanem az, hogy mindezeket az AMD és az NVIDIA egymástól eltérő hatékonysággal, működési tulajdonságokkal és persze eltérő áron kínálja. Ami az egyik oldalon erősség, a másiknál teljesen hiányozhat. Erről bővebben a következő részben lesz szó.
Annak a megértése, hogy hogyan jön létre a kép a videókártyában, kulcsfontosságú a témához. Itt beszélünk a raszterizációról, a ray tracingről és az upscalingről, hiszen ezeknek köszönhetjük, hogy játék közben a fény viselkedése ma már akár teljesen valósághű is lehet.
Nincs elég teljesítményed ray tracingre? Semmi gond! Már most készülhetünk a path tracing korszakára. És talán még NVIDIA PTX kártyákra is? Látod már a fejedben a mémeket: PTX ON vs. PTX OFF? Érdekes idők jönnek.
Ahogy már említettük, a legelterjedtebb és máig leggyakrabban használt megjelenítési módszer a raszterizáció. Ez a trianguláció elvén működik. Ha egyszerű példát akarunk, gondolj Lara Croftra a Tomb Raider korai részeiből. Ha nem tegnap születtél, valószínűleg emlékszel arra a kockás, szögletes figurára, amely csak nagy jóindulattal hasonlított női alakra. Ehhez képest az újabb részekben – például a Shadow of the Tomb Raiderben – Lara megjelenése már szinte teljesen valósághű.
A különbséget a trianguláció adja. A módszer lényege, hogy az objektumok sok ezer háromszögből (poligonból) állnak össze. Ezekből jönnek létre a pixelek, amelyek színét a videókártya folyamatosan számolja. Ha a renderelés korai fázisában néznél bele a folyamatba, az egész képernyőt poligonhálók borítanák. Erre a hálóra kerülnek rá a további rétegek: fények, árnyékok, visszatükröződések és minden más effekt, ami aztán a szemünkben természetesnek hat. Ez a rendkívül erőforrás-igényes munka adja azt a látványt, amit végül a képernyőn látsz.
Miért volt akkor Lara a kezdetekben csupa kis kockából összerakva, és miért néz ki ma teljesen élethűen? A válasz a videókártyák raszterizációs teljesítménye. Ez az évek során hatalmasat nőtt mind az AMD, mind az NVIDIA oldalon, és természetesen mindkét gyártó egy kicsit más módon, más eredménnyel dolgozik. Itt kezd szétnyílni az olló – a puszta raszterizációs erő már nem elég a növekvő felbontásokhoz, a technológia halad előre, és a játékiparban egyre nagyobb szerepet kap a ray tracing.
Már tudjuk, hogyan kerül a nyers objektum a képernyőnkre, és azt is, hogy ez csak egy része annak a munkának, amit a videókártyától elvárunk. Árnyékok, fényvisszaverődések és minden más fénykezelés raszterizációnál kézzel „utánzott” megoldásokkal készül, hogy a jelenet valósághű legyen. Ez nemcsak a GPU teljesítményét terheli, hanem rengeteg időt és munkát igényel a fejlesztőktől, akiknek mindezt manuálisan kell szimulálniuk.
Hogyan jön ide a ray tracing? Egyszerűen: hatalmas mennyiségű fejlesztői munkát vált ki. A ray tracing a fény valódi viselkedését szimulálja úgy, ahogy azt a valóságban is látjuk. A fény, az árnyékok és a visszaverődések természetesebbek, és bár ezt elsőre sok játékos észre sem veszi, az agyunk mégis sokkal hitelesebbnek érzékeli a látottakat.
Az emberi agy hamarabb kiszúrja azt, ami hibásan néz ki, mint azt, ami jól, ezért sokan a ray tracing előnyeit elsőre nem is érzékelik. A technológia Achilles sarka viszont a brutális számítási igény. Csak az utóbbi generációk NVIDIA kártyái rendelkeznek olyan erővel, hogy valós időben, játszható sebességgel jelenítsék meg. Ezek ráadásul speciális hardveregységekkel (RT magok) is rendelkeznek, amelyeket kifejezetten ray tracinghez terveztek. Az AMD Radeon kártyákban is vannak ilyen egységek, ám teljesítményben még mindig nem érnek fel az NVIDIA kártyákéhoz.
A raszterizációs teljesítménybeli különbségek tehát csak a kezdetet jelentik, a ray tracing képességeiben és teljesítményében is jelentős eltérések vannak. A fejlesztők oldaláról nézve pedig óriási a különbség. Ha egy stúdió 300 millió dollárból készít játékot, nagyon nem mindegy, hogy költséges szimulációkkal „hazudja meg” a fényt, vagy egyszerűen kihasználja a ray tracing lehetőségeit. Az így megspórolt erőforrásokat sokkal értelmesebb fejlesztésekre fordíthatják. Ez pedig pontosan meghatározza a játékfejlesztés jelenét és jövőjét.
A jelenlegi hardver egyelőre épphogy képes valós időben ray tracinget futtatni. A videókártyák gyártói így komoly kihívással találták szemben magukat, mégpedig olyanokkal, mint, hogy honnan szerezzenek plusz teljesítményt, vagy hol spóroljanak ahhoz, hogy több erő jusson a ray tracingre? Az NVIDIA a választ a raszterizáció területén találta meg. Másképp fogalmazva, megszületett a DLSS.
Az előző fejezetben nem azt állítottuk, hogy az AMD ne tudná a ray tracinget. Tudja, de a teljesítmény mindkét oldalon korlátozott. Miért élvezhető mégis a ray tracing az NVIDIA kártyáin, és miért jóval kevésbé az AMD-n? A válasz a DLSS. Ez egy mesterséges intelligenciával támogatott upscaling technológia. Az NVIDIA évekig tanította az AI-t arra, hogyan lehet az alacsonyabb felbontásból – amelyet a GPU gyorsabban meg tud rajzolni – magasabb felbontást előállítani komoly teljesítményvesztés nélkül. Csak e technológia miatt marad elég erőforrás a ray tracing számítására.
Az AMD már rendelkezik saját DLSS alternatívával, bár jelenleg nem mindegyik játék támogtja. Ugyanakkor az NVIDIA DLSS-e egy zárt, proprietáris technológia, és hiába próbálja a cég terjeszteni, valószínűleg sosem lesz ipari szabvány. Így az is kérdés, hogy meddig marad velünk ez a megoldás.
Sok felhasználónak kulcskérdés, hogy mennyire segíti a videós munkát vagy a streamelést a választott videókártya. Mind az NVIDIA, mind az AMD rendelkezik hardveres támogatással. Két dolog igazán fontos. Milyen minőségű képet tudnak előállítani, és mennyi játékbeli teljesítményt vesz el a streamelés. A hardveres dekódolás és főleg enkódolás mellett a szoftveres támogatottság is döntő tényező lehet.
Az NVIDIA videókártyái hardveresen és szoftveresen is erős csomagot adnak streameléshez. A videós munkát dedikált hardveres enkóder, az NVENC segíti.
Az NVIDIA legújabb kártyái már a NVENC 8. és 9. generációját kapják. Az első verzió még a Kepler szériával jelent meg. A Pascal családtól (4. generáció) kezdve a NVENC képes akár veszteségmentes minőségű videók enkódolására is egészen 8 192 × 8 192 felbontásig. Támogatja a H.264 (8-bit) és H.265 (10-bit) formátumokat.
Szoftveres oldalon a zöld csapat a NVIDIA BROADCAST alkalmazást kínálja. Ez mesterséges intelligenciát használ a zajcsökkentéshez, a nem kívánt hangok eltávolításához és a virtuális háttér generálásához. Emellett a kamera automatikus kompozíciót is kínál: fókusz, követés és zoom mindig ott tart, ahol vagy, így sosem tűnsz el a nézőid elől.
Az AMD – akárcsak az NVIDIA – hardverszinten támogatja a videókódolást. A dedikált enkódoló egységek neve Video Core Next (VCN), és a legújabb generációs videókártyák már a VCN 4. és 5. generációját használhatják.
Az AMD-nek is van saját dedikált streamelő szoftvere, ez az AMD Radeon ReLive. A programmal rögzíthetsz és streamelhetsz Windows felületéről, játékokból, vagy akár mindkettőről egyszerre.
Ahogy már említettük, az AMD és az NVIDIA összehasonlításánál videókódolás terén a legfontosabb a streamelt videó kimeneti minősége. YouTube-on több összehasonlító elemzés is elérhető, beleértve az alábbi videót is, amely mélyrehatóan vizsgálja meg a kérdést.
Streamer Professor, alias EpoxVox a Netflix által fejlesztett, nyílt forráskódú VMAF (Video Multi-Method Assessment Fusion) eszközt használta a minőség értékelésére. Röviden: ez az eszköz a néző által érzékelt minőséget méri. A tesztek a múlt év áprilisából származnak, így még nem tartalmazzák a legújabb NVENC és VCN enkódolók eredményeit. Ha a VMAF érdekel, többet megtudhatsz a Netflix blogján vagy a projekt GitHub oldalán.
Ha nem szeretnéd végignézni a teljes (meglehetősen hosszú) videót, a konklúzió egyszerű: az NVIDIA NVENC messze a legjobb minőségű enkódert nyújtja. Az AMD VCN viszont több területen is gyengébben teljesít. EpoxVox meg is jegyzi, hogy az AMD láthatóan nem fektet túl nagy hangsúlyt a streamelésre. Ennek megfelelően a fejezet végső ajánlása egyszerű: ha streamelni szeretnél, válassz NVIDIA-t.
A közeli jövő viszont az AV1 kódolás felé tart, és minden bizonnyal az NVIDIA, és az AMD is támogatja majd hardverszinten az AV1 enkódolást. Ha fontos számodra a videómunka és a streamelés, erre mindenképp érdemes lesz figyelni a következő generációs kártyavásárlásnál.
A G-SYNC és a FreeSync olyan adaptív technológiák, amelyek a monitor frissítési frekvenciáját a videókártya által generált képkockaszámmal szinkronizálják. Ennek a szinkronizációnak köszönhetően megszűnik az úgynevezett screen tearing, vagyis a „kép szétszakadása”.
A G-SYNC és a FreeSync közötti legnagyobb különbség a gyártói hozzáállásban rejlik. A G-SYNC az NVIDIA saját, licencelt technológiája, ami azt jelenti, hogy a monitor gyártóknak kötelező teljesíteniük az NVIDIA által előírt szigorú szabványokat, az NVIDIA saját hardverét kell használniuk, a monitoraikat az NVIDIA teszteli, és mindemellett licencdíjat is kell fizetniük. Ennek két oldala van. A pozitív az, hogy logikus módon a technológia minősége egységes és általában jobb eredményt hoz, mint bármilyen más kontrollált gyártásű termék. A negatív oldala pedig természetesen az ár, amelyet végül a vásárló fizet meg.
Az NVIDIA természetesen a kijelzőpanelek paramétereire is szigorú követelményeket szab (például HDR támogatás, 1 000 nites fényerő, FALD), így biztosítja, hogy ne vegyél olyan G-SYNC monitort, amely bár támogatja az adaptív szinkronizációt, de más szempontból gyenge. Egy átlagos felhasználó, aki nem mélyed el a témában és csak annyit tud, hogy G-SYNC-es monitort szeretne, sokkal kisebb eséllyel lesz elégedetlen az új monitorával.
Az AMD egy kicsit más megközelítést választott. A FreeSync technológiát a VESA Adaptive-Sync nyílt szabványára építette. A FreeSync monitorok gyártói így szabadkezet kapnak, és FreeSync támogatást gyakorlatilag bármilyen monitorba beépíthetnek, ahogy számukra megfelelő. A FreeSync monitorok általában jelentősen olcsóbbak is. Hogy viszont ne tűnjön úgy, mintha az AMD itt rosszabbul teljesítene, fontos megjegyezni, hogy létezik a FreeSync PRO is, ami tulajdonképpen egy AMD által kiadott tanúsítás. Ez biztosítja bizonyos minimális paraméterek meglétét, például legalább 120 Hz-es frissítési frekvenciát és HDR támogatást.
Amikor videókártyát választasz, és az AMD és az NVIDIA között vacillálsz, érdemes azt is figyelembe venni, melyik adaptív szinkronizációs technológiát szeretnéd. Egyedi gamer konfigurációk építése során – amivel foglalkozom – a legtöbbször azzal találkozom, hogy akik valamennyire ismerik a témát, a G-SYNC-et választják. Személy szerint semmi kifogásom ellene, mivel kiváló, bár drágább megoldás.
A videókártyák játékbeli teljesítményét előre meghatározott jelenetekben mérjük, gondosan kiválasztott PC-s játékok segítségével. Ezeket a játékokat úgy választjuk ki, hogy minél jobban tükrözzék a modern játékenginek aktuális igényeit. A tesztek során minden egyes videokártyánál mérjük az FPS-t (képkocka/másodperc), ami számunkra a teljesítmény legfőbb mutatója.
A grafikonon feltüntetett relatív teljesítményt az összes alább szereplő, pipával jelölt játék átlagos eredménye alapján számítottuk ki, és százalékos formára vetítettük. A tesztelt videokártya teljesítménye 100 %, a többi videókártya pedig ehhez viszonyítva kerül magasabb vagy alacsonyabb pozícióba.
A high-end és a mainstream kategóriába tartozó videókártyák között jelentős teljesítménykülönbségek vannak, így nem lehet őket minden játékban azonos grafikai beállítások mellett összevetni. Emiatt a végső eredményeket két külön grafikon mutatja. Az elsőben a high-end és a mainstream kártyák összes játékbeli eredménye látható, a másodikban pedig az összes tesztelt videókártya relatív teljesítménye. A második grafikon eredményei csak azokból a játékokból származnak, ahol minden videókártya ugyanazzal a grafikai beállítással volt tesztelve, tehát mindkét kategórián átívelően.
Nézzük meg az AMD és az NVIDIA videókártyák teljesítményének általános összehasonlítását. Ahogy az előző fejezetek is sugallták, önmagában a teljesítmény összehasonlítása aligha a fő döntő tényező egy grafikus chip gyártójának kiválasztásánál. Mindkét gyártó, az AMD és az NVIDIA is nemcsak eltérő teljesítményt, hanem különböző funkciókat és fícsöröket is kínál.
Mainstream |

Ha nem vesszük figyelembe a piaci elérhetőséget, fontos megemlíteni, hogy az RTX 3000 széria igazán jól sikerült. Kifejezetten az RTX 3060 Ti kínálta talán hosszú idő óta a legjobb ár/teljesítmény arányt.
Az RDNA2 Radeonoknak nem volt mainstream képviselőjük, mivel árban és teljesítményben inkább a felső kategóriába tartoztak. A teljesítményük a következő fejezetben található.
A high-end kategóriában a teljesítmény már nagyobb jelentőséggel bír, hiszen a csúcskategóriától a lehető legjobb eredményeket várjuk. Az ár, ár/érték arány és üzemelési tulajdonságok itt már kisebb szerepet játszanak, mivel az igényes felhasználók gyakran nem foglalkoznak az árral, pontosan tudják, mit akarnak, és a többség úgyis azonnal vízhűtésre cseréli a gyári hűtőt.
Hi-end |

Ennek ellenére a teljesítmény itt is két kategóriára oszlik. Ha a videókártyát tisztán raszterizációs teljesítmény alapján választanánk, vagyis a nyers erő számítana, és nem érdekelne a ray tracing vagy a DLSS, amit az NVIDIA kínál, akkor remek választás lehetne egy Radeon modell. Ez főként azokra igaz, akik maximális FPS-t szeretnének eSport játékokban és olyan címekben, amelyek nem támogatják a ray tracinget. A Radeonok az árukhoz és fogyasztásukhoz képest kifejezetten erősek alacsonyabb felbontásokban, ami ideális elsősorban kompetitív játékokhoz.
Ha viszont fontos számodra a látványélmény, akkor nagy valószínűséggel magasabb felbontásban játszol, ahol az NVIDIA jobban teljesít. Nem meglepő: az NVIDIA kártyákat eleve magasabb felbontásokra tervezték, és akkor hozzák a legnagyobb teljesítményt, amikor a számítási egységek teljesen ki vannak terhelve, ez pedig nem jellemző Full HD játékra. Ha szeretnéd igazán kiélvezni a ray tracinget és maximális teljesítményt keresel nagy felbontásban, akkor az NVIDIA az egyértelmű választás.
Mielőtt eljutunk a végső összegzéshez, nem hagyhatjuk ki az üzemelési tulajdonságok összehasonlítását. Mivel a cikk nem az egyes videókártya modellek összevetéséről szól, hanem maguknak a gyártóknak az összehasonlításáról, itt két fő szempont van, mégpedig, hogy mennyire jól undervoltolhatók a kártyák, és mekkora a fogyasztásuk.
Szinte minden hardverben van rejtett, kihasználatlan potenciál. Undervoltinggal, vagyis a működési feszültség csökkentésével jelentősen javíthatjuk a videókártya üzemelési tulajdonságait. A következő három videó nemcsak azt mutatja be, hogy hogyan tudod undervoltolni az egyes kártyákat, hanem azt is, hogy milyen fogyasztási és hőmérsékleti értékeket érhetsz el undervoltinggal. Mellékhatásként akár magasabb teljesítmény és stabilabb FPS is jelentkezhet.
Ha a videót bármikor megállítod, össze tudod hasonlítani a kártya üzemelési értékeit (bal oldalon) az undervolting eredményeivel (jobb oldalon). Ebben a tesztben az undervolting gyönyörű 75 W fogyasztáscsökkenést hozott, és a hőmérsékletek kb. 11 °C-kal csökkentek.
Az RTX 3080 már egy kicsit másképp viselkedett undervolting közben. Néhol az undervoltolt kártyának még valamivel magasabb fogyasztása is volt. A pozitívum viszont az, hogy undervolting során a kártyát stabil frekvenciára „zárjuk” adott feszültségen. Ennek köszönhetően undervoltolva magasabb órajeleket tartott azokban a helyzetekben, amikor a nem undervoltolt verzió akár 100 MHz-cel alacsonyabb frekvencián működött.
Hasonló volt a helyzet az RTX 3090 esetében is. Az undervoltolt kártya képes volt azonos fogyasztás mellett akár 120 MHz-cel magasabb órajelet tartani. Minden videó végén látható egy összegzés több grafikon formájában, amelyek bemutatják a különbséget az undervoltolt és az alapbeállítású kártyák között. Fontos megjegyezni, hogy az undervolting játékonként eltérően viselkedik. Egyes játékokban nem tapasztalsz fogyasztáscsökkenést, máshol viszont akár a teljes fogyasztás harmadát is megspórolhatod az alapbeállításokhoz képest.
A Radeonok jóval kifinomultabb üzemelési tulajdonságokkal rendelkeznek, mint az NVIDIA kártyái. A következő két videó bemutatja, hogyan lehet az AMD kártyákat undervoltolni a driveren keresztül, és milyen előnyökre számíthatsz.
Ebben a bemutatóban a legérdekesebb a ventilátorfordulat csökkenése volt az undervoltolt kártyán. A teszt során a hűtés átlagosan 1 150 RPM-en működött, míg alapállapotban a ventilátorok 1 732 RPM-mel forogtak. Az undervoltolt és halkabb kártya átlagosan 9 °C-kal volt hűvösebb, és kb. 50 W-tal kevesebbet fogyasztott.
A második undervolting eset még érdekesebb. A kártya további 100 mV-tal lett undervoltolva, azonban a stabilitás érdekében a GPU órajelét 2 450 MHz-ről 2 250 MHz-re kellett csökkenteni. A videó végén látható grafikonok azt mutatják, hogy ez a módosítás nem járt teljesítményvesztéssel. Az undervoltolt kártya átlagosan 12 °C-kal volt hűvösebb, a ventilátorok pedig rendkívül alacsony, mindössze 907 RPM-en pörögtek. A GPU fogyasztása is 93 W-tal csökkent, ami kiváló eredmény.
Ne feledjük, hogy mind AMD, mind NVIDIA esetében érvényes a „szilícium-lottó”. Minden egyes chip másként sikerül a gyártás során, ezért minden kártya undervolting potenciálja eltérő lehet. Ezzel sajnos nem lehet mit kezdeni, vagy szerencséd van a példánnyal, vagy nincs.
Ha összehasonlítjuk az undervoltolt AMD Radeon RX 6800 XT és az NVIDIA RTX 3080 kártyák fogyasztását, amelyek teljesítményben gyakorlatilag megegyeznek, akkor azt kapjuk, hogy az AMD kártya képes ugyanazt nyújtani kb. 60 W-tal alacsonyabb fogyasztás mellett. Az üzemelési tulajdonságokat tekintve egyértelműen az RDNA-s Radeonok kerülnek ki győztesen.
Végre elérkeztünk a tervezettnél hosszabb cikk záró részéhez, amelynek eredetileg csak rövid tesztnek kellett volna lennie. A tény azonban az, hogy a grafikus chip kiválasztása és annak eldöntése, hogy AMD-t vagy az NVIDIA-t válasszunk, nem egyszerű. A teljesítmény napjainkban már nem minden, és érdemes összevetni az előnyöket és hátrányokat mindkét gyártó esetében.
Ebben a cikkben nem volt lehetőség minden részletet lefedni, de a legfontosabb információkat már megkaptad. Hogy egyértelműen fogalmazzunk: a legfontosabb szempont a videókártya kiválasztásánál ma a rendelkezésre állás. Tehát az számít, hogy mit tudsz beszerezni. Ha nem streamelsz, és a ray tracing sem elsődleges számodra, válaszd azt, ami elérhető, a számodra megfelelő ár mellett.
Ha a célod a streamelés és a videós munka, tartsd magad az NVIDIA-hoz, és ha a ray tracing is fontos számodra, ez még inkább érvényes. Szerencsére mind az AMD, mind az NVIDIA régebbi generációi is nagyon jól sikerültek. Személyes véleményem szerint mindig jobb nagyobb technológiai mozgásteret választani. Nem hagyna hidegen, ha ma egy olyan kártyát vásárolnék, amely nem támogatja a ray tracinget vagy nem elég erős hozzá. Én személy szerint az NVIDIA-t választanám, de ez személyes preferencia kérdése.
AMD vs. NVIDIA örök harc a személyes vélemények és a digitális térben való relevancia megtalálásáért. Ennek ellenére lehet helyesen dönteni. Csak megbízható, kellő és objektív információkra van szükséged.