Az idei CES-en két bombát robbantott az NVIDIA:
- Elérhető áron kapunk DXR/DLSS kompatibilis kártyát az RTX 2060 képében (bár lehet azon vitatkozni, hogy a tengerentúli 350 USD ajánlott nettó ár mennyire elérhető).
- A január 15-én debütáló új GeForce illesztőprogram engedélyezi a G-Sync használatát FreeSync monitor esetében is, Pascal és Turing architektúrájú GPU-kon (azaz gyakorlatilag az 10XX és 20XX sorozatú kártyákon).
Ez utóbbit járnám körbe egy kicsit, ugyanis sokak számára nem világos, mit is jelent ez pontosan. Igyekeztem leegyszerűsíteni a dolgokat a könnyű érthetőség kedvéért – ennek megfelelően szakmai szemmel olvasva lehetnek pontatlanságok, de jelen esetben ez nem számít. Ahhoz, hogy képünk legyen a képalkotás mikéntjéről (igen, ez egy poénos képzavar szeretne lenni) a 3D motort használó játékok és a monitorok viszonylatában, vissza kell kicsit menjünk az időben. „Kezdetben volt az Ige.” – Na jó, nem eddig... Szóval: alapvetően a monitorok úgy működnek, hogy egy másodperc alatt adott felbontáson adott számú képet jelenítenek meg. Ezt az adatot Hertzben adják meg. Jellemzően ez 60 Hz szokott lenni manapság 1920*1080 felbontáson, tehát Full HD képminőségben hatvanszor kerül ki kép a kijelzőre (vagy másképp fogalmazva 16 milliszekundum alatt kerül megjelenítésre egy képkocka). Ez egy fix érték volt régebben – a gond csupán az, hogy egy 3D videojáték pillanatnyi sebessége elég szélsőséges értékek között tud ingadozni (és ingadozik is), emiatt nagyon ritkán és csak pillanatokra lesz 60 képkocka/másodperc a játék futási sebessége – ami pont passzolna az átlagos monitorunk 60 Hz-es képmegjelenítési sebességéhez. Aki ezt a gyakorlatban szeretné látni, a Steam beállításai között be tudja kapcsolni az FPS-számlálót, és nézheti játék közben, mennyire ingadozik az ő gépén az adott játékban, az épp futó jelenetben.
Mi történik általában, ha a játék nem azon a sebességen fut, mint a kijelző frissítési sebessége? Mivel a videókártyának fogalma sincs, hogy a monitor hol tart a kép kirajzolásában, ezért instant cseréli a memóriában lévő képet; a monitor pedig nem tudja, hogy a kép cserélődött, így kirajzolás közben a már megjelenítés alatt lévő régi képet nem befejezi, hanem a csere pillanatától az új kép kirajzolásával folytatja, így nagyon csúnya képtörést okozva (látható „elcsúszás”, törés lesz a képernyőn azon a határon, ahol a régi képet az újjal kicserélte a VGA).
Ray tracing megfizethető áron - jön az NVIDIA GeForce RTX 2060
Napokon belül landol a boltok polcain az NVIDIA legújabb videokártyája, amely az alacsonyabb árkategóriába is elhozza a technológiai újdonságokat.
Persze a helyzet komplexebb annál, amit leírtam fent, de a lényeg: ritka az a pillanat, amikor ne találkoznánk képhibával. Ezt próbálja orvosolni az alap vertikális szinkronizáció, azaz a v-sync. Ilyenkor semmi más nem történik, csupán annyi, hogy a VGA próbálja a képküldést a monitor frissítési frekvenciájához igazítani – de igazából ez a túl gyors futásnál tud hasznos lenni, tehát amikor a játék stabilan több képkocka/másodperc sebességgel fut, mint a monitor frissítési sebessége, ekkor ugyanis egyszerűen eldobja a megjelenítésre úgysem kerülő képkockákat. A probléma a lassúságnál kezdődik, ugyanis ekkor a VGA inkább elküldi még egyszer a régi képkockát megjelenítésre, ha nincs kész időben az új (azaz például 60 Hz esetében nem sikerült az új képkockát 16 milliszekundum alatt kiszámolni), így viszont „mikroakadások” jelentkezhetnek, mintha szaggatna a játék – bár kellően gyors monitor esetében (120 Hz és felette) ez nem olyan feltűnő.
Az NVIDIA 2013-ban mutatott be egy megoldást erre a problémára. Ugyebár a hagyományos vsync jól dolgozik, ha túl gyorsan fut a játék, hiszen csak „fölösleges” képkockákat kell eldobálni – a lassúság okozta mikroakadással és képtöréssel kellett valamit kezdeni. Az ötlet az volt, hogy miért ne változtathatná a monitor a frissítési sebességét, alkalmazkodva a játék pillanatnyi futási sebességéhez? Ehhez készítettek egy vezérlőelektronikát, amit utána jó pénzért értékesítettek (és értékesítenek ma is) a monitorgyártóknak. Egy évvel később az AMD bejelentette, hogy felveszi a harcot – de ők nyílt szabvánnyá téve megoldásukat, plusz ők külön elektronika nélkül, pusztán a monitor vezérlőszoftverét kvázi kiegészítve képzelték el a dolgot, ami 2015-ben kézzelfogható valósággá vált.
Az NVIDIA pár napja bejelentette, hogy immáron FreeSync tudású monitorokon is be lehet kapcsolni a G-Syncet. Ami viszont meglepő volt a bejelentésben, az az, hogy ők már 400 FreeSync monitort leteszteltek, és ebből csupán 12 volt méltó arra, hogy alapból be legyen kapcsolva a G-Sync rajtuk. Hogyhogy ilyen kicsit a megfelelőségi arány? A pontos tesztelési metódus ismeretének híján a legtöbben jelenleg csak találgatni tudnak – annyit viszont az NVIDIA elárult, hogy mintegy 300 vizsgálaton esett át mindegyik tesztelt készülék (ne legyenek illúzióink: az AMD is hasonló teszteljárás után ad FreeSync plecsnit). Az bizonyos, hogy amelyik FreeSync monitor csak HDMI bemenettel rendelkezik, az automatikusan kiesik, mivel a G-Sync csak DisplayPorton keresztül működik (hivatalosan a FreeSync sem támogatja a HDMI-t, de nem egy gyártó a nyílt szabványt kicsit módosítva megoldotta HDMI-n keresztül is). Azt egy YouTube videón láttam, hogy az NVIDIA CES-es standján az egyik „bukott” monitor villogott (pár pillanatonként fekete lett a kép). Emellett könnyen meglehet, hogy a G-Sync egy szűkebb tartományban fog csak működni, mint a FreeSync az adott monitoron (például a FreeSync 30-60 Hz között aktív, a G-Sync viszont csak 48-60 Hz között). És persze előfordulhatnak képminőség problémák is (homályosabb kép, utánhúzás, pontatlan színvisszaadás, ilyesmik). Gyanítom, hogy a csak HDMI bemenet problémáján kívül mind orvosolható lehetne a monitor firmware-jének frissítésével, de ez sok esetben szakszervizt követel meg – így kérdéses, hogy a most piacon lévő nem G-Sync konform FreeSync kijelzők kapnak-e valaha frissítést; de talán a jövő FreeSync monitorait immáron a G-Sync figyelembevételével is fejleszthetik.
Üdvözlendő lépés történt tehát az NVIDIÁ-tól – dacára a rendkívül csekély hivatalosan is G-Sync kompatibilisnek elismert FreeSync monitorok számától. A jelenleg nem kompatibilisnek tartott FreeSync kijelzőkön is be lehet majd kapcsolni a G-Syncet, csak épp nem biztos, hogy minden klappolni fog: optimális esetben azért nem lesz feltűnő, ha esetleg nem stimmel valami. Ugyanakkor nem hagy nyugodni egy gondolat: ez vajon nem egyfajta beismerése annak, hogy ezen a téren tulajdonképpen kikaptak az AMD-től? A G-Sync élni fog továbbra is, csak most már olyan extrákkal, mint a HDR, a nagy színtér-lefedettség, ilyesmik...