Skocz do zawartości

Temat o kartach Nvidia RTX Turing (TU1xx).


Recommended Posts

Pamiętam, gdy Gsync wchodził to można było dokupić sam moduł, który następnie należało podmontować do monitora (nieduża płytka pcb). Już wtedy były plotki, że to powinno być do załatwienia przed update firmware na monitorze ale: albo brakło miejsca w pamięci wbudowanej monitora, albo (co bardziej prawdopodobne) marketingowo to lepiej wyglądało, że to "coś większego, niż tyllko nowy ficzer programowy" więc należy dać fizyczny element - a i cena za kompatybilny moduł gsync niska nie była ($200)...

 

http://m.benchmark.pl/aktualnosci/asus-vg248qe-monitor-nvidia-g-sync-modul-cena-montaz.html

Link to post
Share on other sites

Obecnie monitory (wszystkie z adaptive sync, freesync, greedsync) mają wyst. pamięci na bardziej rozbudowany soft. Bo od początku były projektowane biorąc pod uwagę takie synchronizacje. Obecnie jest to czysta opłata licencyjna. Zgadzam się, za licencję trzeba płacić. Ale nie 200 euro gdzie sam monitor z matrycą często kosztuje 200-300 euro... No ale nVidia lubi robić pseudo premium niczym Skoda czy VW, a moja Mazda SkyPassion która nigdy nie aspirowała do Premium i tak wyciera nimi podłogę  %-).

Link to post
Share on other sites

Ano bo Japończyk jak myśli premium to widzi Lexusa, stąd Mazda czy Honda robią po prostu dobre samochody (nowy mx5 jest bossski, podobnież stara S2000 z konwencjonalnym, wolno-ssącym motorem) i nie bawi się w udawanie premium.

 

Trzymam mocno kciuki za to nowe HDMI, co by adaptive sync faktycznie wszedł jako standard wraz z nową generacja (tutaj trochę nie jestem w temacie więc moglem coś przespać).

 

A tak wracając do tematu RTX, to czytam że modele na kościach Samsunga też odpalają "Space Invaders" co by wskazywało poważniejszy problem z samym chipem a nie zwyczajowo wadliwą partię pamięci od Microna.

Link to post
Share on other sites

RTX na High wygląda bosko. Na materiałach, które widziałem najbardziej rzucają mi się w oczy takie rzeczy jak woda na broni itp. Jest ogromna różnica. A takie detale lubie. 
Oby za parę lat dało się grać w gry przy 4K 75-120Hz i Raytracingu... oczy by wypaliło. Po co komu dwór?  :evil:

Btw. jakie masz temperatury w Define R5? Masz wentylatory od spodu (nawiew na GPU)?

Edytowane przez Revenant
Link to post
Share on other sites

temp grafiki max 68C, wentylatory mam 2x przód 1x dół i 1x tył , no i jeszcze w zasilaczu ale on nigdy sie nie kręci.

 

Ta mapa w roterdamie i odbicia ulicy w oknach i w kałużach na maskach aut no porostu bajka. Mam nadzieje że NV coś tam jeszcze poprawi bo niby to że tak mało fps to słaba implementacja w silniku i mają to zmienić jeszcze.

Link to post
Share on other sites

BF 5 to trochę słaby tytuł na ray tracing - w dynamicznym fps'ie to raczej chodzi o szybkie ustrzelenie przeciwnika i nikt nie ma czasu na spuszczanie się na odbicia słońca w posadzce :) Tym bardziej że ta gra praktycznie nie będzie miała single playera.

 

Ja na razie spokojnie ogrywam sobie AC odyssey - patch 1.07 całkiem poprawił wydajność - 4K wszystko ultra i wygładzanie na medium i daje rade trzymać powyżej 60 fps. Miejscami spada w bardzo zaludnionych lokacjach ale wtedy mam już niestety bottleneck procesora (100% na wszystkich wątkach - poczekam do stycznia z upgrade'm, może ceny 9700K spadną poniżej 2000zł). Gra naprawdę miodna i ciekawa - polecam!

 

A ray tracing zostawmy dla jakiejś gry w której faktycznie będzie można go docenić - może Shadow of Tomb Raider?

Edytowane przez joker5513
Link to post
Share on other sites
BF 5 to trochę słaby tytuł na ray tracing - w dynamicznym fps'ie to raczej chodzi o

 

Niby tak, ale jak nawet w dynamicznym fps będziemy mieli za jakiś czas fotorealistyczną grafikę (tzn jak ten wirtualny świat będzie bardziej zbliżony do tego, co widzą nasze oczy na co dzień wychodząc z domu) to chyba zawsze lepiej.

 

Ja BF5 nie mam, nie widziałem u siebie, czekam na pacz do Tomb Raidera, ale coś słabo go wypuszczają :(

 

Pobawiłem się natomiast dużą ilością demek RT i PT (patch tracing - pisałem w którymś tam poście o różnicach itd) i powiem szczerze, że jeszcze daleko kartom RTX do renderingu gier metodą RT gdy ten nie tyczy się tylko jakiegoś efektu, a całej sceny (jak to ma miejsce np w programach typu 3dstudio, vray itd) - jeszcze za wcześnie.

Edytowane przez EXT_1
Link to post
Share on other sites

@joker ja też zauważyłem  lepszą optymalizację odyssey w nowym patchu. Abstrachujac, że gram w fhd ale i tak jest lepiej. Ogólnie assassyny strasznie katują gpu nie wiem czy jest to sprawa słabej optymalizacji czy jak


 

 

Niby tak, ale jak nawet w dynamicznym fps będziemy mieli za jakiś czas fotorealistyczną grafikę (tzn jak ten wirtualny świat będzie bardziej zbliżony do tego, co widzą nasze oczy na co dzień wychodząc z domu) to chyba zawsze lepiej.

Myślę że nvidia powinna iść właśnie w tym kierunku niż co 3 lata wypuszczać karty, aby grać w rozdzielczosci 8k. Mam nadzieje że za 3 lata będzie bomba z rt to wtedy zmienie karte na nowa generacje by zobaczyc ten fotorealizm. 

Link to post
Share on other sites

@joker ja też zauważyłem  lepszą optymalizację odyssey w nowym patchu. Abstrachujac, że gram w fhd ale i tak jest lepiej. Ogólnie assassyny strasznie katują gpu nie wiem czy jest to sprawa słabej optymalizacji czy jak

 

Assasins creed Origins i Odyssey to akurat strasznie siedzą na CPU :) U Ciebie siedzi 8700K to pewnie tego nie odczuwasz za bardzo. U mnie grafika czasem się przynudzi a CPU nie wyrabia... Jak wrócą ceny Intela do normy to robię upgrade platformy - obecna się już wysłużyła :)

 

Niech pracują nad RT - jeżeli jest szansa że nie będzie to okupione spadkiem FPS o 70% to jestem jak najbardziej za.

Link to post
Share on other sites

Jeszcze  :evil: 

Ale tak na poważnie, nVidii to się odbije za parę lat czkawką tak jak GreedSync.

 

Skoro Intel zapowiedział że będzie korzystał z FreeSync... to imho bardzo dobra wiadomość. Więcej monitorów, unifikacja, tańsze produkty oraz tańsza produkcja dla producentów. A co nVidia? Wali Solo, będzie musiała kłaść dużo piniążków jak na passata i żeby to odbić nadal będą zdzierać kasę... 

Link to post
Share on other sites

Na razie bez spekulacji poczekajmy na 7nm. Dobra wiadomość jest taka że ryzeny generują kosmiczny dochód (w porównaniu z poprzednimi 5-8 latami). Część pieniędzy z tego właśnie dochodzu ma być przeznaczona dla Radeon Group Technologies. 
Wiemy też że nast. gen ma być robiona przez TSMC - a oni maja dużo lepszy proces techno niż GloFlo... Cóż, RTX'y i Radeony za rok będą z "tej samej fabryki" jak na ironię. Powinno to b. mocno obniżyć TDP (widać to po kartach nVidii, ale tutaj są także różne architektury więc w ciemno nie da się stwierdzić).

Link to post
Share on other sites

du*a a nie rozwiązanie (za przeproszeniem) hardware.

 

W Clevo P870DM na GTX'ach 980M po aktualizacji BIOS'u na customowy od Premy miałem odblokowany G-Sync (matryca AHVA 3840x2160 AUO, obsługująca "oficjalnie" G-Sync od serii z GTX 980 Desktop i GTX 1000) - jedyny haczyk to GPU 980M z ID obsługującym G-Sync (obie wersje GTX 980M były takie same! Jedyna różnica to DEVICE_ID i zero hardware'owych różnic!).

Miałem w laptopie G-Sync (w dwóch dokładnie, drugi z 120Hz FHD 15'6) oraz monitory G-Sync (także z panelami AUO, np. 165Hz TN G-Sync oraz 144Hz AHVA)... niczym się nie różni.

 

I tak. Laptopy z G-Sync nie mają żadnego dodatkowego układu, chipu ani zmian na PCB GPU oraz posiadają te same rdzenie (i rewizje) chipów. A jakoś G-Sync działa. Przypadek?  :rotfl: Zazwyczaj kwestia samego BIOSu oraz vBIOSu. W starszych GPU serii 900 nVidia po prostu chamsko zrobiła dwie wersje tego samego GPU, różniące się DEVICE_ID (sama nazwa...) żeby ludzie dopłacali po 500 USD do laptopa z G-Sync. Od GTX 1000 jest już jedno device_ID... Tak więc swap GPU na wersje z ID oraz aktualizacja BIOS i ta daaaam nagle matryca dostaje G-sync!

 

Dwa, od dawna wiadomo że cena premium to opłata licencyjna.

 

Jak ktoś nadal wierzy że G-Sync to rozwiązanie hardware (prawdziwe) no to trzeba zaktualizować wiedzę - bo ta teoria została ewidentnie i permanentnie obalona i udowodniona (i przed producentów i przez recenzentów [np. taki koleś z gamersnexus i paru innych...]).

 

Równie dobrze mogę sobie dolutować mikroukład np. sprawdzający jakieś ID (jakiegokolwiek procesu) i wtedy powiem że mój silnik 2.5 SkyActiv-G ma teraz jako jedyny super turbo wtrysk paliwa (a w międzyczasie realnie zmienić tylko mapę paliwa...).

 

 

Dzięki za rozjaśnienie tematu. Znajomy ma  PG278Q ma już dobre trzy lata i fakt jest taki, że nie miał żadnego tearingu przez ten czas. Komfort grania i wygoda, bo nic nie trzeba w tym zakresie robić jest wysoki i stąd ta przychylność dla G-synca. Jeśli natomiast jest faktycznie tak ja mówicie i nie ma żadnego układu to jest to przykre. Jeśli można by to było zaimplementować wszystkim użytkownikom k.graficznych Nvidia poprzez sterowniki to jest to skandal w mojej ocenie. Trochę już żyję i wiem, że Nvidia lubi $. Nie sądzicie, że zrobiłaby się gruba afera gdyby było tak jak piszecie - że nawet jeśli jest jakiś pseudo układ w monitorach to jest to "wydmuszka"?

Link to post
Share on other sites

Afera już była... dawno temu... zapoczątkowana na forach (notebookreview) zagranicznych. Chyba też na NHL.pl swego czasu o tym pisali (że coś jest nie halo). Na techinferno też o tym trochę pisaliśmy, w tym okresie kupiłem BIOS od Premy do P870DM żeby odblokować sobie G-Sync na matrycy AUO 4K 17'3 (AHVA), bo akurat miałem (nie wiem czemu) karty graficzne z Device_ID dla G-Sync (ot reseller takie mi wsadził).

 

W Polsce olano ciepłym moczem bo to rozeszło się od posiadaczy laptopów, w których łatwo było to zweryfikować (bardzo łatwo). A w Polsce nie stać prawie nikogo na laptopa za 10 tysięcy i w górę... więc odsetek mizerny. U nas jest to np oszczędzanie z 10 pensji a  za granicą 2-3 pensje... dla tego za ten sam nakład pracy u nas kupuje się kupowate Lenovo/Acera zamiast MSI GT, Alienware czy Clevo...

Główną wadą FreeSync względem Greedsync jest gorszy (w niektórych monitorach, tych tańszych) wąski zakres operowania. Ale jak monitor kosztuje 600zł to i tak cieszyłbym się że ma wgle taką synchronizację... i nie marudził że działa w zakresie 40Hz+.

Powiem tak: po cyrku cen z RTX'ami (gdzie całe wakacje byłem PEWIEN że kupie 2080 Gaming X/Z lub Strixa) jak zobaczyłem ceny a potem newsy o naprawniu kart przed sprzedażą... zniechęciło mnie to jako (mściwego) klienta. Jestem specyficzny, jasne. Ale mogę sobie pozwolić na takie pokazywanie środkowego palca i mam zamiast z tego korzystać gdy ktoś chce mnie... można się domyślić. 

A teraz przyjanuszuje na karcie AMD (zapłacę więcej za drogi prąd - olać) ale przynajmniej za różnicę w hajsie kupię sobie nowe rolki 110mm na black friday (bo moje obecne powerslidy się ledwo trzymają a o 3 parze już łożysk nie wspomnę).  :menda:

 

 

Nie chce trollować. Ale jako i inwestor (prywatnie) nie lubię firm, które tak postępują. Ba, nvidia cierpi teraz na giełdzie za swoje grzeszki. Konsumenci powinni dołożyć swoje 3 grosze. Czemu? Kiedyś nvidia dawała nam DUŻO więcej za taką samą cenę. A my nie powinniśmy pozwalać się doić. Jasne, mają przewagę w wydajności. Czemu się nic nie zmienia? Bo mają dochody dużo większe od AMD (bosh jakim cudem oni jeszcze walczą - chodzi mi o radeon group). Ale mimo wszystko jeszcze mamy alternatywę... może czasami warto z niej skorzystać? Nie chcę tu trollować "AMD BEST WOLOLOOO" ani mówić że to jedyna słuszna droga (bo nie jest) ale jeżeli i "fani" nvidii chcą powrót starej dobrej nvidii też niech o tym pomyślą. Dzisiaj firmami rządzą księgowi - nie inżynierzy. 

Edytowane przez Revenant
Link to post
Share on other sites
Popytałem się i prześledziłem temat i tak. Gsync w monitorach to fizyczny moduł. On istnieje do tego są jego różne wersje. Kiedyś były z pamięcią 256MB (FHD 144Hz). Aktualnie moduły mają 768MB pamięcie ( 3 szybsze kanały ) pod ekrany WQHD 144Hz oraz 240Hz FHD. Więcej danych więcej szybszej pamięci. Stare potrafiły się przepełniać jak dostawały obraz bez zablokowanych klatek w ilości kilkaset. Z Vsync problem nie występował.  Tak więc Gsync w monitorach pełni rolę sprzętowego buforu ramek.
 
Wyglada to tak:
nvidia-gsync.jpg
 
W najnowszej odsłonie 4K 144Hz moduł gsync to komputerki Intela. Stare były za wolne.
 
Moduł Gsync zastępuje standardowy scaler z monitora. Mamy Gsync - nie mamy scalera. Inne rozdzielczości niż FHD wyglądają na tym gorzej niż w ekranach bez Gsynca z dobrym scalerem.
 
Moduł gsync w porównaniu do freesynca przejmuje na siebie zbieranie (sprzętowy bufor) i synchronizację klatek. Przy Freesync wszystkim zajmuje się karta graficzna. Różnica jest taka, że trzeba płacić za zbędny układ, bo tak na prawdę GPU potrafi ogarnąć temat bez problemu. Tak jak to jest przy freesync. Do tego laptopy również udowadniają, że zewnętrzny moduł na kartach nvidii nie jest potrzebny. Tam go zwyczajnie nie ma. Nie ma bo nie ma na niego miejsca i szkoda baterii na działanie drugiego mini PC. 
 
Ciekawy artykuł pt: "Darmowy G-Sync? Sprawdziliśmy czy to naprawdę działa... i działa!"
 
 
Moduły Gsync dodatkowo zmieniają soft monitora. Są optymalizowane pod każdy model monitora osobno. Nvidia sama programuje każdy monitor po swojemu. Sama ustawia Over Drive. Dodaje i reguluje ULMB (redukcję blura). Menu monitora z gsync i bez gsync wygląda inaczej. Szczególnie jak wejdzie się w menu serwisowe. Tak byłem tam i widziałem. Acer XB270Ha z gsync ma inne menu serwisowe niż te same monitory z tą samą matrycą ale bez gsynca. Inna ciekawostka to ekrany 240Hz z Gsync nie gubią klatek. Te bez gsynca często je gubią i trzeba lekko modyfikować w CRU ustawienia, tak żeby 240Hz nie gubiło tych klatek. Niby nic, ale jednak NVIDIA znalazła i naprawiła problem. 
 
 
Płaci się sporo, monitory z gsync przeważnie za to są lepiej poustawiane. Mają też często więcej opcji w serwisówce. Ale efekt końcowy jest i tak identyczny jak na freesync. 
 
Odnośnie gorszego zakresu freesync, to u znajomego  jest 40-100Hz. Jak zejdzie poniżej 40FPS to ma np 35FPS i 70Hz na ekranie. Efekt dalej ten sam jak na matrycy z gsync. Problem mają ekrany 60Hz z zakresem 40-60Hz. Ale tutaj gsync ma jeszcze większy problem niż te tanie monitory. Mianowicie go nie ma. Nie ma ekranów 60Hz z Gsync WQHD/FHD. Jedynie 4K 60Hz można dorwać z gsync ale to dwa modele na krzyż w cenie 2500-3000zl. Tak więc przewaga gsynca nad freesync jest właściwie żadna w tym temacie :)
 
No i w laptopach brak modułu i wersje modowane sterowników pokazują, że gsync bez problemu mógłby współistnieć na kartach nvidii razem z ze zwykłym adaptivesync ( freesync ). A brak tego wsparcia to zwykły dowód na skok na kasę a nie troska o dobro klientów. Odpalenie Gsync na laptopie to tak na prawdę AdaptiveSync (freesync) w czystej postaci bez buforowania tych klatek na zewnętrznym module. Wszystkim operuje GPU. W sterownikach opcja nazywa się GSync ale tak na prawdę to nie jest sprzętowy Gsync a AdaptiveSync od VESA.
 
Oczywiście, że się dopłaca do G-Sync, i Nvidia to wykorzystuje, ale Nvidia robi najlepsze karty graficzne, i tyle. Co z tego, że ktoś oszczędzi na monitorze, jak na żadnej karcie AMD nie pogra w 3440x1440p w wymagające gry na ultra w 60 fps, ani nawet na wysokich/średnich. Jak ktoś kupuje 34 calowy monitor ultrawide 21:9, to nie po to by potem grać na low w niestabilnych 60 fps, i czuć dyskomfort. 
 
Tutaj przykład najlepszej grafiki AMD, czyli Vega 64, i w Assassin's Creed Odyssey średnio 40/45 fps, ale nie jestem pewien jakie tam były ustawienia graficzne, bo gra była chyba po portugalsku. Podejrzewam, że ultra/wysokie.  Jeden forumowicz  na GTX 1080Ti dla porównania ma średnio 25/30 fps więcej, nie mówiąc już o RTX 2080Ti, bo wtedy to by ta gra chodziła w granicach 90fps średnio. To są monitory dla entuzjastów, którzy wiedzą czego chcą i tyle, jak ktoś chce średnią półkę, to może brać tańszy monitor z freesync 1080p, i jakiegoś radeona. Nie ma się co obrażać na Nvidie, tylko niech każdy kupuje to co mu w danej chwili najbardziej odpowiada cenowo i wydajnościowo, bo to rynek dyktuje ceny, więc albo można kupić drożej, albo nie kupić wcale.
 
 
ps. Poza tym każdy monitor z G-Sync musi spełnić wymagania jakie narzuca Nvidia, dlatego kupując monitor z G-Sync masz pewność, że to wszystko będzie zawsze dobrze działać. Za to kupując monitor z FreeSync może się okazać, co nie raz juz wychodziło w recenzjach różnych monitorów, że FreeSync działa źle w niektórych modelach, lub nawet wcale nie działa. Może być nawet tak, że w obrębie tego samego modelu jeden zrecenzowany egzemplarz będzie dobrze obsługiwał FreeSync, a kolejny już nie. Za to też się dopłaca przy G-Sync między innymi.

Wracając do tematu.   Kyle'owi z HardOCP właśnie padła 2080 ti FE na pamięciach Samsunga, po całych 8h działania. Była to karta z RMA, czarne pudło Na chwilę obecną na 4szt.  2080 ti padły mu 2.  Wszystkie padają i na samsungach i na micronach do tego niezależnie od producenta Asus, MSI, Palit etc. Codziennie coraz więcej zgłoszeń od użytkowników o padniętych gpu, niestety wszystko pada od RTX 2070 po 2080 Ti.  Nie wygląda to dobrze...

Edytowane przez serafin1
  • Popieram 2
Link to post
Share on other sites

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Odpowiedz w tym wątku...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...