Skocz do zawartości

Temat o kartach Nvidia RTX Turing (TU1xx).


Recommended Posts

Na razie nic nie wiadomo. Nawet nie ma pewności, czy 2060 będzie się w ogóle nazywał RTX.

Jakiś czas temu u Chińczyków widziałem gdzieś obrazek, że karty 2060 i niższe będą nosić przedrostek GTX.

To by była w sumie smutna wiadomość (ale nie do końca), bo oznaczałoby że tylko najwyższe modele będą wyposażone

w rdzenie do śledzenia promieni. Z jednej strony jest to zrozumiałe (już pisałem o tym, gdybyś śledził temat, to nie musiałbym się powtarzać ;) ) bo RTX 2070 ma mieć wydajność RT na poziomie 6mln promieni - to bardzo mała wartość i nie ma możliwości np poddać RT skomplikowanej sceny z zadowalającą prędkością (dlatego będą na razie tylko niektóre elementy liczona w scenie przez RT), a i tu nawet będzie się zapewne stosować triki (co pewnie będzie można zaobserwować, porównując wyniki renderingu np 2080Ti z 2070 - na 2070 RT będzie mniej dokładny, lub część promieni będzie pomijana, aby zachować tę samą prędkość - ale czas pokaże)

 

Jedno mogę Ci stwierdzić - upłynie jeszcze trochę czasu zanim całą, skomplikowaną scenę będzie można renderować w czasie rzeczywistym techniką śledzenia promieni (pierwszy krok wpuszczenia tej metody renderingu pod strzechy został już poczyniony, a dalej poleci już szybciej ;) ).

 

[pisane bez ładu i składu - bo tak ;) ]

Link to post
Share on other sites

 

ja tam nie widzę zbyt dużej różnicy w tym demie RTX on/off... 

 

Jedyny plus to możne być te wygładzanie krawędzi, ale dopłacać 1000zł do RTX którego i tak w WQHD pewnie nie będzie sensu używać i 15% wyższej wydajności ? Porażka.

 

Dawać mi tu 1080ti za 2600 i tyla..

Link to post
Share on other sites

 

 

ja tam nie widzę zbyt dużej różnicy w tym demie RTX on/off...

 

RT powstał pod koniec lat 60 (bodaj w 1968roku) do niedawna mógł być liczony w czasie rzeczywistym tylko na superkomputerach i całych farmach, teraz trafia pod strzechy i osobiście uważam to za przełom milowy w dziedzinie grafiki komputerowej.

Poczytaj o RT (ale coś dobrze opisanego, np jakiś wywód uczelniany o grafice (technikach renderingu)), a dopiero potem oglądaj dema, animacje prezentujące RT w działaniu. :)

 

 

 

RTX którego i tak w WQHD pewnie nie będzie sensu używać i 15% wyższej wydajności ? Porażka.

 

Wydaje mi się (patrząc na to, co napisałem powyżej i to co doczytasz o zagadnieniu z dziedziny GK), że nie tak należy do tego podchodzić i najbliższa przyszłość dość szybko to zweryfikuje.


.

Link to post
Share on other sites

Co ma piernik do wiatraka? Nie będziesz chyba zachwalał technologii tylko dlatego, że jest skomplikowana i wchodzi do mainstreamu. :P I zgadzam się z użytkownikiem @s2awek, że jakoś szału nie ma. Wcześniejsze dema jakoś lepiej wyglądały.

Edytowane przez Eftar
  • Popieram 3
Link to post
Share on other sites

RT [...] do niedawna mógł być liczony w czasie rzeczywistym tylko na superkomputerach i całych farmach, teraz trafia pod strzechy i osobiście uważam to za przełom milowy w dziedzinie grafiki komputerowej.

Poczytaj o RT [...], a dopiero potem oglądaj dema, animacje prezentujące RT w działaniu. :)

 

Wyjaśnijmy sobie jedną prostą sprawę. RTX od NV ma gucio wspólnego z prawdziwym RT. Pisanie o "RT trafiającym z superkomputerów pod strzechy", "przełomie" itd. nie ma nic wspólnego z prawdą. Zacznijmy od najprostszej sprawy, RTX to nie jest ray tracing rendering. To jest renderowanie "hybrydowe" - jak NV sama przyznała. Mamy wiec zwykłą scenę wzbogacaną o elementy używające RTX. Już w tym momencie można wiec wyrzucić do kosza "wielka rewolucję i moc pozwalającą liczyć RT w czasie rzeczywistym" do kosza. Jednak mimo ograniczenia RTX tylko do dodatkowych efektów okazuje się, że dalej nie ma na tyle mocy aby nawet te efekty ogarnąć normalnym RT. NV wpadła, wiec na pomysł żeby promień był "wysyłany" dla co któregoś piksela. Ilość promieni używanych w RTX jest śmiesznie niska. Oto pokazowy obraz:

 

http://cgicoffee.com/blog/content/images/2018/28mar2018/noisy-1-spp-nvidia-rtx-reflections.jpg

 

Taki obraz jest dopiero potem przepuszczane przez AI które odszumia obraz i efekt jest taki:

 

http://cgicoffee.com/blog/content/images/2018/28mar2018/filtered-reflections.jpg

 

Efekt ok. Tylko przełóżmy to na normalne odbicia a nie takie smugowate. Tutaj pojawia się problem przekłamań. AI nie jest nieomylne. Zwłaszcza przy mocno ograniczonym czasie na wykonanie poprawek. Przekłamania będą się pojawiać. Dodatkowo już na pokazach było widać, że nawet te ograniczone efekty RTX działają źle. W demach z Tomb Raider i Metro było widać, że nie wszystkie obiekty rzucają cienie mimo używania tego wspaniałego RTX. W przypadku RT coś takiego nie miałoby miejsca.

Na sam koniec zostaje jeszcze kwestia wydajności i rozpowszechnienia. Przy 2080Ti było widać spadki fps w grach, DICE przyznało że będą musieli okroić RTX dla poprawy wydajności. Czyli na 2080Ti prawdopodobnie uda się osiągnąć 1080p@60fps przy RTX. Okazuje się więc że tylko jedna karta z trzech zapowiedzianych będzie w stanie realnie wspierać RTX. No chyba, że ktoś chce cofnąć się wiele lat i grać w 720p lub kupuje kartę za 3k żeby w FHD schodzić z ustawieniami w dół i grać w 30fpsach ale za to z RTX. Biorąc to pod uwagę 3 karty wspierające RTX, ich ceny i wydajność przy RTX będą też problemy z rozpowszechnieniem RTX. Ile gier poza tymi kilkoma pokazowymi będzie to wspierać skoro tak niewiele osób z tego skorzysta? RTX nie jest nawet NV only tech a technologią ograniczona do 3 kart z czego tylko jedna jest w stanie to realnie ogarnąć.

  • Popieram 3
Link to post
Share on other sites
To jest renderowanie "hybrydowe"

 

Oczywiście i jeszcze sporo czasu minie zanim jeden wyspecjalizowany GPU pozwoli renderować skomplikowaną scenę przy użyciu wystarczającej liczby promieni, aby nie trzeba było używać metod do maskowania niedoskonałości.

Edytowane przez EXT_1
Link to post
Share on other sites

https://www.youtube.com/watch?v=6RwQ7H_EBoM

 

ja tam nie widzę zbyt dużej różnicy w tym demie RTX on/off...

 

Jedyny plus to możne być te wygładzanie krawędzi, ale dopłacać 1000zł do RTX którego i tak w WQHD pewnie nie będzie sensu używać i 15% wyższej wydajności ? Porażka.

 

Dawać mi tu 1080ti za 2600 i tyla..

Właśnie kupiłem 1080ti xtreme edition za 2600 z 2letnia gwarancją :)

Link to post
Share on other sites

 

 

Gram na starym 5 letnim sprzęcie z sygnaturki praktycznie we wszystko na wysokich w 1080/60.

 

no to sam widzisz jaki teraz mamy postęp w sprzęcie. Po dwóch latach dostajemy 50% wyższą wydajność za 2x więcej $. Dla mnie jako fana nowych technologii to lipa bo fotorealistyczna grafika w grach to tylko majak gdzieś daleko na horyzoncie

Link to post
Share on other sites

Jestem ciekaw czy taki RTX 2080 Ti zapcha takiego i7 8700K po OC około 4.8 ~ 5.0 GHz. "Zwykły" RTX 2080 pewnie nie da rady ale Ti ...

co to wgl za brednie... procesor jest od innych zadań karta od innych, zleży jak jest zoptymalizowana gra, np arma 3 i duża część strategii z licznymi jednostakami ma mocny nacisk na CPU, a poza tym mozesz wsadzić i 4 RTXy 2080Ti a ten procek "WYDOLI"

Link to post
Share on other sites

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Odpowiedz w tym wątku...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...