willis81 42 Napisano 20 Września 2022 Udostępnij Napisano 20 Września 2022 (edytowane) @EH_Gosu Strix 3090 już pokazany na stronie Asusa: https://rog.asus.com/us/articles/gaming-graphics-cards/ascend-to-new-heights-with-the-new-geforce-rtx-4090-and-rtx-4080-cards-from-rog-strix-and-tuf-gaming-2/ Co jak co ale jak biorę, ładnie wygląda Oby im ta wersja wydajnościowo i dobrą kulturą pracy wyszła, tak jak 3090 OC. Liczę jeszcze po cichu że pokażą wersję AiO Edytowane 20 Września 2022 przez willis81 Cytuj Link to post Share on other sites
Karister 841 Napisano 20 Września 2022 Udostępnij Napisano 20 Września 2022 Dlaczego słabo? Nowy DLSS daje x2-x4 wydajności w RT, a sama GPU ma wydajność x2 w samym rasteringu. IMO bardzo dobrze. Cytuj Link to post Share on other sites
MiK 13230 Napisano 20 Września 2022 Udostępnij Napisano 20 Września 2022 8 minut temu, Rebelmind napisał: DLSS3 Nv ubiła wsteczną kompatybilność DLSS 3 to zupełnie inna technologia niż 2. W 2 sztucznie "podnosiłeś" rozdzielczość z mniejszej do większej. 3 wkleja całe brakujące klatki. Dosłownie tworzy. Cytuj Link to post Share on other sites
Player120 52 Napisano 20 Września 2022 Udostępnij Napisano 20 Września 2022 (edytowane) Cała ta premiera RTX 4000 to jedna wielka porażka, czuje się drugi raz oszukany przez zielonych, jakbym wtedy wiedział że faktycznie wyjdzie wersja rtx 3080 z 12gb to bym czekał a tak mam wersje z 10gb vram, teraz ten dlss 3 i chore ceny a karty i tak się sprzedadzą, widzę wielu chętnych na zachodnich forach których stać na te karty, ludzi co roku kupują nowszy model auta, komórki itd - gram w ultrawide więc sram na 4k a nawet dlss ale jak wyjdą gry na unreal 5 i będzie lipa z wydajnością to dobrze przemyśle kilka razy wymianę na coś mocniejszego ale raczej będzie to coś z rtx 5000 Edytowane 20 Września 2022 przez Player120 Cytuj Link to post Share on other sites
EH_Gosu 1277 Napisano 20 Września 2022 Udostępnij Napisano 20 Września 2022 (edytowane) 13 minut temu, Player120 napisał: Cała ta premiera RTX 4000 to jedna wielka porażka, czuje się drugi raz oszukany przez zielonych, jakbym wtedy wiedział że faktycznie wyjdzie wersja rtx 3080 z 12gb to bym czekał a tak mam wersje z 10gb vram, teraz ten dlss 3 i chore ceny a karty i tak się sprzedadzą, widzę wielu chętnych na zachodnich forach których stać na te karty, ludzi co roku kupują nowszy model auta, komórki itd - gram w ultrawide wiec sram na 4k a nawet dlss ale jak wyjdą gry na unreal 5 i będzie lipa z wydajnością to dobrze przemyśle kilka razy wymianę na coś mocniejszego ale raczej będzie to coś z rtx 5000 Zbędne nerwy według mnie. DLSS 3.0 to nie jest oszustwo względem użytkowników Ampere czy Turinga, masz dodatkowe rozwiązania sprzętowe odpowiedzialne za DLSS 3.0. Przynajmniej póki co tak to wygląda bo jeśli okaże się, że idzie to sterami ogarnąć (nie sądzę) to się pewnie dla RTX 30xx / RTX 20xx też taka opcja za czas jakiś pojawi. Argumenty sprzedażowe i marketingowe korpo zawsze stosują takie by jak najwięcej ludzi się napaliło. Generalnie RTX 3080 10 GB bardzo fajna karta cały czas. Jeśli udało Ci się ją dorwać w cenie MSRP bądź bliskiej to w ogóle dobrze wyszedłeś na tym temacie. Generalnie w 3440x1440p na RTX 3080 10 GB sporo też pograłem i byłem zadowolony, także na spokojnie. Zapowiadane wzrosty 2x perf etc. To coś czuję, że idą w 2x perf/watt ,a nie czysta wydajność bo to nie wynika z ilości CUDA, etc. Taktowania zrobią robotę na pewno no ale też kwestia boosta końcowego, dobre autorskie modele Ampere trzymają i po 2100 na rdzeniu. Realnie pewnie 4080 do okolic 2.8 +/- będzie boostował, kwestia też modelu. Siedzę i kilka godzin sobie analizuje wszystko i coś mi z tymi wzrostami wydajności nie pasuje. Musiałoby IPC rdzeni mocno dowalić też w górę. Obstawiam wydajnościowo RTX 4080 12 GB realnie powalczy z RTX 3080 Ti (modele z wyższymi PT się dobrze obronią), RTX 4080 16 GB pewnie +/- 20/30% maks nad RTX 3090 (FE z PT 350W) oraz 4090 z 60% nad 3090 Ti czy 3090 z wysokim PT. Reszta w kwestii "up to 2x" to marketing, to bez RT. Z RT wzrosty mogą być faktycznie dwukrotne (nowe rdzenie RT GEN 3 vs GEN 2 Ampere no i więcej tych rdzeni analogicznie niż w Ampere) oraz nowe DLSS 3.0 dowali te "up to 4x". Wracając do owego nowego DLSS 3.0 to nie ma co się wkurzać absolutnie jeśli to jest nowe rozwiązanie sprzętowe, zobaczymy. Edytowane 20 Września 2022 przez EH_Gosu Cytuj Link to post Share on other sites
Karister 841 Napisano 20 Września 2022 Udostępnij Napisano 20 Września 2022 20 minut temu, Player120 napisał: gram w ultrawide więc sram na 4k Ale wiesz, że UltraWide jest też w 4K i 5K? Po prostu trzeba sobie wybrać odpowiedni segment i w nim siedzieć, zamiast przeżywać, że jest coś więcej. Cytuj Link to post Share on other sites
Adames 468 Napisano 20 Września 2022 Udostępnij Napisano 20 Września 2022 8 minut temu, EH_Gosu napisał: Wracając do owego nowego DLSS 3.0 to nie ma co się wkurzać absolutnie jeśli to jest nowe rozwiązanie sprzętowe, zobaczymy. Nie sądzę! To kwestia drivera, być może firmware. Tak się składa, że te wszystkie tensorowe CUDA najpierw wychodzą dla kart obliczeniowych, a tu technicznie rzecz biorąc to nowości brakuje. Wincyj wydajności, wincyj wszystkiego, ale nie pojawiło się ostatnio nic co by wskazywało, że faktycznie są jakieś nowe ficzery w tensorach. Przynajmniej nic takiego nie widziałem. Cytuj Link to post Share on other sites
EH_Gosu 1277 Napisano 20 Września 2022 Udostępnij Napisano 20 Września 2022 (edytowane) W kwestii DLSS 3.0 w tym właśnie rzecz. No nic, zobaczymy co się tak naprawdę za tym kryje. https://www.ekwb.com/shop/ek-quantum-vector2-fe-rtx-4090-d-rgb-nickel-plexi?fbclid=IwAR1j0XUXy-PzcWvg44OL_Bwpox4qzRibh6sd1cf3xHrUnK5JQSOndJG6qZU Teoretycznie powinny być bloki na RTX 4090 FE dostępne w pierwszej połowie Listopada, od 7go. No ale się naturalnie może temat przeciągać jak było przy kilku modelach Ampere. Poniżej ciekawostka. Edytowane 20 Września 2022 przez EH_Gosu Cytuj Link to post Share on other sites
MiK 13230 Napisano 20 Września 2022 Udostępnij Napisano 20 Września 2022 25 minut temu, EH_Gosu napisał: jeśli to jest nowe rozwiązanie sprzętowe, DLSS 2 miał nie działać bez tensorów obecnych w serii RTX. No jakoś nie wiele gorszy FSR 2.0 działa nawet na RX 480 Cytuj Link to post Share on other sites
Karister 841 Napisano 20 Września 2022 Udostępnij Napisano 20 Września 2022 (edytowane) LeL, jak w gierkach będzie +50% FPS, to do widzenia serii 4000, bo wówczas nie uda mi się przesiąść na nowy monitor, który sobie upatrzyłem. Oby to się nie ziściło. Liczę na minimum +80%. Edytowane 20 Września 2022 przez Karister Cytuj Link to post Share on other sites
EH_Gosu 1277 Napisano 20 Września 2022 Udostępnij Napisano 20 Września 2022 1 minutę temu, MiK napisał: DLSS 2 miał nie działać bez tensorów obecnych w serii RTX. No jakoś nie wiele gorszy FSR 2.0 działa nawet na RX 480 No i zgadza się DLSS nie działa na kartach bez Tensorów 1 Cytuj Link to post Share on other sites
MiK 13230 Napisano 20 Września 2022 Udostępnij Napisano 20 Września 2022 Jeszcze. Cytuj Link to post Share on other sites
EH_Gosu 1277 Napisano 20 Września 2022 Udostępnij Napisano 20 Września 2022 1 minutę temu, MiK napisał: Jeszcze. Nie licz na to, że DLSS będzie działać na kartach bez jednostek Tensor. FSR oraz FSR 2.0 są w zupełnie inny sposób realizowane niż DLSS. 1 Cytuj Link to post Share on other sites
MiK 13230 Napisano 20 Września 2022 Udostępnij Napisano 20 Września 2022 Tak jak: physX, g-sync, RT, Adaptive V-Sync i inne technologie? Też miały działać tylko na nV. Cytuj Link to post Share on other sites
Adames 468 Napisano 20 Września 2022 Udostępnij Napisano 20 Września 2022 DLSS wymaga tensorów, bo tak jest zbudowany. Co nie zmienia faktu, że potencjalnie mógłby działać na CUDA (a być może nawet na dziadowskim opencl) Dla kart z serii 20, różnica ogólna w wydajności większości sieci neuronowych, które testowałem, a które są związane z skalowaniem obrazu to ok 1,6x szybciej działa na tensorach (tak się to skaluje na moim roboczym RTX 2080ti). Dlatego myślę, że implementacja na klasyczne CUDA także miałaby sens. NVidia nie zrobi tego, bo im zależy by stare karty odeszły w niepamięć, a ludzie kupili nowe. Stare karty już nie generują przychodu ... podobnie jak odsprzedaż gier. Nie zdziwiłbym bym się, jakby teraz co generację wychodził "killer feature", który nie działa na "starym" sprzęcie. Tensory naprawdę działają i są super, cuda zresztą też, a może jest tak dlatego, bo nie ma konkurencji. Jeszcze. Cytuj Link to post Share on other sites
EH_Gosu 1277 Napisano 20 Września 2022 Udostępnij Napisano 20 Września 2022 (edytowane) 21 minut temu, MiK napisał: Tak jak: physX, g-sync, RT, Adaptive V-Sync i inne technologie? Też miały działać tylko na nV. PhysX stał się otwartym standardem, G-Sync (hardware moduł) działa tylko na kartach NV, nieporównywalnie lepiej niż Frreesync i lepiej niż G-Sync Comp. RT nie jest zarezerwowane dla kart NVIDII z rdzeniami RT, nawet na Pascalach można uruchomić (z tego co pamiętam GTX 1080 wzwyż) no ale z racji braku jednostek sprzętowych RT na Pascalach jest totalny pokaz klatek. AMD z RDNA2 ma ich Ray Acelerators więc również RT działa na ich kartach, a nigdy nie było żadnej informacji, iż ma tylko działać na kartach NV. Po prostu RTX 20xx to pierwsze karty ze sprzętową osbługą Ray Tracingu realizowaną poprzez rdzenie RT Gen 1. DLSS wymaga i będzie wymagał jednostek Tensor. W teorii powinien działać i na Tensorach Gen 1 w TITAN V, niestety w TITAN V czyli GV100 nie szło tego włączyć. Edytowane 20 Września 2022 przez EH_Gosu 1 1 Cytuj Link to post Share on other sites
piotr.potulski 39 Napisano 20 Września 2022 Udostępnij Napisano 20 Września 2022 Kompletnie nie rozumiem tego dramatu. Patrząc na wydajność/cena jest dużo lepiej niż było. W dodatku nie bardzo jest co patrzeć na aktualne ceny, bo rynek kart to ostatnio wielka huśtawka. Najpierw problemy z produkcją scalaków, run na sklepy, bo coś trzeba robić w pandemii, później skok krypto, wprowadzanie kolejnych kart LHR, później spadek krypto + ostatnio zmiana algorytmu "kopania" w ETH. Teraz nakręcanie hype na nowe karty i trochę problem ze sprzedawaniem starych. Jeżeli na tych slajdach jest chociaż trochę prawdy, to pojawiły się karty, na których będzie można we wszystkich aktualnych grach włączyć wszystkie możliwe pstryczki w grafice i grać w 4k. Jeżeli pominąć labelki xx80 i zestawić ze sobą starą i nową generację po wydajności, to jest dużo taniej. Chyba, że ktoś koniecznie musi mieć 4080, zamiast jakiejś niższej serii, co dziwi o tyle, że większość graczy i tak nie potrzebuje tej wydajności, bo nie ma monitora, który ją wykorzysta. Chyba, że ktoś faktycznie widzi różnicę pomiędzy 144Hz a 240Hz. Do grania w 1080 wystarczy w zupełności jakiś 4050 jak już się pokaże. Cytuj Link to post Share on other sites
Player120 52 Napisano 20 Września 2022 Udostępnij Napisano 20 Września 2022 Godzinę temu, EH_Gosu napisał: Zbędne nerwy według mnie. DLSS 3.0 to nie jest oszustwo względem użytkowników Ampere czy Turinga, masz dodatkowe rozwiązania sprzętowe odpowiedzialne za DLSS 3.0. Przynajmniej póki co tak to wygląda bo jeśli okaże się, że idzie to sterami ogarnąć (nie sądzę) to się pewnie dla RTX 30xx / RTX 20xx też taka opcja za czas jakiś pojawi. Argumenty sprzedażowe i marketingowe korpo zawsze stosują takie by jak najwięcej ludzi się napaliło. Muszą czymś przyciągnąć potencjalnych nowych kupców, wymysł marketingowców, zobaczymy co będzie dalej z tym całym DLSS 3.0, zbyt wielu to się nie podoba, ostatnio za szybko wychodzi ten nowy sprzęt, wszystko pędzi i pędzi do przodu, posiadane wciąż nowe hardware nie jest dobrze wykorzystane-eksploatowane a już po chwili staje się stare, tak czasami warto poczekać choćby na nowe ryzeny 7000 z pamięcią 3D V-cache które to powinny pojawić się kilka miesięcy po premierze zwykłych chipów zen 4 czekam na testy rtx 4090 oraz 4080 na twoim kanale, spory ten ostatni zestaw EH Hydro Madness dla mistrza kierownicy, ciekawe czy jest znany? ale to pewnie tajemnica - pozdrawiam 1 Cytuj Link to post Share on other sites
EH_Gosu 1277 Napisano 20 Września 2022 Udostępnij Napisano 20 Września 2022 Dzięki No "HYDRO MADNESS" to bydle wyszło faktycznie. Co do tożsamości człeka dla którego machina powstała, zdradzić nie mogę naturalnie niemniej ma swoje sukcesy konkretne Co do testów RTX 4080 i RTX 4090 na pewno będą u mnie, no ale nie na sklepową premierę. Generalnie to dopiero montuje materiał z testami i9-11900K vs R7 5800X vs i9-12900K, a za pasem nowe CPU i GPU. Przy czym ja się szczególnie z testami CPU nie spieszę bo kilka miechów zawsze trzeba poczekać realnie na ocenę końcową danego genu, mobasów etc. 2 Cytuj Link to post Share on other sites
Player120 52 Napisano 20 Września 2022 Udostępnij Napisano 20 Września 2022 (edytowane) 23 minuty temu, EH_Gosu napisał: No "HYDRO MADNESS" to bydle wyszło faktycznie. Ale robi wrażenie a widziałem masę zestawów Wracając do serii RTX 4000 oraz DLSS 3.0 musimy czekać na konkretne testy jak te karty spisują się w 4K z RT i czy ten cały DLSS 3.0 nie powstał po to by mogły bezstresowo wyświetlać obraz w 4K 60+ właśnie z ray tracingiem by nadrobić wydajność nowych układów, stąd chyba mamy ten nowy ficzer maskujący ich wydajność, czytałem jakiś czas temu że dopiero seria RTX 5000 będzie sprzętowo radziła sobie z RT, śledzenie promieni ma być inaczej liczone przez gpu czy coś takiego Edytowane 20 Września 2022 przez Player120 Cytuj Link to post Share on other sites
Rebelmind 3738 Napisano 20 Września 2022 Udostępnij Napisano 20 Września 2022 1 godzinę temu, piotr.potulski napisał: Kompletnie nie rozumiem tego dramatu. Patrząc na wydajność/cena jest dużo lepiej niż było. W dodatku nie bardzo jest co patrzeć na aktualne ceny, bo rynek kart to ostatnio wielka huśtawka. Jak lepiej niż było?! Na premierę?! Porownaj sobie przyrost ceny do możliwości przy przesiadce z 2080 na 3080 oraz przy analogicznym upgrade 3080 na 4080 16GB. Poza tym, jak ostatnio wielka huśtawka? Ceny od szczytu kryzysu, w ujęciu ogólnym, powoli lecz systematycznie spadają. Przez dwa lata nie dało się kupić 3080 nowego poniżej 4000, a teraz się trafia regularnie. Na koniec kwestia przyrostów w Adzie: tam wszystko jest na slajdach Nv porównywane z DLSS3, którego poprzednik nie ruszy, czyli cherry-picking. Żeby się nie okazało, że w takim CP2077, bez RT i Dlss to z pięknych x4 robi się x1.5 fps więcej 2 Cytuj Link to post Share on other sites
EH_Gosu 1277 Napisano 20 Września 2022 Udostępnij Napisano 20 Września 2022 @Rebelmind "Na koniec kwestia przyrostów w Adzie: tam wszystko jest na slajdach Nv porównywane z DLSS3, którego poprzednik nie ruszy, czyli cherry-picking. Żeby się nie okazało, że w takim CP2077, bez RT i Dlss to z pięknych x4 robi się x1.5 fps więcej" Nawet te 1,5x to konkret przyrost, jednak wiadomo co i jak z tymi kartami i co za ruchami z wyceną się kryje. Polecam. Cytuj Link to post Share on other sites
mirai99 334 Napisano 20 Września 2022 Udostępnij Napisano 20 Września 2022 11 minut temu, EH_Gosu napisał: @Rebelmind "Na koniec kwestia przyrostów w Adzie: tam wszystko jest na slajdach Nv porównywane z DLSS3, którego poprzednik nie ruszy, czyli cherry-picking. Żeby się nie okazało, że w takim CP2077, bez RT i Dlss to z pięknych x4 robi się x1.5 fps więcej" Nawet te 1,5x to konkret przyrost, jednak wiadomo co i jak z tymi kartami i co za ruchami z wyceną się kryje. Polecam. 1.5x to konkret przyrost, ale przy podanej cenie (która będzie o wiele niższa niż porządne modele AIB) zmienia kalkulację opłacalności. Cytuj Link to post Share on other sites
Artok 2010 Napisano 21 Września 2022 Autor Udostępnij Napisano 21 Września 2022 Obejrzałem wygląd kart większości producentów i podtrzymuję swoje zdanie co do Zotaków - są najśliczniejsze. Reszta modeli upodobniła się wyglądem do pustaków budowlanych. Poza tym nie mogę się doczekać jak RTX 4070 będzie śmigał w 4K z szyną 160-bit. Cytuj Link to post Share on other sites
Adames 468 Napisano 21 Września 2022 Udostępnij Napisano 21 Września 2022 Pamiętacie może reklamy TV z odświeżaniem 600 Hz, 1200 Hz, 2000 Hz? A może techniki "Ultra motion"(czy jakoś tak) itd? Tak mi się coś skojarzyło, że NVidia wynalazła koło na nowo Wstępnie to wygląda, że mając AI, obraz z poprzedniej klatki, wektory ruchu pikseli z poprzednich 2 klatek, użyją AI by wygenerować klatkę pośrednią, którą wstawią pomiędzy obecną a następną. Tutaj na istotny element jeszcze wpływa predykcja czasu obliczenia kolejnej klatki, bo jeżeli tutaj coś nie zagra, to zamiast większej płynności, będziemy mieli potworny micro-stuttering. Ciekawi mnie jeszcze jak będzie wyglądało to "generowanie klatek" w praktyce, bo tutaj przy mocno zmieniającym się obrazie może być tragedia. Popatrzcie jak źle wygląda Marvel Avengers, kiedy włączymy DLSS. To co dzieje się w bliskim polu widzenia - wokół postaci, to jakiś żart, mimo że to DLSS 2.1. Na screenach tego nie widać, ale jak się gra to mocno irytuje. Cytuj Link to post Share on other sites
Recommended Posts
Dołącz do dyskusji
Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.