Skocz do zawartości

Ada Lovelace - wątek o kartach RTX 4000


Recommended Posts

15 minut temu, EH_Gosu napisał:

307645684_572500137943826_83236357322683

 

Dobrze napisane, sam o tym pisałem od jakiegoś czasu jak to wygląda. No i niestety NV leci z tematem.


Tylko poprzednio GA102 to było 3080-TI-3090-TI.
GA103 weszło późno na specjalne modele 3060Ti i 3080ti mobilnych MAXQ
GA104 to było 3070
GA106 to było 3060 i 3050

Oczywiście czasem mieli nadpodaż wyższych modeli i robili trochę 3060 na GA104 itp


 

Link to post
Share on other sites
17 minut temu, Artok napisał:

Ja nawet przyjąłem do wiadomości Twoją wycenę (12GB za 699 i 16GB za 899), tymczasem Nvidia z osiemdziesiątką solidnie dołożyła do pieca. 

 

Sam się takiej ceny nie spodziewałem również za 4080 16 GB. Ceny spadną pewnie jak się sklepy i vendorzy pozbędą zapasów RTX 30xx

 

Link to post
Share on other sites
11 minut temu, mirai99 napisał:


Tylko poprzednio GA102 to było 3080-TI-3090-TI.
GA103 weszło późno na specjalne modele 3060Ti i 3080ti mobilnych MAXQ
GA104 to było 3070
GA106 to było 3060 i 3050

Oczywiście czasem mieli nadpodaż wyższych modeli i robili trochę 3060 na GA104 itp


 

 

Generalnie to pierwszy raz miała miejsce sytuacja kiedy seria x80 była na wariancie rdzenia 102. Turingi, Pascale, Maxwelle, Keplery tylko w kartach 80 Ti oraz TITAN miały wariant rdzenia 102/200/110. TU102 (Turing), GP102 (Pascal) oraz inne nazewnictwo w Maxwell i Kepler. GM200 dla Maxwelli GTX 980 Ti oraz GTX TITAN X, oraz GK110 dla GTX 780 Ti, GTX TITAN oraz GTX TITAN Black. Turingi i Pascale miały dla serii x80 TU104 oraz GP104, a Maxwell i Kepler dla serii x80 GK104 oraz GM204. Wyjątkiem w Keplerze był GTX 780 również na wariancie GK110, ale przykładowo GTX 680 to był GK104, GTX 770 czyli refresh GTX 680 również GK104. Można się pogubić ;-)

Link to post
Share on other sites
2 minuty temu, MiK napisał:

Czyli cały ten domniemany wzrost wydajności to tak naprawdę interpolacja klatek przez dlss 3? Słabo. 

 

Motywy z perf x4 na pewno lansują mocno DLSS 3 które wychodzi na to, że będzie ekluzywne wyłącznie dla Ady. Slajdy przez to lepiej wyglądają :)

Bez DLSS wydajność blisko 2x wyższa możliwa na RTX 4090 vs RTX 3090 (def, bo nie widzę tego vs 3090 Ti) no i też nie za bardzo RTX 4080 16 GB dowali 2x względem RTX 3080 Ti. Magia marketingu, nie wolno się na to łapać.

 

2 minuty temu, kampers napisał:

Co zamawiać do wody ? I kiedy te karty bedzie można kupić bo nie mogłem obejrzeć konferencji:( strix i na blok czekac ?

 

Póki co zero info o blokach.

9 minut temu, WPRD700 napisał:

Gdzie Wy tego Strixa widzicie? O co chodzi? xd

 Obadaj to ujęcie. Wiadomo, perspektywa no ale śmiesznie wyszło.

 

307937882_341097214842911_61706747226027

Link to post
Share on other sites

DLSS 3 to według mnie jawne stwierdzenie "nasi klienci to debile". Jak zwykle robią exclusiva żeby w sztuczny sposób napędzić sprzedaż. Nie mają za wiele do zaoferowania jakościowo to będą wymuszać (nieobsługiwane przez większość tytułów) gimmicki.

  • Popieram 1
Link to post
Share on other sites
Teraz, Revenant napisał:

DLSS 3 to według mnie jawne stwierdzenie "nasi klienci to debile". Jak zwykle robią exclusiva żeby w sztuczny sposób napędzić sprzedaż. Nie mają za wiele do zaoferowania jakościowo to będą wymuszać (nieobsługiwane przez większość tytułów) gimmicki.

 

No tak to trochę wygląda. Z innej strony jeśli te tytuły które obsługują DLSS z automatu pozwolą na DLSS 3.0 i to rozwiązanie będzie faktycznie ciekawie działać zarówno z perspektywy wydajności jak i jakości obrazu, to może być fajny smaczek. No ale to nadal smaczek, a nie jedna z rdzennych wartości GPU.

Link to post
Share on other sites
1 minutę temu, EH_Gosu napisał:

 

No tak to trochę wygląda. Z innej strony jeśli te tytuły które obsługują DLSS z automatu pozwolą na DLSS 3.0 i to rozwiązanie będzie faktycznie ciekawie działać zarówno z perspektywy wydajności jak i jakości obrazu, to może być fajny smaczek. No ale to nadal smaczek, a nie jedna z rdzennych wartości GPU.

 

Obawiam się właśnie że tylko DLSS1 i DLSS2 będą "prawie" kompatybilne. DLSS3 nie będzie działał w grach z DLSS1 i DLSS2 ani vice wersa. Chodzi o implementację. Niewiele studiów może się połasić na równoległą implementację DLSS2 oraz DLSS3. Albo wybiorą DLSS2 dla dużej kompatybilności albo DLSS3 dla flexowania się. 
O ile do tej pory bez wątpienia stwierdzałem że DLSS > FSR to teraz mam poważne wątpliwości (DLSS 3 może to storpedować jak długie lance w stary pancernik). 

  • Popieram 1
Link to post
Share on other sites
Godzinę temu, EH_Gosu napisał:

 

3080 chyba było po 3300 czy 3600 zl ? :D niezle 2x drożej, chyba że ktoś chce przebierańca 408(7)0 12 GB

18 minut temu, Revenant napisał:

DLSS 3 to według mnie jawne stwierdzenie "nasi klienci to debile". Jak zwykle robią exclusiva żeby w sztuczny sposób napędzić sprzedaż. Nie mają za wiele do zaoferowania jakościowo to będą wymuszać (nieobsługiwane przez większość tytułów) gimmicki.

 

Ty zawsze jojczysz na nowosci, RT bieda , DLSS bieda , teraz rozwijają i to za*******e to od razu dla debili.

Link to post
Share on other sites
1 minutę temu, MiK napisał:

 

DLSS to bardzo fajne rozwiązanie. Ale budowanie na nim całej marketingowej wydajności już nie. 

 

Wydaje mi sie że te wszystkie dodatkowe rdzenie raczej też coś potrafią, odpalę renderek będę wszystko wiedział :)

Link to post
Share on other sites
16 minut temu, r1023 napisał:

 

3080 chyba było po 3300 czy 3600 zl ? :D niezle 2x drożej, chyba że ktoś chce przebierańca 408(7)0 12 GB


3070 499$/2359zł
3080 699$/3279zł
3090 1499$/7029zł

4080/12    899$/5299zł
4080/16  1199$/7049zł
4090       1599$/9399zł


Możemy łatwo zobaczyć, że 2020-1499$ = 2022-1199$, straciliśmy 20% wartości waluty.

Edytowane przez mirai99
Link to post
Share on other sites

4+ razy większa wydajność w CP 77, 2x w Flight Sim i ten podpis, przy DLSS Performance -> te karty lepiej sobie radzą z sieciami neuronowymi. Jest więcej wszystkiego więc jest szybciej, to naturalne. Ten "skok" wydajnościowy podejrzewam, że pochodzi z optymalizacji sterownika do Tensor Cores, bo problem był by je w pełni wykorzystać. Wystarczyło tak naprawdę zmienić trochę sposób "feedowania" tensorów i sukces, wincyj mocy z tego samego HW.

 

To co mi się w konferencji podobało, to co było dalej. Software. Narzędzia do modowania gier. Środowisko do symulacji działania sofu. To są naprawdę niesamowite rzeczy, które są mega potrzebne i ich rozwój cieszy. To dlatego całego środowiska nvidii, często warto kupić RTX 3050 za cenę RX 6600XT.

Link to post
Share on other sites
Godzinę temu, MiK napisał:

Czyli cały ten domniemany wzrost wydajności to tak naprawdę interpolacja klatek przez dlss 3? Słabo. 

Bardzo słabo. A fakt, że temu DLSS3 Nv ubiła wsteczną kompatybilność to już turbo słabo. Żeby zieloni blokowali dostęp do EWOLUJĄCEJ technologii dla swoich własnych, calkiem świeżych jeszcze kart to tego jeszcze nie grali... 

 

Co Jezus z GN zaorał... :peace:

 

#FcukJensen 

#GlosujePortfelem

  • Popieram 1
Link to post
Share on other sites

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Odpowiedz w tym wątku...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...