Skocz do zawartości

Ada Lovelace - wątek o kartach RTX 4000


Recommended Posts

Zważywszy na realia rynkowe to 4060 powinien mieć MSRP poniżej 1200 PLN brutto, żeby pierdziawki 1-fan zaczynały się za 1170 itp a najlepsze wersje KOŃCZYŁY ok 1400 PLN. Generalnie praktycznie cała generacja Lowelasów NADAL ma tragiczną wycenę, z tak bronionym 4090 włącznie :/

 

Najtańsze 4080 od 5500 PLN (regularna cena, bez żadnych promocji) to raptem 10% poniżej MSRP (1200 USD po obecnym kursie +VAT) co 8 m-cy od debiutu wcale nie jest moim zdaniem wielką obniżką :/ Szczególnie, że konkurencyjne 7900 XTX - jakkolwiek nadal moim zdaniem będąc debilnie wycenioną kartą - regularnie widuję poniżej 5000 PLN. 

 

A na domiar złego Jensen chce nas wziąć pod włos i samemu wrzucić HOLD z nextgenem dopiero w 2025. 

  • Popieram 2
Link to post
Share on other sites
53 minuty temu, Rebelmind napisał:

 


Z moich obserwacji (a sporo ostatnio obserwowałem rynek przed zakupem) większość 4080 <6k pln to często paździerze bieda-edition, których należy unikać. :/ 
Natomiast 7900 XTX można coraz częściej wyrwać za 4400-4600zł w rozsądnych wersjach (Pulse i Hellhound, ale z Hellhoundem ja bym uważał bo bardzo, ale to bardzo dużo osób narzeka na coil whine). 

7900 XT referent 3500-3700. Szafir/XFX/PC do dorwania za 3800-3900. 

 

Biorąc pod uwagę jak AMD podratowało początkowo "meh" 7900 XT/XTX (początkowe problemy z wydajnością RT, poborem prądu, chorą ceną 6,5k pln na start) to dziwne, że ceny 4080 ciągle nie przebiły 5k. AMD wyciągnęło wnioski a ngreedia się upiera. 

 

Co do next-gen to ja bym rozważył istnienie refresha ("superów"), 4Q23-2Q24. Technicznie nie zaliczają się one do next-genów więc niewprowadziliby inwestorów w błąd. 

Link to post
Share on other sites
19 minut temu, Revenant napisał:

AMD wyciągnęło wnioski a ngreedia się upiera.

NGreedia się upiera, bo klient końcowy nie wyciągnął wniosków, ŻADNYCH :/ 

 

I nie większość 4080 < 6000 PLN to paździerze a praktycznie wszystkie, pomijając może Palita Gej-Mrok.

Proszę Cię bardzo, @Revenant

image.thumb.png.f7002064747e97809665f1f08bf03c61.png

5120 x 1440, RT Ultra i 159W max board power draw. 

 

revan.jpg

 

W W3 na max detalach i z RT mam ~40W więcej niż w CSGo.

Z DLLS Q z tych 29 robią się 50+ FPS, przy czym tak średnio widzę spadek jakości. Natomiast po odpaleniu RT rzeki i strumyki (każda spływająca woda) wygląda tragicznie. Spróbuję wrzucić screen.

Link to post
Share on other sites
W dniu 30.06.2023 o 15:53, Vemorion napisał:

No, ale co Ty porównujesz skoro sugerowana cena startowa RTX3070 wynosiła ponad 2,3tys, gdzie cena RTX4060 na premierę zaczyna się od 1,4tys-1,5tys. To są karty z innego segmentu, więc chyba RTX4060 ma prawo tutaj wydajnościowo przegrywać.

A przepraszam. Akurat RTX 2060 bije 1070 GTX. RTX 2060 potrafi wielu grać ubić 1080tkę, a nawet Ti.

Więc gdyby 4060 biła 3070 to nie byłby to żaden szok.

 

https://www.purepc.pl/test-wydajnosci-far-cry-6-pc-wymagania-sprzetowe-wzrosly-brak-rewolucji-w-grafice-ale-dodano-ray-tracing-i-directx-12?page=0,9

Po prostu wzrosty wydajności są coraz gorsze.

Edytowane przez korzychxp
Link to post
Share on other sites
45 minut temu, Revenant napisał:

Ale pokaż całego screena (print screenem) stojąc w Nowigradzie :p 
160W (czyli 60% niż 100W), ale dodatkowo nie wiadomo w jakich warunkach.

Krzywuchowe Moczary, w Novigradzie będzie przecież CPU Bottleneck'a. 

Link to post
Share on other sites
27 minut temu, Rebelmind napisał:

Krzywuchowe Moczary, w Novigradzie będzie przecież CPU Bottleneck'a. 

 

Przy 4K Uber+ i RT Uber+? CPU nigdy nie będzie tutaj bottleneckiem (GPU jest heavy bottleneckiem, 5800X3D nawet nie jest wzruszony, mamy 2023 rok). Chyba że ktoś gra na low res lub ma stary CPU. 

Idealny test dla GPU w high res. bo ekstremalnie taksuje GPU jednocześnie rasteryzacją z przytłaczającym RT (które też dociska CPU).
Inny test dla modern GPU z RT nie jest dla mnie obiektywny. Należy obciążyć maksymalnie raster i RT. CPU w takim scenariuszu high-res nie jest problemem. 

 

Patrząc na power efficiency, spr. na przykładzie Cyberpunk (3840x2160, Ultra, RT Medium).
Preset 2400MHz, 1120mV, 2600MHz Vram + FT. 

TBP: 262W
Core: 120W, reszta GPU, głównie VRAM żre 142W. Gdyby karta miała 12GB, TBP wynosiłoby pewnie ok. 180W czyli blisko wyniku Twojego 4070 Ti nadal będąc wydajniejszą kartą.
Efficiency u nvidii polega na tym, że dają karty buble z mała ilością pamięci. A 4070 Ti kosztuje tyle co 7900 tani XTX lub topowy XT.  A potem mówi się głupoty że są bardziej oszczędne, jednocześnie narzekając na brak VRAM. A prądożerność GDDR6 to wiedza powszechna... 

 

Cytat

Power consumption = 1 GB × 12.5 W/GB = 12.5 watts

 

Chociaż większość pamięci to 10W nie 12.5 stosowanych w GPU. Ale nadal to są dane dla modułów 16Gbps

12GB = do 120W
24GB = do 240W

I nagle mamy 120W różnicy na samych pamięciach. 

Edytowane przez Revenant
Link to post
Share on other sites
30 minut temu, wrobel_krk napisał:

Skąd masz takie dane 24gb GDDR6x w 3090 pobiera 60w:

https://www.igorslab.de/en/350-watts-for-nvidias-new-top-of-the-line-geforce-rtx-3090-ampere-model-explained-chip-area-calculated-and-boards-compared/

 

240w to by chyba roztopiło te 24gb pamięci

 

Sheet z maksymalnego prądu. Producenci raczej nigdy nie wykorzystują tego progu (tak jak mówisz, zżarło by). Ciężko zdefiniować realny pobór po implementacji (nie znamy napięć i natężenia z vbiosu). Potem mamy dodatkowe zmienne: timingi (kolejna nieznana zmienna), taktowanie oraz końcowa kluczowa: obciążenie/wykorzystanie modułu. 

To co podałeś dotyczy starych pamięci z serii 3000 (GA_0180_P075_120X140) a ich implementacja była rozsądna. Obecnie stosuje się np. "D8BZF". 
RTX 4070, 4090, D8BZC, MT61K512M32KPA-21 (21 Gbps) [z tego co wiem są też wsadzany do PS5 i były chyba w 3090 Ti] 
Jakie są podstawy wyliczenia tego poboru per moduł? Jaka jest metodologia, warunki? 
 

 

Przy maksymalnym obciążeniu VRAM (GDDR6 np. 20Gbps i GDDR6X np. 21-22Gbps) można liczyć na 5-8W na moduł lekką ręką. W skrajnym przypadku jak vbios pozwala i więcej (niewiadoma, ale taka sytuacja miała np. miejsce kiedyś w GPU na MXM np. od Clevo i Alienware dla tego kupowaliśmy określone GTX'y od konkretnego vendora). 


Mając dwie sytuacje:
1) Wiedźmin/Cyberpunk itp. pobór może oscylować na poziomie 3-5W. 

2) Dowalmy mu np. Total War Warhammera 3, gdzie zaspamujemy kości danymi (przy pełnym loadzie i operacjami na pamięciach) i może się okazać że VRAM nagle zaczyna się gotować i pobierać dużo więcej prądu. 

To co producenci podają często w materiałach prasowych czy na targach nie zawsze jest takie cukierkowe. 

 

Case A: omawiany przeze mnie Cyberpunk
270W, 120W Core, 140W reszta

Case B: TW:WH3 (te same ustawienia GPU):
339W, 126W, 213W reszta (brak RT, a to oznacza że jednostki RT nie są aktywne)


Główna różnica? TW:WH3 zżera 10GB VRAM [x2] więcej (dobija do 20). A przez to że kości jest x2 względem np. 4070 Ti to skala wzrostu poboru prądu też jest większa. 

Edytowane przez Revenant
Link to post
Share on other sites
42 minuty temu, wrobel_krk napisał:

Coś mi się tu nie klei. Weźmy na tapet 3060ti. Wersja GDDR6X różni się od zwykłej tylko i wyłącznie pamięcią, a ma TDP wyższe o 25W. Przy 8GB wychodzi że GD6X ma ok. 3W/1GB wyższe zużycie prądu od GD6, a gdzie tam całkowite.

 

  • Lubię to 1
Link to post
Share on other sites
3 godziny temu, zbiku90 napisał:

Coś mi się tu nie klei. Weźmy na tapet 3060ti. Wersja GDDR6X różni się od zwykłej tylko i wyłącznie pamięcią, a ma TDP wyższe o 25W. Przy 8GB wychodzi że GD6X ma ok. 3W/1GB wyższe zużycie prądu od GD6, a gdzie tam całkowite.

 


Ja myślę, że różnica TDP może nie iść bezpośrednio w pamięci, ale też w rdzeń/resztę, bo inaczej ma profile wykorzystując inny rodzaj pamięci.

Link to post
Share on other sites

Pewnie gdzies prawda leży pośrodku między 60w a 240w dla 24gb. Bo co innego jedna kość a ciasno upakowane obok siebie. Tak jak z CPU jeden rdzeń może i 15w ciągnąć sam ale wszystkie na raz to po 10w

11 godzin temu, Revenant napisał:

Sheet z maksymalnego prądu.

Masz linka albo coś całkiem ciekawe to dla mnie bo nic poza tym od Igora nie znalazłem. Ale poszukam bo to coś ciekawego

Patrząc na analizę PCB w 7900xtx mamy 70A dla pamięci co daje 70*1.35v 95a mniej więcej ale nie  wiem czy to dobrze liczę i czy to ma sens:)

https://www.techpowerup.com/review/amd-radeon-rx-7900-xtx/4.html

Kolejne info analiza Pcb i specki:

 

24gb vram GDDR6x na 3090 wg niego pobiera koło 55w co ciekawe 10gb w 3080 40w bo to zależy od przepustowości tez ale wyliczenia z pcb moje się potwierdzają

 

Link to post
Share on other sites
1 godzinę temu, wrobel_krk napisał:

Patrząc na analizę PCB w 7900xtx mamy 70A dla pamięci co daje 70*1.35v 95a mniej więcej ale nie  wiem czy to dobrze liczę i czy to ma sens:)

Cytat

Memory voltage is a three-phase design, managed by a Monolithic Power Systems MP2856 controller.

For memory, Monolithic MP87997 DrMOS with a 70 A rating are used again.

Dla jednej fazy, a pamięć zasilają 3. Oczywiście nie jest tak że wszystkie pracują kiedykolwiek jednocześnie na 100%. Wielofazowe sekcje zasilania są po to właśnie, żeby równomiernie rozłożyć obciążenie i temperaturę na więcej elementów. Kojarzysz pewnie temat przegrzewających się mosfetów w tanich płytach (przeważnie z 4-fazowymi sekcjami) z prądożernymi procesorami? Chodzi mi o to że twoje obliczenia są ok (pomijając różne straty po drodze, bo realnie 95W stamtąd na pewno nie wyjdzie), ale teoretycznie można tam w sumie puścić więcej prądu.

2 godziny temu, wrobel_krk napisał:

24gb vram GDDR6x na 3090 wg niego pobiera koło 55w co ciekawe 10gb w 3080 40w bo to zależy od przepustowości tez ale wyliczenia z pcb moje się potwierdzają

Może i same kostki pamięci tyle pobierają, ale jest jeszcze kontroler do wykarmienia. A ten będzie bardziej obciążony przy większej liczbie kostek do ogarnięcia. Ciekawe też czy kości 2GB mają większy pobór od 1GB, a jeśli tak to ile.

Zrobiłem u siebie mini teścik ale chyba niezbyt miarodajny. Odpaliłem OCCT VRAM test, w hwinfo zsumowałem pobór SoC, VDDCI i VDDIO (nie jestem pewny tego ostatniego czy słusznie) i wyszło ok. 50W. Jak się podzieli na 8 (bo tyle jest kości 2GB GDDR6 na karcie) to wychodzi ok. 6W/kostkę.
 

 

Link to post
Share on other sites

Może trochę przesadzone fakt, ale do tego dodajmy wszystkie dodatkowe elementy na PCB związane z kośćmi pamięci a potem pomnóżmy to jeszcze przez straty.

 

Zrobiłem jeszcze raz test w TW:WH3 na daily ustawieniach (balanced), Battle benchmark (2160p, ultra, blood for the blood god wł. itp). Gra nie ma RT więc jednostki RT nie są aktywne i nie żrą prądu. A i tak ta gra pobiera najwięcej prądu ze wszystkich (np. Wieśka 3, Cyberpunka, HLL, Elden itp).

 

Wartości peak (max):

Core: 150W (zaokrąglone do góry ze 146W)
TBP: 320W (zaokrąglone w dół z 322W)

Wentylatory: przyjmijmy 3x2W = 6W

 

320W - 150W - 6W = 164W


Napięcie dla modułów 20Gbps wynosi zapewne 1.45v (nie 1.35v). Wzrost poboru nie jest proporcjonalny do wzrostu napięcia (%). Dodajmy 20%, czyli mamy 72W.

Do tego dochodzą moduły, które potrzebują wielu elementów wymagających zasilania. Np. MP87997, MP2856 + wszystkie fazy zasilania i inne elementy wspierające. Potem pomnożymy to przez jakieś-tam straty, pewnie 15% a nawet 20% (raczej nie są liniowe). Powiedzmy, że wyjdzie 120-130W, a reszta (30-40W) idzie na pozostałe układy GPU (core, bios itp). 

Czyli jednak teoria 200W się nie spina, my bad. :x Trochę za bardzo nie doceniłem poboru prądu innych elementów na PCB oraz strat na płytce.

Ale jedna hipoteza jest prawdziwa: więcej VRAM = nie tylko skalowalny od modułów wzrost poboru mocy ale także dużo więcej elementów na PCB potrzebnych do ich implementacji (od faz zasilania/mosfety itp., bulky kontrolera, więcej ścieżek and so on). 

EDIT: jeszcze się zastanawiam na wpływem OC... skoro zwiększenie ze stock 2500MHz na 2614MHz już dodaje 10W, a 2764Mhz daje już kolejne 30-35W+ względem stock... przy zasadzie innych czynników nie zmienionych... Przecież sama ta różnica przy OC sugeruje wyższy pobór prądu niż 3W per 1GB.

Edytowane przez Revenant
Link to post
Share on other sites
27 minut temu, Revenant napisał:

Napięcie dla modułów 20Gbps wynosi zapewne 1.45v (nie 1.35v).

Wg dokumentacji dalej 1.35v ale dalej bardzo mało info o tym znajduję:

27102230333s.jpg

Co do oc też nie znajduje info czy wpływa to na napięcia vdd/vddq jak tak to pewnie po OC jest to 1.45v

Link to post
Share on other sites
Godzinę temu, wrobel_krk napisał:

Wg dokumentacji dalej 1.35v ale dalej bardzo mało info o tym znajduję:

27102230333s.jpg

Co do oc też nie znajduje info czy wpływa to na napięcia vdd/vddq jak tak to pewnie po OC jest to 1.45v


Niektóre kości 16Gbps i 18GHz w niektórych wariantach miały 1.45v. Lub może referent ma 1.35v a vendorzy mogą zdecydować się na zwiększenie. 

A co jeżeli VBIOS zakłada jakiś przedział napięcia (krzywą) w zależności od taktowania? W teorii wyjaśniałoby to znaczny wzrost TBP przy samym OC VRAM. 

Edytowane przez Revenant
Link to post
Share on other sites
5 godzin temu, Revenant napisał:

Napięcie dla modułów 20Gbps wynosi zapewne 1.45v (nie 1.35v)

Nie ma się co zastanawiać, można sprawdzić. Pobierz sobie morepowertool stąd:

https://www.igorslab.de/en/download-area-new-version-of-morepowertool-mpt-and-final-release-of-redbioseditor-rbe/

W GPU-Z wyeksportuj vbios z karty, załaduj w MPT i jest wszystko jak na dłoni. Napięcie pamięci jest w zakładce power, obstawiam że będzie te 1,35V mimo wszystko. Bardziej pasjonująca jest zakładka Frequency, polecam tam zajrzeć ;) Nie ruszać niczego chyba że na własną odpowiedzialność, SPPT chyba już nie działa od RDNA2 ale lepiej dmuchać na zimne.

  • Lubię to 1
Link to post
Share on other sites
  • 2 tygodnie później...

Dobrze że Intelowi nie udało się (jeszcze) przepchnąć tego 10-pinowego zasilania płyt głównych, które swego czasu forsowali.

https://www.extremetech.com/computing/325974-motherboard-vendors-unhappy-with-alder-lakes-12vxo-power-standard-report

Jak ktoś ma te ok. 30 lat na karku albo więcej to pamięta jak się kończą własnościowe standardy zasilania, mówię tu o ładowarkach do starych telefonów. Akurat w przypadku PC segmentacja rynku jest mniejsza, ale to i tak szkodliwe dla użytkowników.

Ładowarki do starych komórek - elektroda.pl

Link to post
Share on other sites

Taka sobie analizę zrobiłem historyczną bo liptona na yt oglądałem:

Coraz gorzej z roku na rok:) Jednak rtx2060 6gb to była super premiera patrząc dziś
Ludzie patrzyli skok 3090 -> 4090 170% w 4k , 150% w 1080p to wydawać się mogło że rewolucja a to tylko od 4080 w górę:)

Tak to było za techpowerup w 1080p:


960 -> 1060  - 188%

1060 -> 2060 - 156%

2060 -> 3060 - 120%

3060 -> 4060 - 117%


https://www.techpowerup.com/review/palit-geforce-rtx-4060-dual/32.html
https://www.techpowerup.com/review/palit-geforce-rtx-3060-dual-oc/30.html
https://www.techpowerup.com/review/nvidia-geforce-rtx-2060-founders-edition/33.html
https://www.techpowerup.com/review/nvidia-geforce-gtx-1060/26.html

  • Lubię to 1
Link to post
Share on other sites

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Odpowiedz w tym wątku...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

  • Ostatnio przeglądający   1 użytkownik

×
×
  • Dodaj nową pozycję...