wrobel_krk 2185 Napisano 2 Lipca 2023 Udostępnij Napisano 2 Lipca 2023 NV już obniżyła przed premiera na premierę sprzedają poniżej mrsp a I tak się nie sprzedają więc nie mają wyjścia Cytuj Link to post Share on other sites
ODIN85 1024 Napisano 2 Lipca 2023 Udostępnij Napisano 2 Lipca 2023 4 godziny temu, r1023 napisał: Jeżeli nv zdecyduje sie na obniżki, a raczej chyba im nie spieszno w tym temacie, bo nie muszą tego robić. Jakiś bundel z trzema grami by się przydał na zachęte. 1 Cytuj Link to post Share on other sites
Rebelmind 3738 Napisano 2 Lipca 2023 Udostępnij Napisano 2 Lipca 2023 Zważywszy na realia rynkowe to 4060 powinien mieć MSRP poniżej 1200 PLN brutto, żeby pierdziawki 1-fan zaczynały się za 1170 itp a najlepsze wersje KOŃCZYŁY ok 1400 PLN. Generalnie praktycznie cała generacja Lowelasów NADAL ma tragiczną wycenę, z tak bronionym 4090 włącznie Najtańsze 4080 od 5500 PLN (regularna cena, bez żadnych promocji) to raptem 10% poniżej MSRP (1200 USD po obecnym kursie +VAT) co 8 m-cy od debiutu wcale nie jest moim zdaniem wielką obniżką Szczególnie, że konkurencyjne 7900 XTX - jakkolwiek nadal moim zdaniem będąc debilnie wycenioną kartą - regularnie widuję poniżej 5000 PLN. A na domiar złego Jensen chce nas wziąć pod włos i samemu wrzucić HOLD z nextgenem dopiero w 2025. 2 Cytuj Link to post Share on other sites
Revenant 1170 Napisano 2 Lipca 2023 Udostępnij Napisano 2 Lipca 2023 53 minuty temu, Rebelmind napisał: Z moich obserwacji (a sporo ostatnio obserwowałem rynek przed zakupem) większość 4080 <6k pln to często paździerze bieda-edition, których należy unikać. Natomiast 7900 XTX można coraz częściej wyrwać za 4400-4600zł w rozsądnych wersjach (Pulse i Hellhound, ale z Hellhoundem ja bym uważał bo bardzo, ale to bardzo dużo osób narzeka na coil whine). 7900 XT referent 3500-3700. Szafir/XFX/PC do dorwania za 3800-3900. Biorąc pod uwagę jak AMD podratowało początkowo "meh" 7900 XT/XTX (początkowe problemy z wydajnością RT, poborem prądu, chorą ceną 6,5k pln na start) to dziwne, że ceny 4080 ciągle nie przebiły 5k. AMD wyciągnęło wnioski a ngreedia się upiera. Co do next-gen to ja bym rozważył istnienie refresha ("superów"), 4Q23-2Q24. Technicznie nie zaliczają się one do next-genów więc niewprowadziliby inwestorów w błąd. Cytuj Link to post Share on other sites
Rebelmind 3738 Napisano 2 Lipca 2023 Udostępnij Napisano 2 Lipca 2023 19 minut temu, Revenant napisał: AMD wyciągnęło wnioski a ngreedia się upiera. NGreedia się upiera, bo klient końcowy nie wyciągnął wniosków, ŻADNYCH I nie większość 4080 < 6000 PLN to paździerze a praktycznie wszystkie, pomijając może Palita Gej-Mrok. Proszę Cię bardzo, @Revenant 5120 x 1440, RT Ultra i 159W max board power draw. W W3 na max detalach i z RT mam ~40W więcej niż w CSGo. Z DLLS Q z tych 29 robią się 50+ FPS, przy czym tak średnio widzę spadek jakości. Natomiast po odpaleniu RT rzeki i strumyki (każda spływająca woda) wygląda tragicznie. Spróbuję wrzucić screen. Cytuj Link to post Share on other sites
Revenant 1170 Napisano 2 Lipca 2023 Udostępnij Napisano 2 Lipca 2023 (edytowane) Ale pokaż całego screena (print screenem) stojąc w Nowigradzie :p 160W (czyli 60% niż 100W), ale dodatkowo nie wiadomo w jakich warunkach. Edytowane 2 Lipca 2023 przez Revenant Cytuj Link to post Share on other sites
MiK 13233 Napisano 2 Lipca 2023 Udostępnij Napisano 2 Lipca 2023 Co z DLSS 3.0 gdy się nie ma gsynca? Tylko zwykły tv 60hz? Cytuj Link to post Share on other sites
korzychxp 253 Napisano 2 Lipca 2023 Udostępnij Napisano 2 Lipca 2023 (edytowane) W dniu 30.06.2023 o 15:53, Vemorion napisał: No, ale co Ty porównujesz skoro sugerowana cena startowa RTX3070 wynosiła ponad 2,3tys, gdzie cena RTX4060 na premierę zaczyna się od 1,4tys-1,5tys. To są karty z innego segmentu, więc chyba RTX4060 ma prawo tutaj wydajnościowo przegrywać. A przepraszam. Akurat RTX 2060 bije 1070 GTX. RTX 2060 potrafi wielu grać ubić 1080tkę, a nawet Ti. Więc gdyby 4060 biła 3070 to nie byłby to żaden szok. https://www.purepc.pl/test-wydajnosci-far-cry-6-pc-wymagania-sprzetowe-wzrosly-brak-rewolucji-w-grafice-ale-dodano-ray-tracing-i-directx-12?page=0,9 Po prostu wzrosty wydajności są coraz gorsze. Edytowane 2 Lipca 2023 przez korzychxp Cytuj Link to post Share on other sites
Rebelmind 3738 Napisano 2 Lipca 2023 Udostępnij Napisano 2 Lipca 2023 45 minut temu, Revenant napisał: Ale pokaż całego screena (print screenem) stojąc w Nowigradzie :p 160W (czyli 60% niż 100W), ale dodatkowo nie wiadomo w jakich warunkach. Krzywuchowe Moczary, w Novigradzie będzie przecież CPU Bottleneck'a. Cytuj Link to post Share on other sites
Revenant 1170 Napisano 2 Lipca 2023 Udostępnij Napisano 2 Lipca 2023 (edytowane) 27 minut temu, Rebelmind napisał: Krzywuchowe Moczary, w Novigradzie będzie przecież CPU Bottleneck'a. Przy 4K Uber+ i RT Uber+? CPU nigdy nie będzie tutaj bottleneckiem (GPU jest heavy bottleneckiem, 5800X3D nawet nie jest wzruszony, mamy 2023 rok). Chyba że ktoś gra na low res lub ma stary CPU. Idealny test dla GPU w high res. bo ekstremalnie taksuje GPU jednocześnie rasteryzacją z przytłaczającym RT (które też dociska CPU). Inny test dla modern GPU z RT nie jest dla mnie obiektywny. Należy obciążyć maksymalnie raster i RT. CPU w takim scenariuszu high-res nie jest problemem. Patrząc na power efficiency, spr. na przykładzie Cyberpunk (3840x2160, Ultra, RT Medium). Preset 2400MHz, 1120mV, 2600MHz Vram + FT. TBP: 262W Core: 120W, reszta GPU, głównie VRAM żre 142W. Gdyby karta miała 12GB, TBP wynosiłoby pewnie ok. 180W czyli blisko wyniku Twojego 4070 Ti nadal będąc wydajniejszą kartą. Efficiency u nvidii polega na tym, że dają karty buble z mała ilością pamięci. A 4070 Ti kosztuje tyle co 7900 tani XTX lub topowy XT. A potem mówi się głupoty że są bardziej oszczędne, jednocześnie narzekając na brak VRAM. A prądożerność GDDR6 to wiedza powszechna... Cytat Power consumption = 1 GB × 12.5 W/GB = 12.5 watts Chociaż większość pamięci to 10W nie 12.5 stosowanych w GPU. Ale nadal to są dane dla modułów 16Gbps 12GB = do 120W 24GB = do 240W I nagle mamy 120W różnicy na samych pamięciach. Edytowane 2 Lipca 2023 przez Revenant Cytuj Link to post Share on other sites
wrobel_krk 2185 Napisano 2 Lipca 2023 Udostępnij Napisano 2 Lipca 2023 Skąd masz takie dane 24gb GDDR6x w 3090 pobiera 60w: https://www.igorslab.de/en/350-watts-for-nvidias-new-top-of-the-line-geforce-rtx-3090-ampere-model-explained-chip-area-calculated-and-boards-compared/ 240w to by chyba roztopiło te 24gb pamięci Cytuj Link to post Share on other sites
Revenant 1170 Napisano 2 Lipca 2023 Udostępnij Napisano 2 Lipca 2023 (edytowane) 30 minut temu, wrobel_krk napisał: Skąd masz takie dane 24gb GDDR6x w 3090 pobiera 60w: https://www.igorslab.de/en/350-watts-for-nvidias-new-top-of-the-line-geforce-rtx-3090-ampere-model-explained-chip-area-calculated-and-boards-compared/ 240w to by chyba roztopiło te 24gb pamięci Sheet z maksymalnego prądu. Producenci raczej nigdy nie wykorzystują tego progu (tak jak mówisz, zżarło by). Ciężko zdefiniować realny pobór po implementacji (nie znamy napięć i natężenia z vbiosu). Potem mamy dodatkowe zmienne: timingi (kolejna nieznana zmienna), taktowanie oraz końcowa kluczowa: obciążenie/wykorzystanie modułu. To co podałeś dotyczy starych pamięci z serii 3000 (GA_0180_P075_120X140) a ich implementacja była rozsądna. Obecnie stosuje się np. "D8BZF". RTX 4070, 4090, D8BZC, MT61K512M32KPA-21 (21 Gbps) [z tego co wiem są też wsadzany do PS5 i były chyba w 3090 Ti] Jakie są podstawy wyliczenia tego poboru per moduł? Jaka jest metodologia, warunki? Przy maksymalnym obciążeniu VRAM (GDDR6 np. 20Gbps i GDDR6X np. 21-22Gbps) można liczyć na 5-8W na moduł lekką ręką. W skrajnym przypadku jak vbios pozwala i więcej (niewiadoma, ale taka sytuacja miała np. miejsce kiedyś w GPU na MXM np. od Clevo i Alienware dla tego kupowaliśmy określone GTX'y od konkretnego vendora). Mając dwie sytuacje: 1) Wiedźmin/Cyberpunk itp. pobór może oscylować na poziomie 3-5W. 2) Dowalmy mu np. Total War Warhammera 3, gdzie zaspamujemy kości danymi (przy pełnym loadzie i operacjami na pamięciach) i może się okazać że VRAM nagle zaczyna się gotować i pobierać dużo więcej prądu. To co producenci podają często w materiałach prasowych czy na targach nie zawsze jest takie cukierkowe. Case A: omawiany przeze mnie Cyberpunk 270W, 120W Core, 140W reszta Case B: TW:WH3 (te same ustawienia GPU): 339W, 126W, 213W reszta (brak RT, a to oznacza że jednostki RT nie są aktywne) Główna różnica? TW:WH3 zżera 10GB VRAM [x2] więcej (dobija do 20). A przez to że kości jest x2 względem np. 4070 Ti to skala wzrostu poboru prądu też jest większa. Edytowane 2 Lipca 2023 przez Revenant Cytuj Link to post Share on other sites
zbiku90 3659 Napisano 2 Lipca 2023 Udostępnij Napisano 2 Lipca 2023 42 minuty temu, wrobel_krk napisał: Skąd masz takie dane 24gb GDDR6x w 3090 pobiera 60w: https://www.igorslab.de/en/350-watts-for-nvidias-new-top-of-the-line-geforce-rtx-3090-ampere-model-explained-chip-area-calculated-and-boards-compared/ Coś mi się tu nie klei. Weźmy na tapet 3060ti. Wersja GDDR6X różni się od zwykłej tylko i wyłącznie pamięcią, a ma TDP wyższe o 25W. Przy 8GB wychodzi że GD6X ma ok. 3W/1GB wyższe zużycie prądu od GD6, a gdzie tam całkowite. 1 Cytuj Link to post Share on other sites
mirai99 334 Napisano 2 Lipca 2023 Udostępnij Napisano 2 Lipca 2023 3 godziny temu, zbiku90 napisał: Coś mi się tu nie klei. Weźmy na tapet 3060ti. Wersja GDDR6X różni się od zwykłej tylko i wyłącznie pamięcią, a ma TDP wyższe o 25W. Przy 8GB wychodzi że GD6X ma ok. 3W/1GB wyższe zużycie prądu od GD6, a gdzie tam całkowite. Ja myślę, że różnica TDP może nie iść bezpośrednio w pamięci, ale też w rdzeń/resztę, bo inaczej ma profile wykorzystując inny rodzaj pamięci. Cytuj Link to post Share on other sites
wrobel_krk 2185 Napisano 3 Lipca 2023 Udostępnij Napisano 3 Lipca 2023 Pewnie gdzies prawda leży pośrodku między 60w a 240w dla 24gb. Bo co innego jedna kość a ciasno upakowane obok siebie. Tak jak z CPU jeden rdzeń może i 15w ciągnąć sam ale wszystkie na raz to po 10w 11 godzin temu, Revenant napisał: Sheet z maksymalnego prądu. Masz linka albo coś całkiem ciekawe to dla mnie bo nic poza tym od Igora nie znalazłem. Ale poszukam bo to coś ciekawego Patrząc na analizę PCB w 7900xtx mamy 70A dla pamięci co daje 70*1.35v 95a mniej więcej ale nie wiem czy to dobrze liczę i czy to ma sens:) https://www.techpowerup.com/review/amd-radeon-rx-7900-xtx/4.html Kolejne info analiza Pcb i specki: 24gb vram GDDR6x na 3090 wg niego pobiera koło 55w co ciekawe 10gb w 3080 40w bo to zależy od przepustowości tez ale wyliczenia z pcb moje się potwierdzają Cytuj Link to post Share on other sites
zbiku90 3659 Napisano 3 Lipca 2023 Udostępnij Napisano 3 Lipca 2023 1 godzinę temu, wrobel_krk napisał: Patrząc na analizę PCB w 7900xtx mamy 70A dla pamięci co daje 70*1.35v 95a mniej więcej ale nie wiem czy to dobrze liczę i czy to ma sens:) Cytat Memory voltage is a three-phase design, managed by a Monolithic Power Systems MP2856 controller. For memory, Monolithic MP87997 DrMOS with a 70 A rating are used again. Dla jednej fazy, a pamięć zasilają 3. Oczywiście nie jest tak że wszystkie pracują kiedykolwiek jednocześnie na 100%. Wielofazowe sekcje zasilania są po to właśnie, żeby równomiernie rozłożyć obciążenie i temperaturę na więcej elementów. Kojarzysz pewnie temat przegrzewających się mosfetów w tanich płytach (przeważnie z 4-fazowymi sekcjami) z prądożernymi procesorami? Chodzi mi o to że twoje obliczenia są ok (pomijając różne straty po drodze, bo realnie 95W stamtąd na pewno nie wyjdzie), ale teoretycznie można tam w sumie puścić więcej prądu. 2 godziny temu, wrobel_krk napisał: 24gb vram GDDR6x na 3090 wg niego pobiera koło 55w co ciekawe 10gb w 3080 40w bo to zależy od przepustowości tez ale wyliczenia z pcb moje się potwierdzają Może i same kostki pamięci tyle pobierają, ale jest jeszcze kontroler do wykarmienia. A ten będzie bardziej obciążony przy większej liczbie kostek do ogarnięcia. Ciekawe też czy kości 2GB mają większy pobór od 1GB, a jeśli tak to ile. Zrobiłem u siebie mini teścik ale chyba niezbyt miarodajny. Odpaliłem OCCT VRAM test, w hwinfo zsumowałem pobór SoC, VDDCI i VDDIO (nie jestem pewny tego ostatniego czy słusznie) i wyszło ok. 50W. Jak się podzieli na 8 (bo tyle jest kości 2GB GDDR6 na karcie) to wychodzi ok. 6W/kostkę. Cytuj Link to post Share on other sites
wrobel_krk 2185 Napisano 3 Lipca 2023 Udostępnij Napisano 3 Lipca 2023 Dokładnie zmierzyć to będzie trudno ale jednak nie 240w dla 24gb tylko raczej poniżej 100w. Te 240w co pisał @Revenant wydawało mi się niemożliwe. 1 Cytuj Link to post Share on other sites
Revenant 1170 Napisano 4 Lipca 2023 Udostępnij Napisano 4 Lipca 2023 (edytowane) Może trochę przesadzone fakt, ale do tego dodajmy wszystkie dodatkowe elementy na PCB związane z kośćmi pamięci a potem pomnóżmy to jeszcze przez straty. Zrobiłem jeszcze raz test w TW:WH3 na daily ustawieniach (balanced), Battle benchmark (2160p, ultra, blood for the blood god wł. itp). Gra nie ma RT więc jednostki RT nie są aktywne i nie żrą prądu. A i tak ta gra pobiera najwięcej prądu ze wszystkich (np. Wieśka 3, Cyberpunka, HLL, Elden itp). Wartości peak (max): Core: 150W (zaokrąglone do góry ze 146W) TBP: 320W (zaokrąglone w dół z 322W) Wentylatory: przyjmijmy 3x2W = 6W 320W - 150W - 6W = 164W Napięcie dla modułów 20Gbps wynosi zapewne 1.45v (nie 1.35v). Wzrost poboru nie jest proporcjonalny do wzrostu napięcia (%). Dodajmy 20%, czyli mamy 72W. Do tego dochodzą moduły, które potrzebują wielu elementów wymagających zasilania. Np. MP87997, MP2856 + wszystkie fazy zasilania i inne elementy wspierające. Potem pomnożymy to przez jakieś-tam straty, pewnie 15% a nawet 20% (raczej nie są liniowe). Powiedzmy, że wyjdzie 120-130W, a reszta (30-40W) idzie na pozostałe układy GPU (core, bios itp). Czyli jednak teoria 200W się nie spina, my bad. Trochę za bardzo nie doceniłem poboru prądu innych elementów na PCB oraz strat na płytce. Ale jedna hipoteza jest prawdziwa: więcej VRAM = nie tylko skalowalny od modułów wzrost poboru mocy ale także dużo więcej elementów na PCB potrzebnych do ich implementacji (od faz zasilania/mosfety itp., bulky kontrolera, więcej ścieżek and so on). EDIT: jeszcze się zastanawiam na wpływem OC... skoro zwiększenie ze stock 2500MHz na 2614MHz już dodaje 10W, a 2764Mhz daje już kolejne 30-35W+ względem stock... przy zasadzie innych czynników nie zmienionych... Przecież sama ta różnica przy OC sugeruje wyższy pobór prądu niż 3W per 1GB. Edytowane 4 Lipca 2023 przez Revenant Cytuj Link to post Share on other sites
wrobel_krk 2185 Napisano 4 Lipca 2023 Udostępnij Napisano 4 Lipca 2023 27 minut temu, Revenant napisał: Napięcie dla modułów 20Gbps wynosi zapewne 1.45v (nie 1.35v). Wg dokumentacji dalej 1.35v ale dalej bardzo mało info o tym znajduję: Co do oc też nie znajduje info czy wpływa to na napięcia vdd/vddq jak tak to pewnie po OC jest to 1.45v Cytuj Link to post Share on other sites
Revenant 1170 Napisano 4 Lipca 2023 Udostępnij Napisano 4 Lipca 2023 (edytowane) Godzinę temu, wrobel_krk napisał: Wg dokumentacji dalej 1.35v ale dalej bardzo mało info o tym znajduję: Co do oc też nie znajduje info czy wpływa to na napięcia vdd/vddq jak tak to pewnie po OC jest to 1.45v Niektóre kości 16Gbps i 18GHz w niektórych wariantach miały 1.45v. Lub może referent ma 1.35v a vendorzy mogą zdecydować się na zwiększenie. A co jeżeli VBIOS zakłada jakiś przedział napięcia (krzywą) w zależności od taktowania? W teorii wyjaśniałoby to znaczny wzrost TBP przy samym OC VRAM. Edytowane 4 Lipca 2023 przez Revenant Cytuj Link to post Share on other sites
zbiku90 3659 Napisano 4 Lipca 2023 Udostępnij Napisano 4 Lipca 2023 5 godzin temu, Revenant napisał: Napięcie dla modułów 20Gbps wynosi zapewne 1.45v (nie 1.35v) Nie ma się co zastanawiać, można sprawdzić. Pobierz sobie morepowertool stąd: https://www.igorslab.de/en/download-area-new-version-of-morepowertool-mpt-and-final-release-of-redbioseditor-rbe/ W GPU-Z wyeksportuj vbios z karty, załaduj w MPT i jest wszystko jak na dłoni. Napięcie pamięci jest w zakładce power, obstawiam że będzie te 1,35V mimo wszystko. Bardziej pasjonująca jest zakładka Frequency, polecam tam zajrzeć Nie ruszać niczego chyba że na własną odpowiedzialność, SPPT chyba już nie działa od RDNA2 ale lepiej dmuchać na zimne. 1 Cytuj Link to post Share on other sites
wrobel_krk 2185 Napisano 13 Lipca 2023 Udostępnij Napisano 13 Lipca 2023 Jednak cos z tymi wtyczkami jest na rzeczy bo zieloni po cichu wymieniają na nowe: https://www.techspot.com/news/99376-nvidia-quietly-upgrading-rtx-4090-fe-cards-safer.html Cytuj Link to post Share on other sites
zbiku90 3659 Napisano 13 Lipca 2023 Udostępnij Napisano 13 Lipca 2023 Dobrze że Intelowi nie udało się (jeszcze) przepchnąć tego 10-pinowego zasilania płyt głównych, które swego czasu forsowali. https://www.extremetech.com/computing/325974-motherboard-vendors-unhappy-with-alder-lakes-12vxo-power-standard-report Jak ktoś ma te ok. 30 lat na karku albo więcej to pamięta jak się kończą własnościowe standardy zasilania, mówię tu o ładowarkach do starych telefonów. Akurat w przypadku PC segmentacja rynku jest mniejsza, ale to i tak szkodliwe dla użytkowników. Cytuj Link to post Share on other sites
wrobel_krk 2185 Napisano 14 Lipca 2023 Udostępnij Napisano 14 Lipca 2023 Taka sobie analizę zrobiłem historyczną bo liptona na yt oglądałem: Coraz gorzej z roku na rok:) Jednak rtx2060 6gb to była super premiera patrząc dziś Ludzie patrzyli skok 3090 -> 4090 170% w 4k , 150% w 1080p to wydawać się mogło że rewolucja a to tylko od 4080 w górę:) Tak to było za techpowerup w 1080p: 960 -> 1060 - 188% 1060 -> 2060 - 156% 2060 -> 3060 - 120% 3060 -> 4060 - 117% https://www.techpowerup.com/review/palit-geforce-rtx-4060-dual/32.htmlhttps://www.techpowerup.com/review/palit-geforce-rtx-3060-dual-oc/30.htmlhttps://www.techpowerup.com/review/nvidia-geforce-rtx-2060-founders-edition/33.htmlhttps://www.techpowerup.com/review/nvidia-geforce-gtx-1060/26.html 1 Cytuj Link to post Share on other sites
janek20 1288 Napisano 14 Lipca 2023 Udostępnij Napisano 14 Lipca 2023 1 godzinę temu, wrobel_krk napisał: 3060 -> 4060 - 117% +FR 1 Cytuj Link to post Share on other sites
Recommended Posts
Dołącz do dyskusji
Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.