Skocz do zawartości

Ada Lovelace - wątek o kartach RTX 4000


Recommended Posts

Właśnie skończyłem oglądać - Ci to zawsze są pierwsi z tymi odkryciami :D Szkoda że do Spier-mana z DLSS 3.0 nie mam dostępu, bo chętnie bym sprawdził... No ale opisali/pokazali tam dokładnie to, co obserwuje w kwestii DLSS 3.0 i synchronizacji . I to, jak to wytłumaczył, ma sens - karta bardzo zwiększa input lag, gdy dobijamy do limitu odświeżania z sumą natywnych i generowanych przez AI klatek (u mnie 144 Hz w 4K). Najprostszym rozwiązaniem dla NV (na poziomie sterownika) byłoby ustawić limit FPS dla VS z DLSS 3.0 na 1/2 odświeżania, no ale wtedy mamy "responsywność" gry na niższym niż potencjalnie możliwy poziomie (czyli nie większym niż natywne 60 FPS).  Drugim prostym rozwiązaniem będzie produkowanie monitorów 4K @ 240 Hz ;) Ale tu problematyczne staje się DisplayPort 1.4a oraz HDMI 2.1... 

 

Cóż - czekamy na RTX 5090 :D

Link to post
Share on other sites
16 minut temu, Lord_Krecitsqa napisał:

A może być tak że jak wyjdą nowe Radeony to Nv z ceny zejdzie, bo teraz konkurencji nie mają to zdzierają skórę z kolan.

Czytałem właśnie że mają wyjść w tym roku.

Więc sie nie przypaam na 3080 :D

 

 

No może być różnie :)

 

https://wccftech.com/amd-radeon-rx-7000-rdna-3-launch-december-difficult-to-compete-with-nvidia-rtx-40-gpus-rumor/

Link to post
Share on other sites

Jakiś dziwny trend na mniejsze podświetlenie rgb  w rtx 4090. Przykładowo MSI  3080 Suprim wygląda bardziej epicko niż 4090 Suprim. Nie wiem,  być może producenci nie mieli zbyt wiele czasu na zaprojektowanie porządnego podświetlenia rgb w swoich wersjach rtx 4090. Albo specjalna oszczędność  na prądzie :D 

Link to post
Share on other sites
6 minut temu, mirai99 napisał:



TechJesus na ratunek z analizą jak działa adapter 4x8-pin -> 12+4-pin.

TL;DR : Przejściówka z FE mówi karcie ile ma kabli podpiętych, 3 kable to 100% power targetu, 4 kable to 133% power targetu osiągalne w OC sofcie.

Pisałem o tym w mojej recenzji :) Ale zabawne jest że przedstawiciel firmy która dosłownie robi zasilacze oficjalnie podważało te opinię Steve'a... 

6 minut temu, droid napisał:

Jakiś dziwny trend na mniejsze podświetlenie rgb  w rtx 4090. Przykładowo MSI  3080 Suprim wygląda bardziej epicko niż 4090 Suprim. Nie wiem,  być może producenci nie mieli zbyt wiele czasu na zaprojektowanie porządnego podświetlenia rgb w swoich wersjach rtx 4090. Albo specjalna oszczędność  na prądzie :D 

Suprim w końcu zasługuje na swoją nazwę moim zdaniem ;) Wcześniej to był taki "Gaming Z przy kości" 

Link to post
Share on other sites
19 minut temu, wojciech spychała napisał:

Pisałem o tym w mojej recenzji :) Ale zabawne jest że przedstawiciel firmy która dosłownie robi zasilacze oficjalnie podważało te opinię Steve'a... 

Suprim w końcu zasługuje na swoją nazwę moim zdaniem ;) Wcześniej to był taki "Gaming Z przy kości" 

 

Nie do końca. Przy Ampere GAMING X to była anemiczna karta z PT max 380W i 18 fazową sekcją. SUPRIM X już 450W z 20 fazową sekcją. A, te 450W to takie minimum żeby potencjał GA102-300 wykorzystać. Z kolei przy RTX 4090 SUPRIM X ma 520W jak się okazuje finalnie, także bez szału względem 600W w FE czy w 4090 STRIX, nawet co się okazuje zaskoczeniem 4090 GAMING OC ze stajni GBT ma PT 600W. Wczoraj pisałem rozległego posta na temat korzyści jakie dają takie rozwiązania nie tylko w kwestii OC ale również w wypadku regulacji kart pod bardziej oszczędne profile. Może być tak, że w tej serii kart znowu zobaczymy Lightinga od MSI skoro SUPRIM X jest dość zachowawcza.

Link to post
Share on other sites

Ale my tu o wyglądzie piszemy :P

A co do limitów - czy widzisz potencjał, aby normalny użytkownik przekroczył te 520 W? Na Gigabyte i FE które testowałem po maksymalnym OC dosłownie 3x widziałem przez chwilę ponad 500 odczytu z poboru energii przez GPU. Tak całkiem serio pytam, zwłaszcza w kontekście tych oszczędniejszych profili. 

Link to post
Share on other sites
27 minut temu, wojciech spychała napisał:

Ale my tu o wyglądzie piszemy :P

A co do limitów - czy widzisz potencjał, aby normalny użytkownik przekroczył te 520 W? Na Gigabyte i FE które testowałem po maksymalnym OC dosłownie 3x widziałem przez chwilę ponad 500 odczytu z poboru energii przez GPU. Tak całkiem serio pytam, zwłaszcza w kontekście tych oszczędniejszych profili. 

 

A, no to jeśli o wygląd chodzi to tak :P Urwał mi się kontekst :DCo do tematu PT i konstrukcji to wkleję moją wczorajszą odpowiedź na ten temat właśnie.

 

"Tu nie chodzi o to, że jak masz kartę z możliwością ustawienia PT 600W to trzeba to robić, czy jak przy Ampere możliwość ustawienia 480W to też trzeba to robić. Sęk w tym, że karty pozwalające na wyższe PT nawet przy ustawionych niższych PT realnie wyżej boostują niż karty słabsze z analogicznie takim samym PT. Mocniejsza sekcja, lepszej jakości komponenty, efektywniejsze chłodzenie to się na wszystko przekłada. Sam przy "starociu" RTX 3090 STRIX pomimo możliwości używania PT 480W, mam jeden z głównych profili 24/7 przy PT 103% czyli 400W, takie optimum. Niedawno porównywałem sobie kartę ustawioną na PT 375W vs 480W oraz ujednolicone zegary i przy PT 480W było +10/+11%, to dużo w tym segmencie. Z kolei jak zestawiasz taką kartę z inną która ma max PT 375W i też ujednolicisz zegary to już dobijasz do 15% różnicy. Dodatkowo wyższe PT pozwala efektywniej kręcić nie tylko rdzeń ale i pamięci, a jak masz zdjęte chłodzenie standardowe, odpięte wtyczki od wentyli to zawsze parę W dodatkowo do wykorzystania na rzecz PT karty. Z wentylami wpiętymi taki 3090 STRIX dobija do 480/482W, a z wypiętymi przekracza nawet 495W na def biosie więc daje zawsze jakieś profity do maksowania wydajności jeśli się ten kierunek obiera. Jest również druga strona medalu. To, że ja wybieram i polecam karty z wysokimi PT nie jest równoznaczne z tym, żeby zawsze żyłować na maksa. Lepiej mieć możliwość niż nie mieć. Przykładowo jak na wodzie taka karta lata to za sprawą bardziej rozbudowanej sekcji masz też niższe temperatury VRM niż analogicznie na karcie ze słabszą sekcją. Nawet jak używa się sprzętu na air to również ma to swoje benefity podobne do wymienionych wcześniej, tylko skala jest nieco mniejsza. Inaczej wygląda rozłożenie temperatur na poszczególne mosfety, a to wpływa na temperaturę pcb, rdzenia, VRAM, całokształt. Podobnie jak z mobasami. Weźmiesz przykładowo do i9-12900K mobasa z VRM 16x90A i jest i tak więcej niż zapas, ale weźmiesz mobasa z 24x105A i masz niższe temperatury mosfetów, okolic pcb przy CPU, slotach pamięci etc. No i efektywniej możesz regulować całą platformę robiąc sobie nawet zoptymalizowane energetycznie profile zapewniające wysoką wydajność przy jak najniższych temperaturach. W mega skrócie o to chodzi z topowym sprzętem, nie żyłowanie i męczenie (ale można takie profile robić pod benche i dla zajawki) ale właśnie konkretne optymalizacje wydajnościowo napięciowe jakie się przekładają na niskie temperatury, zoptymalizowaną sprawność energetyczną etc. Spójrz na to w ten sposób :)

 

Po za tym też element taki jak późniejsza odsprzedaż. Efektywniej sprzedać wysoki model kierowany do węższego grona odbiorców, niż typową masówkę jakiej jest wysyp na aukcjach. I nawet jak się trafi ktoś kto taki model sprzedaje w podobnych cenach jak masówki to sam sobie jest winien bo na topach topów zawsze masz najlepszy przelicznik w kwestii amortyzacji kosztu w czasie używania. To też istotne. Podsumowując, zawsze najwięcej traci się na najsłabszych modelach z najwyższego segmentu i najmniej traci na topkach. To też warto mieć na uwadze :)"

 

Gwoli ścisłości ja nigdy nie ustawiam też profili 24/7 z max PT, a właśnie podchodzę do tego patrząc z szerszej perspektywy odnośnie co dają takie konstrukcje. Wiadomo, charakterystyka tego czym się zajmuje owocuje pewnego rodzaju radosnymi "zboczeniami" no ale to nieodzowny element łączenia pasji z pracą.

 

Tak swoją drogą duży plus za to, że w recenzji użyłeś 4x 8 PIN, bo z jakiegoś powodu wielu recenzentów podpinało tylko trzy...

 

No i też zgadzam się z wadą jaką jest brak NVLINK, o ile w grach już od Ampere mGPU to martwica niestety (na 2x RTX 2080 Ti udało mi się uruchomić SLI w 42 grach, analogicznie na 2x RTX 3090 tylko w trzech z tej samej puli wziętej co do 2x RTX 2080 Ti) to do niektórych zastosowań profesjonalnych nadal się mostek przydawał, chociaż można skalowanie drugiej karty uzyskać i bez mostka naturalnie.

 

Niemniej też informacje odnośnie ścieżek niewykorzystanych do NVLINK na RTX 4090 dają poniekąd wskazówkę, że może w RTX 4090 Ti się to rozwiązanie pojawi znowu. W sumie masz jakieś przemyślenia na temat tego kiedy mniej więcej RTX 4090 Ti może zadebiutować? Osobiście obstawiam Q1 2023, chociaż może i nawet Grudzień 2022 jest możliwy. Coś tak czuję w kościach :)

Edytowane przez EH_Gosu
Link to post
Share on other sites

Przyznam, że mam zupełnie odwrotne przemyślenia na ten temat (aczkolwiek niczym nie podparte :P) - traktuję PL (bo to w zasadzie teraz power limit, a nie target jak kiedyś?) jako taki zawór limitujący kartę w obecnych generacjach, a nie coś do czego karta dąży. Po podbiciu na FE limitu do 600 W wydajność praktycznie stoi w miejscu, bo karta i tak sama z siebie osiąga pełen boost daleko przed fabrycznym limitem 450 W. Dopiero podbicie tego zegara ręcznie wymusza większe zużycie energii co wynika z krzywych zasilania (karta podaje większe napięcie dla wyższych zegarów, wiadomo). Natomiast nie sądzę, aby sam limit, jaki karta może ustawić, był jakimkolwiek wyznacznikiem jakości użytych podzespołów - przynajmniej w 4090. Nie powiesz mi przecież, że Gigabyte dał lepsze klocki do swojego Gaming OC niż MSI do Suprima?

 

Ogólnie te 600 W to jest groteska w tej karcie i pstryczek w nos partnerów ze strony NVIDII. Puścili im info, że karta będzie miała zasilanie do 600 W, ale zapomnieli powiedzieć, że samo GPU zadowoli się 425 W :P  No to partnerzy potworzyli te monstrualne konstrukcje, aby jakoś te 600 W odprowadzić, po czym wielkie zdziwienie, że wyszedł overkill nawet w najtańszych kartach.... No ale to tylko moje zdanie na podstawie tego, co na razie wytestowałem i usłyszałem na innych kanałach. 

 

53 minuty temu, EH_Gosu napisał:

Po za tym też element taki jak późniejsza odsprzedaż. Efektywniej sprzedać wysoki model kierowany do węższego grona odbiorców, niż typową masówkę jakiej jest wysyp na aukcjach. I nawet jak się trafi ktoś kto taki model sprzedaje w podobnych cenach jak masówki to sam sobie jest winien bo na topach topów zawsze masz najlepszy przelicznik w kwestii amortyzacji kosztu w czasie używania. To też istotne.

Teraz to i tak wszystko schodzi na pniu... A z pewnością nie odzyskasz tyle, ile dopłacałeś przy zakupie lepszej karty. Niemniej faktycznie mocny model łatwiej dobrze sprzedać. 
 

49 minut temu, EH_Gosu napisał:

Tak swoją drogą duży plus za to, że w recenzji użyłeś 4x 8 PIN, bo z jakiegoś powodu wielu recenzentów podpinało tylko trzy...

Może nie chciało mi się szukać po kartonach kolejnego kable do modularnych zasilaczy, a się okazało że "o! na 3 też działa!" ;)

 

50 minut temu, EH_Gosu napisał:

Niemniej też informacje odnośnie ścieżek niewykorzystanych do NVLINK na RTX 4090 dają poniekąd wskazówkę, że może w RTX 4090 Ti się to rozwiązanie pojawi znowu. W sumie masz jakieś przemyślenia na temat tego kiedy mniej więcej RTX 4090 Ti może zadebiutować? Osobiście obstawiam Q1 2023, chociaż może i nawet Grudzień 2022 jest możliwy. Coś tak czuję w kościach :)

Co prawda nie sądzę, aby drugi raz próbowali takiej akcji jak odwalili z 3090 Ti, ale też dużo zależy od tego, co pokaże AMD niebawem...  Sami z sobą nie będą konkurować, zwłaszcza, że nadal zalegają im karty z serii RTX 3000... Zatem jeżeli AMD nie wyskoczy z prawdziwym killerem, który przyprze ich do muru to RTX 4090 Ti obstawiam najwcześniej na koniec przyszłego roku (podobna pora co teraz?). 

Link to post
Share on other sites
5 godzin temu, Lord_Krecitsqa napisał:

A może być tak że jak wyjdą nowe Radeony to Nv z ceny zejdzie, bo teraz konkurencji nie mają to zdzierają skórę z kolan.

Czytałem właśnie że mają wyjść w tym roku.

Więc sie nie przypalam na 3080 :D

 

 

4 godziny temu, marko22 napisał:

:facepalm::facepalm::facepalm: To ja se trochę poczekam....

 

Bez-nazwy.jpg

 

Jaka ta Nvidia skromna a nie tak dawno płakała:

https://www.benchmark.pl/aktualnosci/nvidia-notuje-nizsze-przychody-winna-duzo-nizsza-sprzedaz-kart.html

 

Realnie i całkiem poważnie przy obecnej inflacji nie wierzcie w cuda.

 

Link to post
Share on other sites

@wojciech spychała

Do uzyskania wyższych zegarów, przy tej samej technologii / jakości wykonania krzemu, konieczne jest użycie większej mocy.

Dlaczego?

 

Tu kłaniają się podstawy fizyki, czyli w grę wchodzą rzeczy typu czas narastania fali i jej opadania, który przy wysokim taktowaniu jest problematyczny, więc jako rozwiązanie problemu, zwiększa się napięcie, po to aby skrócić go (czasem nawet przestrzelić z poziomem, patrz na overdrive w monitorach) i na końcu mieć poprawnie odczytany sygnał elektryczny. Oczywiście do całego procesu wchodzi więcej czynników np zależność czasu reakcji bramki logicznej od temperatury, napięcia, etc. 

 

Stąd więcej MOCY - większe taktowanie, tylko ta zależność nie jest linowa a przypomina najczęściej funkcję kwadratową, co sprawia że taki i9 12900K z limitem na 75W nie jest 50% wolniejszy od tego samego i9 z limitem na 150W.  Rynek procków i kart graficznych jednak od jakiegoś czasu przypomina stare amerykańskie przysłowie - There is no replacement for displacement (Nic nie zastąpi pojemności skokowej). Nie specjalnie mi się to podoba, ale tak jest i już.

 

Zatem TAK - zmniejszysz PT z 600W na 450W, będziesz miał niższe taktowania, niższą wydajność. Kwestia tylko tego, o ile zmniejszy się wydajność i czy w realnych warunkach jest to wartość możliwa do zaobserwowania. 

  • Popieram 1
Link to post
Share on other sites

Każdy sam sobie odpowiada na takie pytanie czy chce mieć 90% wydajności przy 375w czy 100% przy 527w.
1665525656358-png.265076

W skrócie o DLSS 3:

    Generowanie dodatkowych klatek ma sens jak masz już minimum te 90fps natywnie
    Musisz mieć wyświetlacz o wysokiej częstotliwości odświeżania, najlepiej 240 Hz lub wyższej.
    Ma sens w grach gdzie masz mało fps ale input lag i latency nie grają dużej roli , często singke player:) Jak chesz uzyskać płynniejszy obraz, ale bez płynniejszej rozgrywki;)

Pewnie minie rok, czy 2 żeby było na tyle gier żeby sie rzucać specjalnie na rtx4xxx z tego powodu:)


https://www.techspot.com/article/2546-dlss-3/

Link to post
Share on other sites
16 minut temu, Adames napisał:

@wojciech spychała

Do uzyskania wyższych zegarów, przy tej samej technologii / jakości wykonania krzemu, konieczne jest użycie większej mocy.

Dlaczego?

 

Tu kłaniają się podstawy fizyki, czyli w grę wchodzą rzeczy typu czas narastania fali i jej opadania, który przy wysokim taktowaniu jest problematyczny, więc jako rozwiązanie problemu, zwiększa się napięcie, po to aby skrócić go (czasem nawet przestrzelić z poziomem, patrz na overdrive w monitorach) i na końcu mieć poprawnie odczytany sygnał elektryczny. Oczywiście do całego procesu wchodzi więcej czynników np zależność czasu reakcji bramki logicznej od temperatury, napięcia, etc. 

 

Stąd więcej MOCY - większe taktowanie, tylko ta zależność nie jest linowa a przypomina najczęściej funkcję kwadratową, co sprawia że taki i9 12900K z limitem na 75W nie jest 50% wolniejszy od tego samego i9 z limitem na 150W.  Rynek procków i kart graficznych jednak od jakiegoś czasu przypomina stare amerykańskie przysłowie - There is no replacement for displacement (Nic nie zastąpi pojemności skokowej). Nie specjalnie mi się to podoba, ale tak jest i już.

 

Zatem TAK - zmniejszysz PT z 600W na 450W, będziesz miał niższe taktowania, niższą wydajność. Kwestia tylko tego, o ile zmniejszy się wydajność i czy w realnych warunkach jest to wartość możliwa do zaobserwowania. 

Tylko że w przypadku 4090 testy mówią co innego :p Taktowanie jest bardzo stabilne już w FE i karta bez OC nawet 100% obciążona ciągnie ~425W. Podbicie limitu z 450 W nawet na 600 W nic w wydajności nie zmienia, przynajmniej poki nie podkręcamy karty. 

 

BTW Gigabyte Gaming OC pobiera więcej energii, aby utrzymać te same taktowania, ale z drugiej strony dał się identycznie wysoko podkręcić (na tych samych limitach mocy), więc raczej to kwestia innej krzywej napięcia, a nie „gorszego krzemu”, jak chyba w recenzji pisałem. 
 

Ogólnie to dosyć średnie sztuki mi się trafiły, bo konkurencja w kilku modelach powyżej 3000 MHz widywała na rdzeniu, a u mnie 2935 MHz to był max. 

Link to post
Share on other sites
5 minut temu, wojciech spychała napisał:

Tylko że w przypadku 4090 testy mówią co innego :p Taktowanie jest bardzo stabilne już w FE i karta bez OC nawet 100% obciążona ciągnie ~425W. Podbicie limitu z 450 W nawet na 600 W nic w wydajności nie zmienia, przynajmniej poki nie podkręcamy karty. 

Coś źle testowałeś:

 

  • Popieram 1
Link to post
Share on other sites

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Odpowiedz w tym wątku...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...