Skocz do zawartości

Ada Lovelace - wątek o kartach RTX 4000


Recommended Posts

Mam pytanie o podłączenie nowej GPU. :) 

Teraz mam dwa kable po 8 pin każdy z PSU (HX 1000) do MOBO i jeden kabel, który kończy się 2x6+2 pin do GPU. Czy taki sam kabel mam wpiąć do PSU w miejsce ??? i cztery końcówki 6+2 pin wpiąć do tej nowej cudacznej przejściówki?

 

CP-9020139-KR-HX1000-03.jpg

 

Edytowane przez Karister
Link to post
Share on other sites
4 minuty temu, Karister napisał:

Mam pytanie o podłączenie nowej GPU. :) 

Teraz mam dwa kable po 8 pin każdy z PSU (HX 1000) do MOBO i jeden kabel, który kończy się 2x6+2 pin do GPU. Czy taki sam kabel mam wpiąć do PSU w miejsce ??? i cztery końcówki 6+2 pin wpiąć do tej nowej cudacznej przejściówki?

 

CP-9020139-KR-HX1000-03.jpg

 

Polecałbym jak najwięcej kabli pociągnąć niezależnie do karty (optymalnie wszystkie cztery osobno), czyli nie korzystać z "podwójnych końcówek". Co prawda testując nie odnotowałem żadnej różnicy w działaniu między podpięciem 4 przewodów a ograniczeniem się do dwóch podwójnych przewodów, ale zawsze to mniej prądu idzie przez dany kabel czyli mniej się będzie nagrzewać. 

 

A tak z innej beczki - odkryłem, że da się wymusić VS na DLSS 3.0 i nawet działa to dobrze (przynajmniej w CP77 i Plague Tale 2, bo nie jestem pewien co do MSFS). 

  • Dzięki 1
Link to post
Share on other sites
5 minut temu, Karister napisał:

Dzięki. Czyli wykorzystać wszystkie pozostałe wyjścia opisane jako 6+2 PCI-E & 4+4 CPU? Wszystkie sześć jest takie same i nie ważne, do których CPU, a do których GPU?

Stanowczo NIE podpinaj zasilania CPU do GPU (to nawet fizycznie zdaje się nie jest możliwe przez inny kształt kostek). Mam tu na myśli abyś dobre kable dosztukował - bo od strony zasilacza to tak faktycznie jest to samo. 

 

Link to post
Share on other sites

Coś jest na rzeczy, czyżby szykowała się nam powtórka ze słabą dostępnością nowych kart i przez to wzrostem cen serii rtx 3000,

przeglądam masę ofert z rtx 4090 no i na niektóre modele rtx 4090 cza czekać 2-3 miechy heh :roll: w pl sklepach pewnie to samo,

- ta kiepska, wręcz zerowa dostępność na premierę modelu rtx 4090 FE daje też do myślenia

Edytowane przez Player120
Link to post
Share on other sites
6 minut temu, Player120 napisał:

Coś jest na rzeczy, czyżby szykowała się nam powtórka ze słaba dostępnością nowych kart i przez to wzrostem cen serii rtx 3000,

przeglądam masę ofert z rtx 4090 no i na niektóre modele rtx 4090 cza czekać 2-3 miechy heh :roll: w pl sklepach pewnie to samo

Tymczasem w naszej redakcji...
 

4090suprime.jpg

  • Haha 3
Link to post
Share on other sites

Tak to jest jak się spamuje przycisk "zamawiam" na premierę... A myślałem, że to sklep mulił. No cóż - przynajmniej będzie ciepło na zimę :)

EDIT:

Jeszcze taki update odnośnie VS (a w zasadzie G-Sync) z DLSS 3.0. Mimo że działa, to znacząco podnosi input lag. Zwłaszcza w grach, w których limitem jest CPU (MSFS i Spider-Man), albo gdy sobie taki limit zrobimy grając z DLSS 2.0 Performance :P

Ale ogólnie wydaje mi, się że NVIDIA ma szansę to ogarnąć, bo są też sytuacje gdzie działa praktycznie nierozróżnialnie od natywnego obrazu (zarówno w kwestii artefaktów jak i opóźnienia), a jednak pozwala przyjemniej grać na znacznie wyższych ustawieniach. 

Link to post
Share on other sites
37 minut temu, Artok napisał:

Akurat Konrad ma całe multum pseudonimów, prawie jak Gandalf z Władcy Pierścieni

 

  Ukryj zawartość

 

 


image.png

image.png
 

 

 

 

No nie za bardzo. Na pclolu miałem konto o nicku "TylkoTak" oraz wcześniej "Gosu" czyli to którego używam wszędzie od lat. Nie wiem również o jakiego permbana na PPC chodzi bo jest to nic innego jak kolejne urojenie dziwolągów z pclola :) Na PPC po prostu nie wypowiadam się od lat gdyż jest to strata czasu, żadnego bana tam czy gdzie indziej nie mam. Na pclolu z kolei bany wyłapują ludzie którzy nie zgadzają się z iście cebulacką narracją jednego z głównych adminów albo nie pozwalają sobie wejść na głowę frustratom którzy tam lubią nazywać od frajerów tych którzy kupują topowy sprzęt, nie jestem w tym wypadku wyjątkiem. Ot cała historia z pclolem do której sobie pewna grupka wzajemnej adoracji dorobiła własną historię. Generalnie to nie wiem po co wrzucasz te bzdurki z pclola bo już któryś raz to robisz. Jaka za tym stoi intencja? Bo jakieś to dziwne mi się wydaje...

Link to post
Share on other sites
53 minuty temu, wojciech spychała napisał:

Tak to jest jak się spamuje przycisk "zamawiam" na premierę... A myślałem, że to sklep mulił. No cóż - przynajmniej będzie ciepło na zimę :)

EDIT:

Jeszcze taki update odnośnie VS (a w zasadzie G-Sync) z DLSS 3.0. Mimo że działa, to znacząco podnosi input lag. Zwłaszcza w grach, w których limitem jest CPU (MSFS i Spider-Man), albo gdy sobie taki limit zrobimy grając z DLSS 2.0 Performance :P

Ale ogólnie wydaje mi, się że NVIDIA ma szansę to ogarnąć, bo są też sytuacje gdzie działa praktycznie nierozróżnialnie od natywnego obrazu (zarówno w kwestii artefaktów jak i opóźnienia), a jednak pozwala przyjemniej grać na znacznie wyższych ustawieniach. 

 

Trochę tych kart macie no ale to nie jest tak, że to zaplecze Komputronika ? :) Co do DLSS 3 warto naświetlić temat tego, iż przy włączonym DLSS 3 nie można korzystać ani z V-Sync ani G-Sync bo to generalnie przeogromna wada DLSS 3 na tym etapie.

 

Taka mała sugestia z mojej strony odnośnie platformy testowej, warto zrezygnować z 4x16 które macie niezwykle nisko ustawione na rzecz 2x16. Przy 4x16 DDR5 realnie wyciąga się do 5800 MHz z CL w okolicach 36.38.38.96 T2 Gear 2 gdzie przy 2x16 na tym samym mobo, procku, modułach spokojnie 6600 CL32.38.38.60 T2 Gear 2 na mobasach z 4 slotami (więcej przy dwóch slotach) bo to jest w kontekście napędzenia topowego GPU konkretny hamulec, szczególnie przez latency jakie rzutuje na 1% low bardzo. Jakby co, zawsze chętnie pomogę w kwestii regulacji pod testy GPU tak żeby efektywniej pokazać realne różnice pomiędzy kartami. Przy potencjale RTX 4090 (już przy 3090 to było bardzo istotne) to niezwykle ważny temat. Lubię Wasz portal, nie raz wymieniam się informacjami z Pawłem (pozdrów ode mnie, bo chłop w porządku) więc jakby co wal do mnie z tematem, uber konfigi i regulacje konkretne to mój chleb powszedni więc chętnie doradzę. Natomiast no mega istotne pod platformę testową to redukcja z 4x16 na 2x16 i konkretne regulacje, efekty Cię zaskoczą jak się do tego porządnie przysiądzie.

 

No i albo w recenzji RTX 4090 macie buga w tekście  albo coś przy testach RTX 2080 Ti vs RTX 3090 poszlo bardzo nie tak.  Ewentualnie po prostu się coś Ci pomyliło co się również może zdarzyć każdemu, niemniej nie jest to informacja zgodna z prawdą.

 

obraz.thumb.png.8ba8ddb750a1c8ca7f22792dce8c3e0b.png

 

Różnica między RTX 2080 Ti vs RTX 3090 (nawet karty na def) to nie 25-30%, a również okolice 50% w standardowej rasteryzacji uśredniając. I to na kartach ustawionych totalnie fabrycznie, bottlenecki platform poniżej 4K to nie kwestia brakach w wydajności karty, a nieefektywnego jej napędzenia. 25-30% to była różnica w premierowych testach ale pomiędzy RTX 2080 Ti vs GTX 1080 Ti.

18 minut temu, Player120 napisał:

testy w rozdzielczości ultrawide 3440x1440 oraz 3840x1600 i więcej ta karta ma moc

 

Można iść jeszcze dalej, DSR z 3440x1440p do 5160x2160 oraz do 6880x2880 to pięknie pokaże potencjał. Sam tego typu testy robię co gen GPU i przy RTX 4090 też nie zabraknie, to wręcz mus :)

Edytowane przez EH_Gosu
  • Dzięki 1
  • Popieram 1
Link to post
Share on other sites
26 minut temu, EH_Gosu napisał:

Taka mała sugestia z mojej strony odnośnie platformy testowej, warto zrezygnować z 4x16 które macie niezwykle nisko ustawione na rzecz 2x16

100% się zgadzam, choć niestety nasze Kingstony i tak nie dały rady nic więcej wycisnąć. Ogólnie to zabawna sprawa, bo od 3 albo 4 artykułów faktycznie używam tylko 2 kości (co widać na zdjęciach), ale oczywiście zapomniałem to wyedytować w przeklejanej platformie testowe...  Oczywiście wszędzie zaraz skoryguję.

 

Same pamięci sprawdzałem jeszcze w ramach testów 3090 Ti z taktowaniem 6000MHz CL32 i różnica była ale nie na tyle duża aby wtedy uzasadnić zmianę. Teraz sobie w brodę pluję bo RTX 4090 z pewnością by na tym zyskał :( 

 

26 minut temu, EH_Gosu napisał:

No i albo w recenzji RTX 4090 macie buga w tekście  albo coś przy testach RTX 2080 Ti vs RTX 3090 poszlo bardzo nie tak. 

Tu też 100% racji - tak to jest jak się człowiek nie może zdecydować. Początkowo było o 30% różnicy między wspomnianym 1080 Ti a 2080 Ti, ale potem uznałem że uczciwiej porównać do nowszej generacji gdzie przeskok był nieco większy (choć wtedy sytuacja była podobna i bardzo często brakowało procesora aby wykazać przewagę 3090). Też już poprawiam :)

 

26 minut temu, EH_Gosu napisał:

Co do DLSS 3 warto naświetlić temat tego, iż przy włączonym DLSS 3 nie można korzystać ani z V-Sync ani G-Sync bo to generalnie przeogromna wada DLSS 3 na tym etapie.

Przy czym właśnie da się! Ale trzeba go wymusić w sterownikach, bo faktycznie gry w wersji beta z DLSS 3.0 blokują te opcję w ustawieniach. Tylko że działa to... różnie :P

 

 

EDIT:
image.thumb.png.e7668f497681cda7b2b4e8a18e7f122f.png
Sprawdziłem jeszcze nasze archiwalne testy i w 3DMarku, do którego w cytowanym fragmencie się odnoszę, zysk to 42% (na mocniejszym CPU) ;)  Skorygowałem też "ponad 50%" na dokładnie wyliczone 70% :P Ogólnie proporcje miałem dobre, ale wartości złe. Niemniej dzięki za czujność, bo teraz to lepiej wygląda. 

  • Popieram 1
Link to post
Share on other sites
Godzinę temu, Rebelmind napisał:

Niżej, bo TRUE_4080 ma o wiele słabszą spec od 4090, więc tutaj powinien być spory zjazd poboru względem AD102. 

 

też mi sie wydaje ze będzie mniej, chyba ze true_4080 przez to ze juz na innym chipie będzie miał jednak gorszą efektywnosc niz 4090.

Link to post
Share on other sites

@wojciech spychała

 

No i bardzo pozytywnie :) Co do DLSS 3, dzięki za informacje dla mnie osobiście to mega istotne bo nie wyobrażam sobie używania tej technologii z wyłączonym V-Sync czy G-Sync, gdzie warto mieć na uwadze fakt by w wypadku korzystania z monitora z G-Sync dać blokadę fps na -3 względem częstotliwości odświeżania monitora tak by się G-Sync nie "rozpinał". No i za słowami "choć działa to różnie" domyślam się co się kryje, cóż początki zawsze pod górkę, DLSS 1 też łatwego startu nie miało, masło i te sprawy. Czekam zatem na testy na łamach Waszego portalu. Sam się będę w przyszłym tygodniu bawił  RTX 4090 to również na łamach mojego kanału polecą testy klasy uber bez cackania się :)

 

Co do memek cała magia leży jak zawsze w timingach 2 i 3 rzędu, niestety na kościach Samsunga się nie poszaleje z taktami (Microny to w ogóle lipa) więc póki co maksowanie MHz i minimalizacja CL tylko na SK Hynix pod max perf do testów GPU. Co do zdjęć, umknęły mojej uwadze, patrzyłem na opis platformy :)

 

Pozdrawiam i dobrej zabawy :)

Edytowane przez EH_Gosu
  • Lubię to 1
Link to post
Share on other sites

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Odpowiedz w tym wątku...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...