kampers 150 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 Mam 1 sztuke nie wiem czy chce to najwyzej odsprzedam lub zwrot. Czekam na tuf lub strix. Msi Cytuj Link to post Share on other sites
Rebelmind 3738 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 Tj w NOK cena? Cytuj Link to post Share on other sites
kampers 150 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 Tak Cytuj Link to post Share on other sites
r1023 873 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 Jeżeli 4090 wypada lepiej w poborze prądu od 3090ti to ciekawe co pokaże na tym polu 4080 16Gb. Cytuj Link to post Share on other sites
wrobel_krk 2185 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 Wygląda na to że z TDP 320w 4080 16gb będzie na poziomie 3080 z poborem lub lepiej. Cytuj Link to post Share on other sites
Karister 849 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 (edytowane) Mam pytanie o podłączenie nowej GPU. Teraz mam dwa kable po 8 pin każdy z PSU (HX 1000) do MOBO i jeden kabel, który kończy się 2x6+2 pin do GPU. Czy taki sam kabel mam wpiąć do PSU w miejsce ??? i cztery końcówki 6+2 pin wpiąć do tej nowej cudacznej przejściówki? Edytowane 13 Października 2022 przez Karister Cytuj Link to post Share on other sites
wrobel_krk 2185 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 2 minuty temu, Karister napisał: 2x6+2 pin do GPU Czyli masz 4x 2x6+2, to te 4 powinieneś podpiąć do przejściówki. 1 Cytuj Link to post Share on other sites
wojciech spychała 80 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 4 minuty temu, Karister napisał: Mam pytanie o podłączenie nowej GPU. Teraz mam dwa kable po 8 pin każdy z PSU (HX 1000) do MOBO i jeden kabel, który kończy się 2x6+2 pin do GPU. Czy taki sam kabel mam wpiąć do PSU w miejsce ??? i cztery końcówki 6+2 pin wpiąć do tej nowej cudacznej przejściówki? Polecałbym jak najwięcej kabli pociągnąć niezależnie do karty (optymalnie wszystkie cztery osobno), czyli nie korzystać z "podwójnych końcówek". Co prawda testując nie odnotowałem żadnej różnicy w działaniu między podpięciem 4 przewodów a ograniczeniem się do dwóch podwójnych przewodów, ale zawsze to mniej prądu idzie przez dany kabel czyli mniej się będzie nagrzewać. A tak z innej beczki - odkryłem, że da się wymusić VS na DLSS 3.0 i nawet działa to dobrze (przynajmniej w CP77 i Plague Tale 2, bo nie jestem pewien co do MSFS). 1 Cytuj Link to post Share on other sites
joker5513 2787 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 Nie korzystaj z rozgałęźników tylko podłącz wszystkie 4 kable pod psu i adapter karty graficznej. 1 Cytuj Link to post Share on other sites
Karister 849 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 Dzięki. Czyli wykorzystać wszystkie pozostałe wyjścia opisane jako 6+2 PCI-E & 4+4 CPU? Wszystkie sześć jest takie same i nie ważne, do których CPU, a do których GPU? Cytuj Link to post Share on other sites
wojciech spychała 80 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 5 minut temu, Karister napisał: Dzięki. Czyli wykorzystać wszystkie pozostałe wyjścia opisane jako 6+2 PCI-E & 4+4 CPU? Wszystkie sześć jest takie same i nie ważne, do których CPU, a do których GPU? Stanowczo NIE podpinaj zasilania CPU do GPU (to nawet fizycznie zdaje się nie jest możliwe przez inny kształt kostek). Mam tu na myśli abyś dobre kable dosztukował - bo od strony zasilacza to tak faktycznie jest to samo. Cytuj Link to post Share on other sites
Karister 849 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 Teraz, wojciech spychała napisał: Stanowczo NIE podpinaj zasilania CPU do GPU (to nawet fizycznie zdaje się nie jest możliwe przez inny kształt kostek). Miałem na myśli złącza od strony PSU. One wszystkie są takie same i nie są rozróżnione jako CPU albo PSU. 1 Cytuj Link to post Share on other sites
Player120 52 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 (edytowane) Coś jest na rzeczy, czyżby szykowała się nam powtórka ze słabą dostępnością nowych kart i przez to wzrostem cen serii rtx 3000, przeglądam masę ofert z rtx 4090 no i na niektóre modele rtx 4090 cza czekać 2-3 miechy heh w pl sklepach pewnie to samo, - ta kiepska, wręcz zerowa dostępność na premierę modelu rtx 4090 FE daje też do myślenia Edytowane 13 Października 2022 przez Player120 Cytuj Link to post Share on other sites
joker5513 2787 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 Niejaki Konrad aka @EH_Gosu już nie raz taki scenariusz wróżył A on się rzadko myli w temacie sprzętu 1 Cytuj Link to post Share on other sites
Rebelmind 3738 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 39 minut temu, wrobel_krk napisał: Wygląda na to że z TDP 320w 4080 16gb będzie na poziomie 3080 z poborem lub lepiej. Niżej, bo TRUE_4080 ma o wiele słabszą spec od 4090, więc tutaj powinien być spory zjazd poboru względem AD102. Cytuj Link to post Share on other sites
wojciech spychała 80 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 6 minut temu, Player120 napisał: Coś jest na rzeczy, czyżby szykowała się nam powtórka ze słaba dostępnością nowych kart i przez to wzrostem cen serii rtx 3000, przeglądam masę ofert z rtx 4090 no i na niektóre modele rtx 4090 cza czekać 2-3 miechy heh w pl sklepach pewnie to samo Tymczasem w naszej redakcji... 3 Cytuj Link to post Share on other sites
Artok 2010 Napisano 13 Października 2022 Autor Udostępnij Napisano 13 Października 2022 3 minuty temu, joker5513 napisał: Niejaki Konrad aka @EH_Gosu Akurat Konrad ma całe multum pseudonimów, prawie jak Gandalf z Władcy Pierścieni Cytuj Link to post Share on other sites
joker5513 2787 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 4 minuty temu, wojciech spychała napisał: Tymczasem w naszej redakcji... Kilka grubych baniek w towarze.... Gdzie macie siedzibę, wpadłbym w nocy z wizytą 1 Cytuj Link to post Share on other sites
wojciech spychała 80 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 Tak to jest jak się spamuje przycisk "zamawiam" na premierę... A myślałem, że to sklep mulił. No cóż - przynajmniej będzie ciepło na zimę EDIT: Jeszcze taki update odnośnie VS (a w zasadzie G-Sync) z DLSS 3.0. Mimo że działa, to znacząco podnosi input lag. Zwłaszcza w grach, w których limitem jest CPU (MSFS i Spider-Man), albo gdy sobie taki limit zrobimy grając z DLSS 2.0 Performance Ale ogólnie wydaje mi, się że NVIDIA ma szansę to ogarnąć, bo są też sytuacje gdzie działa praktycznie nierozróżnialnie od natywnego obrazu (zarówno w kwestii artefaktów jak i opóźnienia), a jednak pozwala przyjemniej grać na znacznie wyższych ustawieniach. Cytuj Link to post Share on other sites
EH_Gosu 1277 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 37 minut temu, Artok napisał: Akurat Konrad ma całe multum pseudonimów, prawie jak Gandalf z Władcy Pierścieni Ukryj zawartość No nie za bardzo. Na pclolu miałem konto o nicku "TylkoTak" oraz wcześniej "Gosu" czyli to którego używam wszędzie od lat. Nie wiem również o jakiego permbana na PPC chodzi bo jest to nic innego jak kolejne urojenie dziwolągów z pclola Na PPC po prostu nie wypowiadam się od lat gdyż jest to strata czasu, żadnego bana tam czy gdzie indziej nie mam. Na pclolu z kolei bany wyłapują ludzie którzy nie zgadzają się z iście cebulacką narracją jednego z głównych adminów albo nie pozwalają sobie wejść na głowę frustratom którzy tam lubią nazywać od frajerów tych którzy kupują topowy sprzęt, nie jestem w tym wypadku wyjątkiem. Ot cała historia z pclolem do której sobie pewna grupka wzajemnej adoracji dorobiła własną historię. Generalnie to nie wiem po co wrzucasz te bzdurki z pclola bo już któryś raz to robisz. Jaka za tym stoi intencja? Bo jakieś to dziwne mi się wydaje... Cytuj Link to post Share on other sites
Player120 52 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 Teraz, wojciech spychała napisał: Będę testować w najbliższym czasie jeszcze jednego RTX 4090. Czy chcielibyście, aby przy tej okazji już na spokojnie coś więcej sprawdzić, niż w naszej premierowej recenzji? testy w rozdzielczości ultrawide 3440x1440 oraz 3840x1600 i więcej ta karta ma moc 1 Cytuj Link to post Share on other sites
EH_Gosu 1277 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 (edytowane) 53 minuty temu, wojciech spychała napisał: Tak to jest jak się spamuje przycisk "zamawiam" na premierę... A myślałem, że to sklep mulił. No cóż - przynajmniej będzie ciepło na zimę EDIT: Jeszcze taki update odnośnie VS (a w zasadzie G-Sync) z DLSS 3.0. Mimo że działa, to znacząco podnosi input lag. Zwłaszcza w grach, w których limitem jest CPU (MSFS i Spider-Man), albo gdy sobie taki limit zrobimy grając z DLSS 2.0 Performance Ale ogólnie wydaje mi, się że NVIDIA ma szansę to ogarnąć, bo są też sytuacje gdzie działa praktycznie nierozróżnialnie od natywnego obrazu (zarówno w kwestii artefaktów jak i opóźnienia), a jednak pozwala przyjemniej grać na znacznie wyższych ustawieniach. Trochę tych kart macie no ale to nie jest tak, że to zaplecze Komputronika ? Co do DLSS 3 warto naświetlić temat tego, iż przy włączonym DLSS 3 nie można korzystać ani z V-Sync ani G-Sync bo to generalnie przeogromna wada DLSS 3 na tym etapie. Taka mała sugestia z mojej strony odnośnie platformy testowej, warto zrezygnować z 4x16 które macie niezwykle nisko ustawione na rzecz 2x16. Przy 4x16 DDR5 realnie wyciąga się do 5800 MHz z CL w okolicach 36.38.38.96 T2 Gear 2 gdzie przy 2x16 na tym samym mobo, procku, modułach spokojnie 6600 CL32.38.38.60 T2 Gear 2 na mobasach z 4 slotami (więcej przy dwóch slotach) bo to jest w kontekście napędzenia topowego GPU konkretny hamulec, szczególnie przez latency jakie rzutuje na 1% low bardzo. Jakby co, zawsze chętnie pomogę w kwestii regulacji pod testy GPU tak żeby efektywniej pokazać realne różnice pomiędzy kartami. Przy potencjale RTX 4090 (już przy 3090 to było bardzo istotne) to niezwykle ważny temat. Lubię Wasz portal, nie raz wymieniam się informacjami z Pawłem (pozdrów ode mnie, bo chłop w porządku) więc jakby co wal do mnie z tematem, uber konfigi i regulacje konkretne to mój chleb powszedni więc chętnie doradzę. Natomiast no mega istotne pod platformę testową to redukcja z 4x16 na 2x16 i konkretne regulacje, efekty Cię zaskoczą jak się do tego porządnie przysiądzie. No i albo w recenzji RTX 4090 macie buga w tekście albo coś przy testach RTX 2080 Ti vs RTX 3090 poszlo bardzo nie tak. Ewentualnie po prostu się coś Ci pomyliło co się również może zdarzyć każdemu, niemniej nie jest to informacja zgodna z prawdą. Różnica między RTX 2080 Ti vs RTX 3090 (nawet karty na def) to nie 25-30%, a również okolice 50% w standardowej rasteryzacji uśredniając. I to na kartach ustawionych totalnie fabrycznie, bottlenecki platform poniżej 4K to nie kwestia brakach w wydajności karty, a nieefektywnego jej napędzenia. 25-30% to była różnica w premierowych testach ale pomiędzy RTX 2080 Ti vs GTX 1080 Ti. 18 minut temu, Player120 napisał: testy w rozdzielczości ultrawide 3440x1440 oraz 3840x1600 i więcej ta karta ma moc Można iść jeszcze dalej, DSR z 3440x1440p do 5160x2160 oraz do 6880x2880 to pięknie pokaże potencjał. Sam tego typu testy robię co gen GPU i przy RTX 4090 też nie zabraknie, to wręcz mus Edytowane 13 Października 2022 przez EH_Gosu 1 1 Cytuj Link to post Share on other sites
wojciech spychała 80 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 26 minut temu, EH_Gosu napisał: Taka mała sugestia z mojej strony odnośnie platformy testowej, warto zrezygnować z 4x16 które macie niezwykle nisko ustawione na rzecz 2x16 100% się zgadzam, choć niestety nasze Kingstony i tak nie dały rady nic więcej wycisnąć. Ogólnie to zabawna sprawa, bo od 3 albo 4 artykułów faktycznie używam tylko 2 kości (co widać na zdjęciach), ale oczywiście zapomniałem to wyedytować w przeklejanej platformie testowe... Oczywiście wszędzie zaraz skoryguję. Same pamięci sprawdzałem jeszcze w ramach testów 3090 Ti z taktowaniem 6000MHz CL32 i różnica była ale nie na tyle duża aby wtedy uzasadnić zmianę. Teraz sobie w brodę pluję bo RTX 4090 z pewnością by na tym zyskał 26 minut temu, EH_Gosu napisał: No i albo w recenzji RTX 4090 macie buga w tekście albo coś przy testach RTX 2080 Ti vs RTX 3090 poszlo bardzo nie tak. Tu też 100% racji - tak to jest jak się człowiek nie może zdecydować. Początkowo było o 30% różnicy między wspomnianym 1080 Ti a 2080 Ti, ale potem uznałem że uczciwiej porównać do nowszej generacji gdzie przeskok był nieco większy (choć wtedy sytuacja była podobna i bardzo często brakowało procesora aby wykazać przewagę 3090). Też już poprawiam 26 minut temu, EH_Gosu napisał: Co do DLSS 3 warto naświetlić temat tego, iż przy włączonym DLSS 3 nie można korzystać ani z V-Sync ani G-Sync bo to generalnie przeogromna wada DLSS 3 na tym etapie. Przy czym właśnie da się! Ale trzeba go wymusić w sterownikach, bo faktycznie gry w wersji beta z DLSS 3.0 blokują te opcję w ustawieniach. Tylko że działa to... różnie EDIT: Sprawdziłem jeszcze nasze archiwalne testy i w 3DMarku, do którego w cytowanym fragmencie się odnoszę, zysk to 42% (na mocniejszym CPU) Skorygowałem też "ponad 50%" na dokładnie wyliczone 70% Ogólnie proporcje miałem dobre, ale wartości złe. Niemniej dzięki za czujność, bo teraz to lepiej wygląda. 1 Cytuj Link to post Share on other sites
r1023 873 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 Godzinę temu, Rebelmind napisał: Niżej, bo TRUE_4080 ma o wiele słabszą spec od 4090, więc tutaj powinien być spory zjazd poboru względem AD102. też mi sie wydaje ze będzie mniej, chyba ze true_4080 przez to ze juz na innym chipie będzie miał jednak gorszą efektywnosc niz 4090. Cytuj Link to post Share on other sites
EH_Gosu 1277 Napisano 13 Października 2022 Udostępnij Napisano 13 Października 2022 (edytowane) @wojciech spychała No i bardzo pozytywnie Co do DLSS 3, dzięki za informacje dla mnie osobiście to mega istotne bo nie wyobrażam sobie używania tej technologii z wyłączonym V-Sync czy G-Sync, gdzie warto mieć na uwadze fakt by w wypadku korzystania z monitora z G-Sync dać blokadę fps na -3 względem częstotliwości odświeżania monitora tak by się G-Sync nie "rozpinał". No i za słowami "choć działa to różnie" domyślam się co się kryje, cóż początki zawsze pod górkę, DLSS 1 też łatwego startu nie miało, masło i te sprawy. Czekam zatem na testy na łamach Waszego portalu. Sam się będę w przyszłym tygodniu bawił RTX 4090 to również na łamach mojego kanału polecą testy klasy uber bez cackania się Co do memek cała magia leży jak zawsze w timingach 2 i 3 rzędu, niestety na kościach Samsunga się nie poszaleje z taktami (Microny to w ogóle lipa) więc póki co maksowanie MHz i minimalizacja CL tylko na SK Hynix pod max perf do testów GPU. Co do zdjęć, umknęły mojej uwadze, patrzyłem na opis platformy Pozdrawiam i dobrej zabawy Edytowane 13 Października 2022 przez EH_Gosu 1 Cytuj Link to post Share on other sites
Recommended Posts
Dołącz do dyskusji
Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.