Karister 837 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 9 minut temu, EH_Gosu napisał: To nie jest 4090 FE tylko Zotac Ale ta już chyba jest? 1 Cytuj Link to post Share on other sites
joker5513 2764 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 Dać sprawdzone 4x 8 pin - nie Wymyśleć jakieś gunwo i zrobić z siebie idiotów: 2 Cytuj Link to post Share on other sites
wojciech spychała 80 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 9 minut temu, danieloslaw1 napisał: To ze karta ma lepsza efektywnosc wat/performance to przeciez kazda wyzsza seria tak ma. Czyli standardowa ewolucja a nie NIESAMOWITA rewolucja A w którym miejscu zaczyna się rewolucja w takim układzie? Skoro w takim Spider-Manie 4090 przy tej samej wydajności co 3090 Ti (wiadomo - bottleneck na CPU) pobiera prawie 2x mniej prądu (konkretnie pobiera 130-140 W) to nie jest rewolucja? Miałby zacząć generować prąd, aby uznać za rewolucję? W poprzednich generacjach takiego skoku nie odnotowałem od kiedy testami kart się zajmuje A z tymi adapterami to jest niestety loteria - co prawda szanse na "wygranie" wadliwego adaptera są skrajnie małe, no ale to już nie jest margines błędu, tylko realny problem, na który można trafić. Najlepiej po prostu nie oszczędzać tych kilkudziesięciu złotych i zamówić kabel do swojego zasilacza modularnego, aby nie używać adaptera w ogóle Bonus taki, że wygląda to wtedy też dużo lepiej. 1 Cytuj Link to post Share on other sites
danieloslaw1 154 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 2 minuty temu, wojciech spychała napisał: A w którym miejscu zaczyna się rewolucja w takim układzie? Skoro w takim Spider-Manie 4090 przy tej samej wydajności co 3090 Ti (wiadomo - bottleneck na CPU) pobiera prawie 2x mniej prądu (konkretnie pobiera 130-140 W) to nie jest rewolucja? Miałby zacząć generować prąd, aby uznać za rewolucję? W poprzednich generacjach takiego skoku nie odnotowałem od kiedy testami kart się zajmuje A z tymi adapterami to jest niestety loteria - co prawda szanse na "wygranie" wadliwego adaptera są skrajnie małe, no ale to już nie jest margines błędu, tylko realny problem, na który można trafić. Najlepiej po prostu nie oszczędzać tych kilkudziesięciu złotych i zamówić kabel do swojego zasilacza modularnego, aby nie używać adaptera w ogóle Bonus taki, że wygląda to wtedy też dużo lepiej. 2x to troche przesada. Cytuj Link to post Share on other sites
EH_Gosu 1277 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 @Rebelmind Ok, zwracam honor. Nie przeleciałem przez całego newsa gdyż na innych portalach widziałem tą samą narrację odnośnie karty FE, a zdjęcie Zotaca. No dzieje się... @Karister Zdecydowanie jest Cytuj Link to post Share on other sites
wojciech spychała 80 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 1 minutę temu, danieloslaw1 napisał: 2x to troche przesada. No tak nie do końca - 260-280 W na 3090 Ti vs 140-150 W na 4090 - dla mnie to "prawie 2x" Dokładnie teraz sprawdziłem swoją bazę wyników, więc dane autentyczne. 1 Cytuj Link to post Share on other sites
EH_Gosu 1277 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 Również potwierdzam z mojej strony tego typu wartości jeśli chodzi o sprawność energetyczną RTX 4090 względem RTX 3090 Ti. Zresztą jak zmontuje materiał (testy wszystkie zrobione) to będzie czarno na białym na OSD wszystko. Także w kwestii wydajności i sprawności to jak najbardziej Ada jest rewolucją gdyż skok wydajnościowy Perf/W jest ogromny. Gdyby RTX 4090 przy tej wydajności ciągnął 650/800W to w zasadzie wydajność okupiona byłaby drastycznym poborem jednak przy zachowaniu wartości niższych realnie nawet niż top poprzedniej generacji, oferując największy skok wydajnościowy generacyjny to jest to poniekąd rewolucja. 1 Cytuj Link to post Share on other sites
Rebelmind 3722 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 @wojciech spychałaa jest szansa na test (~szerszy test) 4090 po UV? Żeby wykazać czarno na białym ile więcej architektura Lowelasów potrafi zaoferować przy takich sztywnych limitach, np wspomniane 200W? 47 minut temu, wojciech spychała napisał: w którym miejscu zaczyna się rewolucja w takim układzie? Gdybyś wziął power limit z 1080 Ti (250W bodajże) i wykazał ile razy zwiększyła się wydajność - to byłaby moim zdaniem REWOLUCJA. Cytuj Link to post Share on other sites
wrobel_krk 2175 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 (edytowane) Test jest się skalują użytkowo od 1x do 7x 4090, 7 x 4090 to 2.75kw:) https://www.pugetsystems.com/labs/articles/1-7x-nvidia-geforce-rtx-4090-gpu-scaling/ Edytowane 14 Listopada 2022 przez wrobel_krk 1 Cytuj Link to post Share on other sites
wojciech spychała 80 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 11 minut temu, Rebelmind napisał: a jest szansa na test (~szerszy test) 4090 po UV? Owszem Dotarł do nas Gainward 4090 i poza tradycyjną recenzją ich karty na tle innych 4090 chciałem właśnie zgłębić temat UV - pytanie czy czas pozwoli bo zaraz testy RDNA3... 11 minut temu, Rebelmind napisał: Gdybyś wziął power limit z 1080 Ti (250W bodajże) i wykazał ile razy zwiększyła się wydajność - to byłaby moim zdaniem REWOLUCJA. Pamiętajmy że bardzo dużo do ogólnego poboru energii prze karty dołożyły pamięci GDDR6X (dlatego też Radeony wypadają o tyle korzystniej...). To w sumie żadne usprawiedliwienie, ale warto mieć na uwadze. Niebawem powinien do nas dotrzeć 3060 Ti z tymi pamięciami (TGP 200 W?) to mogę do niego porównać (tzn. ograniczyć 4090 do 200 W i zobaczyć ile więcej wydajności zaoferuje A z tych starszych architektur to fizycznie niestety nie mam kart - 1070 jakiś się wala po szafie a potem długo nic aż do 2070... 1 1 Cytuj Link to post Share on other sites
Rebelmind 3722 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 Czekamy cierpliwie zatem! Bo jeśli by polegać na Nv tylko to w podobnym limicie TDP dostaniemy zapewne RTX 4060, tyle że to będzie absolutnie tragiczny kastrat, z końcową wydajnością gdzieś w okolicach 3070 zapewne Cytuj Link to post Share on other sites
EH_Gosu 1277 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 (edytowane) A, wrzucę zaraz 3DM TSE na 4090 przy 250W i dam comapre do 3090 Ti. E: Dokonało się https://www.3dmark.com/compare/spy/32529579/spy/32215194 4090 z PT 250W vs 3090 Ti z PT 480W I to nie jest UV tylko ustawienie PT na 250W, także piękna demolka Edytowane 14 Listopada 2022 przez EH_Gosu 2 3 1 Cytuj Link to post Share on other sites
Rebelmind 3722 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 A wrzucisz jeszcze @EH_GosuGpuz/Sensors z max Temp rdzeń / mem / hotspot podczas testów @250 TDP? Ale to i tak grubo, bo taki 3070 nonTi - czyli karta z najbliższym do tego TDP - W Time Spy Extreme zbiera tylko 7000 graphics score Edit: ślepy jestem, bo dałeś HW_minitor od razu 1 Cytuj Link to post Share on other sites
EH_Gosu 1277 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 19 minut temu, Rebelmind napisał: A wrzucisz jeszcze @EH_GosuGpuz/Sensors z max Temp rdzeń / mem / hotspot podczas testów @250 TDP? Ale to i tak grubo, bo taki 3070 nonTi - czyli karta z najbliższym do tego TDP - W Time Spy Extreme zbiera tylko 7000 graphics score Edit: ślepy jestem, bo dałeś HW_minitor od razu No wymiata sprawność tego potworka. Co do "ślepoty" jesteśmy kwita, ja dziś też odnośnie Twojego linku odwaliłem ślepca Cytuj Link to post Share on other sites
Rebelmind 3722 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 Gosu, tj Strix na benchu czy już w kompie dla klienta? Fabryczny cooler czy blok siedzi? Cytuj Link to post Share on other sites
r1023 866 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 Jak dla mnie rewelacja,przy 250W można mieć kartę wydajniejszą od 3090ti. Te nowe karty AMD chyba mają to robić przy 355W ? Cytuj Link to post Share on other sites
zbiku90 3659 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 10 minut temu, r1023 napisał: Te nowe karty AMD chyba mają to robić przy 355W ? Tak. Z tym że przy 355W będzie jakieś +-50% szybsza od 3090ti w rasteryzacji i też się powinna ładnie skalować w dół. Cytuj Link to post Share on other sites
r1023 866 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 zobaczymy, nie pokazali żadnych porównań do konkurencji, a mogli zamiast nawijaniu o display porcie i 8k gdzie te karty i tak się nie będą nadawać do grania w takiej rozdzielczosci. Cytuj Link to post Share on other sites
zbiku90 3659 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 RTX 3090 oczywiście się nadawał jak najbardziej https://www.nvidia.com/pl-pl/geforce/news/gfecnt/202009/geforce-rtx-3090-8k-hdr-gaming/ Cytuj Link to post Share on other sites
Rebelmind 3722 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 No nie potrafią "sprzedać" swojego produktu tak ładnie jak potrafią to zrobić inni, fakt. Lecz jeśli premiera, a co za nią idzie - faktyczna wydajność oraz cena spowodują ruch w interesie i wymuszą korektę ceny (w dół!) u Nv to będą miał wyjednane na głupoty, które opowiadali podczas prezentacji. Cytuj Link to post Share on other sites
r1023 866 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 1 minutę temu, zbiku90 napisał: RTX 3090 oczywiście się nadawał jak najbardziej https://www.nvidia.com/pl-pl/geforce/news/gfecnt/202009/geforce-rtx-3090-8k-hdr-gaming/ no wiadomo marketing, potem w CP2077 1FPS Cytuj Link to post Share on other sites
wojciech spychała 80 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 1 godzinę temu, EH_Gosu napisał: 4090 z PT 250W vs 3090 Ti z PT 480W +25% wydajności przy prawie 2x mniejszym limicie mocy... Nadal ktoś ma wątpliwości że to jest 2x lepsza efektywność perf/watt niż Ampere? W sumie jeszcze odnoście rewolucji jaką w efektywności poczyniła Ada warto dodać że RTX 4090 i 4080 w sumie też są chipami niżej pozycjonowanymi w hierarchii niż ich odpowiedniki w poprzednich generacjach... Zatem nie znamy jeszcze pełnego potencjału tej architektury 1 Cytuj Link to post Share on other sites
EH_Gosu 1277 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 Godzinę temu, Rebelmind napisał: Gosu, tj Strix na benchu czy już w kompie dla klienta? Fabryczny cooler czy blok siedzi? Cały czas na benchu, chłodzenie standardowe. Zimniutka, co? Wczoraj po ponad 3 godzinach sesji w "Guardians of the Galaxy" 3440x1440p 175 Hz / Ultra / RT Max / DLSS OFF Cytuj Link to post Share on other sites
r1023 866 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 ciekawe jaki wynik zrobi 4080 przy 250W. Cytuj Link to post Share on other sites
Player120 52 Napisano 14 Listopada 2022 Udostępnij Napisano 14 Listopada 2022 2 godziny temu, r1023 napisał: ciekawe jaki wynik zrobi 4080 przy 250W. w co takiego grasz ze tak się napalasz na ten model? (mi przeszło hahaha) widzę że posiadasz tak jak ja rtx 3080 i raczej jest OK? (mogę wymienić gpu na rtx 3090 ale za mały przyrost klatek za 200 euro dopłaty) co z tego że stać mnie na najdroższe modele rtx 4090, prądożerne procki intela i te wypasione nowe mobasy z ddr5... nie ma jeszcze gier nowej generacji a jak wyjdą pojawi się seria rtx 5000, nie Jestem też testerem nowej generacji sprzętu, zawsze są jakieś problemy z nowościami (topiące się adaptery w kartach za 2000 baksów, wole postać i popatrzeć) do pracy też nie potrzebuje procesora z 16 rdzeniami, w windows starcza mi rysiek 5800x3d z monitorem ultrawide dla lepszej przestrzeni roboczej oraz super immersji w grach mam też macbooka pro oraz iMaca, do 2024 spokojnie sobie pogram na karcie rtx 3080 10gb, no chyba że mi coś odbije i jednak sięgnę po tego tam dopakowanego rtxa 4090 ti który jeszcze bardziej będzie topił adaptery-przejściówki i temu tam podobne wielu posiada bardzo drogie karty, wypasione zestawy a jednak mało tak naprawdę gra...bynajmniej moi znajomi co do gier to tak mniej więcej będzie wyglądał nowy wiesiu 4 na silniku unreal 5 - rtx 3080 da rade Cytuj Link to post Share on other sites
Recommended Posts
Dołącz do dyskusji
Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.