Succubus 6185 Napisano 10 Marca 2022 Udostępnij Napisano 10 Marca 2022 Niestety tylko G5 27" Cytuj Link to post Share on other sites
wrobel_krk 2181 Napisano 10 Marca 2022 Udostępnij Napisano 10 Marca 2022 (edytowane) 11 minut temu, zbiku90 napisał: Ampere miały być "do 1,9x" wydajniejsze energetycznie od Turingów. No masz drobnym druczkiem, że w Control czyli ray tracing:) Wykresy promocyjne zawsze są tak dobierane żeby dobrze wyglądało Edytowane 10 Marca 2022 przez wrobel_krk Cytuj Link to post Share on other sites
Rebelmind 3725 Napisano 10 Marca 2022 Udostępnij Napisano 10 Marca 2022 Bo trzeba sobie postawić granicę TDP. Dla mnie to okolice 200W. 1080 Ti z 250W w peaku to był absolutny max. Teraz 3070 z wydajnością na poziomie 2080 Ti i poborem poniżej 220W jest przyzwoite. Jeśli zajmie im dwie generacje ogarnięcie sprawności energetycznej to ja poczekam. Za taki zapowiadany progres w postaci 4060 z wydajnością 3070 Ti i poborem 3070 Ti to ja dziękuję. A już totalną abstrakcją są dla mnie zapowiadane profile TBP dla 4080/4090. 2 Cytuj Link to post Share on other sites
mirai99 334 Napisano 10 Marca 2022 Udostępnij Napisano 10 Marca 2022 To nie jest z materiałów promocyjnych, tylko z wycieków insiderów, i mowa o rasteryzacji. Po prostu RDNA3 zapowiada się za********e i Nvidia próbuje wycisnąć z Ady ostatnie poty, nawet kosztem 2x wyższego TDP za 10% wydajności, byle tylko wypuścić jakiegoś 4099 TI (Tie) Super Max Kingpin edition 650W, którego będzie istnieć 10 sztuk na świecie, żeby było że mają najlepszą kartę na rynku To samo co 3090 Ti, które wypuszczą też 10 sztuk po to, żeby było co wstawić w tabelki obok 6950XT jak ten będzie wychodził i będą testy publikowane. Serio dobre wideło MLID, polecam oglądnąć. 1 Cytuj Link to post Share on other sites
EH_Gosu 1277 Napisano 10 Marca 2022 Udostępnij Napisano 10 Marca 2022 (edytowane) Godzinę temu, mirai99 napisał: To nie jest z materiałów promocyjnych, tylko z wycieków insiderów, i mowa o rasteryzacji. Po prostu RDNA3 zapowiada się za********e i Nvidia próbuje wycisnąć z Ady ostatnie poty, nawet kosztem 2x wyższego TDP za 10% wydajności, byle tylko wypuścić jakiegoś 4099 TI (Tie) Super Max Kingpin edition 650W, którego będzie istnieć 10 sztuk na świecie, żeby było że mają najlepszą kartę na rynku To samo co 3090 Ti, które wypuszczą też 10 sztuk po to, żeby było co wstawić w tabelki obok 6950XT jak ten będzie wychodził i będą testy publikowane. Serio dobre wideło MLID, polecam oglądnąć. RTX 3090 vs RTX 3090 Ti zegar w zegar to będzie +/- 2% przyrostu na korzyść 3090 Tie ;-) Ten dziwny twór powstaje z dwóch przyczyn. 1. Dla zasady żeby była kropka nad "i" w kwestii RX 6950X , który to i tak i tak realnie nie zdetronizuje "podstawowej" RTX 3090 nie licząc FE i kart anemicznych. 2. Przygotować ludzi na karty z TDP 450+ Gdyby ten 3090 Ti się pojawił ze trzy miechy temu, to bym się dla czystej zajawki (+/- 2% w benchach to więcej radochy) pewnie na niego przesiadł, ale na ten moment szkoda zachodu, RTX 4090 już tuż, tuż. Marketingowo pewnie za sprawą 3090 FE 350W vs 3090 Ti FE 450W nawet te około 5% ugrają, ale w wypadku konstrukcji autorskich z konkret VRM i PT, wzrosty mniejsze niż w wypadku TITAN Xp vs TITAN X Pascal czy GTX TITAN Black vs GTX TITAN. Ściąga vs jakie wersje 3090 odświeżony 3090 Ti pokaże przyrosty podobne jak na zasadzie obecne 3090 z wysokim PT vs 3090 anemiczne. https://www.overclock.net/threads/official-nvidia-rtx-3090-owners-club.1753930/ Anemiki : Konstukty dobrze dożywione ;-) Edytowane 10 Marca 2022 przez EH_Gosu Cytuj Link to post Share on other sites
1234567890 287 Napisano 10 Marca 2022 Udostępnij Napisano 10 Marca 2022 Coś mi się wydaje że radeony RX 7xxx będą miały podobną wydajność i 40% mniejsze zapotrzebowanie na prąd. Cytuj Link to post Share on other sites
janek20 1290 Napisano 10 Marca 2022 Udostępnij Napisano 10 Marca 2022 2 godziny temu, mirai99 napisał: Po prostu RDNA3 zapowiada się za********e A ja myśle ze nvidia odjedzie.Nie ma teraz lepszego startu jak amd z 7nm.Obaj sa na tym samym poziomie efektywności energetycznej Swoja drogą.Kupi sobie taki jeden z drugim radeona 5nm za 5k właczy Kingdom Come: Deliverance a tam wyskoczy 25fps. Ale beda tematy Cytuj Link to post Share on other sites
mirai99 334 Napisano 11 Marca 2022 Udostępnij Napisano 11 Marca 2022 3 godziny temu, 1234567890 napisał: Coś mi się wydaje że radeony RX 7xxx będą miały podobną wydajność i 40% mniejsze zapotrzebowanie na prąd. MLID twierdzi, że RDNA3 weźmie ten dodatkowy wzrost wydajności w zamian za 30% wiecej TDP (vs 80% czy jakoś tak więcej TDP Lovelace) To jest w stosunku do ich wydajności na takim samym TDP co RDNA2 i Ampere. Cytuj Link to post Share on other sites
Artok 2006 Napisano 15 Marca 2022 Udostępnij Napisano 15 Marca 2022 Jak sobie wejdziecie w sekcję używanych kart graficznych na OLX lub Allegro to można zauważyć, iż strasznie dużo grafików 3D wyprzedaje posiadane przez siebie modele. Disney zakończył z nimi współpracę czy co? 6 Cytuj Link to post Share on other sites
Rebelmind 3725 Napisano 16 Marca 2022 Udostępnij Napisano 16 Marca 2022 Kolegium grafików hutnictwa Monero. :p 1 Cytuj Link to post Share on other sites
Rebelmind 3725 Napisano 27 Marca 2022 Udostępnij Napisano 27 Marca 2022 Narzekałem także i w tym wątku na sprawność energetyczną Amperów, ale patrząc po zapowiadanym TDP RTX 3090 Ti (oraz spodziewanych dalszych wzrostach poboru przy Adzie) muszę zweryfikować swoją opinię. To nie jest tak, że NV NIE POTRAFI zaoferować wyższej wydajności przy niższym poborze mocy - oni najzwyczajniej nie chcą tego robić. Rozkład poboru mocy (GPU only) względem wydajności, normalizowany względem gtx 1080 Ti (pomiar w grach @1080p, na podstawie testów TPU) wygląda tak: [model, pobór, perf, perf/W] GTX 1080 Ti - 230W - 100% - 0.43 RTX 2080 Ti - 270W - 130% - 0,48 RTX 3070 - 220W - 131% - 0,59 RTX 3070 Ti - 290W - 136% - 0,46 RTX 3080 - 303W - 156% - 0,51 RTX 3080 Ti - 356W - 168% - 0,47 I pytanie na koniec: nie mam już złudzeń, że 4070 będzie szamać dużo (za dużo jak dla mnie); ale czy 4060 zaoferuje przynajmniej dwucyfrowy wzrost wydajności względem 3070 jednocześnie nie pobierając więcej od niego papu? Cytuj Link to post Share on other sites
mirai99 334 Napisano 27 Marca 2022 Udostępnij Napisano 27 Marca 2022 1 godzinę temu, Rebelmind napisał: Narzekałem także i w tym wątku na sprawność energetyczną Amperów, ale patrząc po zapowiadanym TDP RTX 3090 Ti (oraz spodziewanych dalszych wzrostach poboru przy Adzie) muszę zweryfikować swoją opinię. To nie jest tak, że NV NIE POTRAFI zaoferować wyższej wydajności przy niższym poborze mocy - oni najzwyczajniej nie chcą tego robić. Rozkład poboru mocy (GPU only) względem wydajności, normalizowany względem gtx 1080 Ti (pomiar w grach @1080p, na podstawie testów TPU) wygląda tak: [model, pobór, perf, perf/W] GTX 1080 Ti - 230W - 100% - 0.43 RTX 2080 Ti - 270W - 130% - 0,48 RTX 3070 - 220W - 131% - 0,59 RTX 3070 Ti - 290W - 136% - 0,46 RTX 3080 - 303W - 156% - 0,51 RTX 3080 Ti - 356W - 168% - 0,47 I pytanie na koniec: nie mam już złudzeń, że 4070 będzie szamać dużo (za dużo jak dla mnie); ale czy 4060 zaoferuje przynajmniej dwucyfrowy wzrost wydajności względem 3070 jednocześnie nie pobierając więcej od niego papu? Ale co to znaczy, że nie chcą? Cytuj Link to post Share on other sites
Rebelmind 3725 Napisano 27 Marca 2022 Udostępnij Napisano 27 Marca 2022 Zamiast zaoferować procentowo lekki wzrost wydajności przy jednoczesnym, sporym obniżeniu poboru mocy Zieloni wolą sprzedać nam ogromny skok wydajności okupiony jeszcze wyższym skokiem w poborze mocy. Do mnie taka oferta totalnie nie trafia a przykład RTX 3070 udowadnia, że bez problemu potrafią jeśli tylko chcą zrobić produkt oferujący wciąż przyzwoitą wydajność przy bardzo wysokiej sprawności energetycznej. Cytuj Link to post Share on other sites
mirai99 334 Napisano 27 Marca 2022 Udostępnij Napisano 27 Marca 2022 1 minutę temu, Rebelmind napisał: Zamiast zaoferować procentowo lekki wzrost wydajności przy jednoczesnym, sporym obniżeniu poboru mocy Zieloni wolą sprzedać nam ogromny skok wydajności okupiony jeszcze wyższym skokiem w poborze mocy. Do mnie taka oferta totalnie nie trafia a przykład RTX 3070 udowadnia, że bez problemu potrafią jeśli tylko chcą zrobić produkt oferujący wciąż przyzwoitą wydajność przy bardzo wysokiej sprawności energetycznej. No ale oni walczą o palmę pierwszeństwa z AMD, który wydaje się wygra tą "generację". Nvidia już na swoich stronach produktów nie eksponuje wydajności kart, ale technologie wspomagające. Przecieki mówią, że Nvidia te ostatnie procenty wydajności nowej architektury potrzebne do względnego dorównania Big-Big Navi okupi ponad 50% wzrostem TDP, gdzie AMD ostatnie procenty wyciąga znacznie mniejszym wzrostem TDP (mówię o teoretycznej maksymalnej wydajności full-die AD102 vs Navi31). Cytuj Link to post Share on other sites
Rebelmind 3725 Napisano 27 Marca 2022 Udostępnij Napisano 27 Marca 2022 3 minuty temu, mirai99 napisał: No ale oni walczą o palmę pierwszeństwa z AMD, który wydaje się wygra tą "generację". Dla mnie nie ma problemu. Niech wydadzą sobie 4090/Titan z poborem abstrakcyjnie wysokim ale niech nowe 4080/4070 jednocześnie nie przekraczają TDP 3080 (~300W) ani TDP 3070 (~220W). 1 Cytuj Link to post Share on other sites
mirai99 334 Napisano 27 Marca 2022 Udostępnij Napisano 27 Marca 2022 7 minut temu, Rebelmind napisał: Dla mnie nie ma problemu. Niech wydadzą sobie 4090/Titan z poborem abstrakcyjnie wysokim ale niech nowe 4080/4070 jednocześnie nie przekraczają TDP 3080 (~300W) ani TDP 3070 (~220W). Działałoby to tak, jak byś płacił w cenie 3080/3070 jak za full die, ale z mniejszym TDP. Czyli by nie działało, bo by kosztowało krocie. Cytuj Link to post Share on other sites
Rebelmind 3725 Napisano 27 Marca 2022 Udostępnij Napisano 27 Marca 2022 Pomarzyć można, nie? 1 Cytuj Link to post Share on other sites
EH_Gosu 1277 Napisano 28 Marca 2022 Udostępnij Napisano 28 Marca 2022 W dniu 27.03.2022 o 15:35, mirai99 napisał: No ale oni walczą o palmę pierwszeństwa z AMD, który wydaje się wygra tą "generację". Nvidia już na swoich stronach produktów nie eksponuje wydajności kart, ale technologie wspomagające. Przecieki mówią, że Nvidia te ostatnie procenty wydajności nowej architektury potrzebne do względnego dorównania Big-Big Navi okupi ponad 50% wzrostem TDP, gdzie AMD ostatnie procenty wyciąga znacznie mniejszym wzrostem TDP (mówię o teoretycznej maksymalnej wydajności full-die AD102 vs Navi31). Realnie to wydajność RX 6900XT nie jest wyższa ani od RTX 3090 czy również RTX 3080 Ti, a nawet często od RTX 3080 w kontekście standardowej rasteryzacji. W wypadku RT nawet obok Ampere nie leżało, o braku realnej alternatywy dla coraz sprawniej działającego i popularyzowanego DLSS też należy pamiętać. Mowa naturalnie o warunkach kiedy zestawiamy ze sobą karty na uwolnionych potencjałach. Doskonale będzie to widać w materiale jaki mam zabukowany do montażu, mianowicie testy RX 6900 XT Red Devil vs RTX 3090 STRIX, a również jeszcze RTX 3080 12 GB FTW3 dogram. Wszystko na wyregulowanym należycie i9-12900K SP 95. Problem Ampere to stosunkowo niskie PT w kartach FE i bardzo niskie w wielu mniej dopasionych konstrukcjach autorskich. GA102-200 / 225, a również 300 (czyli kolejno RTX 3080, RTX 3080 Ti i RTX 3090) wymagają wysokich PT do uwolnienia ich potencjałów, inaczej karty są po prostu duszone. RTX 3090 Ti to w gruncie rzeczy RTX 3090 z podwyższonym o 100W PT (3090 FE 350 PT, 3090 Ti FE 450 PT) gdyż różnice z dodatkowych 2 odblokowanych SM są marginalne, aspekt pamięci poruszę w dalszej części posta. RTX 3090 FE : CUDA 10496 / TMU 328 / Tensor 328 / RT 82 / ROP 112 / 24 GB GDDR6X 384 Bit 24x 1 GB / PT 350-400W . GA102-300 RTX 3090 Ti FE CUDA 10752 / TMU 336 / Tensor 336 / RT 84 / ROP 112 / 24 GB GDDR6X 384 Bit 12x 2 GB / PT 450-500W. GA102-350 Wracając do RDNA2 ma wyższą sprawność energetyczną w kontekście jedynie standardowej rasteryzacji, jednak w aspektach czysto wydajnościowych nie jest to poziom DOŻYWIONYCH Ampere. RX 6950XT to będzie po prostu mocniej kręcony RX 6900XT, także też bliźniacza karta do 6900XT. Tutaj nazewnictwo NVIDII jest mocno konfudujące bo nowa odmiana GA102 lepiej by oddawała realia nazywając się RTX 3090 SUPER, gdzie naprawdę udaną konstrukcją godną uwagi jest akurat RTX 3080 12 GB względem RTX 3080 10 GB. Dodatkowe CUDA, TMU, Tensor, RT w połączeniu z szyną 384 Bit zamiast 320 Bit jak w podstawowej 3080 10 GB owocuje realnie wyższym wzrostem niż w wypadku RTX 2080 vs RTX 2080 SUPER gdzie zmianie uległa tylko kwestia odblokowanych SM i zegarów. RTX 3090 Ti ma głównie na celu przyzwyczajenie ludzi do wyższych TGP, eksperymentowanie z nowym złączem zasilania oraz zapewnienie NVIDII tego, że jako pierwsi wprowadzili na rynek GPU z PCI-E 5.0 Aspekty wydajnościowe pomiędzy dokokszonymi wersjami RTX 3090, a dokokszonymi RTX 3090 Ti zamykają się w przedziale od około 1,4% do 3% na korzyść 3090 Ti Przykładowo RTX 3090 STRIX z PT do 480W (regulacje od 380 do 480W) vs RTX 3090 Ti STRIX z PT do 516W (regulacje od 480 do 516W) Kwestia OC pamięci wymaga jeszcze zbadania na większej ilości sztuk, jednak moduły 2 GB dość szybko osiągają limit przy OC, za sprawą większego wyżyłowania względem kości 1 GB. Na plus jest to, że uśredniając konstrukcje 3090 Ti mające memki tylko po stronie PCB rdzenia, notują nieco niższe temperatury ale to też kwestia napięć i tego jakie akurat kostki się trafiły. Tutaj 19,5 GBps na 3090 pozwala efektywnie na OC w okolice do 22 GBps, a na 3090 Ti z 21 GBps również na 22 GBps. Wtedy przepustowości są takie same. Jeśli chodzi o kwestie poboru topowych kart to cóż, topowe karty są kierowane do użytkowników dla których wydajność ma pierwsze miejsce. Od momentu kiedy SLI jest martwicą, konstrukty takie jak RTX 3090 Ti / 3090 / 3080 Ti czy nadchodzące RTX 4090 etc. Poniekąd rolę konfiguracji dual GPU przejęły. Odprowadzenie ciepła z kart które nawet i 600/700W będą żarły to nie jest żaden problem dla użytkowników inwestujących w rozbudowane LC, czy to jedna tak prądożerna karta czy dwie cisnące po 320/350W każda i efektywnie również 600+ to chleb powszedni. Tak to wygląda w tym segmencie realnie. Naturalnie są ludzie jacy takie potwory wsadzają do typowych kompów z AIO czy AIR no i niestety wtedy trzeba się borykać z problemami wynikającymi z aspektu odprowadzania ciepła. Niestety zarówno temperatury jak i kultura pracy w takich warunkach są dalekie od ideału, a i wydajność końcowa mocno przez owe czynniki ograniczana. Segment mid end do początku high end w kwestiach sprawności energetycznej wypada naturalnie już znacznie lepiej, ale i wydajność bez porównania niższa. Co do RTX 3090 Ti to sam rozważam sobie przesiadkę właśnie na STRIXa 3090 Ti, ale nie motywuje mnie tu wydajność. Do 3% jak dobrze pójdzie, przy wydajności obecnej karty (gdzie od początku mam wydajność jaką dopiero teraz na defie zapewni 3090 Ti z PT 450W) to jest nic. Ciekawi mnie sprawdzenie jak długofalowo jednostronne moduły GDDR6X będą się zachowywać w kwestii oddawania ciepła do układu LC, oraz kilka innych aspektów które pozwolą mi efektywniej przygotować się układami chłodzenia cieczą pod nadchodzące RTXy 4090 itd. Kwestia tylko czy obecne bloki będą pasować z 3090 STRIX na 3090 Ti STRIX, bo tak dokupuje nowe i nie bawię się w przekładki czy czekanie na nowe bloki. Wtedy przeskok na RTX 4090 jakieś 2-3 miechy po jego premierze, jak się pojawią ciekawe konstrukcje oraz bloki wodne zapewniające interesującą mnie wydajność w kwestii odprowadzania ciepła. Też zmiana platformy na albo nowe HEDT albo Z790 + i9-13900K i nowa zajawka. Teraz też dobry okres jest na kupowanie kart bo ceny w dół mocny poszły, a kwestią czasu znowu jest powrót do szaleństwa. Także jak ktoś chce dorwać sobie jakieś sensowne GPU niech nie czeka na kolejne obniżki klasy "200 zł" bo potem znowu ponad 2000 będzie musiał dokładać Cytuj Link to post Share on other sites
mirai99 334 Napisano 28 Marca 2022 Udostępnij Napisano 28 Marca 2022 15 minut temu, EH_Gosu napisał: Realnie to wydajność RX 6900XT nie jest wyższa ani od RTX 3090 czy również RTX 3080 Ti, a nawet często od RTX 3080 w kontekście standardowej rasteryzacji. W wypadku RT nawet obok Ampere nie leżało, o braku realnej alternatywy dla coraz sprawniej działającego i popularyzowanego DLSS też należy pamiętać. Mowa naturalnie o warunkach kiedy zestawiamy ze sobą karty na uwolnionych potencjałach. Doskonale będzie to widać w materiale jaki mam zabukowany do montażu, mianowicie testy RX 6900 XT Red Devil vs RTX 3090 STRIX, a również jeszcze RTX 3080 12 GB FTW3 dogram. Wszystko na wyregulowanym należycie i9-12900K SP 95. Problem Ampere to stosunkowo niskie PT w kartach FE i bardzo niskie w wielu mniej dopasionych konstrukcjach autorskich. GA102-200 / 225, a również 300 (czyli kolejno RTX 3080, RTX 3080 Ti i RTX 3090) wymagają wysokich PT do uwolnienia ich potencjałów, inaczej karty są po prostu duszone. RTX 3090 Ti to w gruncie rzeczy RTX 3090 z podwyższonym o 100W PT (3090 FE 350 PT, 3090 Ti FE 450 PT) gdyż różnice z dodatkowych 2 odblokowanych SM są marginalne, aspekt pamięci poruszę w dalszej części posta. RTX 3090 FE : CUDA 10496 / TMU 328 / Tensor 328 / RT 82 / ROP 112 / 24 GB GDDR6X 384 Bit 24x 1 GB / PT 350-400W . GA102-300 RTX 3090 Ti FE CUDA 10752 / TMU 336 / Tensor 336 / RT 84 / ROP 112 / 24 GB GDDR6X 384 Bit 12x 2 GB / PT 450-500W. GA102-350 Wracając do RDNA2 ma wyższą sprawność energetyczną w kontekście jedynie standardowej rasteryzacji, jednak w aspektach czysto wydajnościowych nie jest to poziom DOŻYWIONYCH Ampere. RX 6950XT to będzie po prostu mocniej kręcony RX 6900XT, także też bliźniacza karta do 6900XT. Tutaj nazewnictwo NVIDII jest mocno konfudujące bo nowa odmiana GA102 lepiej by oddawała realia nazywając się RTX 3090 SUPER, gdzie naprawdę udaną konstrukcją godną uwagi jest akurat RTX 3080 12 GB względem RTX 3080 10 GB. Dodatkowe CUDA, TMU, Tensor, RT w połączeniu z szyną 384 Bit zamiast 320 Bit jak w podstawowej 3080 10 GB owocuje realnie wyższym wzrostem niż w wypadku RTX 2080 vs RTX 2080 SUPER gdzie zmianie uległa tylko kwestia odblokowanych SM i zegarów. RTX 3090 Ti ma głównie na celu przyzwyczajenie ludzi do wyższych TGP, eksperymentowanie z nowym złączem zasilania oraz zapewnienie NVIDII tego, że jako pierwsi wprowadzili na rynek GPU z PCI-E 5.0 Aspekty wydajnościowe pomiędzy dokokszonymi wersjami RTX 3090, a dokokszonymi RTX 3090 Ti zamykają się w przedziale od około 1,4% do 3% na korzyść 3090 Ti Przykładowo RTX 3090 STRIX z PT do 480W (regulacje od 380 do 480W) vs RTX 3090 Ti STRIX z PT do 516W (regulacje od 480 do 516W) Kwestia OC pamięci wymaga jeszcze zbadania na większej ilości sztuk, jednak moduły 2 GB dość szybko osiągają limit przy OC, za sprawą większego wyżyłowania względem kości 1 GB. Na plus jest to, że uśredniając konstrukcje 3090 Ti mające memki tylko po stronie PCB rdzenia, notują nieco niższe temperatury ale to też kwestia napięć i tego jakie akurat kostki się trafiły. Tutaj 19,5 GBps na 3090 pozwala efektywnie na OC w okolice do 22 GBps, a na 3090 Ti z 21 GBps również na 22 GBps. Wtedy przepustowości są takie same. Jeśli chodzi o kwestie poboru topowych kart to cóż, topowe karty są kierowane do użytkowników dla których wydajność ma pierwsze miejsce. Od momentu kiedy SLI jest martwicą, konstrukty takie jak RTX 3090 Ti / 3090 / 3080 Ti czy nadchodzące RTX 4090 etc. Poniekąd rolę konfiguracji dual GPU przejęły. Odprowadzenie ciepła z kart które nawet i 600/700W będą żarły to nie jest żaden problem dla użytkowników inwestujących w rozbudowane LC, czy to jedna tak prądożerna karta czy dwie cisnące po 320/350W każda i efektywnie również 600+ to chleb powszedni. Tak to wygląda w tym segmencie realnie. Naturalnie są ludzie jacy takie potwory wsadzają do typowych kompów z AIO czy AIR no i niestety wtedy trzeba się borykać z problemami wynikającymi z aspektu odprowadzania ciepła. Niestety zarówno temperatury jak i kultura pracy w takich warunkach są dalekie od ideału, a i wydajność końcowa mocno przez owe czynniki ograniczana. Segment mid end do początku high end w kwestiach sprawności energetycznej wypada naturalnie już znacznie lepiej, ale i wydajność bez porównania niższa. Co do RTX 3090 Ti to sam rozważam sobie przesiadkę właśnie na STRIXa 3090 Ti, ale nie motywuje mnie tu wydajność. Do 3% jak dobrze pójdzie, przy wydajności obecnej karty (gdzie od początku mam wydajność jaką dopiero teraz na defie zapewni 3090 Ti z PT 450W) to jest nic. Ciekawi mnie sprawdzenie jak długofalowo jednostronne moduły GDDR6X będą się zachowywać w kwestii oddawania ciepła do układu LC, oraz kilka innych aspektów które pozwolą mi efektywniej przygotować się układami chłodzenia cieczą pod nadchodzące RTXy 4090 itd. Kwestia tylko czy obecne bloki będą pasować z 3090 STRIX na 3090 Ti STRIX, bo tak dokupuje nowe i nie bawię się w przekładki czy czekanie na nowe bloki. Wtedy przeskok na RTX 4090 jakieś 2-3 miechy po jego premierze, jak się pojawią ciekawe konstrukcje oraz bloki wodne zapewniające interesującą mnie wydajność w kwestii odprowadzania ciepła. Też zmiana platformy na albo nowe HEDT albo Z790 + i9-13900K i nowa zajawka. Teraz też dobry okres jest na kupowanie kart bo ceny w dół mocny poszły, a kwestią czasu znowu jest powrót do szaleństwa. Także jak ktoś chce dorwać sobie jakieś sensowne GPU niech nie czeka na kolejne obniżki klasy "200 zł" bo potem znowu ponad 2000 będzie musiał dokładać Ja dalej jestem w stanie tylko powtarzać po MLID, ale może się tak zdarzyć, że te 600-800-1000W to będzie tylko na opcję Kingpin Extreme Uber edition wyprodukowaną w 5 sztukach na cały świat, z wbudowanym AIO z radiatorem 420mm, po to żeby móc powiedzieć, że jakoś dorównują Navi31. Cytuj Link to post Share on other sites
EH_Gosu 1277 Napisano 28 Marca 2022 Udostępnij Napisano 28 Marca 2022 (edytowane) 18 minut temu, mirai99 napisał: Ja dalej jestem w stanie tylko powtarzać po MLID, ale może się tak zdarzyć, że te 600-800-1000W to będzie tylko na opcję Kingpin Extreme Uber edition wyprodukowaną w 5 sztukach na cały świat, z wbudowanym AIO z radiatorem 420mm, po to żeby móc powiedzieć, że jakoś dorównują Navi31. Za dużo wiary pokładasz w NAVI31. Kiedy to AMD wydało serię GPU jaka jest w stanie rywalizować z NVIDIĄ we wszystkich istotnych aspektach wydajnościowych? Fury X? VEGA 64? 6900XT? Żadna z tych. RDNA2 jedynie wypada bardzo dobrze w dwóch aspektach - sprawność energetyczna i wydajność w standardowej rasteryzacji. Co i jak opisałem wyżej. Wydajność jako jej całokształt, dostępne dodatkowe sprawnie działające technologie, aspekty takie jak kwestie dopracowanych sterowników (gdzie naturalnie NV również ma wpadki, ale nadal stery lepszą mają od AMD) - to wszystko ma znaczenie dla osoby jaka podejmuje decyzje zakupowe w oparciu o możliwości danego sprzętu. RDNA2 jedynie pozwoliło AMD jako tako wrócić do gry na polu topowych GPU, ale nadal nie jest to to czego oczekuje najbardziej wymagający użytkownik. NAVI31 przy konstrukcji MCM w teorii (bo tylko na plotkach póki co można się opierać) ma oferować więcej TFLOPS od AD102. A, jak się te teorie przekładają na realia wiadomo nie od dziś. RX 6900XT (RX 6800XT również) to pierwsza od czasów R9 290X warta w ogóle brania pod jakąkolwiek uwagę karta ze stajni AMD z segmentu top. Wcześniejsze paździerze jak VEGA 64 czy FURY X to totalna popelina niestety. No i niech się lampka zapali też z tego powodu, że chip MCM czyli sklejka z GPU ma jako tako rywalizować z monolitem NV. Dlatego jedna i druga konstrukcja żreć swoje będzie, natomiast monolit pozbawiony będzie wad MCM przy czym AMD nie słynie z dobrze działających wdrażanych nowych rozwiązań. Generalnie nie podejrzewam, że nawet w standardowej rasteryzacji (bo w RT nie ma na to żadnych szans) topowy konstrukt AMD był w stanie nawiązać naprawdę równą walkę z topowym konstruktem NV. Jak dojdą do tego jeszcze potencjalne stuttery, dropy 1% lop, min fps i ogólnie nierówna wydajność z uwagi na MCM - to będzie dopiero nie lada problem dla konstrukcji AMD. Póki co historia kołem się toczy, szumne zapowiedzi AMD, a efekt końcowy nadal bez fajerwerków. Dopóty dopóki nie zaczną robić kart naprawdę konkurencyjnych dla NVIDII, to serc najbardziej wymagających użytkowników nie podbiją. A, co za tym idzie również i portfeli. Tak to wygląda. O tyle o ile można pokręcić nosem na TDP kart NVIDII to jednak wydajność się zgadza i usprawiedliwia wymogi. Sytuacji kiedy ktoś ciśnie na RTX 3080 / 3080 Ti / 3090 czy też będzie na 3090 Ti ze srogim bottleneckiem platformy, a również na pół gwizdka jeśli chodzi o sam potencjał GPU (takich ludzi nie brakuje od lat, tyczy się to wszystkich generacji różnych GPU) albo bezkrytycznie pokłada wiarę w to, że portale głównego nurtu IT pokazują zagadnienia sprzętowe w całościowym ujęciu tematu - nie liczę, bo i nie ma co takich odstępstw od możliwości realnych sprzętu brać pod uwagę. Naturalnie o ile wyznaje się zasadę, że istotna jest jakość, dopracowanie. Bo tam gdzie podejście "byle to jakoś tam było" również rządzi się swoimi prawami. Clickbaity MILDów, AdoreTV czy innych mających odgórne przyjęte narracje showmanów, nie są opiniami ludzi jacy się sprzętem profesjonalnie zajmują czy też mają jakieś większe z nim doświadczenie. Tak to z tym rynkiem wygląda. Overclockerzy, pasjonaci, entuzjaści którzy badają solidnie zagadnienia sprzętowe to zawsze najlepsze źródła informacji w kwestii zachowania sprzętu. Polecam forum overclockers.uk chociażby. Gdzie też w polskich realiach już trochę kumatych w tych tematach pasjonatów się znajduje, nie chodzi tu tylko o mnie. Co do TDP RTX 4090, to realne są bardzo wartości +/- 600W na def dla 4090 FE. Jeśli jednak wydajność względem 3090 FE (350W def) to będzie zakres 80-100% co jest bardzo możliwe to niech i sobie tyle wcina. Dla osób które się naprawdę takimi sprzętami interesują nie jest to problem. Bardziej dowalone konstrukty jak 4090 STRIX / SUPRIM X / FTW3 to już realnie faktycznie ponad 750W mogą cisnąć. KINGPIN 3090 ma już bios 1000W, ale nie oznacza to, że tyle podeżre. To są zdjęte limity pod LN2. Dla każdego coś ciepłego Edytowane 28 Marca 2022 przez EH_Gosu Cytuj Link to post Share on other sites
mirai99 334 Napisano 28 Marca 2022 Udostępnij Napisano 28 Marca 2022 52 minuty temu, EH_Gosu napisał: Za dużo wiary pokładasz w NAVI31. Kiedy to AMD wydało serię GPU jaka jest w stanie rywalizować z NVIDIĄ we wszystkich istotnych aspektach wydajnościowych? Fury X? VEGA 64? 6900XT? Żadna z tych. RDNA2 jedynie wypada bardzo dobrze w dwóch aspektach - sprawność energetyczna i wydajność w standardowej rasteryzacji. Co i jak opisałem wyżej. Wydajność jako jej całokształt, dostępne dodatkowe sprawnie działające technologie, aspekty takie jak kwestie dopracowanych sterowników (gdzie naturalnie NV również ma wpadki, ale nadal stery lepszą mają od AMD) - to wszystko ma znaczenie dla osoby jaka podejmuje decyzje zakupowe w oparciu o możliwości danego sprzętu. RDNA2 jedynie pozwoliło AMD jako tako wrócić do gry na polu topowych GPU, ale nadal nie jest to to czego oczekuje najbardziej wymagający użytkownik. NAVI31 przy konstrukcji MCM w teorii (bo tylko na plotkach póki co można się opierać) ma oferować więcej TFLOPS od AD102. A, jak się te teorie przekładają na realia wiadomo nie od dziś. RX 6900XT (RX 6800XT również) to pierwsza od czasów R9 290X warta w ogóle brania pod jakąkolwiek uwagę karta ze stajni AMD z segmentu top. Wcześniejsze paździerze jak VEGA 64 czy FURY X to totalna popelina niestety. No i niech się lampka zapali też z tego powodu, że chip MCM czyli sklejka z GPU ma jako tako rywalizować z monolitem NV. Dlatego jedna i druga konstrukcja żreć swoje będzie, natomiast monolit pozbawiony będzie wad MCM przy czym AMD nie słynie z dobrze działających wdrażanych nowych rozwiązań. Generalnie nie podejrzewam, że nawet w standardowej rasteryzacji (bo w RT nie ma na to żadnych szans) topowy konstrukt AMD był w stanie nawiązać naprawdę równą walkę z topowym konstruktem NV. Jak dojdą do tego jeszcze potencjalne stuttery, dropy 1% lop, min fps i ogólnie nierówna wydajność z uwagi na MCM - to będzie dopiero nie lada problem dla konstrukcji AMD. Póki co historia kołem się toczy, szumne zapowiedzi AMD, a efekt końcowy nadal bez fajerwerków. Dopóty dopóki nie zaczną robić kart naprawdę konkurencyjnych dla NVIDII, to serc najbardziej wymagających użytkowników nie podbiją. A, co za tym idzie również i portfeli. Tak to wygląda. O tyle o ile można pokręcić nosem na TDP kart NVIDII to jednak wydajność się zgadza i usprawiedliwia wymogi. Sytuacji kiedy ktoś ciśnie na RTX 3080 / 3080 Ti / 3090 czy też będzie na 3090 Ti ze srogim bottleneckiem platformy, a również na pół gwizdka jeśli chodzi o sam potencjał GPU (takich ludzi nie brakuje od lat, tyczy się to wszystkich generacji różnych GPU) albo bezkrytycznie pokłada wiarę w to, że portale głównego nurtu IT pokazują zagadnienia sprzętowe w całościowym ujęciu tematu - nie liczę, bo i nie ma co takich odstępstw od możliwości realnych sprzętu brać pod uwagę. Naturalnie o ile wyznaje się zasadę, że istotna jest jakość, dopracowanie. Bo tam gdzie podejście "byle to jakoś tam było" również rządzi się swoimi prawami. Clickbaity MILDów, AdoreTV czy innych mających odgórne przyjęte narracje showmanów, nie są opiniami ludzi jacy się sprzętem profesjonalnie zajmują czy też mają jakieś większe z nim doświadczenie. Tak to z tym rynkiem wygląda. Overclockerzy, pasjonaci, entuzjaści którzy badają solidnie zagadnienia sprzętowe to zawsze najlepsze źródła informacji w kwestii zachowania sprzętu. Polecam forum overclockers.uk chociażby. Gdzie też w polskich realiach już trochę kumatych w tych tematach pasjonatów się znajduje, nie chodzi tu tylko o mnie. Co do TDP RTX 4090, to realne są bardzo wartości +/- 600W na def dla 4090 FE. Jeśli jednak wydajność względem 3090 FE (350W def) to będzie zakres 80-100% co jest bardzo możliwe to niech i sobie tyle wcina. Dla osób które się naprawdę takimi sprzętami interesują nie jest to problem. Bardziej dowalone konstrukty jak 4090 STRIX / SUPRIM X / FTW3 to już realnie faktycznie ponad 750W mogą cisnąć. KINGPIN 3090 ma już bios 1000W, ale nie oznacza to, że tyle podeżre. To są zdjęte limity pod LN2. Dla każdego coś ciepłego To samo można było powiedzieć o CPU AMD vs Intel (przed Ryzenami) "kiedy AMD ostatnio wydało CPU które jest w stanie rywalizować z Intelem we wszystkich istotnych aspektach wydajnościowych". Przecieki mówią, że to może być teraz, że RDNA3 może wygrać tą generację, i dlatego Nvidia w poszukiwaniu tych ostatnich 10% wydajności może wpompować 50-100% dodatkowego TDP. Tak jak mówię, opieram się na analizach i insider'ach MLID, ale chłop przez ostatnie 2 lata miał dobre info za każdym razem. Cytuj Link to post Share on other sites
EH_Gosu 1277 Napisano 28 Marca 2022 Udostępnij Napisano 28 Marca 2022 (edytowane) 48 minut temu, mirai99 napisał: To samo można było powiedzieć o CPU AMD vs Intel (przed Ryzenami) "kiedy AMD ostatnio wydało CPU które jest w stanie rywalizować z Intelem we wszystkich istotnych aspektach wydajnościowych". Przecieki mówią, że to może być teraz, że RDNA3 może wygrać tą generację, i dlatego Nvidia w poszukiwaniu tych ostatnich 10% wydajności może wpompować 50-100% dodatkowego TDP. Tak jak mówię, opieram się na analizach i insider'ach MLID, ale chłop przez ostatnie 2 lata miał dobre info za każdym razem. Naturalnie rozumiem Twój punkt widzenia oraz argumentację w kwestii procków. Niemniej jest pomiędzy konkurencyjnością, a wręcz też naprawdę dobrą passą i sytuacją w sprawie CPU u AMD vs Intel, pewna zasadnicza różnica analogicznie do świata GPU. Tam AMD nie ma jako konkurenta Intela który to trzeba otwarcie przyznać, długo na laurach spoczywał. Na rynku GPU NVIDIA sukcesywnie prze z wydajnością oraz innowacjami do przodu. Osobiście mam tak wysokie wymagania wobec kart graficznych, że ten dział jest w gruncie rzeczy taką moją pasją w pasji. Gdzie całokształt pasji związanej ze sprzętem zawiera się nie tylko w perfekcjonizmie odnośnie budowy konfigów, szlifów na tle wydajności i sprawności energetycznej całych konfigów (maksymalizowanie wydajności i optymalizacja aspektów termicznych jak i energetycznych, na potworach klasy ciężkiej to daje najwięcej korzyści) ale też w bardzo szczegółowym analizowaniu wielowymiarowości możliwości GPU. Pewnymi kwestiami się dzielę, pewne zostawiam do dalszych analiz itd. Patrząc z tej perspektywy i bacznie obserwując jak się toczy historia i co pokazują realia na rynku GPU w aspektach użytkowych w oparciu o również swój ogromny zakres przeprowadzonych badań w praktyce, cały czas dobitnie widać sytuację w której NVIDIA w aspektach wydajnościowych jest po za zasięgiem AMD. Nawet w testach głównego nurtu IT, które są odnośnikiem dla typowego mającego przeciętne wymagania użytkownika sprzętu, jednak cały czas widać tą przewagę NVIDII, a w aspektach które cały czas są popularyzowane czyli śledzenie promieni jak i również techniki rekonstrukcji obrazu w oparciu o specjalistyczne rdzenie hardware - AMD ma ogromną stratę wobec kart NVIDII. NAVI31 musiałoby spełniać następujące założenia, aby zmotywować ludzi poszukujących najwyższej wydajności i komfortu rozgrywki do właśnie wyboru tejże zamiast kart NV. Porównywalna wydajność pod każdym możliwym względem oraz najlepiej w warunkach kiedy zarówno karty AMD jak i NV mają pozdejmowane kagańce. Obecnie przy Ampere vs RDNA2, mamy sytuację gdzie RDNA2 nadrabia sprawnością energetyczną i wysokimi zegarami blisko nawet 2.7 - 2.8 GHz vs w wersjach FE czy wszelkich nierefach (większość, ma referencyjne PCB, gdzie FE ma autorskie i tak ale nadal anemiczne są to konstrukcje) dogania, czasem wygrywa w standardowej rasteryzacji z Ampere jaki lata w okolicach 1800 MHz. Uwolnienie limitów i sytuacja gdzie przykładowo RTX 3080 Ti leci z zegarem 2025 MHz na rdzeniu (na LC i po 2130 wzwyż) już wszędzie odskakuje od RX 6900 XT jaki lata nawet na 2.9-3 GHz, o ponad 10%, czasem i więcej. W wypadku RT jest wiadomo miazga i RDNA2 jest deklasowane o grubo ponad 60%. DLSS jest również istotnym elementem, używanie go w wysokich rozdziałkach jak 3440x1440 / 3840x2160 / 5160x2160 etc. Robi świetną robotę, zarówno wizualnie jak i wydajnościowo, gdzie się DLSS jedynie przydaje w tych rozdziałkach jak się RT włączy na RTX 3090 Ti / 3090 / 3080 Ti, albo też 3080 po OC konkretnym. Bez RT wydajność tak wysoka, że DLSS zbędne w zdecydowanej większości tytułów. Niższe rozdziałki jak 2560x1440 czy 1920x1080 jakie są znacznie bardziej popularne, pozwalają cieszyć się coraz przyjemniej wykonywanymi dla oka efektami śledzenia promieni, przy zachowaniu wysokiej wydajności oraz jakości wizualnej. AMD musi mieć sprawnie działający hardwarowy komponent dla rekonstrukcji obrazu, konkurencyjny względem rdzeni Tensor i techniki DLSS. FSR jest jaki jest, jednym wystarcza, inni na niego patrzeć nie mogą, jest to tak naprawdę proteza. Właśnie dlatego też RTX 3090 Ti dostaje na dzień dobry PT 450W. Czyli na def ma takie PT aby pozwolić na uzyskanie wysokiego zegara, a również limit mocy odpowiednio rozdysponowany dokarmia memki i przekłada się to na wyższe takty i przepustowości. To właśnie PT robi najwięcej w wypadku GA102-300 vs GA102-350. bonus wynikający z aktywnych 84 SM zamiast 82, to zaledwie uśredniając 2,4% na korzyść refresha. W wypadku nadchodzącego RX 6950XT którego mam nadzieję również przetestuję w porównaniu z RX 6900XT jak i kartami NV, konfiguracja hardware nie ulega zmiane, a same limity TDP i zegary. Też bardzo istotnym aspektem jest szerokość szyny kart, bo co jak co ale Infinity Cache to potężny hamulec dla serii RX 69xx, soczysta, konkretna przepustowość na szerokiej szynie jest po za zasięgiem hardwarowo-softwarowych, hybrydowych rozwiązań w oparciu o drastycznie wąską jak dla tego segmentu GPU szynę. Wiele wskazuje na to, że Ada Lovelance ma mieć wysokie TDP po wyjęciu z pudła, nawet w FE tak by zapobiec podobnej sytuacji jak ta jaka ma miejsce w wypadku RDNA2 vs bardzo zachowawczo ustawione Ampere FE i biosy. Osobiście obstawiam, że sytuacja będzie klarowała się następująco. NAVI31 podniesie poprzeczkę vs NAVI21 nawet o 100-120% w kwestiach standardowej rasteryzacji i około 50% w RT. Można tak wnioskować po wydajności rdzeni RT w RDNA2, zegar w zegar są wolniejsze od rdzeni Turinga czyli 1 Generacja RT (Ampere ma rdzenie 2 generacji). Także rdzenie RT będące wydajnościowo (o ile te + 50% na tym polu się sprawdzi) pomiędzy tymi z Turinga i Ampere vs rdzenie 3 generacji w ADA Lovelace. Analogicznie rdzenie Tensor 4 generacji (1, gen Volta, 2 gen Turing, 3 gen Ampere) vs 1 generacja rozwiązania hardwarowego AI od AMD. Budowa MCM też niestety (co doskonale CPU pokazały, a GPU wymagają jeszcze większej responsywności i transferów, przepustowości) niestety negatywnie wpływa na kwestie wydajności, w środowisku graficznym jest ryzyko mikroprzycięć, stutterów etc. Tak czy owak wszystkim nam jak zawszę życzę najlepszych sprzętów do zabawy, radochy, testów itd. Pozdrawiam, idę się relaksować. W końcu czas na odpalenie "Elden Ring", miałem na patcha z RT poczekać ale będę miał potem fajne porównanie z RT OFF vs RT ON w tej produkcji. 3m się pozytywnie Edytowane 28 Marca 2022 przez EH_Gosu 1 Cytuj Link to post Share on other sites
kampers 150 Napisano 28 Marca 2022 Udostępnij Napisano 28 Marca 2022 Pojawią sie jutro do kupienia te karty ? Czy tylko prezentacja?? Cytuj Link to post Share on other sites
zbiku90 3659 Napisano 28 Marca 2022 Udostępnij Napisano 28 Marca 2022 2 godziny temu, mirai99 napisał: To samo można było powiedzieć o CPU AMD vs Intel (przed Ryzenami) "kiedy AMD ostatnio wydało CPU które jest w stanie rywalizować z Intelem we wszystkich istotnych aspektach wydajnościowych". Przecieki mówią, że to może być teraz, że RDNA3 może wygrać tą generację W kategoriach wydajność/cena i wydajność/wat to już RDNA2 wygrało w rasteryzacji i trzeba mocno zaklinać rzeczywistość żeby tego nie widzieć. Jedyne co trzyma zielonych na topie to RT i DLSS. Pobór mocy i cena RTXa 4090 poleci w kosmos żeby zachować status najmocniejszej karty graficznej na rynku. Cytuj Link to post Share on other sites
EH_Gosu 1277 Napisano 28 Marca 2022 Udostępnij Napisano 28 Marca 2022 (edytowane) Godzinę temu, zbiku90 napisał: W kategoriach wydajność/cena i wydajność/wat to już RDNA2 wygrało w rasteryzacji i trzeba mocno zaklinać rzeczywistość żeby tego nie widzieć. Jedyne co trzyma zielonych na topie to RT i DLSS. Pobór mocy i cena RTXa 4090 poleci w kosmos żeby zachować status najmocniejszej karty graficznej na rynku. Należy zrozumieć, że jest całkiem pokaźna grupa ludzi którzy nie kierują się współczynnikiem cena/wydajność czy cena/wat jako którymś z kluczowych elementów w doborze sprzętu. Dla tejże grupy liczą się aspekty wydajności, usprawnień, dodatkowo często inwestują w rozbudowane systemu chłodzenia cieczą i mają podejście do tematu pasjonatyczne, a nie w oparciu o "co jak się opłaca" - bo też opłacalność jest pojęciem całkowicie względnym i uzależnionym od indywidualnych potrzeb. Sam jestem przykładem takiej osoby więc napisze jak to wygląda z mojej perspektywy. RX 6900 XT był, jest i będzie totalnie nieopłacalny względem moich wymagań. Jego wydajność na polu RT oraz brak alternatywy dla DLSS to główne czynniki które taki sprzęt przekreślają, dopłaciłem owszem do RTX 3090 topowego modelu który zwodowałem, wykorzystałem jego potencjał i mam nadal już u schyłku królowania tej generacji (RTX 4090 za kilka miechów) świetną wydajność na każdym polu. Wydajniejsza od topki Ampere która pracuje na takowych parametrach (po za polem RT nadal prawdopodobnie) konstrukcja ze stajni AMD to będzie dopiero NAVI31. Nawet kręcony i sowicie chłodzony 6900XT z zegarem 3 GHz, w standardowej rasteryzacji nie jest w stanie dogonić tak ustawionego RTX 3090, a RTX 3090 Ti podobną wydajność zaoferuje już na starcie i coś tam się jeszcze dalej wyciśnie. No i to też właśnie taki ruch zapobiegawczy ze stajni NV, żeby RX 6950XT za wiele nie zwojował. Chcesz mieć najwydajniejsze GPU oferujące najwyższe możliwości na każdym polu po za tym ile w skarbonce zostanie to wybierasz topkę NV, chcesz mieć bardzo wydajne GPU w kontekście standardowej rasteryzacji (i tak jak pisałem w powyższych postach def vs def potrafi z NV wygrać, ale już zdjęte tu i tu kagańce wygląda temat zgoła inaczej) i średniaka w kwestiach RT bez możliwości używania dobrze działającej realizowanej hardwarowo rekonstrukcji AI tylko mydlące obraz bardziej niż DLSS 1.0 FSR, bierzesz topkę AMD. Dopłacasz więcej ale i otrzymujesz więcej w ramach tej dopłaty, bierzesz topkę NV. Nawet ciepełka więcej dostaniesz bonusowo Na tym polu AMD ma przewagę, to temat jasny. Osobiście również gdybym miał do wyboru RTX 3080 albo RX 6900XT, wziąłbym bez wahania RTX 3080 pod warunkiem, że byłaby to karta z wysokim PT i dowalonym VRM. Można robić sobie shunt mody na konstrukcjach anemicznych, ale braków w kwestii VRM oraz zasilania nie przeskoczysz. Taka konstrukcja RTX 3080 z PT rzędu 450W konkretnie walczy, a w większości wypadków pokonuje RX 6900 XT (również kręconego) w standardowej rasteryzacji. Naturalnie żre więcej papu, temat RT i DLSS jasny. Z kolei RTX 3080 Ti z PT450 czy RTX 3090 z PT 450 do 480W jest po za zasięgiem 6900XT (i również prawdopodobnie będzie po za zasięgiem 6950XT) na każdym polu po za również elementem skarbonki i poboru. Dla tych którzy liczą na najwyższą wydajność, wybór od lat jest prosty - produkty NVIDII. I daleko mi od jakiegokolwiek fanbojstwa które osobiście mnie śmieszy, skupiam się na tym co pokazuje praktyka oraz konkrety odnośnie regulacji, ustawień itd. Priorytet to wydajność. Liczy się dla mnie również to, że wszystko o czym piszę popieram doświadczeniem praktycznym, wieloma przeprowadzanymi testami i konkretnym zagłębianiem się w tematy sprzętowe odnośnie danych zagadnień. Także nie teoretyzuje, nie gdybam. Piszę jak jest opisując jasno dane warunki charakterystyki pracy sprzętu. A, zawsze u mnie na kanale można się zapoznać z testami, konkretami, wszystko jest czarno na białym. Podparte merytoryką, testami, konkretami. Materiał zaległy z 6900XT bardzo zresztą szczegółowy, w zestawieniu z RTX 3090 między innymi, będzie u mnie na kanale. Zdaniem na temat sprzętu oraz wnioskami dzielę się dodatkowo na forum skoro jest o tym mowa w tym temacie. Retesty na i9-12900K porobiłem gdyż wcześniej miałem testy na i9-11900K, a 12900K pozwala jeszcze bardziej rozwinąć skrzydła RX 6900XT czy wariantom GA102. Każdy ma swoje podejście do sprzętu i oczekiwania względem niego. Pozdrawiam Edytowane 28 Marca 2022 przez EH_Gosu 1 Cytuj Link to post Share on other sites
Recommended Posts
Dołącz do dyskusji
Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.