Skocz do zawartości

Temat o kartach graficznych NAVI 3 / RDNA3


Recommended Posts

Ja bym obstawiał, że większą popularnością wśród radeonów cieszą się tańsze modele od Asrocka, XFX, PowerColor, Sapphire, a jeszcze doszedł Acer z konkurencyjnymi cenami. MSI może się zwyczajnie nie sprzedają bo ceną nie są w stanie konkurować z resztą stawki.

Link to post
Share on other sites

Nie wiem ,może ty sobie wrzuc na chat gpt jak go tak lubisz xd Jak nie rozumiesz,to ci przetlumaczy,choć wątpię aby cię tak poprowadził, że jak nie masz dowodu to dla własnego dobra trzeba mówić półsłówkami . Tego pewnie też nie zrozumiesz xd

Ogólnie wyjdź choć na balkon to ci przejdzie xd

16 minut temu, bmi86 napisał:

Asrocka, XFX, PowerColor, Sapphire

Trójca świeta (asus ,gigabyte,msi)dawno temu straciła na znaczeniu jak lutuja zamiast dawać nowe lub kase,obecnie w chlodzeniach jest dobrych wiele firm

Edytowane przez janek20
Link to post
Share on other sites

Gdybym tylko ja miał problem ze zrozumieniem Ciebie to jasne, pewnie bym tak zrobił. Tyle że o ile pamiętam to @joker5513, wcześniej @Kawabongai jeszcze inni zwracali Ci uwagę, że tego nie da się czytać. Jeśli słyszałeś kiedyś przypowieść o koniu i siodle tj ten moment, w którym powinieneś zacząć rozglądać się za siodłem. 

  • Lubię to 2
  • Haha 1
  • Popieram 1
Link to post
Share on other sites

Jezeli nie wiadomo o co chodzi to chodzi o kase, msi zapewne nie widzi kaski $$$ na tym rynku kart amd. 

Zerknijcie sobie na aktualne statystyki steam, pierwsze 15 pozycji to grafiki nvidi, dopiero 16 pozycja to amd i to na dodatek integra.

W mojej opini slabo to wyglada bo nvidia staje sie, przepraszam stala sie monopolista a to dla klientow nic dobrego.

Link to post
Share on other sites
3 godziny temu, janek20 napisał:

W IT nie reprezentujecie ten sam poziom co ja

Przepraszam, ale jak reprezentujesz ten wysoki poziom w IT? Jak określasz poziom IT u innych? Jaką pozycję w rankingu poziomu IT ja posiadam? 

Tyle pytań, tak mało odpowiedzi. 

 

3 godziny temu, Genghis Khan napisał:

W mojej opini slabo to wyglada bo nvidia staje sie, przepraszam stala sie monopolista a to dla klientow nic dobrego.

Nic nie trwa wiecznie, Nokia też miała silną pozycję. Sytuacja na rynku GPU może zmienić się w przeciągu jednej generacji, Nvidia wydaje się skupiona obecnie na temacie akceleracji obliczeń a nie grach, jest zatem miejsce dla pozostałych graczy. Karta intela to solidny średniak, który nadaje się do wszystkiego, Chiny robią własny akcelerator, a w tle ciągle widmo wielkiej przesiadki świata na ARM. Wiesz co się stanie, jak świat przejdzie na ARM? Kolejna szansa dla nowych firm na start z nowymi akceleratorami. 

 

4 godziny temu, janek20 napisał:

Trójca świeta (asus ,gigabyte,msi)dawno temu straciła na znaczeniu jak lutuja zamiast dawać nowe lub kase

Producent raczej rzadko zwraca kasę, takie coś działa w odniesieniu do sprzedawcy a nie producenta. Naprawiają, bo mogą, ciekawe czy skutecznie bo jakoś nie widziałem ogromnych narzekań na naprawiane karty. Na alledrogo czasem trafi się karta po naprawie, nie jest to jednak bardzo częsty widok. 

 

Jeżeli AMD w nowej generacji skupi się na rozwoju SDK i dobrej ofercie cenowej, to ich udział może wzrosnąć. RT wygląda bajecznie ładnie, pod warunkiem, że standardowe oświetlenie zostało skopane. Tam gdzie standardowa rasteryzacja jest wykonana starannie, to RT można nie zauważyć. 

  • Że co, proszę? 1
  • Popieram 1
Link to post
Share on other sites
4 godziny temu, janek20 napisał:

W IT nie reprezentujecie ten sam poziom co ja i o tym wiecie

Mnie też trudno zrozumieć te teksty (dawno przestałem się starać je zrozumieć), ale wiem, że @janek20 reprezentuje wysoki poziom wiedzy. Jak sprzedawca na allegro podał parametry chińskiego dysku SATA - realny odczyt/zapis 600/600 MB/s, to Janek wiedział, że to najszybszy dysk na rynku i inni znani producenci się chowają ze swoimi 560/530 (przykładowo). Tak więc wiem, że to wielki specjalista IT, bo nikt inny by nie uwierzył w takie parametry. Gdyby sprzedawca dopisał: SSD z turbo kontrolerem na SATA3 650/650, Janek też by uwierzył, bo on się zna i wie, że to możliwe.

  • Że co, proszę? 1
  • Haha 7
Link to post
Share on other sites
1 godzinę temu, Adames napisał:

Producent raczej rzadko zwraca kasę, takie coś działa w odniesieniu do sprzedawcy a nie producenta. Naprawiają, bo mogą, ciekawe czy skutecznie bo jakoś nie widziałem ogromnych narzekań na naprawiane karty.

Nie pisałem że od producenta.koncowego użytkownika nie obchodzi z jakiej sakwy to pójdzie i jak się w łańcuchu dostaw rozlicza.jak sprzedawca nie ma co dać w towarze to da kasę w przeciwieństwie do kart gdzie sa serwisy.a co do napraw to raz na jakiś czas są narzekania na polskich forach  IT na jakość usług z wielokrotnym odsylaniem do oprawkami ,łącznie z takimi tematami na ukoik czy tam jest gorzej niż było po serwisie i płacz o poradę co zrobić czy tam obsmarowaniem na necie sklepu,serwisu xyz

Wrzućcie to na gpt jak nie rozumiecie xd

Edytowane przez janek20
Link to post
Share on other sites

Ciebie ******* nie zrozumie nawet superkomputer z NASA. Wróć do 1 klasy podstawówki jak pani tłumaczyła konstrukcję zdania na języku polskim analfabeto.

Edytowane przez adivxv
  • Haha 2
  • Popieram 2
Link to post
Share on other sites
  • 3 tygodnie później...
  • 3 tygodnie później...

Wydajność 7900XT poniżej 3000 zł i jeśli do tego faktycznie będzie choć trochę lepiej z RT, to mnie mają:D
Gorzej, że ostatnio coraz więcej plotek wskazuje na RDNA4 dopiero w Q1 2025, a ja już dawno mentalnie nastawiłem się na wymianę 6700XT jesienią.

Żebym jeszcze wiedział, że faktycznie jest na co czekać...

  • Lubię to 1
Link to post
Share on other sites
6 godzin temu, Frantic napisał:

Wydajność 7900XT poniżej 3000 zł i jeśli do tego faktycznie będzie choć trochę lepiej z RT, to mnie mają
Gorzej, że ostatnio coraz więcej plotek wskazuje na RDNA4 dopiero w Q1 2025, a ja już dawno mentalnie nastawiłem się na wymianę 6700XT jesienią.

Żebym jeszcze wiedział, że faktycznie jest na co czekać...

Wydajność RT ma być jakoś marginalnie polepszona , może o 20% ?

Ale zwróć uwagę że coraz więcej gier będzie wychodzić na UnrealEngine 5 a tam wydajność RT (tz Lumen) jest tym samym poziomie co na nvidii a nawet lepsza, na kartach o podobnej cenie. Być może jest to wina sterowników nvidii a może dlatego że engine ten jest dostosowywany do konsol a jak wiadomo tam siedzą gpu od AMD. 

Link to post
Share on other sites

@Kawabonga Natknąłem się na ciekawy komentarz a propo RT i AMD w Lumenie:
 

Cytat

I just wanted to add that there is too much BS on the internet by people who have no clue how BVHs are done and traversed. Those people also dont have any understanding about what goes into a game engine's effort to assist the drivers of GPUs in building said BVH

A simplified explanation of the concept is that the BVH tree can be made rigid with a lot of less branching per level, think of it like a long stalk with many subbranches with the final depth taking a long while to hop through. This is AMD's approach. This approach benefits AMD to have simpler ray intersection test HW blocks on die and save space while placing a premium on a strong cache sub-system.

Nvidia's strategy meanwhile is to have a very wide tree with the max hops to reach bottom for any given path from the top to bottom being much less, like 3 to 5 at max instead of say 20-25 hops on say AMD's BHV traversal. This put a premium on having intersection test throughput in HW blocks on die but less demands on cache subsystem.

We cannot conclude one is better than the other especially if the HW+SW stack has been well built to cater to either philosophy.

However keen eyed or savvy reader will ask me now isn't cache size going to be increase transistor budget? Why not just follow Nvidia's path and put all that budget towards increasing RT throughput instead and focus less on cache sizes? Rumors have put it that Blackwell or the next gaming GPU from Nvidia will have significantly larger on-die caches, this shows that DXR routines need more cache going forwards regardless how you want your BVHs built, it will just come down to relative differences on how much cache is needed for the uArch, this cache also needs to be low latency accessible. At this time it seems AMD will need more cache and supporting infrastructure vs whatever Nvidia puts on die to keep up because that's the way AMD is moving forwards with their BVH building and traversal.

There are other concepts like TLASes and BLASes which are beyond the scope of this discussion but if you want to know more read these:

https://gpuopen.com/learn/improving-rt-perf-with-rra/

https://chipsandcheese.com/2023/03/22/raytracing-on-amds-rdna-2-3-and-nvidias-turing-and-pascal/

Why UE5 does well on RDNA3 for example is because AMD has addressed RDNA2's weakness in having their way of building the BVH which taxes on cache memory subsystem on GPU, this means they need good low latency and large amount of cache for 1st and 2nd level accesses with good hit rates. RDNA3 is superior on all these front vs RDNA2 but AMD's DXR philosophy hasn't changed from RDNA2 to RDNA3 it is just a case of addressing the shortfalls.

The AMD Driver will rely on what the game wants to do with their TLAS and BLAS structures. Cyberpunk is an extreme case of the game developer going out of their way to optimize and structure their BVH build assistance to driver in a manner that benefits and exemplifies Nvidia DXR philosophy and so it performs poorly on AMD. CDPR are definitely not incapable of doing better but you have to keep in mind they are essentially a tech demo for Nvidia which means NV engineers come over to CDPR to specifically tune it to flex Nvidia's DXR system. It's marketing, Nvidia needs a flagship vehicle to promote/ sell RTX 4000s over RDNA3 and keep AMD at bay, it's just business. AMD can pursue the same thing, it seems they have with Starfield although its not for DXR but rather general raster performance.

 

UE5 on the other hand has coded their BVH building assistance to such a degree of flexibility that it allows the driver greater freedom to build the BVHs to cater the uarch's strengths this allows both AMD and Nvidia to perform well. That's the reality with UE5 as implemented in Fortnite.

Now this is not to say a UE5 customers like CDPR for the next Witcher series games cannot come up with customization that can lean heavily in favor of Nvidia for say something like the RTX 5000 series in a few years time. UE5 allows full customization on how you want your TLAS and BLASes to be in game. Another game engine that does DXR routines will have to provide this flexibility to both vendors.

There is a myth that RDNA cannot support more rays inflight vs Nvidia, as a consequence that's how Nvidia manages to cripple RT perf in preferred games. Actually a closer looks reveals RDNA3 specifically will benefit from more rays in flight to hide latency but this is limited by Vector register file sizes. RDNA3 has a noticeable increase vs RDNA2 but merely increasing Vector Register file size isn't enough as the SIMD top level wavefront throughput needs to go up, currently it is at 16 waves in flight which almost is never reached in actual game loads with DXR routines in play. Maybe if they can do 32 waves in DXR routines alone it will be massively helpful but this makes each shader WGP maybe as much as twice as large as current WGP sizes in RDNA3, also in rasterization only modes getting anywhere close to 32 waves will be a very tall order to achieve. I dont see AMD going this route for RDNA4, maybe in 2030/34 when the next gen of consoles embrace DXR as the default pipeline, perhaps then. AMD might go back to 20 wavefront like this had for RDNA1 but RDNA1 had no RT accelerators in the WGP. A jump to 20 would be 25% theoretical increase but realistically a 24 wavefront tracker would atleast enable some DXR heavy tasks to come close to 18-20 in actual games out of 24. This is just my speculation in a vacuum not accounting for other areas of the RT pipeline being enhanced like the actually RT intersection throughput rates, further introducing novel ways to cut down cache latency while also increasing Vector Regfile sizes to maximize the 16 wavefront tracker, further improve driver's BVH building capabilities et cetra. Any number of ways can be pursued.

Pay no heed to tech demos like Cyberpunk or Starfield, more in the press should be calling out these companies for their involvement in IHV locked optimizations. Even after the expiry of the joint association with the particular IHV, the game dev cant be bothered to revisit and improve performance for the competition's products because that's bad for their PR as it exposes the unhealthy business dealings behind closed doors and equally important it takes up man hours/money. Tech Demos like these are the bane of the games industry.

 

Wynika z niego, że AMD ma odmienne podejście do implementacji RT niż Nvidia, przez co silniki, które od początku współpracują z zielonymi są nieefektywnie wykonywane na kartach AMD. Niestety nie jestem biegły w samym procesie renderowania obrazu dlatego nie mogę powiedzieć na ile ten komentarz jest prawidłowy. Wydaje się jednak, że osoba, która to pisze ma pojęcie o temacie. 

 

Sporo też się mówi o nowym FSR-SS od AMD, opartego o AI. Powiem tak, jako że obecnie mam na stanie obie karty i obie wykorzystuję do AI, to są pewne podstawy by spodziewać się nie tylko jakości na poziomie DLSS przy odrobinkę wyższej wydajności (porównując podobne cenowo modele). 

źródło komentarza: Reddit - lumen hw rt
 

  • Lubię to 3
Link to post
Share on other sites

Ciekawy post.

Nie od dziś wiadomo że takie gry jak CP2077 jest przedstawieniem technologii nvidii, nie amd i zawsze będzie działać lepiej na zielonych kartach. Wszystkie nowinki tech zielonych  są wprowadzane szybciej , przecież do tej pory nie ma FSR3 i może nigdy nie być zaimplantowany.  Tak jak tam napisano Tech Demos like these are the bane of the games industry.

 

UE5 wyrównuje wydajność RT, ale jak dobrze zrozumiałem, jeśli developer będzie chciał to i tak może pogrzebać w silniku w grze tak aby faworyzował karty danej firmy .

Link to post
Share on other sites

I teraz pojawia się pytanie: czy Wiesław IV, pisany pod UE5, zostanie znowu przystosowany pod jak najlepsze działanie z Nv (wraz z workiem kasy), czy może uda się ogarnąć jednocześnie przyzwoite wsparcie dla RDNA4? 

Link to post
Share on other sites
9 godzin temu, Rebelmind napisał:

I teraz pojawia się pytanie: czy Wiesław IV, pisany pod UE5, zostanie znowu przystosowany pod jak najlepsze działanie z Nv (wraz z workiem kasy), czy może uda się ogarnąć jednocześnie przyzwoite wsparcie dla RDNA4? 

 

Ja bym nie dramatyzował, każdemu wydawcy zależy żeby ich tytuł odniósł sukces, pracuje codziennie na w unity/unreal i nadal lepszą opcją jest NV.

Link to post
Share on other sites
Godzinę temu, r1023 napisał:

 

Ja bym nie dramatyzował, każdemu wydawcy zależy żeby ich tytuł odniósł sukces, pracuje codziennie na w unity/unreal i nadal lepszą opcją jest NV.

Na jakiej karcie intela albo AMD to sprawdzasz? 

Link to post
Share on other sites

Dla Content Creation to nie wiem kto by świadomie wybrał AMD, tym bardziej jakaś pociętą wersje.

 

Tu masz test jest też Unreal Engine 5, ale rzuć też okiem na tabelki z renderowania w silnikach renderujących vray,blender itd. Nie wspomnę już o ogólnym wsparciu w innych softach do np teksturowania jak np Adobe Substance Painter czy Marmoset.

 

https://www.pugetsystems.com/labs/articles/nvidia-geforce-rtx-40-super-series-content-creation-review/

 

 

Link to post
Share on other sites

Ale chodzi mi o to że pracujesz na unity/ unreal. Przecież unity to chyba na dopalonej amidze dobrze by chodził xd .Nie wiem w czym karty nv tam górują? 

Ja używam davinci, używałem na rtx,teraz używam na rx, praca jest taka sama oprócz tego że działa mi szybciej w porównaniu ze rtx 3060ti

Tu masz mój wynik w Davinci vs RTX4070TI Super z lepszym cpu.

RX7900GRE+ i5 13600K- 3138pkt

RTX4070TI Super + i7 14700K - 2800pkt

 

Do moich domowych zastosowań nie ma co przepłacać na nv .

BTW 

Dobra cenka 2379zl , choć nie wiem jakie ten sklep ma opinie:

https://www.krsystem.pl/amd_radeon_rx_7900_gre_steel_legend_16gb_oc-item-74132.html?64336&utm_source=ceneo&utm_medium=referral&ceneo_cid=992fe803-25aa-f31b-d159-b47cfbb72f90

Edytowane przez Kawabonga
Link to post
Share on other sites
4 godziny temu, Kawabonga napisał:

Dobra cenka 2379zl , choć nie wiem jakie ten sklep ma opinie:

Bywają powolni, niby towar miał wyjść w 24h a czekałem z 5 dni. Tak poza tym to sklep jak sklep, istnieje, odbierają telefony, normalna firma.

 

4 godziny temu, Kawabonga napisał:

Do moich domowych zastosowań nie ma co przepłacać na nv

Zgadza się. Pojęcie "opłacalności" ma inną definicję na potrzeby komputera domowego i komercyjnej stacji roboczej. Czas pracy dewelopera jest drogi, dlatego czasem nawet warto kupić kartę 2-3x droższą w zamian nawet za 15% szybszą pracę. Dlatego nie ma znaczenia jak bardzo "opłacalny" dla domowego użytkownika jest Radeon, jeżeli taki RTX 4090 zrobi robotę znacznie szybciej, to taka dopłata 7 tyś zł (względem RX 7900GRE) ma sens i szybko się zwraca. 

 

 

Tak przy okazji, mój Radeon coś ma gorąco, a dziś dotarło:
rn-image-picker-lib-temp-e456510b-2930-4
darmowe wrzucanie obrazków

 

 

Link to post
Share on other sites

Pacjent: ASROCK RX 7900XT Phantom Gaming


rn-image-picker-lib-temp-97904a93-3f64-4

rn-image-picker-lib-temp-5362cee1-d5d1-4
 

Objawy:

Furmark:

przed-fur.png

Hogwarts Legacy:

przed-auto.png

 

Karta w pełni na stockowych ustawieniach. Jak widać na obrazkach, podczas grania hotspot dobija do 92 st. a wentylatorek trzyma 1700+ obrotów. Różnica pomiędzy temp gpu a hot-spot to 34 stopnie. Trochę za wiele. Kartę posiadam od 23 lutego, na niej sporadycznie gram, czasem jakieś uczenie AI - pomiędzy 2 a 10 godzin uczenia, czasem jakaś inferencja. Ogólnie to ciężko powiedzieć że karta jest jakoś mocno eksploatowana, ale ofc różnie ludzie definiują "obciążenie", ale w porównaniu do roboczego RTX 4090, to ta karta niespecjalnie wiele się napracowała.

 

Pora na rozebranie karty:

rn-image-picker-lib-temp-42c6f8ca-6d7b-4

rn-image-picker-lib-temp-cea6c639-0e68-4

rn-image-picker-lib-temp-a1212ab6-4234-4

rn-image-picker-lib-temp-1232790f-6b99-4

 

Oryginalna pasta wydaje się być dosyć wodnista, przynajmniej tam gdzie jest mokro, trochę jej zdało się wyschnąć. Na rogach rdzenia widzimy także takie czystsze obszary, wydaje się że pasta z tych miejsc całkowicie uciekła. Tak samo to wygląda na coolerze, tam też są czyste obszary. Termopady ogólnie wyglądają dobrze, są miękkie i sprężyste. Termopady wymieniam tylko na VRAM, pozostałe zostawiam. Robię tak, ponieważ podczas uczenia AI także widywałem temperatury w okolicach 90 st. nie zrobiłem jednak testu przed, tak by zamieścić screena. 

 

rn-image-picker-lib-temp-adea950b-2db7-4
 

Nakładanie kitu termicznego Zezzio ZT-PY6 jest banalne, lepimy kuleczki lub paski jak z plasteliny (ofc w rękawiczkach) i przyklejamy do VRAM. Super sprawa, nie klei się do rękawiczek, jest łatwo i przyjemnie. Nakładanie PTM 7950 jest za to tak podłe jak opisują to ludzie na necie. Oderwanie pierwszej folii jakoś idzie, ale podważenie i zdjęcie drugiej folii to po prostu masakra. Jakoś się jednak udało - za 2 podejściem, przy pierwszym mi się rozerwał i podwinął, nie da się tego już poprawić, więc pozostało mi zdrapać go i spróbować raz jeszcze. Za 2 razem poszło trochę lepiej. Tak, trzymałem go w zamrażalniku jak większość poleca, chodź nie jestem pewien czy to dobra porada, bo za 2 razem jak nakładałem to był już ogrzany i jakoś to jednak łatwiej szło. 

 

Karta trafiła zatem na swoje miejsce:
rn-image-picker-lib-temp-7111d580-b915-4

 

Pora na testy, pierwsze próby tak jak poprzednio, wszystko stock. 

Furmark:

po-fan-silent.png

Hogwarts Legacy:

po-auto.png

 

Hot-Spot w Hogwarts Legacy spadł z 92 do 80 stopni. Mamy solidną redukcję temperatury o 12 stopni! Mega, Temp GPU za to wzrosła z 58 do 63 stopni, błąd? Nie sądzę - jednocześnie wentylatory zwolniły z 1726 na 1150 RPM, dzięki czemu karta znacząco ucichła. Sprawdziłem zatem jak wyglądałyby wyniki po wyrównaniu prędkości wentylatorów do takiej jak przy testach przed. 

 

po-fan-set.png

po-fan-set.png

 

Temperatura spadła do 72 stopni na hot-spot podczas grania w Hogwarts Legacy. Teraz różnica pomiędzy Hot-Spot a gpu to 16 stopni, gdzie wcześniej było 34 stopnie. Różnica po nałożeniu PTM 7950 jest ogromna. Udało się obniżyć temp. hot-spot o 20 stopni. Sama temperatura GPU spadła o 2 stopnie (przy podobnej nastawie wentylatora) i ma to marginalne znaczenie w tym przypadku. 

 

  • Lubię to 4
Link to post
Share on other sites

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Odpowiedz w tym wątku...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...