Skocz do zawartości

Temat o kartach graficznych AMD Big Navi / Navi 2 / RDNA2


Recommended Posts

Ponadto przy testach V64 też padło stwierdzenie "nie ma na to najmniejszych szans“ (~żeby Vega nawet zbliżyła się do 1080 Ti). No i po dwóch latach zaczęły wychodzić tytuły, w których różnice w wydajności są niewielkie...

Pojawiło się kilka tytułów z FP16 gdzie vega64 nadrobiła stratę ale w dalszym ciągu jest po za zasięgiem GTX1080Ti i co najważniejsze to w testach masz referenty gdzie 1080Ti w konstrukcjach niereferencyjnych potrafi odjechać nawet do 20% względem Founders Edition.

 

Dalej, zobacz różnice w budowie rdzenia w 3090 a 3080 i jak to przekłada się na wyniki w grach. Różnica w liczbie jednostek SP nijak nie ma się do różnic w grach - więc budowa jeszcze o niczym nie świadczy.

Dwukrotnie większy rozmiar rdzenia względem 5700XT gdzie dodatkowo są jednostki RT i podwojona liczba bloków CU's nawet przy bardzo dobrych optymalizacjach w architekturze i szerszej szynie danych nie da liniowego wzrostu wydajności! W przypadku 80CU's można liczyć na ~75% wzrost względem rdzenia z RX 5700XT. Różnice mogą się zmniejszyć/zwiekszyć bo AMD po premierze Ampere może zmniejszyć/zwiększyć TDP swoich kart dopasowując się do konkurencji a jestem pewny, że tym razem efektywność będzie stała po stronie AMD. 

Ten ~75% wzrost wydajności to w dalszym ciągu ~30% za mało na 3080 a za rogiem czai się 3070Ti ;) 

 

Teraz oficjalnie nvidia psuje jakość grafiki poprzez DLSS i mówi że tak ma być i będzie lepiej dla nas LOL   :rotfl:

Można ? można !  :D

DLSS to w obecnej chwili najlepszy dostępny algorytm antyaliasingu i pod tym względem nie ma sobie równych bo nie dość że wygładza krawędzie najlepiej to robi to przy wzroście wydajności.

Ta forma na razie raczkuje tam samo jak RT ale przy odpowiednim dopracowaniu to będzie bardzo dobre rozwiązanie. Zresztą już widać progres jaki został poczyniony w DLSS2.0 względem pierwszej wersji. W Control po wprowadzeniu DLSS 2.0 jest przepaść w jakości obrazu względem pierwszego algorytmu DLSS. O ile przy pierwszej wersji po włączeniu DLSS obraz wyglądał bardzo słabo co wielokrotnie wytykałem tak po updacie to DLSS2.0 obraz wygląda niemalże w 100% tak samo jak w natywnej rozdzielczości ale jest wzrost ~55% wydajności.

 

 

  • Popieram 1
Link to post
Share on other sites

Hehe

 

Dziś była premiera 3090 i wiecie co, wisi mi to. Na szybko przeczytałem (ta przeczytałem - przewinąłem) jedną recenzję w sieci i moja reakcja byłą mniej więcej taka - "aha, to już wszystko, no spoko" :rotfl:

Edytowane przez Succubus
Link to post
Share on other sites

Czyli panie @Dj Twoim zdaniem BigNavi to będzie udany (mniej lub bardziej) konkurent dla 3070, którego NV z marszu zripostuje 3070 Ti... Może take być, bo nieobecność w segmencie Top to nie będzie żadna nowość (co prawda Lisa Su mówiła o powrocie do walki w najwyższym segmencie ale wiadoma sprawa: tj marketing).

 

Wolałbym jednak zostać pozytywnie zaskoczonym, chociaż przyznam szczerze, że dla mnie wydajność 3070 (czyli blisko 2080 Ti) w zupełności by wystarczyła.

Link to post
Share on other sites

 

 

hociaż przyznam szczerze, że dla mnie wydajność 3070 (czyli blisko 2080 Ti) w zupełności by wystarczyła.

 

Mam tak samo. W zupełności zadowolę się odpowiednikiem 2070 - 2080 od czerwonych. Liczę tylko na normalne działający RT w fullhd (no bo cyberpunk nadchodzi), oraz lepszą cenę i dla mnie bajka.

Link to post
Share on other sites

Czyli panie @Dj Twoim zdaniem BigNavi to będzie udany (mniej lub bardziej) konkurent dla 3070, którego NV z marszu zripostuje 3070 Ti... Może take być, bo nieobecność w segmencie Top to nie będzie żadna nowość (co prawda Lisa Su mówiła o powrocie do walki w najwyższym segmencie ale wiadoma sprawa: tj marketing).

Moim zdaniem uwzględniając to co do teraz wiadomo o BigNavi to będzie karta, która wydajnościowo w plasuje się po między 3070 a 3080 i będzie przy tym odpowiednio wyceniona. Ze strony nV odpowiedzią na Big Navi będzie 3070Ti.

Co by nie mówić to dla Nas, potencjalnych klientów taka sytuacja jest na rękę ;)

 

przyznam szczerze, że dla mnie wydajność 3070 (czyli blisko 2080 Ti) w zupełności by wystarczyła.

Również celuję w ten pułap wydajnościowy ;)

 

Link to post
Share on other sites

Mam tak samo. W zupełności zadowolę się odpowiednikiem 2070 - 2080 od czerwonych. Liczę tylko na normalne działający RT w fullhd (no bo cyberpunk nadchodzi), oraz lepszą cenę i dla mnie bajka.

Wydaje mi się, ze większość tak celuje - dlatego obawa o dostępność.. będzie gorzej niż z 3080
Link to post
Share on other sites

Jak będzie lepsza od 3070 to będzie droższa (wątpię, żeby powtórzyła się akcja z 2070 cenowo), czyli taki 6700 XT za 2500+ pln (bo moja szklana kula mówi, że z podażą 3070 też będą cyrki). I wjeżdża od razu na pełnej 3070Ti z 16GB za 3000 i mamy pat.

Link to post
Share on other sites

 

DLSS to w obecnej chwili najlepszy dostępny algorytm antyaliasingu i pod tym względem nie ma sobie równych bo nie dość że wygładza krawędzie najlepiej to robi to przy wzroście wydajności.

Ta forma na razie raczkuje tam samo jak RT ale przy odpowiednim dopracowaniu to będzie bardzo dobre rozwiązanie. Zresztą już widać progres jaki został poczyniony w DLSS2.0 względem pierwszej wersji. W Control po wprowadzeniu DLSS 2.0 jest przepaść w jakości obrazu względem pierwszego algorytmu DLSS. O ile przy pierwszej wersji po włączeniu DLSS obraz wyglądał bardzo słabo co wielokrotnie wytykałem tak po updacie to DLSS2.0 obraz wygląda niemalże w 100% tak samo jak w natywnej rozdzielczości ale jest wzrost ~55% wydajności.

Marketing czyni cuda jak napisał kolega @Rebelmind :D

Jeśli nie grasz w 4k to średnio to wygląda ponoć ;)

Ja tylko zacytuje :

 

"

 DLSS jest zablokowany, jeżeli twoja karta jest w stanie zrobić ~60fps w danej grze. Na przykład nie możesz odpalić DLSS w 1080p na 2080 żeby uzyskać 144fps (przykład) bo ten upscaling będzie odbierał fpsy, a nie dodawał. Czas na wygenerowanie klatki będzie mniejszy bez niż z DLSS w takich warunkach.

 

Wszyscy widzą dokładnie jak DLSS wpływa na jakość obrazu oraz jest mnóstwo porównań do zwykłego upscalingu. Mało kto natomiast testuje DLSS w mniejszej rozdziałce niż 4k. Dlaczego? Ja wam powiem. RTX 2060 nie nadaje się do 4k, ale ma tensory. Możecie to wykorzystać w 1080p. Problem jest tylko taki, że w 1080p DLSS ma 4x mniej pikseli, z których można próbkować, a to oznacza jeszcze bardziej rozmazany obraz i stratę detali tekstur niż w 4k, czy nawet 1440p.

Więc tak. Uważam, że DLSS to jest największy badziew jaki Nvidia w życiu wypuściła na świat. Konieczność posiadania jakichś wyimaginowanych Tensorów na karcie i superkomputer, który będzie to przeliczać. Ogromne koszta, brak jakichkolwiek oznak poprawy obrazu w porównaniu ze zwykłym upscalingiem i kompletnie idiotyczne blokowanie tej technologii jeżeli nie spełnisz bardzo wąskich kryteriów wydajnościowych."

Edytowane przez Kawabonga
Link to post
Share on other sites

Sory jeżeli odpowiedzi już padły (nie śledzę wątku tak wnikliwie jak newsów o amperach :) ), ale czy AMD podawało już szczegóły działania"swojego" ray tracingu? Tak jak w NV mają być za to odpowiedzialne oddzielne jednostki wchodzące w skład GPU? Czy będzie kompatybilne z tym co już mamy zaimplementowane w istniejących grach z RT by Nvidia (Metro, Control itp.)?

Link to post
Share on other sites

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Odpowiedz w tym wątku...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...