Skocz do zawartości

Recommended Posts

Ale przecież on nie miał na myśli ludzi, którzy biorą takie karty z myślą o zastosowaniach Pro - bo tam cena ma drugorzędne znaczenie.

Ale moja wypowiedz nadal może być trafna jeżeli chodzi o zwykłego zjadacza chleba, wykorzystującego komputer do zadań półprofesjonalnych i gier na przykład

Wiesz tak sobie śmieszkujemy ;) Ja tam nie mam zwyczaju zaglądać komuś do portfela i go oceniać na co wydaje kase i czy to jest jakoś logicznie uzasadnione. JA wiem jedno jak zapowiadane karty od Nvidi i AMD osiągną absurdalne ceny to posiedzę na moim RX 5700xt aż się mocno zestarzeje i gry będą chodzić poniżej 60 FPS to wtedy oddam go dla dzieci albo sprzedam, a w miejsce kompa kupię sobie jakiś laptop a do grania konsole . Bo serio 6 tyś płacić za samą kartę graficzną to już przegięcie. nawet 2 tyś to za dużo za samą grafikę (a gdzie jeszcze Ram, płyta główna , Procesor itd) jeśli patrzymy że konsola ma kosztować okolice 2500 zł, przyzwoity TV 4k to 1500 zł więc za 4 tyś będzie to bardzo fajny zestaw do grania i nadal tańszy od grafiki dla ętuzjastuuufffff ;)

Tez tak zamierzam zrobić, wyżej chyba wspominałem - nie zmienia to faktu, ze nie nazywam posiadaczy droższych aut ode mnie idiotami :D
Link to post
Share on other sites

 

 

same AMD-ki w podpisach marudzą :D
Powiedział co wiedział i to że od gdzieś 2 mc jestem posiadaczem grafiki od AMD a przez ostatnie 7 lat siedziałem na Nvidi. A wiesz czemu się przesiadłem na AMD bo mnie już polityka cenowa Nvidia i nie dbanie o optymalizacje pod poprzednią generację kart zaczęło wkur... Przykład z moją poprzednią gtx1080 gdzie przy premierze Rtx była wydajnościowo jak rtx2070 a teraz okazuje się jak rtx2060 6Gb jeszcze chwila i będzie jak Gtx1660 ;) Edytowane przez MariuszB35PL
Link to post
Share on other sites

 

 

i nie dbanie optymalizacji pod poprzednią generację kart zaczęło wkur... Przykład z moją poprzednią gtx1080 gdzie przy premierze Rtx była wydajnościowo jak rtx2070 a teraz okazuje się jak rtx2060 6Gb jeszcze chwila i będzie jak Gtx1660 ;)

 

gdyby to było niedbanie to by była odrazu jak gtx 1660.

Dbaja tam wiecej jak o rtx 2070, to planowane postarzenie produktu ;)

Link to post
Share on other sites

 

 

same AMD-ki w podpisach marudzą
 

Bo intelowcy o kasie nie dyskutują, wypinają się tak, że ani im brewka nie tyknie.

 

 

 

3080 320W.....  czyli jakieś +100W, przedłużenie lata 2020 się szykuje, takie chłodzenie jak w tym Palicie to będzie minimum aby było jako-tako.

  • Popieram 1
Link to post
Share on other sites

bo mnie już polityka cenowa Nvidia i nie dbanie o optymalizacje pod poprzednią generację kart zaczęło wkur... Przykład z moją poprzednią gtx1080 gdzie przy premierze Rtx była wydajnościowo jak rtx2070 a teraz okazuje się jak rtx2060 6Gb jeszcze chwila i będzie jak Gtx1660 ;)

Co do polityki cenowej to się jak najbardziej zgadzam natomiast co do postarzania to absolutnie nie.

Większość osób powtarzających te brednie o postarzaniu produktu czy braku optymalizacji nie ma pojęcia jak wygląda dana architektura i jakie zachodzą zmiany w kolejnych generacjach a to właśnie te zmiany są kluczowe dla wzrostu wydajności względem poprzednich generacji.

Prosty przykład.

Turing względem Pascala ma sporo wydajniejszy fp16. Pojawia się sytuacja gdzie na premierę Turinga porównano 10 gier które w ogóle nie korzystały z fp16 lub korzystały w mniejszym stopniu ze względu na słabą wydajność pascala w fp16. GTX1080 wypadał blisko RTX2070. W kolejnych wychodzących grach programiści zaczęli część efektów puszczać przez fp16 ze względu na wyższą wydajność i bach GTX1080 zostaje w tyle i zaczyna się tworzenie spisku. Nvidia ubija wydajność, brak optymalizacji!! itd

Lada moment pojawi się Ampere, które fp16 będzie miał ponad 3-krotnie wydajniejsze względem Turinga, dodatkowo jednostki Tensor wykorzystywane do DLSS będą już 4-krotnie wydajniejsze względem Turinga.

Na premierę Ampere będzie porównany z Turingiem w starych grach gdzie DLSS jeszcze raczkuje tak samo jak fp16 ale za jakiś czas programiści znowu zaczną puszczać część efektów przez fp16 bo Ampere jest w tym wydajny i znowu się okaże, że Turing zostaje w plecach i pojawią się kolejne zarzuty o ubijanie wydajności.

Nie zdziwię się jak 2080Ti będzie porównywalny z RTX3070 a za jakiś czas gdzie pójdzie w ruch fp16 i wyższa wydajność tensorów 3070 odjedzie do przodu.

 

  • Popieram 1
Link to post
Share on other sites

Co do polityki cenowej to się jak najbardziej zgadzam natomiast co do postarzania to absolutnie nie.

Większość osób powtarzających te brednie o postarzaniu produktu czy braku optymalizacji nie ma pojęcia jak wygląda dana architektura i jakie zachodzą zmiany w kolejnych generacjach a to właśnie te zmiany są kluczowe dla wzrostu wydajności względem poprzednich generacji.

Prosty przykład.

Turing względem Pascala ma sporo wydajniejszy fp16. Pojawia się sytuacja gdzie na premierę Turinga porównano 10 gier które w ogóle nie korzystały z fp16 lub korzystały w mniejszym stopniu ze względu na słabą wydajność pascala w fp16. GTX1080 wypadał blisko RTX2070. W kolejnych wychodzących grach programiści zaczęli część efektów puszczać przez fp16 ze względu na wyższą wydajność i bach GTX1080 zostaje w tyle i zaczyna się tworzenie spisku. Nvidia ubija wydajność, brak optymalizacji!! itd

Lada moment pojawi się Ampere, które fp16 będzie miał ponad 3-krotnie wydajniejsze względem Turinga, dodatkowo jednostki Tensor wykorzystywane do DLSS będą już 4-krotnie wydajniejsze względem Turinga.

Na premierę Ampere będzie porównany z Turingiem w starych grach gdzie DLSS jeszcze raczkuje tak samo jak fp16 ale za jakiś czas programiści znowu zaczną puszczać część efektów przez fp16 bo Ampere jest w tym wydajny i znowu się okaże, że Turing zostaje w plecach i pojawią się kolejne zarzuty o ubijanie wydajności.

Nie zdziwię się jak 2080Ti będzie porównywalny z RTX3070 a za jakiś czas gdzie pójdzie w ruch fp16 i wyższa wydajność tensorów 3070 odjedzie do przodu.

Dlatego napisałem, ze niedługo RDNA1>RDNA2 zaliczy podobne pewnie losy
Link to post
Share on other sites

no dobzie dobzie... ale w takim razie, dlaczego karty AEMDE, z czasem nabierają przewagi ze swoimi premierowymi rywalami od urwisów z NV?

Bo:

A) maja architekturę od 2012

B) po prostu są tak stworzone, ze nie wykorzystują całego swojego potencjału w tflopsach i im dłużej im się poświęci czasu tym lepiej je zaczynaja wykorzystywać

  • Popieram 1
Link to post
Share on other sites
B) po prostu są tak stworzone, ze nie wykorzystują całego swojego potencjału w tflopsach

 

owszem ale tak to nie działa ,nvidia nie ma słabych punktów a to filtrowanie a to teselacja i te flopsy nic nie znaczą bo gpu jest tak szybkie jak jego najsłabszy punkt a jak nie starcza to przytną na jakości obrazu ( znany myk nvidii od 20 lat)

 

https://pclab.pl/art3068-9.html

 

Chętnie się dowiem jak odstarzeć mojego 1070Ti by nie był na równi z 1660 Super :)

 

35e75637dafca47a.jpg

Wystarczy pozbawić widełek zegarów  nvidie i juz mamy w najnowszych grach boost fps o kilkadziesiąt procent np turing przynajmniej jest juz od pól roku postarzany.Monitorowany zegar masz tylko jeden a w chipie nvidii jest przynajmniej 5 ,6

 

https://www.dobreprogramy.pl/GeForce-375.86-tez-do-niczego-dwa-wadliwe-sterowniki-w-ciagu-miesiaca,News,77479.html

 

Ze zaglądają do zegarów przez nieuwagę programistów wychodzi raz na jakiś czas

Edytowane przez janek20
Link to post
Share on other sites

owszem ale tak to nie działa ,nvidia nie ma słabych punktów a to filtrowanie a to teselacja i te flopsy nic nie znaczą bo gpu jest tak szybkie jak jego najsłabszy punkt a jak nie starcza to przytną na jakości obrazu ( znany myk nvidii od 20 lat)

 

https://pclab.pl/art3068-9.html

 

 

35e75637dafca47a.jpg

Wystarczy pozbawić widełek zegarów nvidie i juz mamy w najnowszych grach boost fps o kilkadziesiąt procent np turing przynajmniej jest juz od pól roku postarzany.Monitorowany zegar masz tylko jeden a w chipie nvidii jest przynajmniej 5 ,6

 

https://www.dobreprogramy.pl/GeForce-375.86-tez-do-niczego-dwa-wadliwe-sterowniki-w-ciagu-miesiaca,News,77479.html

 

Ze zaglądają do zegarów przez nieuwagę programistów wychodzi raz na jakiś czas

https://youtu.be/3bmQPx9EJLA

2:22

O to mi dokładniej chodziło

Link to post
Share on other sites

owszem ale tak to nie działa ,nvidia nie ma słabych punktów a to filtrowanie a to teselacja i te flopsy nic nie znaczą bo gpu jest tak szybkie jak jego najsłabszy punkt a jak nie starcza to przytną na jakości obrazu ( znany myk nvidii od 20 lat)

 

https://pclab.pl/art3068-9.html

 

 

35e75637dafca47a.jpg

Wystarczy pozbawić widełek zegarów  nvidie i juz mamy w najnowszych grach boost fps o kilkadziesiąt procent np turing przynajmniej jest juz od pól roku postarzany.Monitorowany zegar masz tylko jeden a w chipie nvidii jest przynajmniej 5 ,6

 

https://www.dobreprogramy.pl/GeForce-375.86-tez-do-niczego-dwa-wadliwe-sterowniki-w-ciagu-miesiaca,News,77479.html

 

Ze zaglądają do zegarów przez nieuwagę programistów wychodzi raz na jakiś czas

I jak niby pozbawić te widełki? Z tego co wiem biosów nie można modyfikować. Więc chyba podkręcanie na sztywno i tyle.

Link to post
Share on other sites

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Odpowiedz w tym wątku...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

  • Ostatnio przeglądający   1 użytkownik

×
×
  • Dodaj nową pozycję...