Rebelmind 3738 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 Ale przecież on nie miał na myśli ludzi, którzy biorą takie karty z myślą o zastosowaniach Pro - bo tam cena ma drugorzędne znaczenie. Cytuj Link to post Share on other sites
uberas 110 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 Ale przecież on nie miał na myśli ludzi, którzy biorą takie karty z myślą o zastosowaniach Pro - bo tam cena ma drugorzędne znaczenie.Ale moja wypowiedz nadal może być trafna jeżeli chodzi o zwykłego zjadacza chleba, wykorzystującego komputer do zadań półprofesjonalnych i gier na przykład Wiesz tak sobie śmieszkujemy Ja tam nie mam zwyczaju zaglądać komuś do portfela i go oceniać na co wydaje kase i czy to jest jakoś logicznie uzasadnione. JA wiem jedno jak zapowiadane karty od Nvidi i AMD osiągną absurdalne ceny to posiedzę na moim RX 5700xt aż się mocno zestarzeje i gry będą chodzić poniżej 60 FPS to wtedy oddam go dla dzieci albo sprzedam, a w miejsce kompa kupię sobie jakiś laptop a do grania konsole . Bo serio 6 tyś płacić za samą kartę graficzną to już przegięcie. nawet 2 tyś to za dużo za samą grafikę (a gdzie jeszcze Ram, płyta główna , Procesor itd) jeśli patrzymy że konsola ma kosztować okolice 2500 zł, przyzwoity TV 4k to 1500 zł więc za 4 tyś będzie to bardzo fajny zestaw do grania i nadal tańszy od grafiki dla ętuzjastuuufffff Tez tak zamierzam zrobić, wyżej chyba wspominałem - nie zmienia to faktu, ze nie nazywam posiadaczy droższych aut ode mnie idiotami Cytuj Link to post Share on other sites
r1023 873 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 same AMD-ki w podpisach marudzą Cytuj Link to post Share on other sites
janek20 1288 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 Nieprzypadkowo https://www.benchmark.pl/aktualnosci/gainward-geforce-rtx-3090-i-rtx-3080-phoenix-karty-graficzne.html ulala gainward ,palit sie rozkręcili.Byki 2,5 slota oraz 3 wentylatory.Bedzie ultra cicho jeśli dopilnuja jakości rurek To nie 2.5 slota to 2.700 slota Cytuj Link to post Share on other sites
Rebelmind 3738 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 same AMD-ki w podpisach marudzą Ja? Nawrócony przeca Cytuj Link to post Share on other sites
MariuszB35PL 617 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 (edytowane) same AMD-ki w podpisach marudzą Powiedział co wiedział i to że od gdzieś 2 mc jestem posiadaczem grafiki od AMD a przez ostatnie 7 lat siedziałem na Nvidi. A wiesz czemu się przesiadłem na AMD bo mnie już polityka cenowa Nvidia i nie dbanie o optymalizacje pod poprzednią generację kart zaczęło wkur... Przykład z moją poprzednią gtx1080 gdzie przy premierze Rtx była wydajnościowo jak rtx2070 a teraz okazuje się jak rtx2060 6Gb jeszcze chwila i będzie jak Gtx1660 Edytowane 31 Sierpnia 2020 przez MariuszB35PL Cytuj Link to post Share on other sites
janek20 1288 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 i nie dbanie optymalizacji pod poprzednią generację kart zaczęło wkur... Przykład z moją poprzednią gtx1080 gdzie przy premierze Rtx była wydajnościowo jak rtx2070 a teraz okazuje się jak rtx2060 6Gb jeszcze chwila i będzie jak Gtx1660 gdyby to było niedbanie to by była odrazu jak gtx 1660. Dbaja tam wiecej jak o rtx 2070, to planowane postarzenie produktu Cytuj Link to post Share on other sites
uberas 110 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 Dobra ale co niby amd miało postarzać skoro żadnych praktycznie produktów nie wydawali xD W sensie ten sam GCN cały czas RDNA1 a 2 tez tak będzie.. 1 Cytuj Link to post Share on other sites
pendzel_3 4598 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 same AMD-ki w podpisach marudzą Bo intelowcy o kasie nie dyskutują, wypinają się tak, że ani im brewka nie tyknie. https://www.benchmar...-graficzne.html 3080 320W..... czyli jakieś +100W, przedłużenie lata 2020 się szykuje, takie chłodzenie jak w tym Palicie to będzie minimum aby było jako-tako. 1 Cytuj Link to post Share on other sites
janek20 1288 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 jakiś nowy parametr ,zazwyczaj było w TDP ile to bedzie brało to zalezy od biosu a poza tym trzeba podłączyć pod miernik Chipy beda mniejsze i więcej tranzystorów to dali większe chłodzenia Cytuj Link to post Share on other sites
r1023 873 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 Bo intelowcy o kasie nie dyskutują, wypinają się tak, że ani im brewka nie tyknie. Tak to sobie tłumacz 3 Cytuj Link to post Share on other sites
janek20 1288 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 Amd tez juz ma możliwości jak nVidia .Np przynajmniej 2 zegary na gpu a tylko 1 monitorowany bo sobie moze robić co chce. Z tym ze goniący nie postarza bo po co Cytuj Link to post Share on other sites
r1023 873 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 Ja? Nawrócony przeca Wilk w owczej skórze 2 Cytuj Link to post Share on other sites
DjXbeat 1045 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 bo mnie już polityka cenowa Nvidia i nie dbanie o optymalizacje pod poprzednią generację kart zaczęło wkur... Przykład z moją poprzednią gtx1080 gdzie przy premierze Rtx była wydajnościowo jak rtx2070 a teraz okazuje się jak rtx2060 6Gb jeszcze chwila i będzie jak Gtx1660 Co do polityki cenowej to się jak najbardziej zgadzam natomiast co do postarzania to absolutnie nie. Większość osób powtarzających te brednie o postarzaniu produktu czy braku optymalizacji nie ma pojęcia jak wygląda dana architektura i jakie zachodzą zmiany w kolejnych generacjach a to właśnie te zmiany są kluczowe dla wzrostu wydajności względem poprzednich generacji. Prosty przykład. Turing względem Pascala ma sporo wydajniejszy fp16. Pojawia się sytuacja gdzie na premierę Turinga porównano 10 gier które w ogóle nie korzystały z fp16 lub korzystały w mniejszym stopniu ze względu na słabą wydajność pascala w fp16. GTX1080 wypadał blisko RTX2070. W kolejnych wychodzących grach programiści zaczęli część efektów puszczać przez fp16 ze względu na wyższą wydajność i bach GTX1080 zostaje w tyle i zaczyna się tworzenie spisku. Nvidia ubija wydajność, brak optymalizacji!! itd Lada moment pojawi się Ampere, które fp16 będzie miał ponad 3-krotnie wydajniejsze względem Turinga, dodatkowo jednostki Tensor wykorzystywane do DLSS będą już 4-krotnie wydajniejsze względem Turinga. Na premierę Ampere będzie porównany z Turingiem w starych grach gdzie DLSS jeszcze raczkuje tak samo jak fp16 ale za jakiś czas programiści znowu zaczną puszczać część efektów przez fp16 bo Ampere jest w tym wydajny i znowu się okaże, że Turing zostaje w plecach i pojawią się kolejne zarzuty o ubijanie wydajności. Nie zdziwię się jak 2080Ti będzie porównywalny z RTX3070 a za jakiś czas gdzie pójdzie w ruch fp16 i wyższa wydajność tensorów 3070 odjedzie do przodu. 1 Cytuj Link to post Share on other sites
uberas 110 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 Co do polityki cenowej to się jak najbardziej zgadzam natomiast co do postarzania to absolutnie nie. Większość osób powtarzających te brednie o postarzaniu produktu czy braku optymalizacji nie ma pojęcia jak wygląda dana architektura i jakie zachodzą zmiany w kolejnych generacjach a to właśnie te zmiany są kluczowe dla wzrostu wydajności względem poprzednich generacji. Prosty przykład. Turing względem Pascala ma sporo wydajniejszy fp16. Pojawia się sytuacja gdzie na premierę Turinga porównano 10 gier które w ogóle nie korzystały z fp16 lub korzystały w mniejszym stopniu ze względu na słabą wydajność pascala w fp16. GTX1080 wypadał blisko RTX2070. W kolejnych wychodzących grach programiści zaczęli część efektów puszczać przez fp16 ze względu na wyższą wydajność i bach GTX1080 zostaje w tyle i zaczyna się tworzenie spisku. Nvidia ubija wydajność, brak optymalizacji!! itd Lada moment pojawi się Ampere, które fp16 będzie miał ponad 3-krotnie wydajniejsze względem Turinga, dodatkowo jednostki Tensor wykorzystywane do DLSS będą już 4-krotnie wydajniejsze względem Turinga. Na premierę Ampere będzie porównany z Turingiem w starych grach gdzie DLSS jeszcze raczkuje tak samo jak fp16 ale za jakiś czas programiści znowu zaczną puszczać część efektów przez fp16 bo Ampere jest w tym wydajny i znowu się okaże, że Turing zostaje w plecach i pojawią się kolejne zarzuty o ubijanie wydajności. Nie zdziwię się jak 2080Ti będzie porównywalny z RTX3070 a za jakiś czas gdzie pójdzie w ruch fp16 i wyższa wydajność tensorów 3070 odjedzie do przodu. Dlatego napisałem, ze niedługo RDNA1>RDNA2 zaliczy podobne pewnie losy Cytuj Link to post Share on other sites
r1023 873 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 trochę zabawne jest kiedy ktoś na premierę nowej generacji kupuje coś z poprzedniej a potem szuka teorii spiskowych bo wydajność mu spada. 1 Cytuj Link to post Share on other sites
janek20 1288 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 (edytowane) teoria to jest jak ktoś nie wie jak sie to robi,a nie jak sie umie samemu postarzeć albo odstarzeć produkt nviidii Edytowane 31 Sierpnia 2020 przez janek20 Cytuj Link to post Share on other sites
korzychxp 253 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 Chętnie się dowiem jak odstarzeć mojego 1070Ti by nie był na równi z 1660 Super Cytuj Link to post Share on other sites
pendzel_3 4598 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 no dobzie dobzie... ale w takim razie, dlaczego karty AEMDE, z czasem nabierają przewagi ze swoimi premierowymi rywalami od urwisów z NV? Cytuj Link to post Share on other sites
uberas 110 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 no dobzie dobzie... ale w takim razie, dlaczego karty AEMDE, z czasem nabierają przewagi ze swoimi premierowymi rywalami od urwisów z NV?Bo:A) maja architekturę od 2012 B) po prostu są tak stworzone, ze nie wykorzystują całego swojego potencjału w tflopsach i im dłużej im się poświęci czasu tym lepiej je zaczynaja wykorzystywać 1 Cytuj Link to post Share on other sites
janek20 1288 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 (edytowane) B) po prostu są tak stworzone, ze nie wykorzystują całego swojego potencjału w tflopsach owszem ale tak to nie działa ,nvidia nie ma słabych punktów a to filtrowanie a to teselacja i te flopsy nic nie znaczą bo gpu jest tak szybkie jak jego najsłabszy punkt a jak nie starcza to przytną na jakości obrazu ( znany myk nvidii od 20 lat) https://pclab.pl/art3068-9.html Chętnie się dowiem jak odstarzeć mojego 1070Ti by nie był na równi z 1660 Super Wystarczy pozbawić widełek zegarów nvidie i juz mamy w najnowszych grach boost fps o kilkadziesiąt procent np turing przynajmniej jest juz od pól roku postarzany.Monitorowany zegar masz tylko jeden a w chipie nvidii jest przynajmniej 5 ,6 https://www.dobreprogramy.pl/GeForce-375.86-tez-do-niczego-dwa-wadliwe-sterowniki-w-ciagu-miesiaca,News,77479.html Ze zaglądają do zegarów przez nieuwagę programistów wychodzi raz na jakiś czas Edytowane 31 Sierpnia 2020 przez janek20 Cytuj Link to post Share on other sites
k0zik 123 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 Na zdjęciach GPU 3080 i 3090 od Gainward w wymaganiach minimalnych jest 750W... No to się jeszcze łapię na tą generację... Na styk... Cytuj Link to post Share on other sites
uberas 110 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 owszem ale tak to nie działa ,nvidia nie ma słabych punktów a to filtrowanie a to teselacja i te flopsy nic nie znaczą bo gpu jest tak szybkie jak jego najsłabszy punkt a jak nie starcza to przytną na jakości obrazu ( znany myk nvidii od 20 lat) https://pclab.pl/art3068-9.html Wystarczy pozbawić widełek zegarów nvidie i juz mamy w najnowszych grach boost fps o kilkadziesiąt procent np turing przynajmniej jest juz od pól roku postarzany.Monitorowany zegar masz tylko jeden a w chipie nvidii jest przynajmniej 5 ,6 https://www.dobreprogramy.pl/GeForce-375.86-tez-do-niczego-dwa-wadliwe-sterowniki-w-ciagu-miesiaca,News,77479.html Ze zaglądają do zegarów przez nieuwagę programistów wychodzi raz na jakiś czas https://youtu.be/3bmQPx9EJLA2:22 O to mi dokładniej chodziło Cytuj Link to post Share on other sites
wrobel_krk 2184 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 (edytowane) To ja myślałem że tylko iPhone-ki spowalniają żeby kupić nowe a tu i karty graficzne;) Edytowane 31 Sierpnia 2020 przez wrobel_krk Cytuj Link to post Share on other sites
korzychxp 253 Napisano 31 Sierpnia 2020 Udostępnij Napisano 31 Sierpnia 2020 owszem ale tak to nie działa ,nvidia nie ma słabych punktów a to filtrowanie a to teselacja i te flopsy nic nie znaczą bo gpu jest tak szybkie jak jego najsłabszy punkt a jak nie starcza to przytną na jakości obrazu ( znany myk nvidii od 20 lat) https://pclab.pl/art3068-9.html Wystarczy pozbawić widełek zegarów nvidie i juz mamy w najnowszych grach boost fps o kilkadziesiąt procent np turing przynajmniej jest juz od pól roku postarzany.Monitorowany zegar masz tylko jeden a w chipie nvidii jest przynajmniej 5 ,6 https://www.dobreprogramy.pl/GeForce-375.86-tez-do-niczego-dwa-wadliwe-sterowniki-w-ciagu-miesiaca,News,77479.html Ze zaglądają do zegarów przez nieuwagę programistów wychodzi raz na jakiś czas I jak niby pozbawić te widełki? Z tego co wiem biosów nie można modyfikować. Więc chyba podkręcanie na sztywno i tyle. Cytuj Link to post Share on other sites
Recommended Posts
Dołącz do dyskusji
Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.