Skocz do zawartości

Recommended Posts

4 godziny temu, EH_Gosu napisał:

bo przy tak marginalnych różnicach rzędu do 2% wzrostu wydajności

Zwróć uwagę, że według przecieków karta ma mieć nowe jeszcze szybsze pamięci także te zmiany nie do samego GPU by się ograniczały.

Dla mnie to i tak tylko ciekawostka bo ceny odleciały w kosmos nawet przed tym całym boomem na krypto. Sprytnie nowe numerki w każdej serii przemyciły wyższe ceny zarówno dla GPU jak i CPU.

  • Popieram 1
Link to post
Share on other sites
Godzinę temu, Dzejson_ napisał:

Zwróć uwagę, że według przecieków karta ma mieć nowe jeszcze szybsze pamięci także te zmiany nie do samego GPU by się ograniczały.

Dla mnie to i tak tylko ciekawostka bo ceny odleciały w kosmos nawet przed tym całym boomem na krypto. Sprytnie nowe numerki w każdej serii przemyciły wyższe ceny zarówno dla GPU jak i CPU.

 

Pamięci jak najbardziej zgadza się, natomiast już od dawna nie kupuje kart FE tylko idę w konstrukcje autorskie także defowe ustawienia zupełnie mnie nie interesują osobiście, tak samo do konfigów klientów wybieram topowe autroskie konstrukcje żeby było co z tego wycisnąć. Jeśli RTX 3080 Ti / SUPER czy TITAN ma mieć def PT 450W to pewnie przy PT na maxa do 500W dobije. No to przykładowo na 3090 STRIX mam PT 480W obecnie i mem wykręcone i w pełni stabilne wyżej niż to co 3090 Ti / SUPER / TITAN ma przynieść w defie. Jedyna wtedy radocha szłaby z tego jeśli nowe memki również pozwalałyby na dodatkowe OC względem defa o zakres minimum +800 efektywnego taktowania GDDR6X wtedy taki powiedzmy 3090 Ti / SUPER STRIX jakby miał PT 550W to by pewnie na te nawet 4% wyższą wydajność się przełożył. Jeśli to będzie karta TITAN to niestety zostanie niedosyt bo PT def 450 i max pewnie do 500W to już wtedy nie będzie z czego wycisnąć dodatkowego OC na memkach, a to właśnie GDDR6X są w Ampere odpowiedzialne za tak wysokie TDP. Stąd i + 100W na nadchodzącym domniemanym GPU.

 

Wcześniejsze plotki mówiły też o tym, że ta karta ma być pozbawiona złącza NVLINK to wtedy też lipa z nią będzie do stacji roboczych gdzie NVLINK się przydaje w niektórych zastosowaniach, a i w trzy gry na krzyż pograć można :D Jeśliby jeszcze LHR dowalili to już w ogóle lipa bo dojdzie do absurdalnych sytuacji czyli standardowe 3090 droższe niż usprawnione 3090, analogicznie jak jest z 3070 vs 3070 LHR czy 3080 vs 3080 LHR, przy czym wszelkie 3080 Ti to tylko LHR. No nic, poczekamy i zobaczymy co tam wymyślą. Fajnie byłoby jakby taka karta powstała bo tak jak pisałem wcześniej, radocha przy testach znowu bo to zawsze trochę zabawy z nowością. Ale żeby skłonić do zmiany na taką kartę tych którzy już posiadają 3090 (szczególnie na wodzie) to by musiała taka karciocha oferować coś co do takiej zmiany skłoni, a byłaby to zmiana tylko dla czystej zajawki. Przykładowo ja nie zmieniałem 2x TITAN X Pascal na 2x TITAN Xp jak wyszły, ani 2x RTX 2080 Ti na 2x TITAN RTX bo rozbieranie LC, przebudowa, zawracanie czterech liter totalnie niepragmatyczne względem marginalnych zysków wydajnościowych. O ile TITANy RTX oferowały 24 GB VRAM zamiast 11 to TITANy Xp tylko do max 5% większą wydajność od TX Pascal. Co jak co ale NVIDIA to kupony potrafi odcinać i się na pewno chętnych na nowe GPU nie zabraknie, tylko pośród tych co już mają czy 3080 Ti czy 3090 to w sumie mocno bez echa przejdzie. Osobiście czekam sobie spokojnie na topkę next genu i wtedy znowu motywacja do zmian będzie :)

  • Lubię to 1
Link to post
Share on other sites
1 godzinę temu, Dzejson_ napisał:

Zwróć uwagę, że według przecieków karta ma mieć nowe jeszcze szybsze pamięci także te zmiany nie do samego GPU by się ograniczały.

Jeżeli podkręcą pamięci to wzrośnie wydajność wszędzie poza grami xD

Generalnie ciężko obecnie obciążyć Tensory w obecnych kartach z uwagi na pamięć, dlatego karty dedykowane do obliczeń mają HBM.

Kopanie też wzrośnie :)

 

Yeahh, granie w 32K będzie wreszcie możliwe. (Linus już grał w 16K)

Link to post
Share on other sites
1 minutę temu, Adames napisał:

Jeżeli podkręcą pamięci to wzrośnie wydajność wszędzie poza grami xD

Generalnie ciężko obecnie obciążyć Tensory w obecnych kartach z uwagi na pamięć, dlatego karty dedykowane do obliczeń mają HBM.

Kopanie też wzrośnie :)

 

Yeahh, granie w 32K będzie wreszcie możliwe. (Linus już grał w 16K)

 

Przepustowość pamięci ma ogromne znaczenie w kwestii wydajności Ampere również w grach. Im wyższe takty memek tym wyższa przepustowość pamięci i wydajność. Tylko żeby z tego skorzystać to GPU musi być z wysokim PT, oraz platforma wyregulowana tak by absolutnie zminimalizować jakie kolwiek wąskie gardła. Także najwyższe możliwe takty CPU, podsystemu pamięci, samych pamięci i wyregulowane timingi wraz z drugim i trzecim rzędem. Rdzenie Tensor w Turingach i Ampere odpowiedzialne są za DLSS, w TITAN V czyli jedynej konsumenckiej Volcie były programowalne do speciajlistycznych obliczeń i tam miałeś właśnie HBM2

  • Haha 1
Link to post
Share on other sites
52 minuty temu, Adames napisał:

Jeżeli podkręcą pamięci to wzrośnie wydajność wszędzie poza grami xD

Generalnie ciężko obecnie obciążyć Tensory w obecnych kartach z uwagi na pamięć, dlatego karty dedykowane do obliczeń mają HBM.

Kopanie też wzrośnie :)

 

Yeahh, granie w 32K będzie wreszcie możliwe. (Linus już grał w 16K)


Niom, na 16 tytanach czy co to tam było.

  • Lubię to 1
Link to post
Share on other sites

Nakręcanie wynikające z nieumiejętnych tłumaczeń oraz polityki clickbaitowej. Przy +/- 18K CUDA musiałyby po prostu ogromne wzrosty rzędu  IPC mieć miejsce żeby za sprawą RTX 4090 podwoić wydajność RTX 3090 mającego 10496 CUDA (realnie to połowa bo to zapis w oparciu o podwojone obliczenia FP32, czyli marketing). Realne jest natomiast jak najbardziej + 80%. Wiadomo, że im więcej tym lepiej no ale niektórzy redaktorzy przepisujący plotki serio powinni mocno ochłonąć bo się przyczyniają do siania dezinformacji którą wiele osób jakie nie siedzą mocno w temacie hardware, potem powtarza sugerując się tego typu artykułami i czeka na next gena oferującego 3/4x większą wydajność od obecnej topki. Nie ma na to szans.

Link to post
Share on other sites

4x Wincyj mocy -> TGP 1,6 KW xD

Gratis pojemnik na azot -.-"

Albo chłodzenie wodne prosto z sieci wodociągowej. 

 

Hmm, albo nie IPC zwiększanie IPC a taktowania. CUDA idą w ilość a nie IPC jako tako, co sprawdza się znakomicie przy zadaniach, które można dobrze zrównoleglić. 

Jakiś czas temu była wzmianka (nie w kontekście nvidii) o chłodzeniu cieczą bezpośrednio w układzie:

https://patents.google.com/patent/US7515415B2/en

Pewnie będzie potrzebne do odprowadzania ciepła z nowych GPU xD

Link to post
Share on other sites
8 minut temu, Adames napisał:

4x Wincyj mocy -> TGP 1,6 KW xD

Gratis pojemnik na azot -.-"

Albo chłodzenie wodne prosto z sieci wodociągowej. 

 

Hmm, albo nie IPC zwiększanie IPC a taktowania. CUDA idą w ilość a nie IPC jako tako, co sprawdza się znakomicie przy zadaniach, które można dobrze zrównoleglić. 

Jakiś czas temu była wzmianka (nie w kontekście nvidii) o chłodzeniu cieczą bezpośrednio w układzie:

https://patents.google.com/patent/US7515415B2/en

Pewnie będzie potrzebne do odprowadzania ciepła z nowych GPU xD

 

CUDA idą nie tylko ilość ale i we wzrosty IPC. Przykładowo Maxwell miał około 40% wydajniejsze CUDA niż Kepler, Turing miał wydajniejsze CUDA niż Pascal (i miał ich więcej). Ampere ma przebudowane CUDA i też gdzieś widziałem w dokumentacjach info o zwiększonych IPC. Wszystko ma znaczenie generalnie.

Takty kart FE to i tak anemia totalna to tego nie liczę, na dobrze chlodzonych konstrukcjach RTX 3090 trzymanie 2055-2130 MHz w booście to nie problem. Jeśli next gen przy 5 nm pozwoli dobić nawet do 2.5 Ghz czy więcej to i tak i tak nie ma szans na wieszczone 3/4x większe wydajności od Ampere. Clicbaity i kręcenie hajpu się zaczyna po prostu :)

20 minut temu, Artok napisał:

Ze dwa dni temu czytałem wypowiedzi "informatorów" z Twittera, którzy wskazywali na wzrost między 50 a 70% względem 3090.

 

Jak najbardziej realne liczby szczególnie przy FE vs FE, konkretniejsze wyciski na lepszych konstrukcjach i wodzie.

Edytowane przez EH_Gosu
Link to post
Share on other sites

Zgadza się, IPC też wzrasta, tylko cała ideologia CUDA polega na tym, by mieć ich dużo i osiągać ogromne zrównoleglenie wykonywania kodu, kosztem mniejszej wydajności per jednostka obliczeniowa. Uproszczona konstrukcja jednostek cuda względem rdzeni zwykłego procka pozwala na upakowanie takiej ilości, jaka obecnie jest nieosiągalna dla CPU. Jestem sobie w stanie wyobrazić, że mając układ z  10 tysiącami rdzeni od Core 12 generacji, to wydajność byłaby na poziomie kilku (nastu?) takich RTX 3090, właśnie za sprawą IPC. Tak wiem, wiem, przy tej ilości "zwykłych" rdzeni dochodzą jeszcze problemy, których nie rozpatruje się zwykle przy CUDA, ale wydajność podejrzewam że by była ogromna.

 

Link to post
Share on other sites
35 minut temu, EH_Gosu napisał:

 

CUDA idą nie tylko ilość ale i we wzrosty IPC. Przykładowo Maxwell miał około 40% wydajniejsze CUDA niż Kepler, Turing miał wydajniejsze CUDA niż Pascal (i miał ich więcej). Ampere ma przebudowane CUDA i też gdzieś widziałem w dokumentacjach info o zwiększonych IPC. Wszystko ma znaczenie generalnie.

Takty kart FE to i tak anemia totalna to tego nie liczę, na dobrze chlodzonych konstrukcjach RTX 3090 trzymanie 2055-2130 MHz w booście to nie problem. Jeśli next gen przy 5 nm pozwoli dobić nawet do 2.5 Ghz czy więcej to i tak i tak nie ma szans na wieszczone 3/4x większe wydajności od Ampere. Clicbaity i kręcenie hajpu się zaczyna po prostu :)

 

Jak najbardziej realne liczby szczególnie przy FE vs FE, konkretniejsze wyciski na lepszych konstrukcjach i wodzie.


Chciałem przypomnieć, że to, że Ampere ma 2x więcej CUDA niż Turing nie znaczy, że ma ich fizycznie 2x więcej, bo zmienili sposób liczenia tego jakoś. 
Dokładniej to zdjęli limitację do 16 FP32/clock na każdym SM Subcore (pozostałe 16 były dedykowane do INT32). Co oznacza, że Ampere może robić 32 FP32/clock, przez co jest 2x więcej CUDA, ale to są słabsze CUDA "w porównaniu".

Z tego co czytałem 16 operacji/clock jest dedykowane do FP32, a 16 może robić FP32/INT32. Więc trzeba to brać pod uwagę porównując IPC między generacjami.

Link to post
Share on other sites
17 minut temu, mirai99 napisał:


Chciałem przypomnieć, że to, że Ampere ma 2x więcej CUDA niż Turing nie znaczy, że ma ich fizycznie 2x więcej, bo zmienili sposób liczenia tego jakoś. 
Dokładniej to zdjęli limitację do 16 FP32/clock na każdym SM Subcore (pozostałe 16 były dedykowane do INT32). Co oznacza, że Ampere może robić 32 FP32/clock, przez co jest 2x więcej CUDA, ale to są słabsze CUDA "w porównaniu".

Z tego co czytałem 16 operacji/clock jest dedykowane do FP32, a 16 może robić FP32/INT32. Więc trzeba to brać pod uwagę porównując IPC między generacjami.

 

Kilka postów wyżej napisałem - "realnie to połowa bo to zapis w oparciu o podwojone obliczenia FP32, czyli marketing" odnośnie Ampere. Przy czym Ampere ma i tak więcej CUDA.

 

RTX 2080 Ti ma fizycznie 4532 CUDA, RTX 3080 Ti ma fizycznie 5120 CUDA zapisywane marketingowo jako 10420 CUDA właśnie ze względu na podwojenie obliczeń.

Pełne TU102-400 w postaci TITAN RTX ma 4608 CUDA, gdzie RTX 3090 ma ich fizycznie 5248 i marketingowo wpisywane jako 10496.

Pełne GA102 w Quadro i w plotkowym RTX 3090 Ti / SUPER / TITAN to 10752 CUDA czyli fizycznie 5376.

 

Patrząc segmentami RTX 2080 Ti vs RTX 3080 Ti fizycznie CUDA w Ampere jest 588 więcej względem Turinga, ale +/- 60% wzrost wydajności bierze się ze zmian architektury, większej ilości TMU, ROP etc. Rdzenie RT w Ampere to również druga generacja i szybsze względem pierwszej generacji rdzeni RT w Turingu. Z kolei co ciekawe Ampere ma rdzenie Tensor trzeciej generacji, Turing drugiej bo pierwszy gen dostał TITAN V przy czym na TITAN V nie da się włączyć DLSS. Albo pierwszy gen rdzeni Tensor nie współpracuje z DLSS albo to po prostu blokada softwarowo, ot taka ciekawostka dodatkowa :)

Edytowane przez EH_Gosu
Link to post
Share on other sites

Nie ma, bo to marketing, DLSS to produkt który sprzedaje RTX (chyba nawet bardziej niż raytracing) i robienie wsparcia dla poprzedniej karty im się nie kalkuluje. Dzięki temu $$ się zgadza.

 

Teraz to w sumie brakuje tylko, by AMD w końcu zaopiekowało się OpenCL, bo obecnie to płacz i rozpacz. Nie miałem jeszcze w ręku instincta,  ale na obecnych kartach konsumenckich nie można zrobić nic. Nawet ich wynalazek RCOm nie wspiera nowych radeonów.  Patologia. To sprawia, że nvidia może sobie ceny co generację podnosić o min 30%. Zatem zapewne 4090 będzie w okolicy 2000$. 4060 nie zdziwiłbym się jakby było 460$. Nie ważne jak tanie będzie amd, jeżeli nic nie zrobią dobrego frameworka dla obliczeń, to nie są opcją.

 

Na chwilę obecną to tylko Intel może spowodować by Nvidia coś zrobiła z cenami.

Link to post
Share on other sites
3 godziny temu, EH_Gosu napisał:

Jeśli next gen przy 5 nm pozwoli dobić nawet do 2.5 Ghz czy więcej

Myślę że to realne jeśli RDNA2 na TSMC 7nm kręcą się fabrycznie ponad 2600mhz, a po OC nawet powyżej 3ghz. Wiem że to inna architektura no ale jednak.

Link to post
Share on other sites

https://videocardz.com/newz/nvidia-geforce-rtx-2060-12gb-official-specs-are-out-2176-cuda-cores-and-185w-tdp

 RTX 2060 12GB i wyjdzie founders, wspaniałe czasy, karta miedzy 2060 a 2060 super:) Chyba ze by kosztowała 2000zł, to wtedy by wykupili wszystko jak leci(pewnie lhr nie będzie mieć) to górniki i tak wezmą

Edytowane przez wrobel_krk
Link to post
Share on other sites
1 godzinę temu, wrobel_krk napisał:

RTX 2060 12GB

Teraz czekamy na reboot rtx 2070 z 16GB vram, przecież to idealne karty do 4k gaming :rotfl: A nie czekaj, dwa DAGi się spokojnie zmieszczą w 12gb więc można kopać 2 krypto jednocześnie żeby "obejść" LHR więc hajs się zgadza. Na miejscu właścicieli rtx 3080 czułbym się lekko "wykolegowany" z żałosnym 10gb vram. 

Link to post
Share on other sites
1 minutę temu, Artok napisał:

posiadacze RTX 3070? 

8GB? Na 6600xt jak odpalę Forzę Horizon 5 w 1440p ultra to krzyczy że mało pamięci, przez co musiałem zejść na high :/ Widać że karta dałaby radę bo średni fps powyżej 100, ale co chwilę spadki. Poza tym musiałem zwiększyć pamięć wirtualną bo 16gb fizycznego ramu i 8gb wirtualnego się zapychało, dałem 16gb i jest ok. Z tego co kojarzę to RTXy potrzebują trochę mniej vram, ale 8 czy 10gb i tak nie jest zbyt przyszłościowe. Ciekawe czy w serii 4000 znowu wypuszczą najpierw modele z okrojoną pamięcią a dopiero później jakieś Super czy Ti.

Link to post
Share on other sites

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Odpowiedz w tym wątku...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...