DjXbeat 1045 Napisano 8 Listopada 2016 Udostępnij Napisano 8 Listopada 2016 (edytowane) The Division DX11 vs DX12 GTX1070 + FX 8350 DX11 - 80 DX12 - 108 Edytowane 8 Listopada 2016 przez DjXbeat Cytuj Link to post Share on other sites
blaven 304 Napisano 8 Listopada 2016 Udostępnij Napisano 8 Listopada 2016 Nie możliwe, że ktoś wreszcie zaimplementował DX12 w taki sposób, aby nie tylko nie kaleczyło GPU od nVidii, ale jeszcze pozwalało im na tym zyskać. Mam tylko nadzieję, że nie będzie to jeden wyjątek pokazujący, że można, tylko wzór dla reszty. Cytuj Link to post Share on other sites
Kris194 2 Napisano 8 Listopada 2016 Udostępnij Napisano 8 Listopada 2016 Tylko, że tu CPU zyskuje raczej a nie GPU Cytuj Link to post Share on other sites
blaven 304 Napisano 8 Listopada 2016 Udostępnij Napisano 8 Listopada 2016 Jednak zyskał dla tego, że GPU nie czekało na instrukcje od CPU. Dotychczas efekt było tylko widać dla AMD, gdzie narzut sterownika w DX11 na CPU był wysoki, co po przejściu na DX12 (w połączeniu z pełną obsługą ASync przez AMD) owocowało to olbrzymim kontrastem.W przypadku układów spod zielonego sztandaru wynik na ogół malał (względem DX11), co ewidentnie pokazywało, że deweloperzy jeszcze muszą się wiele nauczyć (gdyby GTXy nie miały predyspozycji do DX12, to w najgorszym wypadku powinny pozostać na poziomie DX11, a nie spadać). Tytuły, gdzie nVidia zyskiwała były wyjątkiem i to niezależnie od użytego CPU. Tutaj natomiast mamy przypadek, gdzie DX12 przynosi 35% wzrost wydajności. Nawet jeżeli jest to jedynie zasługa odciążenia CPU, to znaczy to tyle, że GTXy pomimo gorszej obsługi ASync potrafią i bez tej technologii znacząco obniżyć narzut na CPU (różnica robi wrażenie), a jedyne co jest im do tego potrzebne, to dobra wola i umiejętności programistów.To bardzo dobry znak, jednak wciąż trzeba upewnić się, że to deweloperzy wyciągną wnioski i pozazdroszczą programistom Massive Entertainment sukcesu. Obecnie wygląda to tak, że gra jest pisana na konsole. Deweloperzy nie siląc się za bardzo tworzą port, a ponieważ konsolowe GPU, to wariacja "komputerowego" układu od AMD deweloperzy nie za bardzo mają co zepsuć (choć jak widać po ostatnich premierach bardzo się starają i czasami świetnie im to wychodzi). Dotychczas (DX11), korzystali z przywileju, iż sterownik brał na siebie część odpowiedzialności... więc problemu nie było, ale teraz to umiejętności deweloperów decydują głównie o tym, jak produkcja będzie działać. W efekcie wygląda to tak: "No, ale przecież na AMD działa dobrze (a przynajmniej lepiej), tak? No to problem nie leży po naszej stronie". Dobrze więc, że pojawiają się produkcje, które odpowiadają "Tak myślicie? To zapraszamy, popatrzcie, jak się powinno pisać kod". Cytuj Link to post Share on other sites
ReznoR 362 Napisano 8 Listopada 2016 Udostępnij Napisano 8 Listopada 2016 (edytowane) Tylko, że tu CPU zyskuje raczej a nie GPU DX11 - Avg 98% GPU / 61% CPU - 76,3 FPS DX12 - Avg 96% GPU / 82% CPU - 95,8 FPS Użycie GPU jest nawet ogólnie mniejsze niż na DX11. Także albo wskaźnik użycia GPU można o kant d. rozbić, albo faktycznie DX12 odkrywa ukrytą moc CPU, który zaczyna pomagać karcie w renderingu. Edytowane 8 Listopada 2016 przez ReznoR Cytuj Link to post Share on other sites
bandinse 2 Napisano 8 Listopada 2016 Udostępnij Napisano 8 Listopada 2016 (edytowane) Mam pytanie co do małej gtx 1070 od gigabyte. Przy założeniu chłodzenia cieczą karta będzie po podkręceniu tak wydajna jak pełnowymiarowe 1070ki? Całkiem możliwe że tak, zwłaszcza że ta karta ma sekcję zasilania 5+1 zamiast 4+1 z Founders Edition. Zadbaj tylko o pełne chłodzenie rdzeń+pamięć+VRM i powinno być ok. Wszystko spoko ale Gigabyte nie zezwala na wymianę fabrycznego chłodzenia... Da się to zrobić tak żeby w razie czego wrócić do fabrycznego(są jakieś plomby)? Jak nie ta to zostaje EVGA do zwodowania- pozwalają na zmianę chłodzenia. Tylko zastanawiam się czy wersja founders będzie miała tą samą wydajność co FTW przy założeniu chłodzenia cieczą. Edytowane 8 Listopada 2016 przez bandinse Cytuj Link to post Share on other sites
ReznoR 362 Napisano 8 Listopada 2016 Udostępnij Napisano 8 Listopada 2016 Ale Fanboys Edition 1070 ma pełnowymiarowy laminat (już nie customowy ITX). Cytuj Link to post Share on other sites
bandinse 2 Napisano 8 Listopada 2016 Udostępnij Napisano 8 Listopada 2016 (edytowane) Ale Fanboys Edition 1070 ma pełnowymiarowy laminat (już nie customowy ITX). Wiem to nie jest ogromny problem bo zmieści się do obudowy, pytanie czy najtańsza evga może być tak samo wydajna jak te droższe. Edytowane 8 Listopada 2016 przez bandinse Cytuj Link to post Share on other sites
Kris194 2 Napisano 9 Listopada 2016 Udostępnij Napisano 9 Listopada 2016 (edytowane) DX11 - Avg 98% GPU / 61% CPU - 76,3 FPS DX12 - Avg 96% GPU / 82% CPU - 95,8 FPS Użycie GPU jest nawet ogólnie mniejsze niż na DX11. Także albo wskaźnik użycia GPU można o kant d. rozbić, albo faktycznie DX12 odkrywa ukrytą moc CPU, który zaczyna pomagać karcie w renderingu. To użycie CPU bez użycia każdego wątku to możesz sobie o kant kuli potłuc, czekam na porządne testy. Edytowane 9 Listopada 2016 przez Kris194 Cytuj Link to post Share on other sites
MiSkoF 13 Napisano 11 Listopada 2016 Udostępnij Napisano 11 Listopada 2016 Nvidia Fast Sync Morze mi ktoś coś o tym powiedzieć ? Jak to się ma do G-syns ? Bo na zagranicznych forach pisza o tym a na polskich prawie szczątkowe informacje Cytuj Link to post Share on other sites
dodo 20732 Napisano 11 Listopada 2016 Udostępnij Napisano 11 Listopada 2016 Bo na zagranicznych forach pisza o tym To więc przeczytaj co piszą. Cytuj Link to post Share on other sites
ReznoR 362 Napisano 11 Listopada 2016 Udostępnij Napisano 11 Listopada 2016 Nvidia Fast Sync Morze mi ktoś coś o tym powiedzieć ? Jak to się ma do G-syns ? Morze nie, ale Ocean ci powie http://support.nvidia.eu/hc/pl/search?utf8=✓&query=fast+sync&commit=Szukaj Cytuj Link to post Share on other sites
SUPERKLIKACZ 249 Napisano 11 Listopada 2016 Udostępnij Napisano 11 Listopada 2016 (edytowane) @MiSkoF Obejrzyj to sobie, ja ostatnio na to wpadłem. Koleś bardzo fajnie i szczegółowo opisuje całą metodykę. Sprawdziłem i działa bardzo dobrze. Ps. Co prawda po angielsku, ale nie powinieneś mieć problemu ze zrozumieniem jeżeli znasz trochę ten język. Edytowane 11 Listopada 2016 przez SUPERKLIKACZ 2 Cytuj Link to post Share on other sites
ReznoR 362 Napisano 11 Listopada 2016 Udostępnij Napisano 11 Listopada 2016 (edytowane) Dobre, właśnie czegoś takiego mi brakowało.Sam zauważyłem to dziwne rwanie obrazu podczasu używania Fast Sync, myślałem że coś jest nie tak, ale najwidoczniej "tak już ma". Cóż, może w przyszłych sterownikach faktycznie dopracują tą technologię, bo sam zamysł podoba mi się. Ten Fast Sync aż się prosi o dodanie opcji "Fast Sync (Adaptive)". Edytowane 11 Listopada 2016 przez ReznoR Cytuj Link to post Share on other sites
bandinse 2 Napisano 11 Listopada 2016 Udostępnij Napisano 11 Listopada 2016 Szybkie pytanie. Jak wyglądają plomby na kartach graficznych? Gry od gigabyte je mają? Cytuj Link to post Share on other sites
SUPERKLIKACZ 249 Napisano 11 Listopada 2016 Udostępnij Napisano 11 Listopada 2016 @ReznoR no przydało by się połączenie obu. Mam nadzieję że to szybko rozpracują. Ps. Najlepszy pierwszy komentarz pod filmem... :v Cytuj Link to post Share on other sites
Lipton 517 Napisano 12 Listopada 2016 Udostępnij Napisano 12 Listopada 2016 DX11 - Avg 98% GPU / 61% CPU - 76,3 FPS DX12 - Avg 96% GPU / 82% CPU - 95,8 FPS Użycie GPU jest nawet ogólnie mniejsze niż na DX11. Także albo wskaźnik użycia GPU można o kant d. rozbić, albo faktycznie DX12 odkrywa ukrytą moc CPU, który zaczyna pomagać karcie w renderingu. Ile jest przypadków gier, które nie wykorzystują w pełni zasobów CPU i GPU? The Division na DX12 uwolniło moc CPU, a to że nastąpił spadek użycia GPU to efekt takiego działania. Cytuj Link to post Share on other sites
blaven 304 Napisano 12 Listopada 2016 Udostępnij Napisano 12 Listopada 2016 @up, O czym ty mówisz? Z ostatecznymi wnioskami należy się wytrzymać, jednak jak ReznoR zauważył GPU jest w obu przypadkach wykorzystane niemal w 100%, a procesor w 60%. Jeżeli nagle zyskujemy 20%, pomimo, że GPU nie miało już zapasu, to raczej GPU było ograniczeniem. Cytuj Link to post Share on other sites
ReznoR 362 Napisano 12 Listopada 2016 Udostępnij Napisano 12 Listopada 2016 (edytowane) Powinno być zupełnie na odwrót:Gdy procesor i Ram przestają ograniczać kartę grafiki, % użycia CPU i GPU rośnie.W przypadku tamtego benchmarka patrząc na użycie GPU w MSI Afterburner, wykorzystanie karty spada jedynie nieznacznie, i to w obu API. Za to użycie CPU rośnie. Stąd wniosek po zwiększonej ilości FPS, iż optymalizacje wprowadzone w wersji D3D12 muszą być natury GPU optimization, a spadek narzutu CPU to już swoją drogą. Użycie CPU musi wzrosnąć, aby dotrzymać renderowaniu większej ilości FPS, które zyskała karta na nowym API.Niestety po komentarzach pod filmem wygląda na to, iż jednak wskaźnik użycia GPU może być zwyczajnie niedoskonały, gdyż ci z i7-4790K i GTX 1080 nie zyskali praktycznie nic na D3D12. a to z miejsca torpeduje GPU optimization. Wygląda na to, że zwyczajnie procesor FX był ograniczeniem w D3D11, i nie ma się co przejmować wskaźnikami % użycia GPU. (a przynajmniej w czasie nagrywania gameplayu programami, zamiast aparatem lub przy użyciu zewnętrznego capture-device) Edytowane 12 Listopada 2016 przez ReznoR Cytuj Link to post Share on other sites
Lipton 517 Napisano 12 Listopada 2016 Udostępnij Napisano 12 Listopada 2016 @up, O czym ty mówisz? Z ostatecznymi wnioskami należy się wytrzymać, jednak jak ReznoR zauważył GPU jest w obu przypadkach wykorzystane niemal w 100%, a procesor w 60%. Jeżeli nagle zyskujemy 20%, pomimo, że GPU nie miało już zapasu, to raczej GPU było ograniczeniem. Uśmiecham się, gdy ktoś aż tak mocno bazuje na wskaźnikach z MSI:AB. Okej, ale pozostańmy na chwilę w tej strefie. W DX12 pewna część obliczeń powędrowała na CPU, odciążając GPU. Wzrosło użycie CPU, a GPU teoretycznie powinno być na tym samym poziomie lub wyższym co przy DX11. Nie znamy jednak szczegółów pracy silnika graficznego i jedyne co w tej chwili możemy to poteoretyzować, dlaczego tak się nie stało. Uruchom Dying Light przy konfiguracji i5-6600K + Maxwell/Pascal (+1000 PLN). Użycie GPU w 80%, CPU 50-60%. Teraz piszę z pamięci, mogę się mylić o 5% w tą czy w tamtą, ale są pewne gry, które same z siebie nie wykorzystują zasobów procesora i karty graficznej, w takim stopniu w jakim chciałbyś to widzieć na monitoringu MSI:AB. Cytuj Link to post Share on other sites
Raitoneq 5 Napisano 14 Listopada 2016 Udostępnij Napisano 14 Listopada 2016 Panowie, czy wersja gaming g1 od gigabyte(1060) będzie kręciła się tak samo jak tańszy windforce 2 oc? Czy na to reguły nie ma i nie warto dopłacać za model, który jest po prostu fabrycznie podkręcony? Cytuj Link to post Share on other sites
ReznoR 362 Napisano 14 Listopada 2016 Udostępnij Napisano 14 Listopada 2016 Ja bym bardziej dopłacił za kulturę pracy (MSI Gaming X) niż za losowy potencjał OC. Cytuj Link to post Share on other sites
wsde 36 Napisano 24 Listopada 2016 Udostępnij Napisano 24 Listopada 2016 (edytowane) Nvidia ma wypuścić jakieś nowe karty w 2017 roku? Następce Pascal? Edytowane 24 Listopada 2016 przez wsde Cytuj Link to post Share on other sites
Marek Lolasi 96 Napisano 24 Listopada 2016 Udostępnij Napisano 24 Listopada 2016 Raczej nie, napewno wyjdzie 1080ti i Titan. Cytuj Link to post Share on other sites
dodo 20732 Napisano 24 Listopada 2016 Udostępnij Napisano 24 Listopada 2016 Titan Jeszcze jeden? Cytuj Link to post Share on other sites
Recommended Posts
Dołącz do dyskusji
Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.