Andrew 5872 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 Po pierwsze jednostki obliczeniowe w maxwellu są sporo wydajniejsze niż w keplerze W grach i Kepler byłby wydajniejszy tylko gdyby pisali pod niego sterowniki, w dniu premiery jasno było widać że te 780Ti spokojnie by sobie z 980tką poradził, sterownikami spowalniają starszą generację, nawet teraz w Wiedźminie ich "błędy na keplerach" Cytuj Link to post Share on other sites
szatkus 282 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 A ja bym sie nie zdziwił jak ten DX 12 wcale nie będzie taki przełomowy jak to AMD na slajdach pokazało Ale to nie trzeba polegać na slajdach. Zapytaj kogolowiek obeznanego w temacie. DX12 jest przełomowy. Cytuj Link to post Share on other sites
mbe13 444 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 Po biera mało prądu bo jest wykastrowany z DP a nie dla tego ze jest to jakaś rewolucyjna arch. Cytuj Link to post Share on other sites
szatkus 282 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 (edytowane) Po biera mało prądu bo jest wykastrowany z DP a nie dla tego ze jest to jakaś rewolucyjna arch. Bez przesady. To nie jest tak, że za tym stoi jeden powód. Oprócz tego stosują węższe szyny i prawdopodobnie zmienili proces technologiczny na HPM (którego nie było gdy Kepler wchodził na rynek). Pewnie też setki mniejszych i większych udoskonaleń o których nie wiemy. Maxwell może rewolucyjny nie jest, ale jednak to dobra konstrukcja. Edytowane 23 Czerwca 2015 przez szatkus Cytuj Link to post Share on other sites
szafirotron 18 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 Po pierwsze jednostki obliczeniowe w maxwellu są sporo wydajniejsze niż w keplerze i nie ma mowy o stosunku 1 vs 1. Po drugie co wy macie z tym DX12? Wydajność ulegnie poprawie ale tam gdzie procesor nie domaga a nie karta graficzna!!! Zakodujcie to sobie! Tak. Ale wtedy karta będzie miała więcej rzeczy do liczenia... I tutaj niektóre jednostki będą dawały przewagę. A niektóre karty będą impotentami z powodu "kastracji". Cytuj Link to post Share on other sites
keczu 476 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 Hmmm czy to aby nie fake? GPU0 i GPU1 czyli cross? Czyli napewno. Wyglada na dwa R9 290x/390x. Widac ze karty nie sa "zwodowane" , a np. R9 295x2 nie przekroczyl by 75*. Dobrze ze koles siedzi na 2011 platformie to moze karty troche dalej od siebie zamontowac. Samo DX12 nie da znaczącej poprawy. Ludzie chyba zapomnieli o co chodzi w Mantle/DX12. Gralem z Mantle na HD 7990 i i7 3770k@4.5Ghz przy srednio 80~100 FPS dawalo to od 0~15 FPS ponad DX11. Sa gry jak Crysis 3 gdzie z pewnoscia Mantle daloby wiekszego kopa. Zapytaj kogolowiek obeznanego w temacie. DX12 jest przełomowy. Przelomowy tak, niezaprzeczalnie. Ale zalezy dla kogo i w jakim stopniu. Dla kogos z np. FX 6300 bardziej przelomowy niz posiadacza podkreconego i7 4790k. Intel tez juz apelowal do producentow gier zeby pisali je na jeszcze wiecej rdzeni/watkow bo zegarow i wydajnosci z pojedynczego rdzenia juz nie da sie tak latwo pogonic. Benchmarki co demonstruja DX 12 to nie gry. Poprostu z DX 12 bedzie mozna sparowac FX 8320 z bardzo mocna karta graficzna i pod tym wzgledem to przelom. Mantle juz jest dlugo dostepne i mozna sobie sprawdzic jakie sa przyrosty FPS. Szkoda ze wlasnie Crysis 3 nie ma takiej opcji. Tam by sie przydalo. Cytuj Link to post Share on other sites
szatkus 282 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 Przelomowy tak, niezaprzeczalnie. Ale zalezy dla kogo i w jakim stopniu. Dla kogos z np. FX 6300 bardziej przelomowy niz posiadacza podkreconego i7 4790k. Nie tylko. Jak to mi ktoś kiedyś powiedział: "Z DirectX 12 w końcu będziemy mogli wyciągnąć pełną moc z GPU". Cytuj Link to post Share on other sites
keczu 476 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 Mooooze i tak, ale cos ci zacutuje. "under DX12 it is the game developer’s responsibility to manage the GPU. Because the developer has an intimate understanding of their application’s behavior and needs, DX12 has the potential to be much more efficient than DX11 at the cost of some effort on the part of the developer. DX12 contains a number of improvements that can be used to improve the API’s CPU efficiency" Czyli za optymalizacje gier beda odpowiedzialni ci co je pisza , a widzac jak np. Ubisoft optymalizuje gry to czarno to widze. Potencjal jest , zobaczymy jak to wyjdzie. Poza tym Mantle w BF4 wygladalo zle, cos z biednymi texturami pozniej chyba to naprawiali. Cytuj Link to post Share on other sites
Andrew 5872 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 (edytowane) Kurde, nie te okienko Edytowane 23 Czerwca 2015 przez Ragnar Lothbrok Cytuj Link to post Share on other sites
keczu 476 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 Tak. Ale wtedy karta będzie miała więcej rzeczy do liczenia... I tutaj niektóre jednostki będą dawały przewagę. A niektóre karty będą impotentami z powodu "kastracji". No dobra to teraz jak GPU jest obciazone w 99% to ma mniej do liczenia? Cytuj Link to post Share on other sites
DjXbeat 1045 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 (edytowane) W grach i Kepler byłby wydajniejszy tylko gdyby pisali pod niego sterowniki, w dniu premiery jasno było widać że te 780Ti spokojnie by sobie z 980 W 90% optymalizacja zależy od producenta gry a nie od sterowników! Gry pisane są już pod maxwelle stąd co raz większa przewaga nad keplerami. Sam sterownik daje kosmetyczne różnice ale jednak daje. W Wieśku 3 samymi sterownikami poprawili działanie Keplera o 13% ale takich sytuacji gdzie 780Ti dostawał od 970 tak jak w W3 jest b.mało. Ludzie chyba zapomnieli o co chodzi w Mantle/DX12. Gralem z Mantle na HD 7990 i i7 3770k@4.5Ghz przy srednio 80~100 FPS dawalo to od 0~15 FPS ponad DX11. Sa gry jak Crysis 3 gdzie z pewnoscia Mantle daloby wiekszego kopa. DX12 to głównie odciążenie procesora i na tym polu szykuje się rewolucja tak jak w mantle. W miejscach graficznych wydajność pozostanie praktycznie bez zmian natomiast tam gdzie procesor limitował wydajność będzie pełne wykorzystanie GPU. Ty siedziałeś na dość mocnym sprzęcie a ja Mantle vs DX11 badałem na i7 920 + R9 280X W DX11 i7 920@4.2Ghz przez większość czasu karta R9 280X pracowała z obciążeniem 65-85% co powodowało ograniczenie wyświetlanych klatek. W Mantle R9 280X przez cały czas zapitalał na 99% bez żadnych spadków w obciążeniu mało tego procesor zjechałem na domyślne taktowanie 2.66Ghz i w dalszym ciągu karta obciążona była w 99% i generowała więcej klatek niż 4.2Ghz w DX11. DX12 przyniesie olbrzymie korzyści osobom posiadającym słabsze procesor. Edytowane 23 Czerwca 2015 przez DjXbeat Cytuj Link to post Share on other sites
szatkus 282 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 Mooooze i tak, ale cos ci zacutuje. "under DX12 it is the game developer’s responsibility to manage the GPU. Because the developer has an intimate understanding of their application’s behavior and needs, DX12 has the potential to be much more efficient than DX11 at the cost of some effort on the part of the developer. DX12 contains a number of improvements that can be used to improve the API’s CPU efficiency" Czyli za optymalizacje gier beda odpowiedzialni ci co je pisza , a widzac jak np. Ubisoft optymalizuje gry to czarno to widze. Potencjal jest , zobaczymy jak to wyjdzie. Poza tym Mantle w BF4 wygladalo zle, cos z biednymi texturami pozniej chyba to naprawiali. Cena postępu. Jakby co MS planuje też utrzymać przy życiu DX11. Cytuj Link to post Share on other sites
Blashix 137 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 Jutro premiera Fury ajaj Cytuj Link to post Share on other sites
davidoff 153 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 czyli DX 12 zatrzyma postęp w procesorach skoro tak dużo da słabszym CPU..... bo po co robić mocniejszy/szybszy procek skoro będzie nieduża różnica w grze miedzy i7 a FX Cytuj Link to post Share on other sites
damianox89 322 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 DX12 przyniesie olbrzymie korzyści osobom posiadającym słabsze procesor. Zgadam sie w 100% ale dx12 przyniesie korzyści użytkownikom kart które mają dużą moc obliczeniową (w tym przypadku głównie AMD) pod warunkiem dobrze napisanych sterowników. AMD potrafi pisać sterowniki, przypomnijcie sobie sytuacje z 7970 czy 7950, jakiego kopa dostała w swoim czasie po dobrze napisanych sterach. Cytuj Link to post Share on other sites
Andrew 5872 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 Jutro premiera Fury ajaj Fury X, bo Fury to dopiero 14stego lipca Cytuj Link to post Share on other sites
szatkus 282 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 W 90% optymalizacja zależy od producenta gry a nie od sterowników! Yhym, pewnie dlatego przy każdym poważniejszym hicie producenci wypuszczają nowe sterowniki i machają wykresami ile to FPSów skoczyło. czyli DX 12 zatrzyma postęp w procesorach skoro tak dużo da słabszym CPU..... bo po co robić mocniejszy/szybszy procek skoro będzie nieduża różnica w grze miedzy i7 a FX Nie bój nic, oni już coś zrobią z tą luźną mocą procesora. Lepsze AI, fizyka, cokolwiek. Cytuj Link to post Share on other sites
SKEEPER 16089 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 DX12 przyniesie olbrzymie korzyści osobom posiadającym słabsze procesor. Czyli w miejscach, w których gra chciała mocnego cepa, nie będzie takich spadków, bo przejdzie to na kartę? Cytuj Link to post Share on other sites
davidoff 153 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 Zgadam sie w 100% ale dx12 przyniesie korzyści użytkownikom kart które mają dużą moc obliczeniową (w tym przypadku głównie AMD) pod warunkiem dobrze napisanych sterowników. AMD potrafi pisać sterowniki, przypomnijcie sobie sytuacje z 7970 czy 7950, jakiego kopa dostała w swoim czasie po dobrze napisanych sterach. To jak wróżenie z fusów to samo mówiło AMD w prockach, i po co tyle rdzeni dopiero teraz zaczynają się pojawiać gry które wykorzystują więcej jak 4 rdzenie...... Jednego jestem pewien w elektonice nie ma mowy o rozmowach co przyniesie przyszłość bo za 2 lata może się wszystko pozmieniać to że "TEORETYCZNIE" AMD ma mocniejsze karty nic im dziś nie daje a co będzie z DX12 też nic nie wiadomo jak się zachowają te karty, tak samo jakbym powiedział że RIVA TNT2 dostanie kopa w DX12 Zaraz pędze do sklepu i kupuje 16 wątkowego proca za 5000zł bo w którymś tam roku gry będą wykorzystywać 16 wątków..... kupowanie patrzenie dalej jak 2 lata do przodu na dzień dzisiejszy w elektronice to głupota bo niewiadomo co przyniesie przyszłość.... choćby jak zachowają sie nowe pamieci HBM jeżeli to będzie HIT to na 100% będą w nowej serii NV Nie bój nic, oni już coś zrobią z tą luźną mocą procesora. Lepsze AI, fizyka, cokolwiek. wiem wiem musi się zgadzać €€€€€€€ 1 Cytuj Link to post Share on other sites
Andrew 5872 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 jeżeli to będzie HIT to na 100% będą w nowej serii NV Na razie mogą to podziwiać u konkurencji, bo umowy są takie iż nv nie ma możliwości dotknąć tego przez rok a może nawet dłużej hehe Cytuj Link to post Share on other sites
Nowaj 61941 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 Reverse engineering coś ci mówi ? Cytuj Link to post Share on other sites
Andrew 5872 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 Inżynieria odwrotna? Mówisz że będą mieli u siebie tego radeona i badali go? a tu Teaser Diody chodzą jak u K.I.T.T'a 3 Cytuj Link to post Share on other sites
damianox89 322 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 Pięknie to wygląda Next-gen pełną gębą Cytuj Link to post Share on other sites
szatkus 282 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 NVIDIA już mówiła, że HBM będzie w następnej generacji (2016). Cytuj Link to post Share on other sites
davidoff 153 Napisano 23 Czerwca 2015 Udostępnij Napisano 23 Czerwca 2015 HBM raczkuje to samo jest z 4k raczej nie kupowałbym z pierwszej serii, zaczekam na testerów albo dopracowanie technologii dobry monitor/telewizor FHD jest lepszy jak tani 4K sam widzisz że AMD zablokował podkrecanie tych pamięci to wielka niewiadoma narazie ale niedługo się przekonamy jak będzie Licze że AMD odbije się i pokaże NV z 980Ti gdzie raki zimują chce dużej konkurencji Cytuj Link to post Share on other sites
Recommended Posts
Dołącz do dyskusji
Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.