Skocz do zawartości

keczu

Użytkownik
  • Liczba zawartości

    1151
  • Rejestracja

  • Ostatnia wizyta

Posty dodane przez keczu

  1.  

     

    zgadza się , tak jak pisałem - te proce to mega kontrowersja ... jedno jest pewne - słabe i okropnie prądożerne heh

     

    Zgadza sie , ale w nowych grach ktore kodowane sa na wiele watkow zaczynaja odzywac , troche za pozno , ale jesli w dobrej cenie to do budzetowego zestawu czemu nie.  

  2.  

     

    @keczu to zobacz sobie ich budowę . Tam się mozna kłucić czy wogóle jest rdzeń ... bo tak wymyślili że na upartego się dopatrując znajdziesz 4 rdzenie całe i 4 fragmentowe ... tak pokaszanili budowę że masakra . tam nie ma 8 rdzeni , 8 nierównych wydajnościowo wątków MOŻE .
     

     

    FX-y maja budowe modulowa , ale blizej im do osmio rdeniowego procesora niz cztero. AMD zostalo nawet nie tak dawno pozwane w podobnym pozwie jak  Nvidia za swoje 4GB (3.5+0.5) pamieci w przypadku GTX 970 i jak wiecie Nvidia oddawala kase ( ok.$30 za "falszywa reklame") a AMD nie ,bo potrafili wykazac ze w niektorych aplikacjach procesor zachowuje sie jakby mial 8 rdzeni. 

     

    Wiec kazdy moze sobie to interpretowac jak chce.  

  3.  

     

    to że fx8300 ma przewagę w grach wynika z tego że dopiero te proce mają 4FPU czyli w grach zachowują się jak 4 rdzeniowce xDDDDD

     

    To jest troche sporna sprawa, ale FX 8300 ma 8 fizycznych rdzeni, dzieli chyba tylko pamiec na procesorze.

     

     

     

    Chyba jedynie na handel, bo zaraz będziesz musiał wyłożyć kolejne 200zł na następną płytę a potem na kolejną ..i kolejną. Takie są FXy.

     

    Nie jest tak zle , ale trzeba wiedziec ktora plyte kupic. I to chodzi o konkretny model. I to tylko jesli chodzi o FX 83...

    A 95... to chyba tylko ze trzy plyty na rynku ogarniaja.

  4. Ta plyta nie da rady OC z FX 83...  ,raczej tylko  na stokowych predkosciach.  Zrobilem dwa systemy oparte o ta plyte bo to prawie najtansze full ATX na rynku. Wiecej jak FX 63... na tej plycie nie dalem rady podkrecic. 

    Niby FX z literka "e" to nowsza rewizja itp. ale po podkreceniu to taki sam pradozerny potwor jak wczesniejsze procki.

     

     

     

    a gry i tak nie wykorzystują wszystkich wątków tego FX

     

    W nowszych grach stary 8-smio rdzeniowy FX sprawuje sie niezle. Mialem jednoczesnie FX 4300/6300/8350 nie tak dawno i dla przykladu BF 1 multiplayer 64 graczy gdzie naprawde katuje procek FX 4300 spada momentami do~30 fps i max jest niewiele wyzszy, FX 6300 to juz ~50fps , a FX 8350 ~70 fps. Wiec rdenie sa wykozystywane. Wszystke po OC @ 4.5~4.6 Ghz. 

  5. Do autora tematu:

    Kup sobie karte teraz , moze poczekaj ten ~miesiac do ogloszenia Vegi ,ale tez nie koniecznie. Moze chwilowo ceny GTX 1080ti nieznacznie spadna. Moze. Dostepnosc bedzie napewno mierna tak jak w przypadku Fury X czyli pierwszej gen. kart z pamiecia HBM. Jesli sie juz pokaza na rynku to pojda w koparki. 

    Jak zauwazyles pewnie karty AMD jak RX 480/580 sa absolutnie nieosiagalne przez bum na kopanie kryptowalut a to spowodowalo rowniez wzrost cen GTX 1060 czyli bezposredniego konkurenta. 

    A jesli sie zdecydyjesz czekac jak kolega radzi 6~9 miesiecy bo dla niego to nic takiego to wiedz ze bedziesz czekal na karte pokroju GTX 780/980/1080 bez Ti . Tak wydaje karty Nvidia, Ti jest pozniej. 

    I jesli faktycznie nowe 2080Ti lub 1180Ti moze byc prawdziwa Vega z HBM to jest ryzyko ze wersja bez Ti moze byc obecnym Tytanem Xp z pamiecia GDDR6 w ktora Nvidia obecnie inwestuje. GTX 1080 vs GTX 1080Ti to tez dwa rozne GPU. 

    A GTX 780Ti vs GTX 980 to byla ~10% roznica na poczatku, potem optymalizacja pod maxwella zrobila swoje, to samo GTX 980ti ktory sie swietnie kreci , nie to co w stoku pokazuja w recenzjach vs GTX 1080. 

    Wiec dolicz do tych 6~9 miesiecy dodatkowe 3~6 miesiecy na nowe Ti. Pomiedzy GTX 1080 i Ti bylo chyba jakos ok 9 miesiecy jesli dobrze pamietam. Pozdr. 


     

     

    Teraz nvidia zapowiedziała w gaming . Tyle

     

    Gdzie? Daj linka. Poczytam z checia.  


    I aby nie kupuj tej wersji GTX 1080Ti , chlodzenie nie wyrabia (kompletnie inne niz wersja Gaming) , a halas wiekszy niz z referenta. 

     

    https://www.morele.net/karta-graficzna-msi-geforce-gtx-1080-ti-armor-oc-11gb-gddr5x-352-bit-dl-dvi-d-2x-hdmi-2x-dp-box-1080-ti-armor-11g-oc-976910/

  6.  

     

    Nie odgrzeje bo zapowiedzieli volte .

     

    Taaaaaaa. Pascal byl na poczatku nie zapowiedziany. Byl Maxwell i potem Volta. Nagle na mapie Nvidi pokazal sie Pascal.  A taki update zrobili. 

     

    http://www.anandtech.com/show/7900/nvidia-updates-gpu-roadmap-unveils-pascal-architecture-for-2016

     

    Masz jak nie pamietasz. 

    Jak nie bedzie konkurencji to po co maja sie spinac. Nvidia wie jak zarabiac pieniadze , napewno nie minimalizujac zyski. A z pascala lupia niezla kase. Za Volte zaplaca profesjonalisci kilka razy tyke co by ktos zaplacil na rynku konsumenckim. Wszystko zalezy od AMD , ale oni chyba tez wiedza jak zarabiac kase i na ktorym rynku. 

     

     

     

    Ma duzo gorsza obsluge dx 12

    Nie zupelnie , ma duzo lepsza obsluge DX11 i dlatego nie ma takich zyskow jak karty AMD. Karty AMD maja pewien problem ze sterownikiem ktorego z powodu serverowej arhitektury nie da sie naprawic nie kodujac gry specjalnie pod nich dla lepszej dystrybucji obciazenia wielu watkow procesora lub poprawnie zrobic DX12 od podstaw. 

    W zasadzie to co AMD osiaga tylko w DX12 , Nvidia robi w DX11. 

  7. Jak nie ma na co czekac? Owszem 2018 to ok 6 do 9 miesiecy ale volta bedzie znacznie wydajniejsza jak pascal ..........

     

    Tak? To zapodaj jak jakis nawet pol wiarygodny przeciek. A skad wiesz czy Nvidia nie odgrzeje jeszcze raz Pascala przeciez mogli by. To swietna arhitektura na nieprofesjonalny rynek , do gier idealna. Tania dla Nvidi , wydajna , dostepna i pewna. Po co maja ci sprzedawac Volte ktora jest arhitektora bardziej pod profesjonalne zastosowania, droga w produkcji i mniej dostepna i do tego brak konkurencji od AMD ktore bardzo slusznie polozylo nacisk i pieniadze  tam gdzie sa najwieksze pieniadze teraz. Rynek serwerowy i profesjonalny z ich procesorami i profesjonalnymi GPU.  

     

    I prosze cie,radzic komus ze ma czekac 6 do 9 miesiecy  :o

    Odgrzanie Pascala to nie moj wymysl ,tylko takie sa spekulacje odnisnie nastepnej konsumenckiej generacji kart Nvidi. 

  8.  

     

    A zwrot pieniędzy który mogę zainwestować w volte tez na plus

     

    AMD Radeon Vega bedzie wyznacznikiem czy jest sens czekac na Volte. Jesli nowa karta AMD bedzie chocby troche wolniejsza niz GTX 1080Ti to nie masz na co czekac. Nie zobaczysz nic nowego od Nvidi do nowego roku. Nie ma dla nich sensu nic nowego wypuszczac . Nawet jesli AMD dorowna GTX 1080Ti to Nvidia moze zabic ich cena. Pascal jast obecnie bardzo tani w produkcji dla Nvidi i nie ladowali sie w HBM2 . 

  9. End of story

     

    Ok, niech ci bedzie.

     

    Tylko jak komus sie chce to tak wygladaja porzadnie wykonane chlodzenia na GTX 1080Ti , trzeba sie troche natrudzic zeby te chlodzenie zdjac. Polecam. 

     

     

     

     

    Jak widac szczegolnie EVGA , termopady na wszystkim , nawet backplate . Gigabyte i MSI rowniez chlodza tam gdzie moglo by to pomoc. 

     

    Do Asusa nie ma takiego video , bo po co. Ta karta chlodzi tylko GPU i udaje ze aktywnie chlodzi sekcje zasilania, ale gdzie konkurencyjne karty maja blaszki u podstawy w ksztaucie litery "L" lub przylutowane do podstawy chlodzenia dla lepszego kontaktu z termopadem Asus juz sobie glowy nie zawracal wiec transfer ciepla jest znikomy. Poza tym nie ma tam zadnej sruby ktora zapewniala by odpowiedni docisk .Fakt przykrecili blache na Vram , kiedys zostawiali gole pamieci. 

    Wiec fakt cooler na Asusie jest cichszy i GPU trzyma w przyzwoitych temperaturach bo ten 2.5 slota klocek aluminium ma do odprowadzenia mniej ciepla. 

    Masz tu video w 5:10 koles zdejmie chlodzenie odkrecajac 4 srubki . To juz nie chodzi o czyjas opinie , wez to tak na "chlopski rozum" 

     

  10. Nie wydaje mi sie

     

    Co ci sie nie wydaje , masz tu jakies porownanie Asusa i EVGA? Czy tak wkleiles co zlapales w google? Halas to jedno , zalezy jakie temperatury. 

     

     

     

    Na evga w 980ti tez tylko 4 sruby a reszta ( kilkanascie srub ) trzymała kanapke z blach i nie opadała

     

    Ta kanapka z blach wystarczala zeby  utrzymac GTX 980ti EVGA , karta nie byla taka dluga i ciezka. Asus Strix to 3 wentylatory i 2,5 slota. 

  11. Szczerze w to watpie .EVGA ma jedne z gorszych radiatorów

     

    Jesli chodzi o GTX 1080ti to EVGA ma jedne z lepszych chlodzen. Radiator chlodzi aktywnie nie tylko GPU ale reszte komponentow na karcie.

    EVGA po wpadce z ACX-ami i palaca sie sekcja zasilania w GTX 10...  poprawila chlodzenie w ICX-ach , a jesli chodzu o GTX 1080Ti to wrecz zaszaleli i chlodza wszystko nawet az za bardzo, szczegolnie w wersji FTW. To chyba najlepsze chlodzenie na rynku i tylko 2 sloty. Dla porownania ASUS to zawsze jedne z najgorszych chlodzen , zwykle  2 zewnetrzne rurki cieplne omijaja rdzen (na kartach AMD), ale w GTX 1080Ti juz nie ma takiego rozwiazania. Tak czy inaczej Asus aktywnie chlodzi w zasadzie tylko GPU nic wiecej i dlatego w porownwniach kart wyglada dobrze. Fakt jest taki ze Plytka PCB i jakosc komponentow w przypadku GTX 1080Ti Asusa jest jak najbardziej ok.   

    Nigdy nie kupil bym karty Asusa, co innego jak najbardziej tak. 

    Poza tym chlodzenie na Asusie trzyma sie tylko na 4 srubkach , tych na gpu. Nie wiem jak to ma nie opadac w slocie. 

  12. Jeśli nie zależy ci np. na cieniach albo HBAO+ to można je wyłączyć, wtedy FPS powinny pójść dobrze w górę, bo takiego rodzaju efekty obciążają też CPU

     

    Najbardziej FPS zabija "post processing" (mam angielska wersja gry) . To akurat mam na "medium" . Ja juz wiecej nie wicisne. Prawie wszystkie glowne rdzenie dobijaja momentami na 100% , watki jakos tak srednio obciazane.

     

     

     

    e wartości z tabelki można sobie łatwo samemu obliczyć

     

     

    Moze i latwo, tabelka lepiej wyglada :)

     

     

     

    Mimo wszystko trzeba ich programistom oddać to, że pomyśleli dobrze, i że to działa - bo w większości przypadków w grach wszystkie rdzenie CPU nigdy nie są w 100% wykorzystywane tak jak się to dzieje np. w przypadku konwersji video, zawsze jest jakiś margines (a zwłaszcza jeśli ktoś ma i7 i HT) i oni z tego marginesu skorzystali.

     

    No tak. Ale znowu przytocze BF1 bo nie mam czasu w nic innego pograc. Procesory intela jak najnowsze i5 po OC to juz ledwo zipia. 100% utylizacji na wszystkich rdzeniach caly czas i to niezaleznie czy karta Nvidia czy AMD. To samo mainstreemowe i7.  Ale trzeba przyznac ze jak intel ogranicza karte to nic za bardzo sie nie dzieje , mniej fps i tyle. Za to np. FX 83....  jak wbija powyzej 80% to gra zaczyna sie czasem ciac. 

  13. Ja bym tylko dodal co to znaczy szybszy RAM bo to co podane jest w MHz to tylko polowa prawdy o szybkosci pamieci , wspomnial bym o znaczeniu opoznien pamieci. 

     

    Mam 144hz monitor, gram tylko w BF1 a to chyba najlepszy obecnie morderca procesora. Nie gram na "ultra" tylko "high" bo chce miec zawsze +144 fps. Moj i7 5820k obecnie @4.5GHz dalej dlawi GTX 1080ti , dlawil nawet zwyklego GTX 1080 przy 64 graczach. 

    Oczywiscie widze czasem nawet prawie 200 fps na poczatku rozgrywki ale potem spada momentalnie nawet do ~ 120. 

    Karta sobie pyka ~80% i tyle. 

    Fakt ze pamiec pomaga , kupilem HyperX Predator 3000MHz , swietna pamiec z dobrymi opoznieniami. Wszystko pieknie .Na oko +15-20% FPS, bardziej to ze nie ma spadkow. Gram przewaznie jedna mape. Niestety jedna kosc czasem mi znika i jest nie wykrywana przez system. Musze odeslac. 

    Tak z ciekawosci podkerecilem moja obecna pamiec ta z opisu do 3000MHz , opoznienia poszly strasznie w gore, zrobilem co moglem zeby je obnizyc , ale powiem tyle 2666MHz CL 14 jest przynajmniej w BF1 ze 20% szybsze niz ten sam ram @3000MHz CL 17.

     

    Tu jest fajne video , nie trzeba ogladac ale jest fajna tabela predkosci do opoznien. 5:00 minuta , mozna sobie zapauzowac. Fajnie wygladala by taka tabelka w twoim tescie. Pozdr. 

     


    Poza tym ten magiczny sterownik Nvidi o  ktorym wspomniales bardzo slusznie ma tak naprawde wiekszy narzut na procesor. Zaraz tu sie kamienie w moim kierunku posypia ale taki jest fakt. 

    Zapewnia za to lepsza dystrybucje obciazenia pomiedzy wieloma rdzeniami i jest to swego rodzaju prawdziwa programowa magia jak to Nnidia zrobila ze robi to niezaleznie jak gra jest kodowana sterownik to ogarnia, dlatego nie widac takich zyskow w DX12 w porownaniu do AMD bo oni juz wyciagaja prawie max w DX 11. 

    Ale ze jest to robione na poziomie sterownika nie sprzetowo wiec dodatkowo obciaza kazdy rdzen. Niewiele ale zawsze. 

    W pewnym momencie przy nowych grach gdzie sa juz pisane nawet w DX11 pod wiele rdzeni moze byc mala wada jak ktos ma slabszy procesor przy mocnej karcie. Na razie tego nie widac bo jest pare gier co tak bardzo zjadaja zasoby procesora. 

     

    AMD zabija sterownikiem jeden glowny rdzen i nie da sie tego naprawic sterownikiem, polarisy sa troche lepsze ale to "wada" sprzetowa (arhitektury) . Za to jesli gra jest kodowana pod wiele watkow lub poprawnie zrobionym DX12  wtedy widac na co stac karty AMD. 

    • Popieram 1
  14. Patrząc po historii produktów to AMD się lepiej "starzeją" - zarówno cenowo, jak i wydajnościowo (r9 380 vs gtx 960, r9 390 vs gtx 970) więc dlaczego z 480/580 ma być inaczej? Zapisać się do kolejeczki po 580 i czekać

     

    Karty AMD lepiej sie starzeja to prawda , ale i tak Nvidie latwiej pozniej sprzedac. Twoj punkt widzenia jest taki bo masz jakies tam pojecie o sprzecie komputerowym , ale kazda osona ktora nie za bardzo sie zna wybierze Nvidie.

  15. Podkrec procesor i narazie powinno wystarczyc do GTX 1070. Masz dobre chlodzenie nie powinno byc klopotu z ~4.5 Ghz .

    BF1 to dosc wyjatkowa sytuacja ale pokazuje w jakim kierunku ida gry. W twoja plyte wejdzie i7 4770k , a po updacie biosu rowniez i7 4790k (sprawdz na stronie asrocka) i tego drugiego bym szukal w przyszlosci. Lepsze temperatury. Ram mozesz zostawic.  

  16. W sensie, że da radę z takiego kompa zrobić "Project Scorpio" a raczej coś ciut lepszego

     

    A tam, 4k tylko ze nie prawdziwe 4k. W konsolach niech sie bawia w takie rzeczy bo nie maja wyjscia.  Poza tym to nie zwiazane z tematem. 

  17.  

     

    Owszem procesor na styk, ale BF1 jedzie na 100% nawet i7, więc nie do końca też rozumiem co to miało udowodnić.

     

    Zgada sie i7 tez kleka ale nie przy GTX 1070 w 1440p.

     

     

     

    Grafika z tego co widziałem 99.9% czasu jedzie na 99% ... więc bottlenecka na filmie nie widać. Jeśli monitor jest 60hz i np będzie vsync włączony to nie będziemy nawet blisko bottlenecka, choćby to był Titan X.
     

     

    Tak to mialo wygladac to bylo do ogloszenia. Specjalnie tak ustawienia dobralem zeby ladnie wygladalo i probowalem w 1080p ale FPS byl taki sam i karta zaczynala sie lekko nudzic. Wygladalo to zle. 

    Poza tym widze po twojej wypowiedzi ze raczej nie grasz w FPS-y skoro sugerujesz wlaczanie V-sync i nie rozumiesz ze nawet przy 60hz w tego typu grach wiecej klatek lepiej. Zapytaj tych co w CSGO graja . Wiecej klatek nizszy "frametime" gra sie lepiej , a V-sync to ogromny lag.

     

     

     

    Fakt jest taki, że na FHD wszystko powinno Ci latać i na GTX 1070, wiec jak wolisz te parę dodatkowych stów wydać na coś innego to na pewno nie zrobisz błędu.
     

     

    Moim zdaniem zrobi blad wydajac kase na 1080-tke. Jego platforma juz troch leciwa. i5-tki generalnie na dzien dzisiejszy nikt  nie powinien polecac pod nowe gry. Ja bym sie przymierzal powoli do jakies modernizacji z jakims 6 rdzeniowym 12watkowym prockiem AMD badz i7 4/8 tak bardziej pod DX12 . A jesli chodzi o DX12 to obecne karty Nvidi nie ogarniaja nowego API poprawnie, brak im sprzetowego wsparcia. Wiec lepiej wydac mniej kasy teraz i poczekac na nowe GPU od zielonych gdzie juz takie wsparcie powinno byc, jesli znowu nie odgrzeja maxwella jeszcze raz. Bo konkurencja daje du....

     

     

     

    Jeśli masz w planach np przejscie na 1440p czy 4K, czy 120 hz to jak najbardziej celuj w 1080.

     

    1440p moze , 4K to jedna 1080 tka to za malo. Po ci ciac detale i grac ~45 FPS tylko po to zeby miec 4K? W FHD strata kasy nawet 120hz+ przy tym procku.

     

     

     

    Według mnie na dany moment: szukaj używanego GTX 1070, szczególnie dobrym chłodzeniem cechują się MSI Gaming X oraz Pality Gamerocki ale nie neguję absolutnie innych firm.

    Tu sie zgadzamy.

     

     

     

    Ja kupiłem GTX 1080 FE i wcale nie narzekam na kulturę pracy po małym tweakowaniu w afterburnerze.

     

    Tak , ludzie narzekaja na referenty i kulture pracy , ale Nvidia robi swietne chlodzenia, to ze obudowa jest czesciowo aluminiowa powoduje ze karta "brzmi lepiej i przyjemniej" no i usuneli DVI dla lepszego przeplywu powietrza. Karta poprostu przyjemnie szumi.  

  18. Odnosnie tylko BF1 , tu masz video i5 6600k @4.6 GHZ wiec wyzszy zegar i IPC plus DDR4 w porownaniu do twojego zestawu i to wszystko przy GTX 1070 . Procesor jest na styk (zobacz uzycie procesora) , GTX 1080 juz by sie nudzil. Nawet GTX 1070 czasem jest dlawiona. Wiec jak chcesz , reszta gier co wymieniles i tak pojdzie spokojnie na GTX 1070. 

     

     

    To video do ogloszenia jednego z zestawow co skladalem. 

  19. Z wlasnego doswiadczenia to Ci powiem ze z BF1 przy 64-ech to przy twoim procesorze to GTX 1080 sie nie rozkreci na 100%. W innych grach moze tak. Zmienilem z GTX 1080 na Ti i przy mojej spec. nic nie zyskalem. Przy moim 144hz monitorze chcialem zeby zawsze bylo te min 144 fps na wysokich ustawieniach (nie ultra). Karta chodzi ~75% czyli akurat tak jak GTX 1080 przy pelnym obciazeniu.

    Przy twojej i5-tce to moze lepiej GTX 1070.   

  20. Najbardziej dochodowy jest niski i nisko średni segment do którego wliczają się karty o wydajności RX 580/GTX1060 i w tym segmencie producenci zarabiają najwięcej bo koszta produkcji są bardzo niskie a sprzedaż jest największa! 

     

    Najbardziej dla AMD dochodowy jest rynek dla zastosowan profesjonalnych.  Radeon Pro WX 7100 to dokladnie te same GPU co

    RX 480/580 tylko sprzedawane za prawie 3 razy tyle. Tam jest kasa dla AMD i udzialowcow przed ktorymi musza sie tlumaczyc.

    Na rynek konsumencki to takie resztki , i GPU ktore nie nadawaly sie do profesjonalnych zastosowan , takie odpady co potrzebuja wiecej napiecia itd. 

    AMD ma jedna architekture na te dwa rynki i teraz przy parciu na AI bedzie tylko gorzej z dostepnoscia dla graczy. Vega to juz nie jest gamingowa architektura i z HBM na rynku konsumenckim tez bedzie ciezko z dostepnoscia. 

     

     

    Co to za forum, gdzie admin dochodzi do wniosku, że czyjaś opinia mu się nie podoba, nie jest w stanie uargumentować swojej i zachowuje się jak dziecko uciszając drugą stronę?

     

    To normalne tutaj na tym forum. To nawet juz forum nie jest. Czytam czasem ale juz nic nie pisze bo tez mnie kolesiostwo nie lubilo.  :)

    • Popieram 2
×
×
  • Dodaj nową pozycję...