Skocz do zawartości

kapral.hicks

Użytkownik
  • Liczba zawartości

    142
  • Rejestracja

  • Ostatnia wizyta

Posty dodane przez kapral.hicks

  1. Wystarczy w Catalystach wymusić MLAA i efekt jest ten sam...

    Nie taki sam, nawet miałeś MLAA przetestowane tu na Benchmarku, okazało się że MLAA jest bardzo kosztowny i polecili to jako ostateczność np w GTA4.

    Jak włączyłem sobie FXAA (z poziomu gry) w Alan Wake czy Battlefield blur był taki że jak bym obraz przeskalował z niższej rozdziały i od razu to wyłączyłem. Pisze tu obiektywnie jak sprawa wygląda, FXAA z poziomu sterów Nv nie ustawia takiego bluru, efekt jest jak MSAA4 i włączysz to bez żadnego zachodu i problemów typu ban w każdej grze.

  2. Mówisz o injectorach które dają jeszcze gorszą jakość niż te fXAA uruchamiane w grze, nie mówiąc już o tym że za uruchomienie injectora w grze multi możesz dostać bana, koniec końców posiadaczowi radeona najlepiej włączyć MSAA.

    Jak włączę ten nowy AA z poziomu sterownika, nie muszę bawić się w podmianę żadnych plików, daje sporo lepszą jakość niż to z poziomu gry i wygląda to nawet lepiej jak MSAA 4, nic nie jest rozmazywane, działa mi to z każdą grą a wydajność ta sama. Darmowy AA to olbrzymi plus, realistycznie rzecz biorąc każdy kto kupuje taką kartę jak 7970 włącza AA i tu wtedy dystans do karty Nv jest olbrzymi, np bo jak porównać ubytek 2-3fps (fxaa) względem 100 (msaa) ze 170 bez aa?

  3. Z 7970 to jest tak że raz jest szybszy, raz wolniejszy - cena/jakość ma na pewno lepszy stosunek

    Jednak lepiej polecić Nv z uwagi na nowy prawie że darmowy AA (MassEffect3 170 no aa, 167fps FXAA, 69fps MSAA), na radeonie jesteś zmuszony włączyć MSAA (z uwagi na niedopracowanie MLAA które zabiera dużo wydajności) Także posiadacz 680 pogra w Crysis 1 przy 1080p w 80fps a radek w 50fps z uwagi na koszt MSAA (no chyba że ktoś chce grać bez AA). Ja teraz darmowy AA włączam w każdej grze to teraz nawet sobie już nie wyobrażam przesiadki na amd. Ten nowy AA wygląda świetnie i nie zabiera wydajności. Trzeba tylko włączyć to w panelu Nv a nie w grze (te fxaa np w battlefield 3 czy alan wake bardzo rozmazuje obraz, inaczej wygląda niż to fxaa z control panelu Nv).
  4. gtxxor - single player fps jest dużo większy niż w multi w tej konkretnej grze, widziałem kiedyś porównanie fps pomiędzy tymi trybami w battlefield 3 i różnica była duża. BTW przy cenie powyżej 1500zł za kartę komu przyjdzie na myśl oszczędzanie ? To nie są karty dla każdego, mowa przecież o zabawce, kto normalny daje tyle za zabawkę jak nie ma kasy. Jak ja miał bym na myśli oszczędzanie to bym kupił coś ala 560gtx może też używanego np 480gtx, pomimo nawet tych jego temp.

  5. Ale po co brac hd7970 w cenie praktycznie gtx680 ? gtx680 stock ma wyższe taktowanie niż gtx670 oc , wg mnie w tym porównaniu powyżej jest jakaś nieścisłość bo wątpie by różnica wynosiła aż 20% ;) To są średnie , najniższe czy co odczyty i na jakich ustawieniach ? Ja w battlefield 3 1440x900 (bo póki co nie mam lepszego monitora) mam powyżej 80fps na ultra w zależności co się dzieje (bo można mieć i 180fps jak się w lunetkę popatrzy) :D

    http://allegro.pl/asus-hd7970-3gb-384bit-pci-e-3-0-nowy-gw-fvat-wawa-i2337904778.html

    Cena 1750zł. Używane od 1600zł.

    Co do reszty to nie zawsze benchmark a fps w grze to to samo. Takie metro 2033, w samej grze fps jest dużo większy niż w benchmarku. A jeśli chodzi o Battlefield 3 to gra jest bardzo czuła na rodzaj procesora, swój masz wykręcony konkretnie bo na 4.2GHz.

    Poniżej możesz sobie sprawdzić jaka gra na jakich ustawieniach była testowana.

  6. motherboardsorg

    Metro 2033

    1600p

    GTX 670OC -22 fps

    GTX 680 -33 fps

    1080p

    GTX 670OC -41 fps

    GTX 680 -51 fps

     

    Battlefield 3

    1600p

    GTX 670OC -39 fps

    GTX 680 -58 fps

    1080p

    GTX 670OC -54 fps

    GTX 680 -70 fps

     

    Czyli rozrzut w FPS jest i tak widoczny, przy czym 670 to była wersja GIGABYTE'A znacznie podkręcona a 680 to stock. Po wyśrubowaniu 680 różnice były by jeszcze bardziej zarysowane. Dodatkowo nie wiadomo jak będzie z podkręcaniem 670 (tak chwalonym) skoro sample 680 które zostawały rozsyłane do redakcji kręciły się znacznie lepiej niż u użytkowników. Moim zdaniem lepiej od 670 wybrać radeona HD7970 bo trzeba wziąć pod uwagę ze wszelkie zubożałe wersje pełnych chipów są gorszej jakości, dlatego wyłącza się blok shaderów. Wolą to zrobić i sprzedać pod inną nazwą niż wyrzucić do kosza. Rezultat jest taki że to zawsze więcej 570 niż 580 padało. Tak samo teraz już dzieje się z 670'kami.

     

    ""Co do sterowników ,wczoraj wyszły nowe , poprawy nie odczułem żadnej""

    To raczej poprawili vsync.

     

    ""SLI z GTX 670 jest 2% słabsze od 690""

    Od 690 nawet 680 sli nie jest lepsze, wszystko to przez brak technologii redukującej microstuttering w 680 sli. Widziałem test stutteringu na jednej z niemieckich stron to 680 sli było daleko od 690 która zachowywała się prawie jak karta jedno chipowa. Różnica jest taka że na 690gtx 30fps będzie znacznie bardziej płynne aniżeli na 680sli. Nv chwaliła się tym rozwiązaniem przy okazji premiery 690 i faktycznie według testów wyszło to bardzo dobrze.

  7. Widziałem wyniki Core2Duo nawet z 580GTX,

    http://www.benchmark.pl/mini-recenzje/Czy_warto_inwestowac_w_nowa_karte.-4383.html

     

    Popatrz na wyniki w Crysis2, 30fps w normalnej rozdziale i 25fps w fullhd a jego core 2 duo był nieźle wykręcony..jednym słowem przy takim procku jego wymiana to must. Aż sam się zdziwiłem jak bardzo ogranicza ten Core2duo bo na quadzie 9550 miałem min. 2x tyle fps, więc jak już bardzo chcesz przyoszczędzić możesz kupić używanego quada (choć ideałem był by tu i5 2500 jednak to pociągnęło by tez wymianę płyty głównej, ramu ). Potem możesz się zastanowić nad kartą, na obecne gry jak nie ustawiasz wszystkiego na ultra itp to starczy 560gtx do fullHD.

  8. krolikbeny, jakiś czas temu miałem dokładnie to samo zdanie, nigdy nie włączałem AA. Z ciekawości teraz na 680gtx testowałem te FXAA, stwierdzam że bez AA wciąż nie mam problemu grać, jednakże zauważyłem że gry jak Alan Wake czy Crysisy (zwłaszcza 2'ka po graficznych modach) czasem wyraźnie zyskują po dodaniu tej opcji, przy takim poziomie detalizmu brak aliasingu sprawia ze gra zaczyna przypominać film. Dlatego o ile jeszcze miesiąc temu miałem dokładnie takie samo zdanie co ty to dziś włączam FXAA + Anizo16 w każdej grze, na 680GTX samo fxaa jest darmowe, no bo spadek o 2 fps ze 170fps to nie problem. Dla przykładu w mass effect to spadek ze 170 na 70 fps używając MSAA4. Trzeba tylko uważać by nie włączać tego FXAA z poziomu gry

  9. Swoją drogą dla osoby kupującej oryginała ta pojemność nie powinna być problemem, bardziej dla tych co ściągają z neta. Mi się wydaje że te przerywniki filmowe nie są na enginie gry, w max payne 3 na xboxa były w jakimś formacie bik. i tu może będą chcieli polepszyć ich jakość.

     

    @gtxxor

    Jak się wyłączy FXAA to troszkę klatek może przybędzie :D (ale kto wie, może High to najwyższe ustawienia w grze? :D

    Na pewno dadzą jakieś dx11 ultra :) tylko pokazują samo high by ucieszyć ludzi. Na pewno po tym screenie widać że gra jest ograniczana przez proca, bardzo małe są różnice między tymi grafikami.

    Co do fxaa, nie wiem jak jest z tym FXAA włączanym w opcjach gry, ale te w panelu Nv przy 680GTX zakładając że gra idzie w 170fps to zabiera 1-3fps. Ja i tak nazywam darmowym AA bo porównaj to do MSAA gdzie z 170 fps robi się 70. Ja tylko wole FXAA włączyć w panelu Nv bo te fxaa co ustawiasz w grach mają nie takie same ustawienia i po prostu nie dają tak ostrego obrazu jak fxaa z panelu Nv. Testowałem fxaa w battlefield 3 i Alan Wake to fxaa jakie ustawiałeś w grze było parodią w porównaniu do fxaa z panelu sterowania, te pierwsze robiło mi z obrazu blur a drugie to ostry obraz.

  10. Za 900zł spokojnie kupisz GTX570 a tak bardzo słabszy nie jest od GTX580, wydaje mi się że przy tym procesorze nie zobaczysz nawet różnicy pomiędzy GTX570 a GTX580.

    Zawsze możesz kupić Radeona 7850.

    GTX580 ma więcej pamięci co zawsze się przyda, a dopłata teraz nie jest duża do niego, bo i tak mowa o używanym
  11. Przy 580GTX będziesz miał ten plus że możesz włączyć każdą rozdziałę a jak kupisz słabszą kartę to zmiany w rozdziałach odczujesz. Zresztą 1000zł czy nawet taniej za 580GTX to teraz śmiech na sali, nawet bym się nie zastanawiał. Nie kupuj jedynie nić z oznaczeniem x70 (gtx470/570/670) bo są to gorszej jakości karty, najlepsze chipy idą zawszę do x80GTX. Później ludzie płaczą czemu ich 570/670 padają. Będziesz więc miał suma wszystkiego kartę na dłużej. Ja bym jednak się zastanowił też nad zasilaczem, tutejsi specjaliści powiedzą ci że jest ok bo sami wkładają te karty do takich zasilaczy, ja jednak wiem doskonale ile potrafi ciągnąc PC z gtx580, przy pełnej wydajności nawet i 520W, zasilacz jeśli ogólnie ją uciągnie to będzie więc chodził na max.

  12. a nie masz bez V-synca takich załamań obrazu? troche to przeszkadza:/

    Spróbuj włączyć jak już mówiłem tego adaptiv Vsync, on się włącza tylko wtedy gdy fps jest ponad 60, nie wpływa na klatki poniżej.

    Nie będzie ani rwania obrazu ani spadku płynności. Ja w crysisie 2 nie miałem żadnych problemów, gra chodzi perfekcyjnie z adaptiv sync.

  13. Sam mam 680GTX (1150core,3500pamieć), do crysisa 2 używam jeszcze moda MALDOHD który totalnie poprawia grafike i zmienia 80% textur, nie mam absolutnie żadnych problemów, nawet przy normalnym Vsync ale używam też FXAA, nie MSAA bo to mogło by już pewnie powodować spadki a wcale nie wygląda lepiej od fxaa. Dopiero w crysis 1 widziałem to co opisujesz, bo już nie zawsze proc wyrabiał na 50/60fps. Mi pomogło włączenie adaptiv sync w panelu Nv a nie zwykłe Vsync i fps nie leciał już tak drastycznie, nawet tak jak by myszka żwawiej zaczęła reagować więc to chyba prawda o input lagu przy normalnym Vsync.

     

    btw funkcja vsync zapamiętuje ostatnie odświeżanie monitora w danej rozdzielczości, jeśli grasz w natywie to nie ma problemu, jednak jeśli wybierzesz kiedyś mniejszą niż natywna to Vsync ustawi się na max jaką wykrywa sterownik. Jeśli więc będziesz chciał włączyć 1280x1024 (jakieś stare gry rpg które nie maja większej) a masz monitor z dużo większą rozdziałą to musisz w Nv control panel w okienku rozdzielczości ustawić ręcznie odświeżanie dla każdej z rozdziałki. U mnie sterownik przy 1280x1024 proponował 75hz a monitor mam 60hz, musisz więc ustawić ręcznie na 60 i zaakceptować. Po zaakceptowaniu jak przełączysz się na natyw to później w przyszłości jak włączysz gre w 1280x1024 nie będziesz miał już problemu, Vsync uruchomi się w 60hz a nie 75hz

  14. na 1280x1024, max. ustawieniach mam ledwo 40

    Przy takiej rozdziałce i tej karcie powinieneś mieć 60, dopiero w fullHD zaczynają się spadki na 40-45fps. Po tym screenie co zamieściłeś widać że to wina samej usterki karty więc o czym tu ogólnie mówimy, karta do wymiany.

     

     

    Generalnie, ten twoj fps w crysisie jest prawidłowy. Nie wiem skąd przyszło ci do głowy 60fps w fullhd na najwyższych ustawieniach.

    Crysis 1 wciąż jest wymagający dla 570 ale nie w takiej rozdziałce jak podał, do fullhd dopiero 680 daje idealną prędkość. Po minimalnym OC offset chip +100MHz, RAM 250MHz, z Vsync idzie stałe 60fps w GPU benchmark na 680. Bez Vsync:

     

    NOAA- DX10 1920x1080 AA=No AA, 32 bit test, Quality: VeryHigh ~~ Overall Average FPS: 80.94

    2xMSAA- DX10 1920x1080 AA=2x, 32 bit test, Quality: VeryHigh ~~ Overall Average FPS: 68.98

    4xMSAA- DX10 1920x1080 AA=4x, 32 bit test, Quality: VeryHigh ~~ Overall Average FPS: 64.865

    8xMSAA- DX10 1920x1080 AA=8xQ, 32 bit test, Quality: VeryHigh ~~ Overall Average FPS: 55.47

    W samej grze nie trzeba oczywiście używać już kosztownego MSAA (który i tak nie antyaliasinguje połowy roślinności) tylko FXAA które dosyć ze wygląda lepiej to i ogólnie nie zabiera wydajności.

  15. Takty tutaj raczej nie mają znaczenia. Skoro karta nawet w grze nie potrafi się obciążyć na 100% żeby włączyć turbo boosta. W diablo 3 mam 40% gpu max obciążenia i temperaturę 47 stopni w 1900x1200 max. Na razie odpukać problem nie występuje po zmianach w rejestrze oraz katalogu system32. Jedyna wada to że karta nie schodzi poniżej 980Mhz/1500MHz na pulpicie co za tym idzie temperatura jest o 4-5 stopni wyższa. W grach to niema znaczenia bo i tak zegar szedł w górę więc temperatury się wyrównują. Musze jeszcze potestować. Niestety 670 są mało udane. Na forum Evga czytałem ze całą partie w wersji OC wymieniają bo co 2 wali artefakty w grach.

    Firmy poleciały na kasę, szybko wypuścili GTX 670 a tak naprawdę sterowniki do tej wersji to jakiś żal (vsync, problemy w DirectX 9, brak obciążenia w grach na 100% nawet przy spadkach fpsu, problemy w przełączaniu z 2D na 3D, HD Audio itp). Cały ten turbo boost i automatyczna regulacja jest dnem. Zawsze miałem nvidie z racji bo było wszystko dopracowane itp, teraz odnoszę wrażenie ze to jakiś bubel. Sprzedali produkt w którym te niby nowości może zaczną działać za 2 miesiące.

    Mówiłem że tak jak w przypadku 570 tak też 670 to niestety trzeba to nazwać po imieniu nie ta sama klasa co 680, Nv nie sprzedała by taniej takiego samego chipu jeśli nie miał by mniejszej sprawności, jest to chip o wiele gorszej jakości, wiele też ma niesprawne bloki smx stąd też właśnie się jeden wyłącza. Później się ludzie dziwią czemu 570 i teraz 670 tak padają :). Na 680 nie mam tych problemów o których piszesz, karta schodzi elegancko przy pulpicie Visty64bit na bardzo niskie zegary zaś w grze jak tylko włączy się jakiegoś crysisa to bezzwłocznie załącza boosta. Nie wiem też o czym piszesz z tym "problemem dx9" i "Vsync", ja w starsze gry też gram i jakość z żadną dotychczas problemu nie było. Tak samo Vsync, jak włączę te nowe Adaptiv nie mam ani żadnego stutteringu ani spadania wrażenia płynności gdy się zdarzy że PC nie wyświetli 60 fps, Na normalnym tzn starym Vsync nie dało się grać jak fps spadał z 60'u.

     

    BTW to już któryś tam raz jak ktoś wypomina problem EVGa, w sąsiednim temacie znowu 2 Gigabyty, mówiłem, każda firma ma awaryjne produkty a nie tylko asus.

  16. gtx670 wf3 w krk ~1700zł , daleko do progu 2000zł

    Oto ceny z najbliższego stacjonarnego sklepu u mnie, mówię tylko o moim mieście

    http://comprix-pclweb.systemb2b.com/PriceList/PriceList.NodeView.aspx?SearchId=15302637

    W innych stacjonarnych sklepach podobnie.

     

    Ja tam i tak kartę już kupiłem za 1900zł więc problemu nie ma :), zastanawia mnie tylko kto da te 2.5 zł :D

     

    BTW patrzyłem też na allegro, ceneo, tam ceny są już normalne.. jednak jak się czyta o tym jakie wałki goście potrafią robić np sprzedać uszkodzone karty to nie każdy może chcieć kupić z tego źródła.

  17. GTX670 już jest a ceny 680 zamiast w dół to idą w górę...

    Ja swojego Asusa wyrwałem od znajomego za 1900zł, jestem z niej mega zadowolony jednak w najbliższym sklepie ta sama karta dziś 2.480zł, a tydzień temu było taniej 200 zł (patrzyłem w tym samym sklepie). Sprawdziłem też w innych stacjonarnych sklepach i było podobnie, ceny poszły drastycznie w górę. Panowie, skąd oni takie kosmiczne ceny biorą ? Palit jetstream 2GB za 2.600 !!

    Same zaś 670 to próg 2 tyś zł.. haha :D Gdyby przyszło mi zapłacić dziś ponad 2 tyś zł za 680 to chyba jednak tyle bym nie dał :D

  18. Co do marki Asusa to rozmawiałem z osobą która sprzedaje sprzęt komputerowy od 15 lat, gość stwierdził że czasem się zdarzy jakiś problem jak z produktem każdej firmy ale ogólnie to uważa je za dobre produkty. Sam kupiłem płytę gł. asusa, grafikę, nagrywarkę, bez problemów od lat a gdy kupowałem innych firm miało się już problemy chociażby z nagrywarką.

     

    BTW wczoraj czytałem o problemach gościa z kartą EVEGI, która nie chciała pracować nawet stocku, także to tylko kwestia szczęścia i może też tego na czym się człowiek koncentruje, bo jeśli się chce znaleźć wadę określonej firmy to o to nie będzie trudno i będzie się wydawać ze tylko ta firma robi dziadostwo, sam miałem tak z sony, co jednak nie oznacza że miałem racje bo gdy zacząłem patrzeć dogłębniej to okazało się że tak samo ludzie mają z innymi firmami

     

    Sevku22 - Ja mam tego asusa 680GTX, wygląd genialny i bez cukierkowej kolorystyki czy głupkowatych rysunków/naklejek, karta jest właściwie NIESŁYSZALNA, przy adaptiv Vsync i dobrej cyrkulacji powietrza w obudowie temp w stresie to 64-68 C. Jedyne zastrzeżenia mam do OC, pamięć idzie na 3500 bez problemu (a więcej nie testowałem), natomiast z core jest już problem, gdy zwiększysz TDP limit na max to już to wpływa że karta się podkręca i nie musisz nawet ustawiać offsetu, czasem wchodzi nawet na ponad 1200MHz (co raz spowodowało mi tradycyjny "błąd sterownika" poprzedzony wyłączeniem monitora na sekundę, KARTA PODKRĘCA SIĘ SAMA, PRZEZ SAMO ZWIĘKSZENIE TDP LIMIT), a przy tej karcie maksymalnie stabilna wartość są poniżej 1200MHz jak czytałem w reckach najbezpieczniej 1150MHz (i u mnie zdaje się też faktycznie tak jest). Także przy OC core warto być ostrożnym i najlepiej nie bawić się podnoszeniem TDP limitu. Jednak aż tak podkręcać mi karty nie potrzeba, ustawiłem na lekko 1150MHz(boost) Core, 3500MHz pamięć i jest gitara, po takich ustawieniach według pure PC (testowali tą samą kartę na ten sam OC) to 11fps więcej w crysis. Crysis 2 z modem MaldoHD (wymieniono 90% tekstur w grze na MEGA tekstury z POM i teselacją) nie sprawia ogólnie problemu, gra się super komfortowo :) a o to się obawiałem, 570GTX miał już problem z 40 fps'ami.

     

    http://www.purepc.pl/karty_graficzne/test_geforce_gtx_680_vs_radeon_hd_7970_pojedynek_kart_dla_graczy

     

    Tutaj masz recke tego asusa, swoją drogą ja obserwowałem takie same wartości OC jak u nich :).

  19. @up wziąłeś pod uwagę pobór prądu, hałas, temperatury, mikroprzycięcia i to że będzie miał tylko 1GB pamięci w SLI?

    OC'nięty HD7850 będzie wydajniejszy od dwóch gtx460. Chyba nie grasz w FPS'y, że używasz vsync :P

    Tylko że tu dodatkową wydajność będzie miał teraz za grosze.

    Właśnie gram w FPSy. Włączę normalne Vsync to jak animacja spada do 30-40 fps wyraźnie mniej płynnie się celuje, dlatego kiedyś brałem zawsze na off. Teraz na tym adativ Vsync nie muszę bo GTX680 sam mi to wyłącza gdy fps spadnie do granicy 30-40 a włącza tylko gdy fps idzie ponad 60. Różnica jest warta, zachodu te adaptacyjne Vsync jest teraz w CP chyba do każdej karty Nv. Sama temp pracy 680Asusa nie przekracza mi teraz 64C w grze przez ten nowy Vsync :). Wystarczy dodać do tego ten nowy AA i jak dla mnie inwestycja w radeona była by już na dziś dzień bardzo trudna. Jeśli sli było by problemem to mógł bym polecić jedynie używanego 580GTX, za 1000zł wyrwie się spokojnie z allegro a ma te nowe opcje o których mówiłem a jeśli nie chce używki to ewentualnie może poczekać z miesiąc na 660GTX. Zresztą autor tematu napisał wyraźnie ze chodzi mu głównie o Nv, wiec po kiego polecacie tak te radeony.

    Czy jak przyjdzie do sklepu gość pytając o normalne mleko to sprzedacie mu mleko w proszku ?

    http://www.guru3d.com/article/geforce-gtx-680-overclock-guide/11

    Widać doskonale gdzie jest miejsce radeona 7850 w DX11, jest tylko 20 fps więcej względem 460 a dodaj do tego fakt że na AMD MUSISZ używać bardzo zasobożernego MSAA, na Nv masz już darmowy AA który jest po prostu mega genialny. Chce mieć przeskok względem 470 to niech czeka na 660 bo raczej 1000zł nie przekroczy.

  20. 560ti ma tylko 8fps więcej w crysis, czy to faktycznie widoczny przeskok warty dopłaty, raczej nie. Jak już chcesz mieć różnice względem 460 karty to pozostaje ci już faktycznie SLI, bo później to już tylko wyższa półka, min 7870 czy używany 580GTX, tylko szkoda że AMD nie ma tego darmowego FXAA w control panelu (Ja to teraz włączam w każdej grze, zerowy ubytek fps a jakość drastycznie polepszona a na radeonach jest się zmuszonym używać kosztowanego AA czyli w grach będziesz miał średnio o 20 fps mniej. Tak samo Nv ma adaptacyjny Vsync. Ja te dwie rzeczy (FXAA i adaptacyjny Vsynic) zawsze teraz włączam, niby szczegóły ale bez nich już sobie gry nie wyobrażam :) Przesiąść na AMD raczej teraz było by mi ciężko.

     

    http://www.geforce.com/optimize/optimal-game-settings/Metro-2033-GeForce-GTX-460-SLI-OPS

    Zobacz, przy sli460 miał byś już raczej niezły przyrost mocy, koszt to będzie minimalny w porównaniu do karty z wysokiej półki, na obecne gry więcej nie potrzeba jeśli nie masz przesadnych wymagań.

  21. Hej, panowie tutaj piszą ci przypuszczenia, ja sprawę testowałem sam. Też mam quada tylko że 9550, chodzi na 3.2GHz, zasilacz korsarz 620W i miałem 8800Ultra. Jednym słowem sprzęt miałem już 5.5 lat. Próbowałem na tym PC 570GTX i 680GTX.

     

    Różnica między 570GTX a 680GTX była BARDZO zauważalna, nawet na tym procku, np Crysis2 z modem maldo HD (tekstury znacznie lepsze niż to co wydał crytek, pełno teselacji i POM na wszystkim) to tylko na 570 w fullHD średnio 35-40fps, na 680 natomiast fruwało w min 50fps i średnim fps zalockowanym na 60 (Vsync) przy czym na 680 zużycie pamięci było ponad 1.5GB z tym modem!!!. Także widać ze tam gdzie teselacja i DX11 to 680GTX po prostu zjada tego 570GTX.

    Tak samo 3d mark11, te pierwsze kilka testów przy 570gtx na 28FPS natomiast 680GTX to już 50fps. Czyli widać tu że jak gra korzysta z intensywnie z GPU to różnice nawet na tym starym quadzie są bardzo zauważalne, wyniki w 3dmarku jeśli o fps chodzi mam jak na i7 i widać ze tu tylko gpu jest wykorzystywane. Testowałem jeszcze kilka gier i różnice między 570GTX a 680GTX były tak duże przy 1080p (np metro 2033, 1080p, High DX11, teselacja, DOF OFF, na 570 45FPS, GTX680 90FPS) że koniec końców zdecydowałem się na 680GTX. Z gier które testowałem to dopiero crysis 1 (który to nie korzysta z 4 rdzeni) uzmysłowił mi słabość proca, są spadki do 30fps, średnio 42/60(AdaptiveVsyncON). Niby gra się dobrze bo na 8800U miałem średnio 25 max 35fps jednak niesmak pozostaje i koniec końców kupuje niedługo jeszcze i7 2600, che by crysis 1 fruwał :D. Jednak nie powiem nikomu że na quadzie między nawet 570 a 680GTX nie zobaczy różnicy, to bym musiał go okłamać, gry dx11 są tak wymagające że różnice czasem są ogromne..... a jeśli chodzi o przeskok względem 8800Ultra ? Przy GTX680 różnica jest po prostu totalna!!!. Aż sam się zdziwiłem jak crysis2 może płynnie chodzić zaś jakość obrazu z dx11 i tymi modami a dx9 jakie miałem na 8800U to jak różnice między ps2 a ps3. Są jeszcze inne róznice, kultura pracy itp, jednak skupiałem się tu na samej wydajności..

     

    Po tym wszystkim wydaje mi się ze tak naprawdę najlepiej kupować całość od nowa by być w 100% usatysfakcjonowanym, ja z procem muszę jednak tak zrobić:)

     

    Uruchomiłem crysis1 w 32 bitach (wcześniej w 64) i średnie fps skoczyło o 10 fps wyżej... teraz to już ogólnie na tym quadzie nie jest źle ale proc i tak nowy kupie :)

  22. te wykresy sa nieprawdziwe moj 6950 razem z platforma pobiera 288 watow na max stresie, po oc 320

    Dodaj do tego moc procesora i ewentualną różnice z innymi podzespołami, np do testów był użyty i7 960 @ 4.2GHz i na pewno trochę pododawał Watów, odczyty w tabeli to jest MAX nie średnio.

    Nie mniej niepokojący jest filmik który wstawiłem, widać na nim że nowa platforma z 580gtx przekracza 520W. Ja nie robiłem tych testów, nie będę więc wnikać czy są okłamane czy nie. Pochodzą ze znanej strony to też je wstawiłem.

  23. Hej mnie też nurtowała ta kwestia jak jeszcze chciałem kupić GTX580, zastanawiało mnie czy mój korsarz 620W to pociągnie.

    W filmie widać doskonale na żywo ile ciągnie prądu

    Jak widać cały system z 580 ciągnie w stresie ponad 520W, pokrywa się to z danymi np

    http://www.purepc.pl/files/Image/artykul_zdjecia/2012/Test_GeForce_GTX680/poboroc.png

    580GTX 522W a jak jeszcze podkręcisz proc to ...

     

    Żaden zasilacz 550W nie ma faktycznej sprawności 550W, fachowcy zapewniają że bezpieczną wartością jest wolna przestrzeń do minus 100W, czyli w twoim przypadku do 450W. Nie wiem jak się objawi kupno 580 do twojego zasilacza, tak czy inaczej zasilacz będzie musiał chodzić ciągle na 100% a to już za bezpieczne nie jest.

     

    http://www.purepc.pl/zasilacze/test_25_zasilaczy_650_750w_jaki_zasilacz_komputerowy_dla_gracza

    Ten artykuł może ci się okazać bardzo pomocny.. choć autor zaleca porządny 650W

  24. gtx680 wynika z tego iż Panowie z nvidii średnio potrafią "wyłączyć" 1 jednostke czy jak to się tam zwie -> może ktoś odblokuje sobie ...

    Na motherboardsorg wyniki są srednio 10-15 fps mniejsze w 1080p, tak metro, AVP. Swoja drogą już pełnego 680 potężnie ogranicza wydajność pamięci (bez AA czy jakiś naprawdę zapychających wydajność pamięci opcji ma wtedy czasem wyniki jak 2x580 na stocku), więc tak naprawdę nawet te wyłączenie jednego bloku SMX nie jest tak drastyczne. Nie ciekawie będzie z 660 gdzie dodatkowo obniża wydajność pamięci.
×
×
  • Dodaj nową pozycję...