Skocz do zawartości

kapral.hicks

Użytkownik
  • Liczba zawartości

    142
  • Rejestracja

  • Ostatnia wizyta

Posty dodane przez kapral.hicks

  1. Performance seems unchanged (Ran the benchmark and it gave nearly identical results to the first run I did on the previous version.) but there are no longer any sudden unexplained drops to ~10 - 20 frames per second or lower so that's a huge improvement.

    (Shadow glitch seems fixed as well.)

     

    Na guru 3d posiadacz 7970 pisze, że po tym patchu wynik w benchmarku mu się nie zmienił, ale za to w samej grze nie ma już dropów na 10 fps. Poprawiono też jakiś problem z cieniami, co to podobno był na radosławie

  2.  

    http://abload.de/img/metroll_2013_05_15_19tup5w.jpg

    http://abload.de/img/metroll_2013_05_15_19m8rck.jpg

     

     

    Na guru 3d goście śmieszne screeny zamieszczają z tej gry. Jak widać crysis 3 miał teselowane ropuchy, metro ma za to teselowane cycki :D

     

    DO SPOILERÓW Z TAKIMI RZECZAMI! Biafra

    • Popieram 1
  3. a do phenoma a co :D A tak poważnie po co mam pchać się w i5 lub i7 zmieniać platformę gdy wszystko działa wyśmienicie. dobra i5 doda mi może góra 5-7 klatek do większości gier

    Wiesz co, akurat w tej sprawie mogę się wypowiedzieć, mam doświadczenie z podobnymi wyczynami. O ile masz racje że ludzie są tutaj z deczka chamowaci o tyle powiem Ci, że nie jest prawdą pisanie, iż po zmianie na lepszy procesor miał byś tylko 5-7 fps więcej. 

     

    Rok temu przez pierwszy miesiąc posiadania 680GTX miałem jeszcze core 2 quad 9550. Choć w gry naprawde dało się grać i mogłem sobie ustawić 1080p w każdej grze, to jednak po przejściu na 3570@4.5 GHz aż oniemiałem, w takich grach jak GTA4 czy crysis 1 róznica była TOTALNA. Wcześniej w crysis 1 dość często fps oscylował w granicach 40 (z regóły 50 a min 30), po zmianie proca miałem już 70-90 i min 50. Nawet niektóre demka technologiczne, co to powinny przecież nie wykorzystywać procesora pokazały dramatyczne polepszenie wydajności, heaven benchmark to chyba z 2x taki wynik miałem (może to też kwestia PCI express w wersji 3 które to mam teraz na płycie głównej ?). Co do samego 3d marka, wcześniej miałem chyba niecałe 6800p, po zmianie procesora mam teraz 10020p, te wymagajace sceny graficzne pokazywały już znacznie większą ilość fps, mimo iż można pomyśleć że przecież procesor nie miał w nich nic do roboty.

     

    Ogólnie co do i5 to w crysis 3 są już momenty gdzie nie wyrabia (ta scena w drugiej planszy, gdzie jest pole trawy), a co dopiero ten Twój. Ja się nie śmieje z Twojego wyboru kupna tej karty do takiego procesora, ale jak będziesz miał kase to bierz i5/i7 w ciemno, "warto" to mało powiedziane.

     

    A co do 680GTX to jest to najszybsza karta garficzna jaką miałem kiedykolwiek. Rzadna wcześniejsza nie pozwalała mi na tak komfortowe granie w 1080p, rok temu jak zobaczyłem wynik 82fps przy 1080p w benchmarku crysis 1 to oniemiałem, w zasadzie z lupą szukać gry, w której po wyłączeniu MSAA nie miał bym 60FPS (FXAA wystarcza mi w zupełności). Najbardziej wymagające gry śmigają bez problemów. Np tomb raider (nawet z tressfx) ma u mnie 57.4 fps we wbudowanym benchmarku, a crysis 3, co to ludzie narzekają na wymagania chodzi w 50/65fps w 1080p, po ustawieniu kilku opcji na samo high można już uzyskać w zasadzie 60fps przez 99% czasu gry. Także ja nie prędko zmienie tą kartę, myślę że dopiero 980GTX mnie skusi :). Jedynie metro last light po ustawieniu SSAAx4 idzie mi w 23-30 fps, ta opcja oznacza jednak że gram w tak naprawdę 4K, więc nie mam tu pretensji do karty graficznej :), z tą opcją nawet 3x 680GTX nie da sobie rady.jeśli ktoś chce stałe 60fps

  4.  

    czy w kazdej grze z roku 2011+ nvidia wymusi rozdzielczosc 4k ?

     

    Dodatkowo, moglbys mi doradzic w kwestii podkrecania gpu. Od wczoraj siedze z gtx 670 windforce3, bawie sie w oc, probuje znalezc stabilne ustawienia. W benchmarkach wszystko pieknie przetestowane powiedzmy 1045/1795. W 3 roznych, w metro na nich gralem z 2 godziny i nagle pixele wielokolorowe na ekranie. Ciezko strasznie jest mi znalezc maksymalne mozliwe takty dla GPU bo programy, benchmarki nie spelniaja swojej roli... ?

     

    Supersampling AA działa w Nv inspectorze tylko z grami D3D. Ale tak jak mówiłem mozesz też wybrać droge dodania nowej rozdzielczości, to znaczy poprzez panel sterowania Nvidii, a ten sposób działa też na gry opengl. Dodawanie nowych rozdzielczości jest proste, ale w razie problemów wpisz w google "how to downsample games". Pierwszy temat który wyskakuje prowadzi do artykułu na guru3d, a on już wszystko "łopatologicznie" wyjaśni

     

    Jest jeszcze jedna rzecz, o któej nie wspomniałem. W metro last light ZAWSZE jest włączony AAA (coś podobnego do FXAA). Więc nawet jak włączyłeś w opcjach SSAAx4, to jednak ta opcja AAA jest ciągle aktywna (i też dodatkowo przyczynia się, do pozbycia aliasingu). Także jak będziesz ustawiał downsampling w innych grach, to możesz dodatkowo włączyć jeszcze FXAA w panelu Nvidii. Przyczyni się to do jeszcze efektywniejszego pozbycia się aliasingu a nie kosztuje wiele fps'ów.

     

    Co do podrkęcania grafiki to tak jak zauwazyłeś, benchmarki tak naprawdę nie są tu rzetelne i ja od dawien dawna testuje takie sprawy w grach. Przykładowo benchmarki przechodziły mi na 1300MHz (rdzeń), natomiast przekonałem się, że absolutnie stabilne (a więc w każdej grze) jest "tylko" 1200MHz. Jeśli masz artefakty po dwóch godzinach grania, to ja bym zszedł z taktowaniem trochę jeszcze niżej. Co do GTX'a 670 i 680 to jednak najważniejsze jest tu taktowanie pamięci, to ona daje najwiekszego kopa tym kartom bo sam chip graficzny jest za mocny jak na tą przepustowość pamięci, która jest na stocku. Doskonale pokazuje to przykład crysis 2, gdzie zwiększanie taktowania rdzenia nie daje prawie nic, natomiast ustawienie pamięci na 7100MHz dodało mi 12 fps przu 1080p. Podobną sytuacje obserwuje w innych grach.

  5. Downsapling poprawi wygląd każdej gry. Sciągni sobie Nv inspectora, ustaw supersampling na 4x. Możesz też wejść w Nv control panel, później "dostosuj rozmiar i pozycję pulpitu". W tej zakładce musisz ustawić by to GPU skalowało obraz, a nie sam monitor. Późnej wystarczy, że utworzysz nową rozdzielczość w zakładce "rozdzielczości", musisz dodać rozdzielczość dokładnie 4x większą, przy 1080p będzie nią rozdzielczość 4K. Jeśli zrobisz wszystko dobrze, tzn dodasz rozdzielczość która jest 4x dokładnie razy większa od 1080p, to po kliknięciu na "test rozdzielczości" pojawi się przeskalowany obraz (jeśli natomiast wpisałeś złe wartości, to nie pojawi się nic :D). Później jak już zaakceptujesz i dodasz tą rozdzieczlość, to będziesz mógł ją wybrać w menu samych gier.

     

    http://www.gamesindustry.biz/articles/2013-05-15-jason-rubin-metro-last-light-is-the-triumph-of-an-underdog

    4A's staff sat on folding wedding chairs, literally elbow to elbow at card tables in what looks more like a packed grade school cafeteria than a development studio

     

     

    Co do jeszcze metra, to jest tu ciekawy artykuł odnośnie ludzi którzy zrobili tą grę. Na gre mieli 10% tego co normalni producenci gier. Teraz jak sprawdziłem "demo" i widze że obędzie się bez problemów, to mogę spokojnie kupić oryginał. Naprawdę, gra warta świeczki, podoba mi sie znacznie bardziej niż poprzednia odsłona.

  6. Czemu w tych zagranicznych testach nie uruchamiaja SSAA w metro? Nie chca ponizac producentow kart ? Ograniczeni sa czy z jakiego innego powodu. Redakcje a nawet na maks ustawieniach nie testuja gry? Zenada.

    Test z którego podałem wcześniej tabele posiadał ustawienia również z SSAA (tzn test serwisu GameGPU). SSAA to tylko ciekawostka i nie jest to typowy antyaliasing, jest to zwyczajnie odpalenie gry w wyższej rozdzielczości, tzn 4K przy ustawieniu SSAAx4. Tą opcje zostawili tylko dlatego, że czasem ktoś kupi 3 titany :). Możesz to włączyć w każdej grze, ustawiając rozdzieclzosć 4K w panelu sterowania Nv, lub używając stosownej opcji w Nv inspectorze.

     

    Bez SSAA, (a więc w natywnej rozdzielczości 1080p) gra śmiga pięknie, przynajmniej na karcie Nvidii. Posiadacze AMD muszą po prostu uzbroić sie w cierpiliwość bo te wyniki które obserwują nie są kwestią słabości GPU a zwyczajnie złych sterowników.

  7. Dodatkowo pieprzysz głupoty, bo 8800Ultra to nic innego jak lekko podkręcony 8800GTX ze zmienionymi pamięciami.

    Widzę, że na tym portalu są tylko cwaniaki, co to pierwsze co robią to psioczą na ludzi, mimo że tak naprawdę sami nic nie wiedzą (lub nie umieją czytać ze zrozumieniem).

     

    Wykres który wstawiłeś jest prawdziwy, JEDNAKŻE odnosi się on do trybu DX10, a ja pisałem o DX9, gdzie wyszedł tweak umożlwiający odpalenie VH detali. Jakość wyglądała nie do odróżnienia względem DX10 a w dx9 gra chodziła znacznie szybciej, nie było wycieku pamięci który ciął fps o połowę. Także czy w ty to uwierzysz czy nie, na 8800 dało radę spokojnie pograć w crysisa jedyneczkę i na pewno nie jest prawdą pisanie, że w gre nie szło rady grać wcale. Na 680GTX tak naprawdę to mam dziś tylko większą rozdzielość i FPS, całość wrażeń została jednak ta sama, więc przechodząc grę na 680GTX nie miałem odczucia, ze coś wcześniej traciłem.

     

    Co do porównania GTX a Ultra, tą są to dla mnie już stare dzieje. Jak istniał jeszcze tygodnik komuterowy i rzetelne testy to sam byś widział że między tymi dwiema były różnice, znacznie wieksze niż masz dziś pomiędzy 670 a 680gtx. Z tego co pamiętam w takim splinter cellu 3 zwykły GTX miał w 1600x1200 60 fps, ja miałem 83 fps. Nie pamietam tylko tego czy jeszcze dodatkowo podrkęcałem wtedy kartę, czy nie.

     

    Oceniając kulture tutejszych komentatorów to człowiek traci ochotę, by zaglądać na takie fora.

  8. to samo tyczy się pierwszego Crysis (gdzie w dniu premiery właściwie NIE ISTNIAŁ konfig, na którym w to się dało tak pograć

    Na 8800Ultra grałem komforotowo w VH detalach na winXP dzięki tweakowi, odblokowywującemu te detale. Co prawda przy w 1680x1050 było tylko średnio 27-30 fps JEDNAKŻE na xp i uwczesnych sterownikach Nv nie było problemu z inputlagiem, więc tam 30 fps naprawdę starczało do komfortowej gry. Do dziś pamiętam słowa znajomego co grając u mnie w tą gre zaskoczony był, jak ta gra chodzi płynnie przy takiej jakości grafiki. Dziś przy obecnych sterach nv i samym win7 30 fps był by wynikiem niegrywalnym.

  9. Ktos tam wyzej wspominal ze gra jest dobrze zoptymalizowana. Zalecam wizyte u psychiatry, wylaczenie tv i wlaczenie myslenia.

    Nie wypowiadaj się o myśleniu, bo sam ty nie jesteś wcale za inteligentny, nawet nie zauważyłeś braku MSAAx4. Jest co prawda SSAAx4 ale to jest ZUPEŁNIE CO INNEGO. SSAA to po prostu downsampling. Ustawienie x4 przy którym grasz oznacza, że uruchomiłeś grę w 4K i jest to później tylko przeskalowane do rozdzielczości 1080p :D!!!!!! Ty zaś narzekasz że w 4K masz 15 fps

     

     

    Obecne gry wymagaja takich nakladow $. To nie jest wymysl.

     

     Jak to nie jest twój wymysł ? To niby do jakiej gry potrzebujesz 3 titanów ? Albo też monitora 2560x1600p ? Nikt ci nie każe ustawiać na pałe SSAA ani tez używać tak wysokich rozdzielczośći (które w zasadzie nadawaja się bardziej dla grafików niż dla graczy)

     

    A co do jeszcze samego Metra, GRAFIKA jest tak dopracowana, ze sam nie wiem co ładniej wygląda, crysis 3 czy nowe metro.

  10. No właśnie coś nie bardzo to widać, bo zarówno na 7970 jak i na 680-tce występują drastyczne spadki, które absolutnie nie wynikają z tego, że na ekranie dzieje się coś, co wymagałoby większej mocy.

    W mojej wypowiedzi miałeś zawarty post posiadacza 680GTX, który zachwalał to jak gra chodzi. By jednak nie polegać tylko na słowach osób postronnych postanowiłem zrobić coś czego nie robie często, samemu pobrałem te "demo". Teraz mogę stwierdzić z całą pewnością że na moim 680gtx nie uświadczyłem żadnych drastycznych spadków przez pierwsze 20 minut gry, gra chodzi wręcz świetnie.

     

    Zaczne może od benchmarka wbudowanego w gre, gdyż była to pierwsza rzecz którą uruchomiłem.. 

    1920x1200 + Wszystko na max oprócz SSAA, physx wyłączony = 52 fps (physx włączony 46fps)

    1680x1050 + Wszystko na max orpócz SSAA, physx wyłączony = 61 fps

     

    Także wynik w 1920x1200p mam taki sam jak ten ruski serwis "gamegpu" w 1080p, liczyłem na 58-60 bo przecież mam podrkęconego gtx'a a tu widać, że nie wiele to dało.

     

    Także włączyłem gre w ustawieniach 1920x1200p, skoro benchmark pokazał 52 fps to uznałem to za dobry start. Po takim wyniku sam już uwierzyłem w te spadki i już w myślach wyglądałem w przyszłość wizualizując slideshow od patrzenia w "zabugowane lampy" :D czy gdy tylko pojawią się 2 postacie na ekranie. Mogę też teraz stwierdzić, że ten benchmark wbudowany w gre jest bardzo wymagajacy a tym samym mylący, otóż w grze właściwiej przez 20 minut gry średnii fps oscylował w granichach 65-80, bardzo rzadko animacja sięgała 60 fps a bsolutne minimum jakie widziałem to 55 fps. Także nie ma absolutnie żadnych spadków a gra chodzi wyśmienicie.

     

    No nie wiem, może to później gra robi się bardziej wymagająca czy jak, ja jednak problemów rzadnych nie stwierdzam. Nie ma spadków fps od patrzenia na lampy jak to piszą ludzie na radeonach, fps jest stabilny i bardzo wysoki. Włącze może jeszcze później dodatkowo te physx, sprawdzę bo może to ta opcja tak zamula gre.

     

    Także moim zdaniem optymaizacja (oceniam to na podstawie wrażeń na własnym sprzęcie) to dosłownie przepaść względem metro 2033, teraz widać że tamta gra to była wcale nie zoptymalizowana (w metro 2033 miałem w benchmarku 30fps !!!!!), przy VH detalach nie ma teraz problemu grać (nie ma też tego badziewnego filtra rozmazującego obraz jak w metro2033 przy ustawieniu VH). 

     

    A co do samej grafiki to co prawda mam pewne zastrzeżenia do wykonania ludzkiej skóry (wygląda troche jak plastik) ale ogólna ilość detali (tak otoczenie jak i postacie) i jakść oświetlenia jest niesamowicie wysoka, grafika może się podobać i to nawet po grze w crysis 3. Widać użycie teselacji (ściany nie są płaskie, klawisze na klawiaturach wystają itd).

     

    Ogólnie to jestem pozytywnie zaskoczony, tak samą grą jak i wymaganiami.

     

    BTW. A co do tego zdjęcia testu z PCGH to widać, że jednak pomiędzy 670 a 680 są tu większe różnice, prawie 10 fps to jednak nie w kijj dmuchał, a dodaj do tego lepszy potenciał podkręcania. 

  11. To bardziej wina sterowników po stronie AMD niż optymalizacji samej gry, widać że posiadacze kart Nv mają dobre wyniki (tzn lepsze niż w metro 2033). Do premiery gry w PL może amd wyda już nowe sterowniki i będzie po problemie

  12. http://gamegpu.ru/images/stories/Test_GPU/Action/Metro%20Last%20Light/test/metr%201920.jpg

    Na 680GTX po OC myślę że w tym benchmarku będę miał te 60fps, po OC 680GTX właściwie w każdej grze zrównuje się z 590GTX lub jest trochę szybszy. A Radzio 7970 36 fps i 18 min...  no nieciekawie to wygląda ;)  Cóż jest to na pewno kwestia optymalizacji sterów, coś do czego AMD przyzwyczaiło ludzi. Z tego co pamiętam to nie tak dawno temu to w Tomb Raiderze sytuacja była na odwrót, gdzie to AMD miało lepsze wyniki. Jednak co do samego tomb raidera to ciekawy jestem jak dziś wypadało by w tej grze porównanie 680GTX vs Radeon 7970. Z tego co widzę, Nv poprawiła sterowniki w tej grze. Teraz we wbudowanym teście w grze mam 57.4 fps na ustawieniu Ultimate + tressFX i 1920x1200p, w 1080p było by już pewnie 60-62fps, więc to chyba nie jest zły wynik. Jeśli nawet nadal karta AMD miała by w tomb raiderze więcej fps to jednak wciąż jest to mniej odczuwalne jak 18fps w metro na 7970.

     

    A wracając do metra Last light. Te SSAA to tak jak gdybyś odpalił grę w 2560x1600 lub w 4K (tyle że jest to skalowane przez gre a nie przez GPU), więc osobiście niezbyt interesuje mnie narzekanie na wydajność osób, które grają z tą opcją, jedno GPU nie starczy na ten ficzer i jest to po prostu logiczne. Po analizie testu na PCGH i tak widać że gra została znacznie bardziej zoptymalizowana od części poprzedniej a że wciąż jest daleka od ideału to już inna kwestia, myślę że tylko naiwniacy spodziewali się po nowym metro super optymalizacji. Uważam że z tym nowym metro będzie tak jak z poprzednim, tzn ustawiając wszystko na pałe slideshow, natomiast odznaczając jedną czy dwie opcje można już komfortowo pograć. Przykładowo w metro 2033 ustawiłem wszystko na max to miałem 31 fps w 1080p w DX11, natomiast ustawiając detale na HIGH w tym samym benchmarku było już 96 fps (680GTX OC, 3570@4.5). Nie jest też tak jak pisze "Nowaj", że warto ustawiać wszystko na pałe dla kilku detali bo gra wygląda lepiej, akurat w metro 2033 był pewien paradoks z detalami i było odwrotnie, to high wyglądało lepiej bo przy VH dodawane były filtry rozmazujące obraz (gra wyglądała z nimi jak upscal) a wyłączyć tego się nie dało, gdyż gra nie pozwalała na indywidualną edycje opcji.

     

     

     

    Ok for 680gtx mates: im 2 hours in and so far performance is good.
    The average is 50-55fps; the lowest ive seen is 45fps, mostly is 60fps.
    This is with every setting maxed out but without ssaa obviously. Physx seems to be the cause of the major fps drops, but its bearable.
    Awesome atmosphere and setting, much better than the first.
    A little advice, dont use game vsync, use adaptive nvidia one, it helps a bit with the general smoothness.

     

     

    Jak widać po relacji użytkownika guru3d, na 680GTX spokojnie można pograć w VH detalach. W metro 2033 miałem przy VH detalach 30 fps, więc jednak poprawa optymalizacji jest

  13. Input lag - monitor, synchronizacja pionowa oraz wstępny bufor klatek.

    no i właśnie cały feler rozchodzi się o ten bufor klatek bo przy crysis 3 dopiero 120+ fps daje responsywną rozgrywkę (i nie zauważyłem tego fenomenu pierwszy, bo już na mycrysis było wiele o tym tematów). Tego problemu pozbyć się można tylko i wyłącznie ograniczając ilość wstępnie prerenderowanych klatek, niestety wartość "0" zniknęła już ze sterowników Nvidii i dziś można ustawić tą opcje tylko na "1". Ograniczenie tych klatek na "1" oczywiście poprawia rozgrywkę względem ustawień globalnych, ale to jeszcze nie jest idealne rozwiązanie, wciąż wyraźnie responsywniejsze sterowanie jest wtedy, gdy fps ograniczymy na poziomie enginu gry bo wtedy karta graficzna nie zajmuje się ograniczaniem fps (i nie powstaje problem z lagiem). Sam użyłem komendy na to, tak jak polecili mi ludzie na Mycrysis i problem dopiero wtedy zniknął. Mało tego, po aplikacji tej komendy byłem bardzo zaskoczony, bo nawet ograniczenie na 30 fps daje już płynną tzn responsywną rozgrywkę, wcześniej musiałem mieć na to te 120 fps'ów.

     

    To naprawdę łatwo zauważyć, że to karta graficzna jest odopowiedzialna za cały ten lag. Lock na 30 fps z poziomu enginu gry brak problemu z lagiem, lock na 30 fps z poziomu karty graficznej = lag (a ilość fps wciąż ta sama).

  14. A więc chodzi Ci o programy typu evga precision czy nvidia inspector.

     

    Nie ma sie co dziwic ;) w pierwszym przypadku i cpu i gpu ma do renderowania 30fps i tyle wyswietla, a w drugim engine cisnie na 100% max fps, a dostaje ograniczenie do 30 przez co giną klatki i wystepują problemy. Takich programów nie powinno sie uzywac bo robia wiecej szkód. Tak samo z gameboosterami itd.

     

    To co na pisałeś jest logiczne, może i faktycznie karta graficzna obcinając 100% fps na 30% mogła by gubić jakieś dane... Jednak w praktyce przy crysis 3 między 60-120fps odczuwam bardzo dużą różnicę w responsywności a przecież nie ma sztucznej blokady w postaci programów typ inspector. Zresztą nie ma już tu o czym mówić, jak twierdzą eksperci winne są karty graficzne (zresztą ja nawet nie potrzebuje im wierzyć, bo sam widzę że mają racje na przypadku farcry 3, gdzie przełączając wartości wstępnie prerenderowanych klatek odczuwa się znaczne różnice w responsywności).

  15. Pocio- ale przecież napisałem Ci też, o sytuacji stabilnego fps, tu już nawet nie mowa o spadkach. Lock na 30 fps z poziomu gry daje brak problemów z responsywnością, przy czym ten sam lock na taką samą wartość (tyle że na karcie graficznej np przy pomocy nvinspectora czy evga precision) sprawia już, że taki fps jest już niemożliwy do grania bo ruchy myszą są już wyraźnie opóźniane.Wciąż mowa o takim samym i stabilnym fps :) a wrażenia z gry są ZUPEŁNIE inne. Widać wiec tu doskonale potwierdzenie faktu, o którym piszą tak entuzjaści na forach Nvidii i guru3d. Różnica jest tylko taka że tu na 30 blokuje fps CPU a w drugim przypadku GPU. Problem jak piszą ludzie dotyczy tak Nv jak i AMD/ati, jednak wczęsniej u nvidii można było ustawić prerenderowane klatki na 0, co według wielu osób problem eliminowało

  16. Z kolei w win xp mozna bylo to zrobic bo drajwery mialy opcje 0, wiec jezeli ktos wpadnie na to zeby dodac opcje 0 to wyjdzie na to samo.

    Niestety nie zanosi się na to, Nvidia już wydala oświadczenie w tej sprawie. Ich inżynier powiedział że ustawienie 0 tak naprawdę odpowiada wartości "1", zostawienie wartości jest więc według niego zbędne. Niestety, po mimo nawet tego że Nvidia nie uznaje efektywności wartości "0", to jednak sami użytkownicy odczuwają ogromną różnice między nimi,

     

     

    Ogólnie ja problem zobaczyłem dopiero wtedy gdy włączyłem low detale w crysis 3, gdy gra osiągnęła 120-160fps grało mi się zupełnie inaczej niż mając te 50-60, zero pływania przy ruchach myszą, natychmiastowa reakcja. Jest to zupełnie logiczne, czym większy fps w grze tym mniejszy input lag, jednak problem w tym ze tu trzeba osiągnąć astronomiczne wartości 120fps by grało się idealnie (tzn by lag był minimalny). Jak już ograniczę komendą fps w grze (tak jak mi polecono na forum mycrysis i nvidii) to 60fps daje wrażenie płynności jak przy tych 120fps (a nawet lockując na 30 można bardzo przyjemnie pograć w tą grę i sterowanie jest responsywne bez tych 120fps!!!!!). Jeśli Ty nie odczuwasz różnic w lagu to masz szczęście, sam jednak nie mam problemu z dostrzeżeniem laga. Zobacz sobie też ile tematów jest o tym na mycrysis, ile osób ten feler dostrzegło, to nie jest tak że sam to sobie wymyśliłem. Właśnie osoby na forum crysis wspomniały mi o tej komendzie i co ona spowoduje. Zaraz po tym jak pomogło mi to przy crysis 3 przetestowałem sprawę w innych grach i widzę tą samą zależność, blokada fps na poziomie CPU daje zawsze idealną grywalność :), natomiast blokada fps na poziomie karty graficznej zawsze kończy się mniejszym lub większym lagiem który ja bez problemu wyłapuje. Gdy gra osiąga 60 fps ten lag jest mały, wciąż jednak jest przy ustawieniu "1" prerenderowanych klatek :)

  17. Jestem ciekaw jak wypadnie to porównanie i5 do i7, dość długo się już zastanawiam nad zmianą swojego procesora, cały czas nie widzę sensu wydawać znów kasę dla jednej gry.

    Podobne porównanie wykonał już maldo na swojej stronie, tzn wyłączył HT w swoim i7. Przy HT miał 60 fps, bez HT 45 (te same miejsce testowe).

     

    Jednakże sam mam i5 3570 i szczerze mówiąc po wykręceniu go na 4.5GHz to właściwie tylko przy tym feralnym miejscu z wysoką trawą i działkiem jest spadek na te 42-50 fps, poza tym polem gry (dosłownie minuta gry) procek wyrabia się już na grubo ponad 60 fps. Także kupując i7 nie wiele byś zyskał w tej grze :D, bo tylko przez minutę gry miał byś większy fps. Trawa w Crysis 3 używa HT :D

     

    A co do grywalności crysis 3. Gra zyskuje gdy nie ma problemu z input lagiem. By wyeliminować input laga w tej grze musicie wyłączyć vsync i użyć komendy sys_maxfps = 60 (tu konkretna liczba) co sprawi że sam engine będzie ograniczać FPS.

  18. Pocio-

     

     

    In Windows 7 much of the Direct3D code runs in user mode, so it benefits performance (but hurts input lag) to queue up many commands before passing them over to kernel mode and ultimately the hardware...

     

    Input lag typically shows up the most in GPU-limited situations, since more pre-rendered frames build up in a queue waiting for the GPU to process them.

    To co piszą na stronie Nv

     

    http://forums.guru3d.com/showpost.php?p=4378784&postcount=99

    A tu już masz konkretny przykład na to, że jednak nowsze windowsy wprowadziły tego laga. Sam pamiętam że grając w crysis 1 na xp'u gra zdecydowanie wydawała się responsywniejsza względem visty a miałem ten sam fps kolego :). Nie potrafiłem wtedy tylko wytłumaczyć czemu tak jest, dziś już widzę jak na dłoni co było tego przyczyną.

     

    Z monitorem raczej nie mam problemu, jak kupowałem monitor to nie żałowałem kasy i wydałem 2 tyś zł po to tylko by był właśnie szybki i z przeznaczeniem wyłącznie do gier. Choć pewne CRT i tak są szybsze (te monitory były idealne) to zapewniam że na LCD który mam nie widzę braku responsywności względem CRT'a a grałem wiele lat w quake 1-3 i ut1 i gdybym miał problem z responsywnością ruchów na nowym monitorze to bym wiedział. 

     

    Tak jak mi napisali na stronie Nv (i co wyczytałem na guru3d w debacie odnośnie tego problemu i gdzie wypowiadał się też ManuelG, pracownik Nvidia od spraw sterowników), dodatkowe prerenderowane klatki w ustawieniach sterownika mają za zadanie zwiększyć wrażenie płynności przy niskim fps ale niestety też każda dodatkowa klatka dodaje input lag. Doskonale można to sprawdzić na przykładzie gry far cry 3, gdzie twórcy tej gry wprowadzili tą opcje do ustawień gry. Możesz więc szybko przełączać między prerenderowanymi klatkami. Ustawiając grę tak by zajechać 680 (ustawiam max AA x8 i do tego 1080p) mam wtedy 35-40 fps. Gdy ustawie prerenderowane klatki na max responsywnośc spada i jest tak samo niska jak przy crysis 3, pojawia się te wrażenie "pływania" przy takiej ilości fps (zupełnie jak w crysis 3). Natomiast gdy ustawi się te prerenderowane klatki na 1 jest już ZNACZNIE lepiej, widać wyraźne zmniejszenie input laga i już te 35-40 są znacznie bardziej grywalne (już tak nie "pływają") i są po prostu znacznie bardziej responsywne. A więc nie jest tak jak Ty napisałeś, bo widzisz wciąż jest tyle samo klatek a jednak wrażenia ZUPEŁNIE inne (a już totalnie co ma tutaj do tego monitor który pozostaje tez ten sam :D).

     

    Co do crysis 3. Tutaj problem był tego rodzaju, że jest to jedna z niewielu gier gdzie fps spadał mi na początku drugiej planszy na 45-50 fps. Przy 680GTX po OC nie wiele mam gier, w których fps spada poniżej 60, więc wcześniej ten problem aż tak mi nie przeszkadzał. Jednak przy tych 45-50 w crysis 3 absolutnie nie da się grać i nie wymyślam tego sobie, mimo że to nie są skoki ze 100 na 45 a stabilne 45-50 (w tym konkretnym miejscu) to i tak ruchy muszą są takie jak gdybyś był pod wodą, responsywność spada dramatycznie, wykonując ruch myszą idzie odczuć doskonale, że ruchy nie są natychmiastowe i płynne a tak jak gdyby pływały.

    Tutaj można więc zauważyć ciekawy feler. Wystarczy ustawić limit fps w nv inspectorze (tak by karta limitowała fps) i porównać z ustawieniem max fps z poziomu gry crysis 3 (gdzie fps ogranicza CPU). Mimo takiej samej wartości 30 fps zlimitowane przez CPU jest super responsywne, nic nie pływa i naprawdę nawet te 30 starcza do komfortowej gry. Te same ograniczenie na 30 fps z poziomu karty grafiki sprawia, że ja już bym grac nie mógł bo jest wrażenie "pływania" przy ruchach myszą, nie są one natychmiastowe. Pomaga jedynie zmniejszenie prerenderowanych klatek na 1. Ludzie piszą że dawniej w sterownikach Nv można było ustawić tą opcje na "0" i to już eliminowało zupełnie problem, dziś jednak już tej opcji nie ma.

     

    Zdaje sobie sprawę, ze większość osób nie zwraca uwagi na input lagi (grają z Vsync i nawet z tym nie widza problemu :D), ja jednak z tego co widzę istnieje jeszcze dużo pracy przed M$ i nvidią/amd, obecne rozwiązanie po prostu daje zbyt duży lag i jedynie limitowanie fps przez CPU daje responsywną rozgrywkę. Problemu by nie było gdyby kazda gra miała tak jak crysis 3 komendy do zmiany max fps z poziomu gry, tak jednak nie jest :)

  19. Mod robi wrażenie. Po zagraniu w crysis 2 z modem maldo względem crysis 1 jest już dziś przepaść. Pewnie te palmy/wegetacja i realistyczne oświetlenie może się podobać wciąż przy crysis 1, jednak jak widzę te idealne i wystające tekstury przy dwójeczce to jednak jest już to różnica generacji, tekstury przy crysis 1 są po prosty płaskie i rozmazane, nawet z teksturepackami (które w istocie są tylko wyostrzonymi oryginałami, tzn wciąż są słabe). Mało tego odpalając ostatnio crysis 1 zauważyłem też gorsze modele postaci i obiektów na we wnętrzach pomieszczeń (w crysis 1 koło to prawie że kwadrat :D)

     

    Chciał bym by każda gra miała takie wystające i ostre tekstury jak crysis 2, nawet w trójce nie ma aż tak doskonałych. Jest tez pewna dziwna kwestia odnośnie tego moda. Jak widać teselacji jest bardzo dużo, całość wygląda super a jednak chodzi to znacznie szybciej jak podstawa :D, Maldo to jednak ma talent bo średni fps jaki mam przy 1080p to 80-90fps (podstawa 70). 

  20. Witam, z pewnością pewna część osób zauważa dziś pewien fenomen, dawniej 30 fps w grze było aż nad to, sam pamiętam czasy unreala tournament gdzie 25 fps starczało do komfortowego grania, dziś ta sama liczba stała się niegrywalna. Ludzie mówią że to problem nagłych skoków animacji, np z 60+ fps do 30. Sam też tak myślałem, jednak dziś przekonałem się jak bardzo się myliłem :). Problem zauważyłem dopiero w przypadku crysis 3, gdzie naprawdę komfortowo zaczynało się grać dopiero od 120fps a wszystko poniżej 60 było niegrywalne. Wiedziałem że coś tutaj musi być nie tak, założyłem więc temat o tym fenomenie na mycrysis i forum nvidii. Polecono mi ustawić w grze max fps za pomocą komendy i nagle 60 fps stało się MEGA RESPONSYWNE, co więcej sprawdziłem również dla testu limit klatek na 30 fps za pomocą tej komendy i tu moje zdziwienie nie miało końca, okazało się że nagle 30 fps jest ABSOLUTNIE grywalne, nie potrafiłem absolutnie odczuć opóźnień w płynności ruchu kursora broni, grało się naprawdę fajnie nawet przy 30 fps'ach. Ponieważ wiedziałem o limicie fps w programach takich jak evga precision czy nvidia inspector to postanowiłem tez sprawdzić ten wariant (bo wtedy korzystał bym z takiego ograniczania klatek w większości gier). Okazało się że ograniczenie liczby kratek w tych programach powodowało już niską grywalność 30fps. Wniosek jest więc jeden, ograniczenie fps w grze jest robione na poziomie CPU, to on ogranicza max ilość FPS i robi to dobrze. Gdy natomiast zabierze się za to karta graficzna, powstaje drastyczny input lag. Jak mówią ludzie na stronie nvidia i guru3d, problem leży po stronie windowsa7 oraz sterowników (tak nvidia i amd). Jak się dowiedziałem karty graficzne używają wstępnie prerenderowanych klatek by "upłynnić" animacje, niestety problem z tym rozwiązaniem jest taki, że każda wstępnie prerenderowana klatka dodaje więcej input laga. Sprawdziłem więc ustawienia nvidii i ustawiłęm tą liczbe na 1, okazało się zę crysis 3 stał się znacznie bardziej responsywny (mniejszy input lag), jednak wciąż ograniczenie liczby fps w poziomie tej gry było efektywniejsze (wtedy już nie jestem w stanie odczuć żadnego input laga). Doczytałem również że wcześniej na windowsie xp i wcześniejszych wersjach sterowników, można było ustawić tą opcje na "0". Ludzie piszą że dopiero ta liczba powodowała brak dodatkowego input lagu, niestety dziś tej opcji nie znajdziemy w sterownikach.

    http://forums.guru3d.com/showpost.php?p=4378784&postcount=99

    Tutaj bardzo ciekawy post/temat, ilustrujący jak to było kiedyś, a jak jest dziś :)

     

    Szczerze mówiąc, coraz bardziej przekonuje się do konsol. tam 30 fps od zawsze było grywalne i teraz już wiem dlaczego :).

    • Popieram 2
  21. koniec końców skoro nawet na mocnych intelach kręconych do 4,5 się buraczy gierka, to tym większe moje gratulacje dla jej twórców:) nic tylko przyklasnąć... ręką w czoło

    A już też nie jest tak źle, Ty nazwałeś te 42-50 fps buraczeniem, a dla większość ludzi taki wynik starcza w zupełności. Ten feralny fragment o którym mówiłem przechodzi się zresztą w jedną minutę. Później, tzn po minięciu tego pola z wierzą fps jest już bardzo dobry i nie spada poniżej 50'u. Natomiast inne misje śmigają jeszcze szybciej, dodatkowe 10 do 20'u fps więcej. Także nawet bez HT dobrze sobie pogrywam na tym i5, a narzekałem tylko dlatego bo pozostaje pewien niesmak związany z tym, że i7 był tylko o grosze droższy a miał bym teraz nawet w tej wymagającej scenie dodatkowe 15 fpsów

     

    Swoja drogą bawiłem się właśnie przed chwilą z downsamplingiem z 2400x1500, średni fps na drugiem mapie poszedł już drastycznie w dół i średnio było to 38 fps :D (wahania od 33 do 43). Zaskoczony natomiast byłem tym, że grało się naprawdę komfortowo, znacznie lepiej od tego jak wpisze komendę na blokadę 30 czy 40 fps. Być może jest tak, że gdy karta graficzna nie wyrabia fps się jakoś stabilizuje, gdy natomiast proc nie wyrabia i jest powodem ograniczenia liczby klatek to dochodzi może wtedy jakiś dodatkowy lag i poruszanie myszą jest już utrudnione ?

  22. jarnuszkiewicz, nawet 3570 na 4.5 jest trochę jeszcze za słaby do drugiej misji więc nie pisz już o tym phenomie, na bank gdybyś miał i7 kręconego na 4.5GHz Twoja karta osiągała by znacznie lepsze rezultaty w tej grze. Masz po prostu za słaby procesor i tyle.

  23. Jarnuszkiewiczm-  są ludzie którzy mają znacznie gorszy sprzęt niż Ty, pisałem z posiadaczem q6600 i geforce 460, z tego co pamiętam był bardzo zadowolony z tego jak mu gra chodzi. Może to też wina sterowników u AMD. Wiem np że poprzednie sterowniki od NV przy tzn "linie" czy patrzeniu przez "szyby" w pierwszej misji obniżały wydajność o połowę, fps wracał do normy dopiero wtedy gdy ta lina się zatrzymała lub gdy nie patrzyłeś na szyby, dopiero jedne z ostatnich sterowników ten problem naprawiły i teraz w pierwszej misji fps trzyma u mnie właściwie stałe 60 klatek.

     

    Tak czy inaczej ja mogę ocenić sprawę tylko ze swojej perspektywy, Ty tak chwalisz wydajność jedynki crysis 1 ale na moim sprzęcie mam większe spadki animacji w tej 6 letniej grze niż w nowiutkiej trójce. Grałem nawet wczoraj w crysis 1 i ta gra dość regularnie potrafiła zejść z 80-90 na 40-45 fps (To na bank wina proca, część druga i trójeczka wykorzystuje już 4 rdzenie w pełni, jedynka tylko dwa i to naprawdę widać przy zadymach nawet wykręcenie 3570K na 4.5GHz to za mało). W trójeczce poza tym króciutkim etapie w drugiej misji (z wieżyczką na polu trawy) gra właściwie przez 99% czasu gry trzyma 60fps. Jest natomiast feler taki, że crysis1 nie ma input laga takiego jak crysis 3, przez co w crysis 1 dało radę grać w 25 fps a 40 fps to był już full wypas, przy trójeczce sterowanie robi się toporne przy 40, gdy fps spadnie na 30 trudno już grać. Gra się więc fajnie dopiero w 50-60 fpsach. Masz nawet o tym temat na mycrysis.com, gdzie ludzie narzekają na input lag w tej grze.

     

    widze, że pryma aprilis dzisiaj wszędzie pełną gębą  :rotfl: nawet bez maldohd, tylko przy wgranym patchu dx11 + high tekstury, miejscami C2 na ultra wygląda lepiej od C3 na high, trzeba być ślepym albo ignorantem, żeby tego nie widzieć

    Dwójka nawet z HDpackiem ma w większości słabe tekstury, jak przedstawił maldo w swoich porównaniach, bliżej im do ps3 niż do standardu PC'tów. Zwróć tylko uwagę na jedno, ogólnie crysis 3 na high to już właściwie prawie wymaksowana gra, ustawienia VH to już tylko kosmetyka (i nawet na zdjęciach w tutejszym artykule na benchmarku różnic nie zobaczysz żadnych). Ja po długich testach znalazłem tylko 3 różnice które byłem w stanie zidentyfikować między High a Vhigh, były to brak refleksów wody na suficie i ścianach, polepszenie ambient occlusion oraz dodanie co jak gdyby tesselacji na niektórych drzewach. Tak naprawdę więc chcesz powiedzieć, że crysis 3 wygląda gorzej od podstawy crysis 2, mało tego, piszesz że ktoś kto uważa że jest inaczej to ignorant i ktoś ślepy :D... w takim wypadku ja nie zamierzam już dalej komentować Twojej wypowiedzi, bo już teraz widzę że trudno będzie się dogadać :D. Miej swoje zdanie, ale ja pozostaje przy swoim.

×
×
  • Dodaj nową pozycję...