Skocz do zawartości


Uwaga, ta strona używa Cookies
Stosujemy je, aby ułatwić Tobie korzystanie z naszego serwisu. Pamiętaj, że w każdej chwili możesz zmienić ustawienia dotyczące Cookies w ustawieniach swojej przeglądarki internetowej.
Dowiedz się więcej    
Akceptuję
Zdjęcie

MSI GTX 960 2GB vs MSI R9 380 4GB - test, porównanie, opinia

msi radeon geforce gtx 960 r9 380 2gb 4gb vs

  • Zaloguj się, aby dodać odpowiedź
67 odpowiedzi w tym temacie

#1 zapp12345

zapp12345
  • (-.-)

  • 649 postów
  • Miejscowość:Łódź

Napisano 01 marzec 2016 - 15:51

*
Popularny

W poniższym teście porównana zostanie wydajność dwóch kart graficznych:
MSI GeForce GTX 960 Gaming 2GB (specyfikacja: https://www.msi.com/...GAMING-2G.html)
MSI Radeon R9 380 Gaming 4GB (specyfikacja: https://www.msi.com/...GAMING-4G.html)

 

AKTUALIZACJA:

Test został uzupełniony o kartę GTX 960 4GB. Link do postu z jej wynikami + kilka dodatkowych wniosków:

http://forum.benchma...a/#entry2106490

 

 

Według części testów w Internecie Radeon R9 380 4GB jest nieznacznie lepszy od GeForce GTX 960 4GB, dwugigabajtową wersję zostawiając w tyle, według innych (zniesławiony tutaj pclab) obie testowane karty oferują niemal identyczną wydajność. Postanowiłem sprawdzić jak sprawa wygląda w rzeczywistości. Co warte uwagi, testy zostały przeprowadzone na procesorze i5 4590 o częstotliwości 3,7GHz, a nie tak jak w większości przypadków na mocno podkręconych jednostkach – „podobno” może działać to na niekorzyść AMD ze względu na zbyt obciążające procesor sterowniki.

 

 

Karty zostały przetestowane w standardowych ustawieniach oraz po najwyższym stabilnym OC, które nie wymagało zmiany napięcia (znalezienie idealnego OC z rozsądnym napięciem byłoby zbyt czasochłonne, a przyrost stosunkowo niewielki). Procentowo wzrost taktowania w obu kartach wypada bardzo podobnie i jest to ok. 11-12% - pokrywa się to z wynikami innych osób i redakcji, można więc przyjąć, że większość egzemplarzy jest w stanie osiągnąć zbliżone rezultaty).
GTX 960: 1190 (1306 boost) MHz /7010 MHz @ 1360 (1486 boost) MHz /7860 MHz
R9 380: 980/5700 MHz @ 1080/6400 MHz

 

 

Platforma testowa:
CPU: Intel Core i5 4590 @ 3,7GHz BOX
MOBO: MSI B85-G43
RAM: Kingston 2x4GB 1600MHz CL9 XMP Genesis
SSD (system): Crucial M500 120GB
HDD (gry): Samsung HD753LJ 750GB
PSU: Thermaltake Smart SE 530W
Obudowa: Zalman Z3 PLUS

 

 

Sterowniki:
NVIDIA - 361.91
AMD -  16.2 hotfix

 

 

Testy zostały przeprowadzone w ośmiu grach:
1. Counter-Strike: Global Offensive
2. Crysis 3
3. Assassin’s Creed Syndicate
4. Wiedźmin 3
5. Grand Theft Auto 5
6. Dying Light
7. Fallout 4
8. Battlefield 4

Gry zostały przetestowane w różnych miejscach testowych i ustawieniach (opisane dalej). Zostały dobrane tak, aby zachować jak największą powtarzalność Każdy test został przeprowadzony dwa razy w celu wykluczenia losowości pomiarów (w przypadku odchyleń wynik jest średnią obu pomiarów, odchylenia te nie przekraczały jednak nigdy ok. 2 FPS). Do mierzenia ilości FPS użyłem programu FRAPS.

 

 

 

 

1.        Counter-Strike: Global Offensive

 

Test polegał na odtworzeniu nagranego wcześniej dema na mapie Cobblestone.

 

fW0Fl76.jpg?1

 

W CS GO obie karty działają niemal identycznie, przy takiej ilości klatek na sekundę widoczne na wykresie różnice są pomijalne, na obu komfort rozgrywki jest identyczny – w pełni płynna gra.

 

 

2.        Crysis 3

 

Pierwszy test został wykonany na mapie Welcome To The Jungle – bardzo mocno obciążającej procesor (stale 90-100%). Drugi z kolei na mapie The Root Of All Evil, gdzie wykorzystanie procesora przez większość czasu jest niższe.

 

nfaSpFZ.jpg?1

 

owQOlQm.jpg?1

 

W przypadku Crysis 3 potwierdzają się problemy karty AMD w miejscu procesorowym – co więcej, na tyle hamuje on wydajność karty, że jej podkręcenie nie daje żadnego rezultatu. W przypadku GTX 960 wydajność po podkręcaniu znacznie wzrasta w obu miejsach testowych. W oczy rzuca się też o wiele niższy minimalny FPS w Radeonie i jest to odczuwalne – animacja często szarpie przez co komfort rozgrywki jest o wiele niższy na karcie czerwonych.

 

 

3.        Assassin’s Creed Syndicate

 

Test polegał na przechadzce w słoneczny dzień na jednej z bardziej ruchliwych ulic Londynu, a następnie biegu po dachach. Wydajność sprawdziłem na ustawieniach medium oraz high.

 

Km1FUh6.jpg?1

 

Xu5Bbnv.jpg?1

 

Na ustawieniach medium ze znaczną przewagą wygrywa GTX 960. Na ustawieniach high jego przewaga nieco topnieje, ze względu na tylko 2GB pamięci (na R9 380 zużycie VRAM podczas testu stale oscylowało w granicach 3,5GB). Mimo to karta zielonych jest wydajniejsza. Warto również zauważyć, że karta AMD jest w AC Syndicate mało podatna na podkręcanie (to samo ma miejsce z GTX 960 na ustawieniach wysokich – ale wynika to z ograniczenia ilością VRAM)

 

 

4.        Wiedźmin 3

 

Pierwszy test został wykonany na terenach leśnych w słoneczny dzień, gdzie procesor się nudzi, a obciążona jest głównie karta graficzna. Drugi zaś na rynku w Oxenfurcie podczas deszczu, gdzie wykorzystanie CPU sięgało ok. 80%.

 

QAZF7jM.jpg?1

 

z5R6hrf.jpg?1

 

W obu miejscach testowych bardzo nieznacznie wygrywa Radeon R9 380 4GB. Nie widać też różnic w przypadku miejsca CPU – wynika to prawdopodobnie z faktu, że Wiedźmin 3 jest mało wymagający pod jego względem i wspomniane wcześniej 80% obciążenie jest nadal zbyt niskie, by negatywnie wpłynąć na wydajność karty AMD.

 

 

5.        Grand Theft Auto V

 

GTA V zostało sprawdzone w na ustawieniach high oraz very high w dwóch miejscach testowych:
[1] – tereny z bardzo dużą ilością trawy, obciążona jest praktycznie tylko karta graficzna, wykorzystanie CPU bardzo niskie (ok. 30%)
[2] – noc, centrum miasta, burza, ulewny deszcz, duża ilość samochodów i „rozwałka” granatnikiem – tutaj wykorzystanie CPU znacznie wyższe, choć nie nazwałbym tego typowym „miejscem CPU” – ciężko było mi znaleźć scenariusz, który maksymalnie obciążałby procesor z platformy testowej. Lokacja ta była również bardziej wymagająca pod względem ilości pamięci karty.

 

5KWrav2.jpg?1

 

jzhd6eZ.jpg?1

 

1O909yl.jpg?1

 

udRNOxg.jpg?1

 

Na ustawieniach wysokich Radeon nie radzi sobie najlepiej w pierwszym miejscu testowym, szczególnie kuleje pod względem minimalnego FPS – znów da się odczuć spadki płynności. W drugim obie karty oferują identyczną wydajność. Na ustawieniach bardzo wysokich na prowadzenie wychodzi R9 380 – głównie ze względu na ilość pamięci – na takich ustawieniach GTA V również zużywa jej ok. 3,5GB. Po podkręceniu Radeona płynność jest wystarczająca do w miarę komfortowej rozgrywki. W przypadku GTX 960 podczas burzy mają miejsce ciągłe i znaczne spadki FPS – gra staje się niegrywalna.

 

 

6.        Dying Light

 

Test polegał na biegu po budynkach oraz wśród drzew twarzą w stronę promieni słońca i zabijaniu napotkanych po drodze zombie.

 

mnrjtyS.jpg?1

 

Dying Light jest jedyną grą w tym teście, w której Radeon R9 380 zyskuje znaczną przewagę. Średnia płynność jest wyraźnie wyższa, i spadki płynności, mimo podobnego minimalnego FPS (po OC) są rzadsze na karcie czerwonych.

 

 

7.        Fallout 4

 

W Fallout 4 sprawdziłem dwa miejsca testowe. Pierwsze, zaraz przy wyjściu z początkowej krypty niemal wcale nie obciąża procesora, główną rolę odgrywa GPU. W drugim miejscu testowym, Boston Common nocą, wykorzystanie CPU sięga 80-90%.

 

jqVMJHt.jpg?1

 

2LkepU4.jpg?1

 

W obu miejscach testowych karty oferują niemal identyczną średnią wydajność, jednak w momentach, gdzie wykorzystanie CPU wzrastało chwilowo do niemal maksymalnej wartości spadki i szarpnięcia na Radeonie były nieco bardziej odczuwalne. Nie są to jednak duże różnice, a Fallout 4 jest grą niezbyt dobrze zoptymalizowaną – można uznać remis.

 

 

8.        Battlefield 4

 

Test przeprowadziłem podczas sztormu po wyjściu z motorówki na ląd w misji w Singapurze.

 

J8l2yuN.jpg?1

 

W ostatniej grze w zestawieniu GTX 960 deklasuje Radeona R9 380, szczególnie po OC. Radeon R9 380 nie pozwala na komfortową rozgrywkę w takich ustawieniach – ciągłe spadki do 40 FPS w tak dynamicznej grze są niedopuszczalne. Na GeForce nawet na domyślnych ustawieniach ilość klatek na sekundę jest znacznie stabilniejsza, a po podkręceniu gra jest w pełni płynna.

 

 

 

 

Podsumowanie:

Tak prezentuje się uśredniona wydajność obu kart (każda gra ma mnożnik x1)

 

96H6ruZ.jpg?1

 

 

1.        Miejsca CPU:

 

Można powiedzieć krótko – problem faktycznie istnieje. Znacznie mniejszą średnią ilość FPS w miejscu CPU widać właściwie tylko w Crysis 3, ale ważniejsze jest to, co wiele osób pomija czytając testy wydajności, czyli FPS minimalny. Większość z wybranych gier przy testowanych kartach graficznych nie wykorzystuje w pełni mocy i5 4590, jednak w miejscach, gdzie wykorzystanie CPU wzrasta nawet chwilowo do wysokich wartości Radeon R9 380 radzi sobie gorzej niż GeForce GTX 960. Wystarczy spojrzeć na minimalną ilość klatek w: AC Syndicate, GTA V na ustawieniach wysokich, Fallout 4 w Boston Common czy Crysis 3, nawet w miejscu „bardziej GPU”. Średni FPS w obu kartach wypada zazwyczaj dosyć podobnie, ale nie odzwierciedla on wiele. Uczucie płynności jest znacznie lepsze w przypadku karty zielonych – nie ma tylu irytujących „chrupnięć” animacji.

 

 

2.        Potencjał OC:

 

Pomimo, że procentowy przyrost taktowania jest w obu kartach niemal taki sam, to skutki podkręcania są bardziej odczuwalne w przypadku GTX 960 – wydajność wzrasta prawie zawsze wprost proporcjonalnie do taktowania (zarówno średni jak i minimalny FPS) i daje się to wyraźnie zauważyć bez patrzenia na licznik klatek. Na R9 380 przyrosty wydajności są po pierwsze mniej spektakularne, a po drugie w niektórych z testowanych gier animacja zaliczała równie częste spadki, jak na ustawieniach fabrycznych (ciężko uchwycić to na wykresie – chodzi o to, że FPS częściej osiąga minimalne wartości).

 

 

3.        2GB vs 4GB

 

Tutaj sprawa jest PRAWIE oczywista. Więcej pamięci da nam korzyść tylko w przypadku gier i USTAWIEŃ, które tej pamięci wymagają. Wiele testów w Internecie jest jednak mylących, gdyż są robione na najwyższych możliwych ustawieniach. Najlepiej obrazuje to przykład GTA V. Owszem, na ustawieniach bardzo wysokich Radeon R9 380 4GB notuje więcej klatek na sekundę. Tylko co z tego, skoro na obu kartach rozgrywka nie jest szczególnie komfortowa. Po obniżeniu ustawień do rozsądnych wartości, pozwalających osiągnąć 50-60 FPS korzyści z dodatkowej pamięci nie ma już żadnej, a sporo lepsze wyniki osiąga GTX 960 2GB. Podobnie wygląda to w przypadku AC Syndicate. Jeśli odpowiadają nam spadki poniżej 40 FPS to obie karty sprawdzają się podobnie (R9 380 korzysta z dodatkowej pamięci, a GTX 960 notuje podobny wynik, bo AC Syndicate jest grą przychylniejszą kartom NVIDIA – R9 380 2GB prawdopodobnie wypadłby gorzej niż obie testowane karty). Z kolei na ustawieniach średnich R9 380 nie notuje prawie żadnego wzrostu wydajności, a GTX 960 wychodzi na przód o niemal 20%.

 

 

4.        Moje przemyślenia

 

Przyjemniej grało mi się na GeForce. W wielu grach R9 380 ce****ą mniejsze lub większe spadki płynności, nawet pomimo wysokiego średniego FPS. Na karcie zielonych framerate jest zazwyczaj stabilniejszy, koniec kropka. Warto pamiętać też, że do pojedynku stanęły karty o różnej ilości pamięci. Z przetestowanych gier GeForce przegrał znacznie jedynie w dwóch grach: GTA V na ustawieniach bardzo wysokich oraz Dying Light. W pierwszym przypadku problem zniknie w czterogigabajtowej wersji karty, w drugim ciężko mi powiedzieć, ale jest to i tak najwyżej jedna gra wśród ośmiu. Być może zestaw testowanych gier wypadł niekorzystnie dla Radeona – ale nie wybierałem ich specjalnie – akurat takie gry mam, w takie gram, a chyba najważniejsze jest to, żeby karta była odpowiednia dla naszych zastosowań.
                Do tego dochodzi jeszcze aspekt ekonomiczny. Obecnie za R9 380 trzeba zapłacić ok. 950-1000zł, a w przypadku GTX 960 jest to odpowiednio ok. 900-950zł w wersji 4GB i ok. 850zł w wersji 2GB. W związku z tym Radeon na tę chwilę wydaje się kompletnie nieopłacalnym wyborem, jest po prostu źle wyceniony. „Jedyną słuszną opcją” wśród nowych kart w tym segmencie jest moim zdaniem GTX 960 4GB. Ja, póki co, po tym teście prawdopodobnie zostawię w komputerze kartę NVIDII – sprzedając Radeona dostanę ok. 100zł więcej, a wydajność nie przemawia na jego korzyść.
                Porównanie miało zobrazować tylko różnice w wydajności, pominąłem więc kwestię głośności i temperatur, ale warto o tym wspomnieć. Przy tych samych obrotach wentylatorów temperatury GTX 960 są ok. 5 stopni niższe niż w przypadku Radeona. W moim przypadku jest to ok. 65 stopni dla GeForce i 70 stopni dla Radeona przy ~1200RPM – do takiego poziomu karty są niemal niesłyszalna. Są to stosunkowo wysokie temperatury, ale wynika to z umiejscowienia mojego komputera w mało przewiewnym miejscu. Ciepło wydzielane przez Radeona również daje się nieco bardziej we znaki – mając komputer pod biurkiem i wentylatory wyciągające na topie obudowy robi mi się pod nogami mała sauna i każde dodatkowe ciepło jest odczuwalne. Miłym dodatkiem do GTX 960 jest również niższy pobór prądu, choć dla mnie nie ma to aż takiego znaczenia.
                Test nie ma na celu wywyższania GeForców. Od 2009r. używałem Radeonów, a teraz okazyjnie zakupiłem obie karty, żeby przekonać się, która sprawdzi się lepiej w grach, w które gram i werdykt jest jasny – GTX 960 jest nieco lepszą kartą od R9 380 (w szczególności po OC), nawet w wersji 2GB, a przede wszystkim OPŁACALNIEJSZĄ. W przypadku wersji 4GB karty zielonych sprawa staje się jeszcze bardziej oczywista. Być może na mocno podkręconych procesorach Radeon rozwija skrzydła, ale ja takiego nie posiadam.
                Na sam koniec  - polecam dokładnie analizować testy wydajności profesjonalnych serwisów, a rekomendacje ludzi, którzy nie mieli do czynienia z kartami, które polecają, brać z przymrużeniem oka. W przypadku wybieranych kart kluczowe mogą okazać się: procesor, ustawienia na jakich chcemy grać oraz framerate, jaki nas zadowala - odpowiedni wybór nie zawsze jest jednoznaczny i zgodny ze słupkami w popularnych serwisach.
               


  • 67
CPU: Intel Core i5 4590 @ 3,7GHz + SPC Fortis 3 || MOBO: MSI B85-G43 || RAM: Kingston 2x4GB 1600MHz CL9 XMP Genesis
GPU: ASUS GeForce GTX 970 DirectCU II Black OC 4GB @ 1276(1440)/7800 Mhz
SSD: GoodRam Iridium PRO 240GB || HDD: Samsung HD753LJ 750GB || HDD: Samsung SP2504C 250GB
PSU: Thermaltake Smart SE 530W || CASE: Zalman Z3 PLUS
LCD: LG 23MP65HQ

#2 Warren1987

Warren1987
  • ♫ ♪ ♫...Do The Evolution???...♪ ♫ ♪

  • 1971 postów

Napisano 01 marzec 2016 - 16:23

Świetna robota. Gratuluję :)


  • 0

Intel i5 4790 @ 3,6 GHz, Raijintek Aidos, MSI H87-G43, XFX R9 390 8GB

A-DATA 4x4GB XPG 1600 MHz, ADATA SU800 256GB, WD Caviar Blue 1TB, Seagate Barraqcuda 1TB & 2TB

Zalman Z3, Tacens Valeo V 800W 80+ Silver, AOC G2460VQ6

Logitech G402 Hyperion Fury, Gigabyte K7 Force

Gigabyte MP100, Sharkoon Skiller SGH2


#3 king2127

king2127
  • Entuzjasta

  • 557 postów

Napisano 01 marzec 2016 - 16:32

U mnie GTX 960 2gb na sterach NVIDIA - 361.91 w grach dostaje czkawki , trzeba schodzić z ustawieniami , problem mija jak wgrywam starsze sterowniki.  mam , 353.06 i wszystko jest ok , nic się nie tnie , jakby inaczej gry ładowały się do vram . Mam wrażenie, że obecne sterowniki są robione tak aby faworyzować 4gigówki :(


  • 1

CPU: Intel Core i5 3570k@4.2GHz + Fortis 2,karta graficzna: MSI GTX 960 OC, dysk  Silicon Power V70 120GB i Seagate hybryda SSHD 1TB Barracuda , płyta główna: chipset Intel Z77 MSI Z77A-G43 pamięć RAM: GEIL DDR3 2x4 GB 1866MHZ DUAL EVO CORSA CL9 @ 2133MHz, Zalman R1.


#4 Elan.

Elan.
  • Gaduła

  • 456 postów

Napisano 01 marzec 2016 - 17:08

W BF'ie 4 radek był testowany na mantle czy dx 11 ?

Widziałem dużo różnych testów  i  w GTA V fps karty były na równi, w mieście nieznacznie lepiej wypadał geforce, a tam gdzie było dużo roślinności radeon.


  • 0

CPU: Core i5 2300 @ 3,5 GHz | MOBO: MSI Z68-G43| RAM: GEIL Black Dragon 2x4GB 1600 CL11 GPU: MSI R9 270 @ 1140/1450 [1,225v] | PSU: Antec VP500 - 500W| Case: Zalman Z3


#5 zapp12345

zapp12345
  • Autor tematu
  • (-.-)

  • 649 postów
  • Miejscowość:Łódź

Napisano 01 marzec 2016 - 17:13

Tutaj na trawce na ustawieniach wysokich ewidentnie lepiej poradził sobie GeForce. w Mantle nie potrafię zmierzyć FPS, ale spadki w okolice 40 nadal są.


Użytkownik zapp12345 edytował ten post 01 marzec 2016 - 19:03

  • 0
CPU: Intel Core i5 4590 @ 3,7GHz + SPC Fortis 3 || MOBO: MSI B85-G43 || RAM: Kingston 2x4GB 1600MHz CL9 XMP Genesis
GPU: ASUS GeForce GTX 970 DirectCU II Black OC 4GB @ 1276(1440)/7800 Mhz
SSD: GoodRam Iridium PRO 240GB || HDD: Samsung HD753LJ 750GB || HDD: Samsung SP2504C 250GB
PSU: Thermaltake Smart SE 530W || CASE: Zalman Z3 PLUS
LCD: LG 23MP65HQ

#6 Nowaj

Nowaj
  • Nie wstydzę się konsoli.

  • 17763 postów
  • Miejscowość:Bydgoszcz
  • 3DMark 06:Fire Strike - 23536

Napisano 01 marzec 2016 - 21:49

Przyjemniej grało mi się na GeForce. W wielu grach R9 380 ce****ą mniejsze lub większe spadki płynności, nawet pomimo wysokiego średniego FPS.

 

Miałem podobne odczucia, kiedy po 10 latach na ATI/AMD powróciłem do Zielonych. Mając 7970 wielokrotnie odczuwałem skoki, mimo, że licznik cały czas sztywno pokazywał wysoki framerate.

 

Fajnie zrobione porównanie, które bardzo gładko się czyta. W dobie pierdyliona "redaktorów", którzy mają problem z poprawnym napisaniem dosłownie dwóch zdań jest to nie taka znowu oczywistość.


  • 9

i7 6900K / GTX 1080Ti / 32GB DDR4 3200MHz / Samsung 950PRO 512GB / Phanteks Enthoo Primo Philips BDM4350UC/00 / Corsair K95 RGB / Logitech G900

Playstation 4 Pro / Xbox One S / LG OLED65B7V / Denon AVR-X1300W / Jamo S626

Worklog STAR WARS FireStrike
Moderator globalny / Ekspert działów: Dyski twarde, napędy optyczne i nośniki pamięci, Karty graficzne i Zestawy komputerowe / Pełne zestawienie Ekspertów

 


#7 kajtek.

kajtek.
  • yyyyyyyy ?

  • 29877 postów

Napisano 03 marzec 2016 - 21:56

Przydałby się teraz identyczny test na CPU ~ 4,5 GHz  :D


  • 0

Kupię dolną obudowę do laptopa HP DV7 4015ew


#8 zapp12345

zapp12345
  • Autor tematu
  • (-.-)

  • 649 postów
  • Miejscowość:Łódź

Napisano 03 marzec 2016 - 22:05

Procesora nie zmienię, ale będzie uzupełniony o GTX 960 4GB w ciągu kilku najbliższych dni :)


Użytkownik zapp12345 edytował ten post 03 marzec 2016 - 22:09

  • 2
CPU: Intel Core i5 4590 @ 3,7GHz + SPC Fortis 3 || MOBO: MSI B85-G43 || RAM: Kingston 2x4GB 1600MHz CL9 XMP Genesis
GPU: ASUS GeForce GTX 970 DirectCU II Black OC 4GB @ 1276(1440)/7800 Mhz
SSD: GoodRam Iridium PRO 240GB || HDD: Samsung HD753LJ 750GB || HDD: Samsung SP2504C 250GB
PSU: Thermaltake Smart SE 530W || CASE: Zalman Z3 PLUS
LCD: LG 23MP65HQ

#9 lukyeti

lukyeti
  • Maniak

  • 3054 postów

Napisano 04 marzec 2016 - 07:05

Bardzo dobra recenzja. Fajnie się czyta, mozolna ale bardzo rzetelna robota. Gratuluję.
Jeśli mogę o coś prosić/doradzić na przyszłość, to warto by było te testy uzupełnić pomiarami zużycia prądu.
Prosty watomierz kosztuję parę zł, a pomiar zużycia prądu do nam dodatkowe dane odnośnie sprawdzanych kart.
Wystarczy do tego szybkie przeliczenie: pobór,sprawność zasilacza, ilość godzin dziennie x 30 dni x stawka za kwh
I mamy dodatkowe, wg mnie bardzo ważne dane odnośnie opłacalności porównywanych kart :)
Mało osób chyba na to zwraca uwagę
Spoiler

  • 0

#10 zapp12345

zapp12345
  • Autor tematu
  • (-.-)

  • 649 postów
  • Miejscowość:Łódź

Napisano 04 marzec 2016 - 12:07

Robiłem już kiedyś podobne przeliczenie i faktycznie, te 4-5zł miesięcznie jest realne. Ale koszty kosztami - mi bardziej przeszkadza ciepło - rdzeń może być schłodzony przez dobre chłodzenie, ale gdzieś to musi ono uciec i w rezultacie komputer robi za grzejniczek.


  • 0
CPU: Intel Core i5 4590 @ 3,7GHz + SPC Fortis 3 || MOBO: MSI B85-G43 || RAM: Kingston 2x4GB 1600MHz CL9 XMP Genesis
GPU: ASUS GeForce GTX 970 DirectCU II Black OC 4GB @ 1276(1440)/7800 Mhz
SSD: GoodRam Iridium PRO 240GB || HDD: Samsung HD753LJ 750GB || HDD: Samsung SP2504C 250GB
PSU: Thermaltake Smart SE 530W || CASE: Zalman Z3 PLUS
LCD: LG 23MP65HQ

#11 MasterBarti

MasterBarti
  • Maniak

  • 3990 postów
  • 3DMark 06:35526 http://www.3dmark.com/3dm06/17662067

Napisano 04 marzec 2016 - 12:40

lukyeti, akurat zacytowałeś kogoś, kto chyba na siłę chciał powiększyć różnicę i dołożył z pupy dodatkowe 28,2% do różnicy w zużyciu prądu, lub jest po prostu osiołkiem i nie czyta ze zrozumieniem :P


Użytkownik MasterBarti edytował ten post 04 marzec 2016 - 12:43

  • 1

CPU i5-4690k @4,5 a na nim Scythe Mugen 2, MOBO MSI Z97-G43, GPU Sapphire Tri-X OC R9-290 (N.Ed.) RAM 2x4GB Kingston HyperX Beast @2600 cl11, HDD WD3200AAKS, PSU OCZ StealthXStream 2 600W, LCD GW2760HM, AUDIO Logitech z-5500


#12 lukyeti

lukyeti
  • Maniak

  • 3054 postów

Napisano 04 marzec 2016 - 12:42

Szczerze, to w robocie siedzę i wziąłem pierwszy z brzegu link :P

Chodziło mi o zasadę a nie konkretne wartości :)


  • 0

#13 MasterBarti

MasterBarti
  • Maniak

  • 3990 postów
  • 3DMark 06:35526 http://www.3dmark.com/3dm06/17662067

Napisano 04 marzec 2016 - 12:49

Jeszcze chyba tylko bym dopisał komentarz do twojego wzoru ;)

 

 

Wystarczy do tego szybkie przeliczenie: pobór,sprawność zasilacza, ilość godzin dziennie x 30 dni x stawka za kwh I mamy dodatkowe, wg mnie bardzo ważne dane odnośnie opłacalności porównywanych kart :)

Pamiętać by nie brać sprawności zasilacza pod uwagę, jeśli w teście było

Do pomiarów prądu pobieranego z gniazdka przez platformę testową (bez monitora) posłużył nam watomierz cyfrowy oraz Crysis 3.

bo w wynikach wyrażonych w "W" jest już wzięta poprawka na sprawność zasilacza, a realna różnica w poborze prądu przez same karty jest jeszcze trochę mniejsza ;)


Użytkownik MasterBarti edytował ten post 04 marzec 2016 - 12:50

  • 0

CPU i5-4690k @4,5 a na nim Scythe Mugen 2, MOBO MSI Z97-G43, GPU Sapphire Tri-X OC R9-290 (N.Ed.) RAM 2x4GB Kingston HyperX Beast @2600 cl11, HDD WD3200AAKS, PSU OCZ StealthXStream 2 600W, LCD GW2760HM, AUDIO Logitech z-5500


#14 lukyeti

lukyeti
  • Maniak

  • 3054 postów

Napisano 04 marzec 2016 - 13:14

fajnie ale ja pisałem do niego JAK będzie robił testy na przyszłość :)

A ty łączysz moje prośby do autora z konkretnym przykładem który miał tylko pokazać pewne mechanizmy.

Czuje fanboja radeonów :)


  • 0

#15 MasterBarti

MasterBarti
  • Maniak

  • 3990 postów
  • 3DMark 06:35526 http://www.3dmark.com/3dm06/17662067

Napisano 04 marzec 2016 - 13:43

Jakbym był fanbojem, to bym pisał głupoty a poprawiłem tylko istotny błąd, nie ważne w którą stronę by był, i tak bym to napisał. Dokładanie strat wynikających ze sprawności zasilacza, do mocy ciągniętej z gniazdka nie powinno mieć w tym wypadku miejsca, bo pomiar przy gniazdku uwzględnia już sprawność zasilacza i tego się czepiam. Pod fanboja ale zielonych podchodzi to co cytowałeś ;).


  • 2

CPU i5-4690k @4,5 a na nim Scythe Mugen 2, MOBO MSI Z97-G43, GPU Sapphire Tri-X OC R9-290 (N.Ed.) RAM 2x4GB Kingston HyperX Beast @2600 cl11, HDD WD3200AAKS, PSU OCZ StealthXStream 2 600W, LCD GW2760HM, AUDIO Logitech z-5500


#16 FeX

FeX
  • Nieudaczny parapet audiofilski

  • 4251 postów

Napisano 04 marzec 2016 - 13:49

Prąd z gniazdka to prąd z gniazdka, na tym koniec.


  • 0

Recenzje: SS RAW Prism / HyperX Cloud / HyperX Cloud Drone / Chińskie słuchawki, czyli tanio i dobrze

AIM SC808 - z czym to się je? / ISK HP-580

Ekspert działu: Głośniki, słuchawki i urządzenia audio / Pełne zestawienie ekspertów

SOMiC V2Recabling + HM5 Velour Earpads

i7 7700K + NH-D15 / XFX RX580 GTS XXX OC+ / ASRock Z170 Extreme4 / 2x8GB LPX 3000MHz / Plextor M5S 128GB / XFX Core 650W


#17 RuLeR

RuLeR
  • iddqd

  • 1145 postów
  • 3DMark 06:

Napisano 06 marzec 2016 - 15:01

A gdzie się podział  frametime w tym teście ?


  • 0

Spoiler

 

#18 zapp12345

zapp12345
  • Autor tematu
  • (-.-)

  • 649 postów
  • Miejscowość:Łódź

Napisano 08 marzec 2016 - 21:05

*
Popularny

AKTUALIZACJA:

 

Zakupiłem również kartę Gigabyte GTX 960 4GB Windforce 2x i sprawdziłem jej wydajność.

Procedura testowa oczywiście identyczna jak poprzednio, a taktowania karty następujące:
1216 (1329 boost) MHz /7010 MHz @ 1373 (1486 boost) MHz /7860 MHz

- czyli bez OC jest różnica zaledwie 13MHz w porównaniu do wersji MSI 2GB (niżej nie mogłem zejść), a po OC taktowania obu kart w boost są takie same.

 

Wyniki są naprawdę ciekawe - 4GB pamięci miało wpływ jedynie w 4 testach (3 grach) spośród 15:

- AC Syndicate na ustawieniach wysokich

- GTA V na ustawieniach bardzo wysokich (obie lokacje)

- Dying Light

W związku z tym tylko z tych testów umieszczam wykresy. We wszystkich pozostałych różnica między modelem 2GB MSI i 4GB Gigabyte mieściła się w granicach błędu pomiarowego (ok. 0,5-1,5 klatki na sekundę na korzyść jednej bądź drugiej, minimalny FPS pozostawał bez zmian).

 

 

Mamy więc po kolei:

 

kmtLzp7.jpg?1

 

Zauważalna zmiana, wzrost płynności jest znaczny. Generalnie 4GB pamięci pozwala nam na w pełni płynną rozgrywkę w wysokich detalach, a ustawienie średnie nie mają wtedy dużego sensu - średni FPS przy obu ustawieniach na karcie GTX 960 4GB jest bardzo zbliżony.

 

zygM5nJ.jpg?1

 

iOfDwpN.jpg?1

 

W GTA V w ustawieniach bardzo wysokich również mamy duży wzrost wydajności - na GTX 960 4GB gra była najpłynniejsza ze wszystkich 3 kart, przez najmniejszą ilość nagłych spadków płynności - tych prawie nie było. Jednakże zwracam uwagę na to, że płynność rozgrywki jest nadal dużo większa na ustawieniach wysokich, a wtedy z 4GB pamięci w GTX 960 nie odnosimy zbyt wiele korzyści - w obu miejscach testowych, tak jak wcześniej napisałem wyniki obu kart były identyczne

 

PjMcfQF.jpg?1

 

W Dying Light 4GB pamięci w GTX 960 pozwala niemal dogonić R9 380 - obie karty osiągają bardzo podobne wyniki, z delikatnym wskazaniem na czerwonych. Można się było tego spodziewać - podczas testu użycie VRAM dochodziło do 3800MB. Dziwi nieco mały przyrost wydajności po podkręceniu, ale test powtórzyłem 3 razy, za każdym razem ze zbliżonym wynikiem. Całkowicie zniknęły jednak nieprzyjemne przycięcia, które miały miejsce w wersji 2GB.

 

 

Podsumowanie:

 

Ostatecznie tak prezentują się średnia wydajność 3 kart we wszystkich testowanych grach:

 

rnLBCjP.jpg?1

 

Jak widać, przewaga wersji 4GB jest minimalna - nic dziwnego, w końcu ujawniła się w zaledwie 3 z 8 gier i to jedynie w określonych ustawieniach. Korzyści są niewątpliwe, w owe 3 tytuły gra się nieco przyjemniej, możemy korzystać z tekstur lepszej jakości i nieprzyjemne dropy nie występują. W obecnej sytuacji na pewno warto wybrać wariant 4GB, ale osoby posiadające już wersję z mniejszą ilością pamięci moim zdaniem nie mają się czym przejmować.

 

W związku z ostatnimi postami w dziale kart graficznych chcę zwrócić uwagę na jeszcze jedno - tego typu testy bardzo łatwo jest zmanipulować! I nie mówię tu od razu o złych zamiarach, bo mi też ktoś może zarzucić coś takiego. Było już w poprzednim podsumowaniu, ale napiszę jeszcze raz: należy wbić sobie do głowy, że przy kartach graficznych o tak bardzo zbliżonej wydajności zwycięstwo którejś z kart zależy ściśle od dobranego zestawu gier, ustawień obrazu i procesora. Dla przykładu, w teście na pclab przewaga GTX 960 4GB nad GTX 960 2GB była większa niż w moim. Uwzględniono w nim jednak test Shadow of Mordor na ustawieniach Ultra, gdzie różnica w wydajności obu wersji wynosiła ponad 100% - oczywiście znacznie podbija to średni wynik. Czy oszukiwali? Raczej nie. Ale bez tej czy innej gry sprawa wyglądałaby już nieco inaczej.

 

Z tego płynie wniosek, że nie można wyłonić jednoznacznego zwycięzcy (GTX 960 4GB vs R9 380 4GB ). Podtrzymuję jednak zdanie z poprzedniego podsumowania - dla osób ze "słabszymi" procesorami (czytaj niepodkręconymi i5 i niżej) bezpieczniejszym i bardziej uniwersalnym wyborem wśród tych dwóch kart jest GTX 960 4GB, szczególnie biorąc pod uwagę nawet 100zł niższą cen (w chwili obecnej*).

 

*Po sprawdzeniu widzę, że ceny Radeona ostatnio poszły trochę w dół i jest do kupienia za niewiele więcej niz 960 - żeby nie było, że sieję głupoty - ceny po prostu wahają się z dnia na dzień.


Użytkownik zapp12345 edytował ten post 09 marzec 2016 - 00:33

  • 13
CPU: Intel Core i5 4590 @ 3,7GHz + SPC Fortis 3 || MOBO: MSI B85-G43 || RAM: Kingston 2x4GB 1600MHz CL9 XMP Genesis
GPU: ASUS GeForce GTX 970 DirectCU II Black OC 4GB @ 1276(1440)/7800 Mhz
SSD: GoodRam Iridium PRO 240GB || HDD: Samsung HD753LJ 750GB || HDD: Samsung SP2504C 250GB
PSU: Thermaltake Smart SE 530W || CASE: Zalman Z3 PLUS
LCD: LG 23MP65HQ

#19 solaris557

solaris557
  • Entuzjasta

  • 602 postów
  • Miejscowość:Toruń

Napisano 08 marzec 2016 - 22:21

W W3 wystarczy iść na Rynek w Novigradzie, żeby wykorzystanie procesora doszło do 100%. W tym miejscu są okropne spadki FPS na 4690K na stocku - czy to 660 Ti, R9 280, GTX 970 czy 980 Ti obraz strasznie rwie pomimo FPS na poziomie 60-70 (GTX 980 Ti) i dodatkowo występują pojedyncze spadki FPS. Sytuacja się poprawia po OC procka do 4.5GHz ale nadal obraz rwie i są spadki :/

Co ciekawe u Liptona na i5 6400, który jakby nie patrzeć jest bardzo nisko taktowany, R9 380 wychodzi na prowadzenie.


  • 0

CPU: i5 4690K @4,5 GHz 1.17V + EK Supremacy EVO Nikiel  MOBO: MSI Z97 Gaming 5 RAM: HyperX Savage 2400MHz 4x4GB  GPU: Zotac GTX 1070 Frajer Edition 2101/9600 MHz Storage: Samsung 840EVO 120GB + WD Blue 1TB  CASE: Fractal Design Define S CASE: EVGA SuperNOVA G2 750W
Test wentylatorów 140mm   DEFINE S LC by solaris557 Raijintek Triton 140mm recenzja  SPC Fera 3 Recenzja

 


#20 Alcest

Alcest
  • Amator

  • 69 postów

Napisano 09 marzec 2016 - 00:19

... dla osób ze "słabszymi" procesorami (czytaj niepodkręconymi i5 i niżej) bezpieczniejszym i bardziej uniwersalnym wyborem wśród tych dwóch kart jest GTX 960 4GB, szczególnie biorąc pod uwagę nawet 100zł niższą cen (w chwili obecnej).
 

 

posiadam i7 4770k i podchodzę do kupna karty w okolicach 1k PLN. Jak rozumieć powyższy cytat? Wybrać Radka?


  • 0

| CPU: i7 4770k | MOBO: ASRock Z87 Extreme4 | GPU: nVidia 1060 Palit JetStream 6GB + HD4600 | RAM: 4x4GB 1600Mhz DDR3  |

| OBUDOWA: Brutus BT-410 Pure Black | HD: SSD Samsung 850 EVO + HDD WD 1TB | PSU: XFX Pro Series 550W |

| 3DMARK - TIME SPY 1.0: http://www.3dmark.com/3dm/15598458 |






Również z jednym lub większą ilością słów kluczowych: msi, radeon, geforce, gtx, 960, r9, 380, 2gb, 4gb, vs

Użytkownicy przeglądający ten temat: 4

0 użytkowników, 4 gości, 0 anonimowych