Skocz do zawartości

Revenant

Użytkownik
  • Liczba zawartości

    2048
  • Rejestracja

  • Ostatnia wizyta

Posty dodane przez Revenant

  1. 4 godziny temu, r1023 napisał:

     

    Złożyłem kilka takich na 12700k i powiem Ci że chyba coś nie bardzo umiesz poskładać tego intela skoro go tak hejtujesz, UV itp to nic strasznego, miałem równolegle z 12700k model  5900x czyli  nieco wyższy od tego Twojego 5600x  i 12700k jest zwyczajnie wydajniejszy a co dopiero to kopertko 5600x, dziwne porównywanie 12700k do 5600x i ich poboru prądu skoro wydajnościowo to przepaść. W grach 12700k pobór na poziomie 40-50w to chyba nie jest tragedia.

     

    Gdzie masz taki pobór 50W na 12700K? Na pulpicie? No tak bo da się "nie tak poskładać". :rotfl: Nie obchodzi mnie pseudo obciążanie CPU w paru procentach. Odpal go sobie np. w Resolve lub Adobe Premiere Pro przy pliku 2160p i znośnym kodowaniu to zobaczysz ile TDP wyniesie, po UV. Bo UV w przypadku 12gen jest ciągle mierne. Na 11800H (8C/16T) też trzeba było robić uV bo Intel ma dwie lewe ręce i wypadał dużo gorzej od mobilnego ryśka ze względu na skalowanie TDP.
    Poza tym ja porównywałem 5600X do 12400. Nie kreuj sobie wygodnych kawałków... 12700k wypada porównać do R7 5800X. Intel 12gen ma ciągle gorszy perf per watt, jest droższy, ma problemy z socketem oraz ma sens jedynie z DDR4...

     

    Po uV 12700K przy maksymalnym obciążeniu podczas kodowania udało się zejść co zawrotnych 140-145W... z początkowych de-facto prawie 200. Taki produkt to śmiech na sali a nie "wybitne dzieło sztuki". Podobnie jak np. Ryzen 7600X przy 105W oraz jeszcze wyższym chwilowym powerlimicie wypada tak średnio.

     

    A idąc takim słabym tokiem myślenia i stackowaniem TDP co generacje to za chwile PSU będą miały po 2kW a rachunki za prąd będą głównie rachunkami za używanie PC. :D


    ____

    Swoją drogą zacząłem się bawić Project Hydra, na razie freeware wersją. 

     

    1399591936_Beztytuu.thumb.jpg.1a0b1d3b5c33afb085af3724952798b3.jpg

     

     

    -= PROFILE: 1T-2T =-
    VID: 1375mV
    CCD1 FREQUENCY  AVX1: 4825MHz    FMA3: 4700MHz


    -= PROFILE: 3T-4T =-
    VID: 1375mV
    CCD1 FREQUENCY  AVX1: 4800MHz    FMA3: 4675MHz

    -= PROFILE: 5T-6T =-
    VID: 1325mV
    CCD#1 FREQUENCY  AVX1: 4775MHz    FMA3: 4650MHz
    22:13:33: Test 2 finished!

     

    -= PROFILE: ALL (AVX2) =-
    VID: 1150mV
    CCD#1 FREQUENCY  AVX1: 4475MHz    AVX2: 4400MHz
    22:13:45: Test 3 finished!

     

    -= PROFILE: GAME =-
    VID: 1300mV
    CCD#1 FREQUENCY  AVX1: 4675MHz
    22:14:01: Test 5 finished!

     

    Bez żadnego ręcznego dotykania czy robienia profilowanej diagnostyki (uV, OC, XOC). Zwykła diagnostyka. Jutro będę bawił się bardziej. 

    wow1.thumb.jpg.4bccdfd98593f82e38654ab9089f71be.jpg

     

    Na potrzeby screena z enchanced sync by olać 60fps limit v-sync.

    All-core 4841MHz solidnie siedzi przy <1.3v (1,27 większość czasu)

    Pobór prądu wydaje się być praktycznie taki sam jak wcześniej ale z wyższymi temperaturami o parę stopni.
    Trzeba to będzie jutro sprawdzić na TW:WH3.

    Cinebench R23 wzrósł z 10900 do 11503 pkt

    1.15v profil, pisze że 4400MHz AVX2 ale boostuje do 4525MHz.
    Pobór prądu ten sam jak wcześniej. Przy uV Curve all-core i +100MHz napięcie podchodziło pod 1.2v (1.175-1.19) przy mniejszym taktowaniu.

     

    • Haha 1
  2. 13 minut temu, mirai99 napisał:

    Ceny w sumie niewiele się różnią od premierowych Zen3.

    Za to płyty główne... no i x-kom ma 3 modele "dostępne" a morele zero...

     

     

    Ceny CPU są praktycznie te same. Ale koszt platformy jest dużo większy. Pobór prądu też... zbliżony do Inteli a to dotychczasowo była chyba największa zaleta AMD.

  3. 4 godziny temu, r1023 napisał:

    Tylko jeżeli ktoś przesiedział ostatni rok w jaskini i nie zauważył alder lake albo jest wiernym fanem AMD ;)


    Performance per watt? TDP? Z tego co się orientuje to nie ma procka w przedziale 65W... i sam montowałem m.in. build z 12700k. Debilne zużycie prądu.

     

    Osobiście 12400 bym nie kupił... zablokowany. Z 5600X idzie wycisnąć dużo więcej (UV+OC jednocześnie) i jest tańszy.

    Ba... 12400 nie ma przypadkiem PL2 na 110-120W? :) Czyli jakieś 184% TDP 5600X? ...

  4. 1 godzinę temu, r1023 napisał:

    Te procki na zimę idealne, do tego 4090 i wtyczka zasilania potrafiąca rozgrzać się do 180 stopni i można przy okazji coś upiec :D . Fajne premiery w tym roku :)

     

    Jak narazie najlepszy alderek myślę ze z raptorami też coś się odwali.

     

    Z Zen4 i Lovelasem nie ma mowy by zmieścić się w limicie 2000kWh :rotfl: <pepelaugh>

    Złotym środkiem na perf per Watt pozostaje ciągle Zen3 + RDNA2 z okrojonym Navi 21 XL.

     

    Jeżeli ktoś buduje platformę pod 1440p na wysokich ustawieniach AAA lub 2160p to napewno Zen3>Zen4.

    Ciekawe czy z RDNA3 też się tak zbłaźnią. Skoro już sami zapowiedzieli że podniosą TBP kart... bo durr durr nvidia tak zrobiła to i oni muszą owczym pędem...

    2 minuty temu, joker5513 napisał:

    bo na dobre GPU od czerwonych czekam od ponad dekady i marne szanse że akurat teraz się doczekam. 

     

    6800, 6800XT, 6900XT, 6950XT (6700XT ciężko nazwać wybitnym na tle większych braci bo ma wysokie napięcie rdzenia i dużo gorszy perf per watt).

     

    Ba, radełon nawet ciągnie raytracing w WoWie WOTLK Classic w 4K :evil: (żart, ale serio wczoraj to odkryłem że jest na wotlk classic RT... i działa na radeonach).

     

     

  5. Temperatura, TDP podniesione o realnie 100% (x2)...

     

    Ale ciągle jest SUPER drogi! 

    360-370€ za 7600X

    170-200€ za 5600X

     

    AM5 jest dużo droższe od AM4 i w dodatku dużo biedniejsze w ramach tych samych przedziałów cenowych.

    DDR5 jest ciągle "słabe" (wczesna faza rozwoju) i ma zaporowe ceny.

    BIOS - tylko czekajmy na te bugi i długie wyczekiwania na nowe AGESA. Tak było za Zen1, Zen+, Zen2, Zen3... i będzie przy Zen4. To akurat normalne (skomplikowany produkt).

     

    Imo zwykły śmiertelnik powinien patrzeć priorytetowo na ciągle produkowane Zen3 i olać Zen4. Po co nam ponosić taki głupi koszt (nie tylko €) dla relatywnie małego wzrostu wydajności (w porównaniu do "kosztów")? Chyba że ktoś gra w 1080p mając RTX 3090 / 6950 XT... co byłoby super zabawne. Albo ma magiczne GPU, które potrzebuje mega procka do 200-300fps w 4K. :->

    • Popieram 1
  6. 23 minuty temu, Artok napisał:

    Wiedziałem, że zaczniesz bronić modelu z X na końcu :P

     

    Ostatnio na Pepperze jeden dżentelmen się chwalił, że kupił od Niemców zwykłego 5600 i poszedł mu na 4.95 Ghz :O Dla porównania jego sztuka 5600X na tym samym napięciu poszła na 4.75 Ghz. 

     

    Innymi słowy - loteria silikonowa. 

     

    Bo jest to możliwe, jeżeli producent ma deficyt np. wersji 5600 to wiadomo że użyje 5600X tylko softem będzie zblokowany. Tak samo kiedyś GPU często podmieniano, które aż się prosiły o flash biosu (też u AMD). Albo odblokowywanie rdzeni w Phenomach. 

    Ale to jest loteria, o dość małych szansach. 

    I teraz pytanie czy to 4,95GHz to single core, na najlepszym rdzeniu (imo jedyna możliwa opcja)... dodatkowo kij wie czy to fakt czy ściema, albo czy cep był w ogóle stabilny pod np. AVX. 

     

    Non-X miały największy (de-facto najbardziej logiczny wybór) przy Zen i Zen+. Przy Zen2 oraz Zen3 zazwyczaj lepiej się wychodzi na dorzuceniu paru groszy do X. Chyba że ktoś ma bardzo ciasny budżet no to nie ma wtedy wyboru. 

  7. 1 godzinę temu, agkg100 napisał:

     

     

    5600 ma dużo gorszy binning. Nie zrobisz na nim solidnego uV a tym bardziej uV+OC.  Będzie mniej stabilny przy OC oraz będzie miał większy rozrzut między jakością rdzeni. Dla zwykłego śmiertelnika ok, ale kogoś kto umie wycisnąć dużo więcej z procka to tak niezbyt. Przerabiane wiele razy m.in. na reddicie (brali non-X z myślą o OC lub UV, albo co gorsza OC+UV i wielkie zdziwienie rodem pikachu face...).


    Ostatecznie różnica może wynosić 300-400MHz + różnica w napięciu. A to sporo (mniejsze napięcie = więcej "soku" z narzuconego limitu TDP). 

  8. 17 minut temu, Artok napisał:

    Na pewno nadal rzeźbią? Czy raczej pozbywają się nadwyżek magazynowych, a mniejsze rdzenie posłusznie czekają na swoją kolej? 

     

    Yup. Np. na pewno będą musieli produkować ponad połowę wersji rdzeni dla chociażby laptopów. Desktopowe też ciągle tłuką - i to chyba ciągle każdy rdzeń.

     

    GA107 - 3050(M), 3050Ti(M) / tylko laptopy

    GA106 - 3060, 3060(M)

    GA104 - 3060, 3060Ti, 3070, 3070Ti, 3070(M), 3070Ti(M), 3080(M)

    GA103 - 3060Ti (tego nie czaje, jakiś super odpad?), 3080Ti(M) 

    GA102 - 3080 i wyżej

     

    All rdzenie mają zastosowanie w ciągle produkowanych produktach (dGPU i laptopach) a Szajsung ciągle produkuje i nie przekształcił i nie zamknął fabów, z których wychodzi towar. 

     

    • Lubię to 1
    • Popieram 1
  9. 47 minut temu, wrobel_krk napisał:

    Inne czasy inne standardy. Ta karta w idle była głośniejsza niż 3080 pod obciążeniem 41db vs 38db. 94 stopni to normalna temperatura na rdzeniu. Nawet taki gtx titan miał 38 db w idle. Więc to po prostu inne czasy są. Jak lekki szum słychać pc to teraz jest uważany za głośny

     

    True, sam teraz robie silent buildy bo byle co mnie denerwuje. Albo się starzejemy... :D

     

    Btw  co do Ampere i Lovelasów sprzedawanych jednocześnie...

     

    • Samsung nadal klepie i będzie klepać Ampere (RTX 3000)
    • Nvidia przedstawiła tylko 4090, 4080 i niesmaczny żart (4080 12GB)
    • Sprzedaż równoległa (śmierci/EOL Ampere nie widać na horyzoncie)

    Teoria: czyżby nvidia miała zarezerwowaną na najbliższy rok aż tak małą produkcję u TSMC? Brak 4070, 4060... Nawet wzmianek. Byłoby śmiesznie gdyby na 4080 'JOKE' 12GB lineup się kończył, przynajmniej przez rok. Nie raz nGreedia zmieniała swoje plany w locie o 180*. A... Ampere uzupełniałoby całą lukę poniżej, trzepiąc chorą i paranormalną marżę z lovelasów... nie tracąc obrotów na ampere. 

    • Popieram 1
  10. 9 minut temu, MiK napisał:

    Ciepło ≠ temperatura. Karta może wydzielać 350W ciepła a być względnie chłodna. 

     

    Ale nadal ma 350W ciepła do rozproszenia -> czyli trzeba mieć adekwatny cooler. Większość konsumentów nie kupuje topowych modeli. 

    Tak samo karta może mieć 250W i się prawie topić (GTX 480, R9 290X).

  11. 1 minutę temu, zbiku90 napisał:

    Te karty miały "ledwo" 250W TDP, po prostu chłodzenia nie były wtedy aż tak rozbudowane jak teraz.

    Apropos, przeglądałem sobie rtx 3080 i trafiłem na takiego kwiatka - patrzcie zdjęcia 2 i 3.

    https://allegro.pl/oferta/msi-geforce-rtx-3080-gaming-z-trio-10g-10-gb-12349296972

    Także tego, dzieci pamiętajcie o zabezpieczeniu :D czytaj - wspornik, holder... jak zwał tak zwał. 4090 na powietrzu będą miały grubo powyżej 2kg.

     

    Yup, ale były ówczesnymi piecykami. Ja 290X (mój miał bodajże 275W) nie wytrzymałem, to był u mnie bezprecedensowy przypadek szybkiej wymiany GPU. :D

    Gdzie te czasy, gdy taki HD 6850 miał 125-140W jakoś... Albo GTX 660... a dziś x2. 

     

    To PCIe... wtf? Nigdy czegoś takiego nie widziałem. A widziałem różne uszkodzenia. :D:rotfl: Ciekawe czy rdzeń + VRAM nadają się na przeszczep, czy też oberwały w momencie uszkodzenia (możliwe). 

  12. 10 godzin temu, joker5513 napisał:

    Generalnie coraz bardziej skłaniam się ku olaniu ciepłym moczem tych lovelasów.

     

     

    Tbh najbardziej rozsądne wyjście. Co innego możemy zrobić? Nie ma sensu na siłę kupować takich GPU z taką ceną oraz TDP. 

    Kupisz GPU np. za 1500€ a potem Jensen Kurteczka stwierdzi że stock RTX 3000 wyprzedany i tną ceny do 800€-950€ a ty umoczyłeś 500€ wartości w parę miesięcy. 
    Bardzo czekam na testy techpowerup i guru3d tańszych wersji 4080 16gb i 4090... ale to będzie wyło. Aż monitor będzie drżeć od czytania liczb dB na wykresie. 

     

    Podsumowanie "lovelasów" na ten moment:

    • 4080 12GB to żart na prima aprilis (4070 non-Ti at best)
    • Chore TDP...
    • .. co implikuje wielkie lub (i?) głośne coolery
    • Dalsze wciskanie nowego gniazda zasilania (pomijam żywotność, zwykłe 6-8pin nie raz widziałem uszkodzone)
    • Chore ceny... nvidii... dodajmy premium od AIB za wielkie coolery w lepszych wersjach (które tanie nie są materiałowo, produkcyjnie i teraz jeszcze logistycznie [masa i objętość])
    • Chore ceny na start, które potem będą pewnie mocno cięte za pół roku (po wyprzedaniu Ampere i RDNA3) co daje bardzo dużą utratę wartości względem ceny pierwotnej. A przy tak dużych cenach będzie to boleć dużo bardziej niż kiedykolwiek.

     

    Patrzę właśnie ceny w DE i niestety ceny Ampere i RDNA2 bardzo powoli spadają, ale coś się "rusza".


    Zależnie do wymagań i zastosowanie imo najlepiej teraz będzie polować na:

    • RTX 3060 Ti
    • RTX 3070 Ti
    • RTX 3080/3080 Ti (dostępność może  być problemem, dla tego daje tu obie)
    • RX 6800/RX6800 XT
    • RX 6950XT
    • warunkowo RTX 3060 do edycji video 4K i akceleracji (12GB VRAM + wydajność CUDA).

    I właśnie zdałem sobie sprawę że smutno bo nie ma nic "taniego" i "rozsądnego" w segmencie entry. A już na pewno nie te kastraty od AMD... A ARC zaliczyły crashtest, którego nie przeżyły...

     

    Śmieszne, że u mnie platforma z monitorem 4K i głośnikami Edifiera zjada 380W przy stresie CPU+GPU... a tu same karty mają nam zaraz tyle żreć. Patologia i sprzedaż bubla konsumentowi. Tbh nie obraziłbym się gdyby UE wzięła się za to tak jak ostatnio w końcu wzięli się za szrotowe. Powinniśmy zaprosić Steva z GN do Brukseli żeby stworzył indeks testowy FPS per WATT do certyfikacji urządzeń oraz limity maksymalne bazowane na wydajności.  :-> Nigdy by już nas nie skrzywdzono takim GTX 480, R9 290X czy "Lovelasem". 

    • Popieram 1
  13. 2 godziny temu, Rebelmind napisał:

    Pod wodę w takim razie - jeśli musisz wymienić - widzę dwie opcje:

    * ostro z z OC to Asus Strix + blok od Ek 

    * bez OC bierzesz od razu Inno3D iChill Frostbite 

     

    Referent też może być bdb opcją. Przy LC wystarcza a po drugie łatwiejszy dostęp do bloków bo są w dniu premiery. Na bloki do AIB można czekać nawet 2-3 miesiące plus są droższe. 

     

    *referent w sensie default PCB, nie referent rzeźbiony od NV

  14. 2 godziny temu, DjXbeat napisał:

     

     

     

    W przypadku silnika Source raczej na bank jest to wina samego silnika (kodowania) VALVE. Gdyby to leżało po stronie AMD już dawno zrobili by update. 

     

    Jeżeli nvidia ma niby chociaż trochę lepsze sterowniki, to równie dobrze mogę narzekać że po tylu latach ciągle są problemy z HDCP 2.2 i streamowaniem 4K na PC. Żebym w 2022 musiał restartować co rusz komputer by wróciło "4K" czy to Netflixie, Disney+ czy Prime Video to trochę kpina. Problem występuje nawet obecnie z Turingiem (2070S) i Ampere (3060) i raczej na pewno nie poprawi się teraz. 

     

    Z CS:GO jest taki problem, że VALVE ma w pompie inwestowanie w tytuł - bo nie musi. Gra i tak zarabia. Jest to bardzo stara gra, na jeszcze starszym silniku. A zaktualizowanie takiego api lub przejście na nowe byłoby mega kosztowne (czasochłonne). Więc co robi Gaben? Gaben mówi olać temat i nie ruszać artefaktu. 

     

    Tak stary tytuł jest beznadziejnym wyznacznikiem czegokolwiek po ponad dekadzie. A silnik dochodzi wiekiem pod dwie dekady. A nvidia zawsze miała lepsze driver API pod API DX9, dla tego sobie może radzić lepiej bez ruszania czegokolwiek. Dzisiaj powinno nas obchodzić tylko DX12 oraz DX11. 

    News: https://videocardz.com/newz/radeon-monster-profile-volt-freq-optimization-tool-for-rdna2-gpus-is-under-development-for-hydra-software

     

    Cytat

    The developer of Clock Tuner for Ryzen is working on an update for the latest tool called Hydra. For the first time, the program would provide optimizations for Radeon GPUs.

     

    Yuri “1usmus” Bubliy developed a voltage/frequency curve optimizer for Radeon 6000 GPUs. It is said to unlock maximum potential of RDNA2 GPU by reducing the operating voltage by up to 6%. In an example of Radeon RX 6800XT, RMP can lead to increased frequency by 300 MHz. This allows the card to outperform both, RX 6900XT and RTX 3090 Ti in 3DMark Time Spy test

     

    • Haha 1
  15. Pyknąłem jeszcze na szybko z rana 2 mapy (de_dust i de_inferno klasycznie). Zegary elegancko trzymają 1700-2100MHz chociaż gra nie potrafi wycisnąć perma 100% z CPU i GPU (żadne nie wydaje się bottleneckiem). Ewidentnie kwestia silnika gry i API (tak np. w WoWie). Ale nie mam spadków, minimum zanotowało 1610MHz w HWInfo i w GPU-Z. I have no idea. Ale fps bez dropów i frametime też elegancki.

     

    Tbh to wina Valve bo trzyma przy życiu super stary produkt (10 letni) na 18 letnim silniku (właśnie wygooglowałem, silnik z 2004). To nie ma prawa działać perfekcyjnie na nowych GPU i platformach robionych pod najnowsze API i w najgorszym przypadku DX11. A VALVE raczej woli doić kasę niż robić update silnika. A boja się pewnie wydawać nowy tytuł bo nie wiedzą czy się przyjmie. 

     

    W teorii resizable bar działa na AMD i Intelu. Ale SAM tylko na AMD+AMD z tego co się orientuję (mają chyba dodać wsparcie ze względu na Arc w jakimś momencie? Chyba że już to zrobili). 

  16. 2 godziny temu, zbiku90 napisał:

    Poważne gamedevy już chyba nie robią nowych gier na DX11, tylko jakieś indyki. Czy się mylę?

    To to jeszcze nic. Co jakiś czas ludzie zakładają tematy że mają nowy sprzęt i się dziwią że w CS 1.6 nie ma 1000 fps :D

     

    Większość chyba ciągle siedzi na DX11. Np. na pewno wiem  że z nowych gier TW:WH3 jest na DX11. 

    1 godzinę temu, Rebelmind napisał:

    Revan, na czterech różnych RDNA2 ten sam problem przerabiałem na przestrzeni blisko dwóch lat: podczas mm Wattmann potrafił przełączyć zegar rdzenia w 2D-mode (drop taktowania z 2000 do 600 MHz). Trza było edytować tablice stanów biosu karty jak i deaktywowac opcje oszczędzania energii - a i to częściowo tylko pomagało, bo skutkiem ubocznym był mikro-stuttering. Serio, naczarowałem się z tym więcej niż spece od marketingu Nv z wykresami z prezentacji RTX 4000. Jak Ci się chce to zajrzyj do tematu o RDNA2;

     

    Nie zaobserwowałem tego w żadnej grze, ani TW:WH3, Hell Let Loose, CS:GO, World of Warships, Cyberszrot 2077, Wiesiek 3 (testowałem tam UV/OC). 
    Przy czym mam monitor 3840x2160. Może to ma jakiś wpływ na to? Inny load de-facto na GPU, dużo cięższy. 

    A jako prawdziwy geeko-nerd gram z OSD zajmującym 1/4 ekranu :D z 4 nawet graphami. Jedyne co mi przychodzi do głowy to:
    A) Rozdziałka (niższa rozdziałka momentami przy np. minimalnym zamulaniu procka powoduje przechodzenie w niższy state GPU?)
    B) Problem z FreeSync na danym monitorze (lub problem z wł. funkcją FreeSync Extended)

     

    Ja używam FreeSync w trybie extended, ale nie na każdym monitorze może to działać. A z dośw. z G-Sync w laptopie (980M i 980M SLI oraz 1070M) wiem że VRR potrafi grzebać z state'ami GPU bo sporo miałem przez to flashowanie vbiosów Premy. Przy wł. G-Sync przy 980M SLI w niektórych grach miałem perma 2D zegary... to było frustrujące (przy matrycy 4K... wyłączenie SLI nie było opcją).

    2 godziny temu, zbiku90 napisał:

    To to jeszcze nic. Co jakiś czas ludzie zakładają tematy że mają nowy sprzęt i się dziwią że w CS 1.6 nie ma 1000 fps :D

     

    Ło Panie, a próbował Pan wyłaczyc ZombieModa? To byłaby moja 1 odp. Ta gra była złota, sam wtedy uczyłem się kodowac na AMXModX i ogarniać SQL. :D 

    Tak samo w WOW'ie ludzie na privach narzekali na WOTLK czemu w Dalaranie jest 30fps w 1440p na RTX 3080. Bo engine gry jest stary jak świat. :D 

  17. 5600X z 2x16GB 3600MHz, Curve uV i +100MHz (smart access memory wł)

     

    Ten test jest trochę bez sensu. Vishera nawet w dniu premiery była totalnym gruzem (pomijam starszego bulldozera...). Bardzo słabe "pseudo" rdzenie. FX 8350 nadawał się tylko do obróbki wideo w programach obsługujących multithreading. 6600K jest dużo młodszy i ma super mocne rdzenie i DDR4 (sam miałem 6700k). A potem z czapy współczesna i5 "bieda edition". 

     

    W teście z czapy porównywane są CPU z całkowicie różnych lat (wiele lat odstępu) a przede wszystkim segmentów. Stara, flagowa ale tania Vishera (te procki były tanie), mainstream Core i5 oraz bieda Core i5. 
    Samo parowanie nowoczesnego GPU z 8350 czy nawet Skylake byłoby dość... słabe. Co innego 6700K po OC na 4.6-4.8GHz. 

    Sensowne jest więc tylko patrzenie na i5 12400 w tym teście. Ale przez to że nie ma np. R5 5600X, a najlepiej R5 5500 ciężko wyciągnąć wnioski. Np. resizable bar i smart access memory.  

     

    I nadal pozostaje kwestia silnika-śmietnika z początku XXI wieku oraz przestarzałego API. Nowe GPU (sensu drivery) w ogóle nie są projektowane z myślą o nim. Ba, nawet DX11 powinno zostać w końcu olane. 

  18. Godzinę temu, Rebelmind napisał:

    Nie wierzę @Artokza grosz w sterowniki AMD. Dopóki nie zobaczę CSGo NORMALNIE działającego na Adrenalin dopóty nie wydam złotówki na kartę od Czerwonych. 

     

    Nigdy nie miałem z nimi problemu w przeciwieństwie do sterowników nvidii. 

     

    CS:GO jest bardzo złym wyznacznikiem/benchmarkiem bo to totalny staroć. Nawet wydawca tej gry ma gdzieś silnik tej gry. Gdyby im zależało to byłyby stosowne aktualizacje. Nie ma sensu nawet minuty poświęcać tak staremu i bezużytecznemu API. Gdyby mi jakiś pracownik nawet to sugerował to szybko zmieniłby stanowisko (na niższe). 
    Gra z 2012 roku, gdzie DX11 było już dość powszechne. 

    Sam silnik ma chyba z 17-18 lat, uber staroć. Nie ważne jak często aktualizowany.

     

    Grałem ostatnio 24h według steama w CS:GO i nie miałem jakichkolwiek problemów... w 4K miałem na większości map rock solid 300fps+... więc serio nie wiem w czym problem. Frametime z wykresu na OSD też się zgadzał - nie było spike'ów. 

  19. 12 minut temu, Rebelmind napisał:

    Rtx 3070 też miał rewelacyjny stosunek perf/Watt. 

     

    Yup, ale zdecydowanie odstaje od 6800.

     

    W 2160p 3070'tka ma 88% wydajności per W, 1440p 90% a 1080p 94%. 

    Oczywiście ja patrzę przez pryzmat 4K od 6 lat. Ale przy 1440p to ciągle 10% (raczej mało osób kupuje takie GPU do 1080p). 

    I są to wyniki bez uV. Gdzie 6800 robi dużo, dużo większe uV od 3070. 

     

    Moja dawna 2070S FTW3 wypada ultra słabo w porównaniu z 6800tką. 

     

    Przy 300W 10% różnicy to już 30W. A jeżeli będzie to 12% a po uV np. 20% to już 60W. 
    Mniejsze TBP, mniejszy hałas wentyli, mniejszy stres dla samej karty i PSU. 

     

    U mnie po UV wydajność wzrosła zauważalnie, ale sam pobór prądu obecnie wynosi 73% wartości początkowej z odblokowanym powerlimitem (10%). Z 0% powerlimitem będzie to 79,5%. Według excela z pomiarów. 

×
×
  • Dodaj nową pozycję...