Skocz do zawartości

Revenant

Użytkownik
  • Liczba zawartości

    1872
  • Rejestracja

  • Ostatnia wizyta

Posty dodane przez Revenant

  1. 3 minuty temu, mirai99 napisał:


    Moje skille 3600 cl14 b-die mają xmp na 1.45v więc wiesz...

     

    U mnie corsair poleciał po bandzie i dał 1.35v... Może na IMC by poszło z 12700K ale nie będę jechał z DE do PL do kumpla by to sprawdzać. :D

    To zostawiam, nie zwracam i będę monitorował sytuację. 

  2. 10 godzin temu, mirai99 napisał:


    Jak wymyślą jak chłodzić ten 3d cache...


    Dadzą radę, w końcu mają na to parę lat. 

     

    Mi się chyba udało ogarnąć XMP na tym Gruzenie i Corsairach. Przy 1.35v i 1.4v nie chciały chodzić... przy 1.42v nagle wydają się bootować i śmigać... wstępnie.


    Czy to normalne przy gruzenach że przy XMP czasami trzeba podbić napięcie DRAM powyżej 1.4v by utrzymać 3600MHz i FLCK 1:1?
    Co prawda kości 16GB czyli dual-rank...

     

    Na Intelu (12700K) i DDR4 nigdy takie cyrku nie widziałem. A B-DIE z Zen1+ śmigało jak 7 cud świata... a tutaj mam microny E-Die czy du*y nie urywa...

     

  3. Ci co chcą niech szykują portfele. Będzie zajefajnie drogo, niedostępnie oraz z toną nowych problemów (nowa platforma). :D Plus zabawa z DDR5. 

    Przez pierwsze pół roku aż wyjdzie seria update'ów do Agesa i ceny się nie ogarną to dałbym sobie spokój i traktował to jako "zwykły news".

     

    Za to 2 generacja pod AM5 z 3D Cache będzie realnym* turbo ptysiowym upgrade. I AMD jak i vendorzy już do tego czasu rozgryzą jak się je to ciasteczko i czym się je popija.

     

     

    • Popieram 1
  4. 1 godzinę temu, Rebelmind napisał:

    Czyli dobra sztuka Ci się trafiła. Dobre OC, świetny Uv i rewelacyjny pobór przy takiej wydajności! 

     

    Muszę jutro tylko spr. czy nie mam przypadkiem biosu ustawionego na quiet. Mam strasznie niskie rpm wentylatorów przez co GPU się nagrzewa do 78*c. (hotspot 88-89). max 950-980rpm... i powerlimit 10% a wydaje mi się że powinno być 15%? 

     

    Co ciekawe temperatura nie ma wpływu na turbo... chyba że to temperatura hotspota gdyby przekroczyła 95*c miałaby wpływ (dimishing returns)?

     

    Imo te dodatkowe MHz powyżej 2150-2250 nie są warte TDP. Przyrost nagle staje się marginalny i okupiony TDP (hałas, temperatura...).

  5.  

    Update 03.08

    Witcher 3 (4K Ultra, wymaksowany ale bez blurra, v-sync & fps cap off) ok. 70fps (w testowanym miejscu):


    Core cap: 2200Mhz (efektywne 2140-2180 na oko)

    VRAM 2150MHz + Fast timings

    Powerlimit +10% (max)

    Voltage: 915mV

    Pobór prądu: 160W-178W

     

    Core cap: 2300MHz (efektywne 2250-2280)

    VRAM 2150Mhz + Fast timings

    Powerlimit +10% (max)

    Voltage: 925mV (915mV unstable)

    Pobór prądu: 180-200W

     

    Core cap: 2450MHz (efektywne lekko ponad 2400)

    VRAM 2150Mhz + Fast timings

    Powerlimit +10% (max)

    Voltage: 925mV 

    Pobór prądu 220-240W

     

    Wiecie jakie były różnice w fps? 2 oraz 1 względem najwyższego OC... przy ponad 70. A róznica w TDP? Nawet 70-80W momentami! 

     

    160W przy 4K i 16GB prądożernego GDDR6? Wybitny wynik, z 10W-20W powyżej topowych GPU Nvidii w laptopach (pamiętam jak moje 980M na vbiosie Premy zjadały 180W...).
    Przy 2160p zegary zawsze są dużo niższe niż w przypadku 1440p* (nawet 100Mhz) - należy to wziąć pod uwagę. OC w niższych rozdziałkach "w teorii" dałoby więcej Mhz - ale niekoniecznie z realnym przyrostem fps. Na 2070S FTW3 po OC miałem od 90 do 130Mhz różnicy między 1440p a 2160p przy tych samych ustawieniach i powerlimicie.

     

    PS: nie sprawdzałem jeszcze max OC przy pełnym napięciu 1.025v.

     

     

    • Dzięki 1
  6. Wszedłem do biosu by zmienić krzywą wentylatorów bez innych zmian i znów XMP nie działa... coś mnie strzeli zaraz. VSOC voltage i DRAM Voltage, mnożnik itp też spr i ustawiłem ręcznie... 

    Post 2:

     

    Zacząłem sprawdzać kości 1-by-1... 

    na pierwszej XMP działa aż miło, na drugiej za cholerę nie chce bootować... :x 

    Post3:

    "Słabsza" kość często okazuje się niestabilna przy bootowaniu nawet przy minimalnych zmianach. Ale na 2666MHz (stock bez XMP) jest stabilna, jak już jej przejdą fochy z bootowaniem...

  7. Wstępnie pograłem chwilę w HLL (2160p, Ultra, blurr-off).

    80fps bez dropów (spodziewałem się... 40-50?).
    Resizable bar enabled.

     

    GPU Temp Max: 75,0*c

    Hotspot: 90*c

    Max fan speed odnotowany: 1623rpm

    Pobór mocy (max): 220,37W

    VRAM used (max): 11,157MB

     

    Wstępnie bez żadnych tweaków. Wentylatory w budzie na sztywno na 800rpm (Define 7 Compact, restrykcyjna buda), x3 front + x1 bottom intake (P12 Arctica)

     

    https://www.3dmark.com/fs/28158080

    • Lubię to 1
    • Popieram 1
  8. 3 godziny temu, Rebelmind napisał:


    Ta, kiedyś u nich kupowałem all graty do PC (np. Crosshaira, Zen1+, BDIE ram). Od lat unikam tego sklepu - sprzedają często rzeczy bez gwarancji, bardzo problematyczna obsługa i nie przestrzegają praw konsumenta. Zwrócisz produkt (przysługuje w ramach prawa), nawet taki za 2€ nierozpakowany... dostaniesz maila z info że "sklep rezygnuje ze współpracy z tobą" i banują ci konto. :D
    Mi się trafiło all z gwarancją itp (weryfikowałem). Ale sporo osób od tamtej pory od 2020 roku nacięło się tam srogo... w tym na GPU. Ja swoje graty brałem do 2018-2019 jak jeszcze było tip-top. Coś się zmieniło ze sklepem albo padają. 

     

    Te ceny tam są jak cyrograf albo lotto. Za swojego 6800 Pulse, którego właśnie wsadziłem do budy dałem 679€ (składam kompa mając 2 ręce w bandażach... bardzo głeboko pociąłem się wczoraj... w sposób mega kretyński) i idzie mi to jak krew z nosa. Zaraz 1st boot.

  9. 6 godzin temu, Rebelmind napisał:

    Ale szto ty haciejesz łot 12700k? Tosz tj imho najlepszy Cpu do gier obecnie (cena, wydajność, temperatury) - i gdyby był ~70$ tańszy to byłby i najbardziej opłacalnym :o

     

    Hajceje to kretyńskie TDP. Gdyby po UV ten procek żarł 90-100W a nie 160 to uznałbym jego potęgę i władzę nad Posępnym Czerepem, ale tak nie jest ;x 
    Nie uznaje progressu poprzez patologiczne podnoszenie TDP. A Intel od dawna tylko to potrafi robić... ostatni cep z którego się cieszyłem z ich stajni to był 6700K, i to dopiero po delidzie. 

  10. W DE miesiąc temu 3060Ti stał prawie na równi z 3060. Wtedy 3060 Ti was de wey. 

    Ale teraz w DE np. 3060 nagle tak spadły, gdzie 3060Ti stoi w miejscu że to Ti nie ma sensu. Wszystko rozbija się o oczekiwaną wydajność, TDP oraz perf per pln.

     

    Osobiście uważam że ogólnie* Ti jest bardziej udaną wersją ale zależy za ile siana względem 3060. 
    Szukałbym obu. Jak trafi się jakaś wybitna oferta to wtedy brać bez wyrzutów którąkolwiek. 

     

  11. A czyli to nie PL2 jest problemem, tylko po prostu tyle żre przy takim napięciu. 

    Jeszcze nie najgorzej, ale ciągle sporo. :D

    Nie mogę się doczekać aż jutro dostanę w swoje łapy własnego 5600X i ile wyciśnie W na stocku z rozsądnym uV. 

    Po 12700K mam PTSD. Nawet po UV to jest cholerny Admiral Kuznetsov w erze reaktorów atomowych. 

  12. 13 godzin temu, Rebelmind napisał:

    Plotki, ploteczki, przecieki nt Zen4:

     

    Kolejna próbka R5 7600x przetestowana z wynikami w bazie UserBench. 

     

    https://ithardware.pl/aktualnosci/amd_ryzen_5_7600x_z_ogromna_wydajnoscia_pojedynczego_rdzenia_intel_core_i9_12900k_to_przy_nim_pikus-22506.html

     

    "6 cores, 12 threads

    Base clock 4.4 GHz, turbo 4.95 GHz (avg)

     

    Wyniki? SC 20% wyższy od średniego wyniku 12900k, 55% wyższy od 5600x. W teście MC już tylko jednak 23% szybsza od Zen3. 

     

    Imo spodziewałem się większego skoku... 

    Skoro 7600X ma mieć aż 120W TDP na booście według wielu źródeł... słabo. Dawać Zen6. :D

    (iGPU pewnie samo w sobie dodaje parę watów)

  13. To TDP Intela jest jak idiotyczne że ciężko to nawet podsumować... ani trochę nie żałuję zamówienia R5 5600X... jeszcze się walnie PBO Curve offset undervolt per core i Intel wgle może ssać perf per watt.

     

    Co to za głupia moda? CPU (nawet nowe Ryzeny pewnie podbiją TDP ostatecznie) podnoszą wydajność poprzez zwiększenie w dużym stopniu powerlimitów... GPU? Jeszcze gorzej (analogiczna sytuacja). Już wolałbym 10-15% wzrost wydajności per gen z małymi ficzerami i 5% mniejsze TDP niż +30% i +15-20% TDP...

    A prund nie tylko w UE drożeje na potęgę... to samo w Azji (Chiny, Indie itp)... 

  14. 1 godzinę temu, joker5513 napisał:

    Żeby u Rebela był niebieski procesor i zielona grafika, i jeszcze to zachwalał... Świat się kończy :) 

     

    Rekonesans za linią wroga wraz z akcjami aktywnego sabotażu. :->

    TDP tych Inteli jest dramatyczne. :D Brutal performance ok, ale do eco lower-power buildu czy silent buildu to się one nie nadają... :x

     

     

  15. 12 godzin temu, Tiamina napisał:

    Jakie wartości osiągnąłeś przy UV 2070S? że narzekasz. 

    Zawsze wychodzi soft dla kard AMD?

    Takie wartości że nie warto było robić uV bo spadek wydajności był niewspółmierny do jakiegokolwiek zysku. Ciężko było zejść poniżej 280W (stock 285-300W) bez dramatycznego dropu w fps lub cyrków z niestabilnością.

    W laptopie z 3060M (70+15W, 85W boost) 0W mniej (cały zysk z oszczędności idzie w dosłownie nic niedające 15MHz boosta na rdzeniu)... w przypadku nvidii (przypadek 3060) nie masz bezpośredniej kontroli nad napięciem (offset) jak w AMD i musisz bawić się durną krzywą zegarów (afterburner). Czerwoni dają tutaj cały wachlarz zabawek gdzie nvidia pokazuje środkowy palec. 

    Porządne uV bez ucinania setek Mhz? Ba, ze wzrostem taktowania? Tylko u AMD. Od czasów Pascali nvidia już na nic nie pozwala... jeszcze na Maxwellu mogłem bawić się wszystkim i dało się normalnie flashować vbios bez cyrków (np. modowałem 970 i kilka 980M z customowym vbiosem). 

     

    Co masz na myśli w 2 zdaniu? Bo tak trochę napisane że ciężko się domyślić. Software =/= driver (AMD nie ma tu nic do powiedzenia). Oprogramowanie ze strony dewelopera musi mieć dodaną obsługę akceleracji AMD/Nvidii lub samej Nvidii lub AMD. Wszystko zależy od dewelopera. Większość może mieć wyrąbane w AMD bo zieloni dominują sprzedaż dość mocno (hegemon rynkowy, w dodatku z lepszym CUDA do takich zadań).

  16. 15 minut temu, MiK napisał:

    Wczoraj widziałem 6800 XT za 3599 zł i już ich nie ma. 

     

    Jeszcze w niedziele za 3599 był 6800XT Red Devil w x-cumie. 

     

    Godzinę temu, niron napisał:

    ludzie boją się kupować gpu z rynku wtórnego z uwagi na wielkie prawdopodobieństwo kupienia sprzętu po koparce :)  

     

    Yup, ale sam już nie wiem czy nie jest to przesadzone. Jakby nie patrzeć nie pracują one w max temperaturach i przy uber obciążeniu... nie wiem tylko jak z vramem w tych kartach bo to chyba on głównie "orze". 

  17. 32 minuty temu, Rebelmind napisał:

     

    Ja przewiduję typowe problemy (głównie związane z AGESA/Biosami) szczególnie biorąc pod uwagę nowe ficzery i igpu. 

    Tym bardziej liczba rdzeniufff bez zmian... imho najlepiej czekać na 2 gen pod AM5. Choroby wieku dziecięcego, progress pewnie lepszy na papierze niż w rzeczywistości a realnym problemem ciągle pozostają GPU.  

     

    A intela też można chwilowo olać, ich perf per watt woła o pomstę do... Kremla? Pekinu? Pyongyangu? 

    JayZTwoCents ostatnio ładnie to podsumował (chyba na początku lipca) - "mature and reliable platform without any childhood problems vs completely new platform with all problems yet to be discovered and solved". 

    Przypomnijmy sobie ile było problemów z Zen1. Nie mówiąc o Zen2 i Zen3 (co imo nie powinno mieć wtedy miejsca). 

     

    A ceny Zen3 są teraz boskie... ja dorwałem 5600X za 175€... regularne ceny są już <200€. A jego odpowiednik Zen4 na bank będzie stał między 320 a 360€ przez pierwsze kilka miesięcy + chore ceny płyt głównych. Dopłata patrząc perf per € nie będzie ani trochę rozsądna + sporo potencjalnych problemów na głowie. Ja się już oduczyłem bycia betatesterem - płaciłem jak za zboże za nie zawsze sprawny produkt %-)

  18. 9 godzin temu, ADR15 napisał:

    Jak nie chcesz się bawić to nie bierz radeona, RTX też ma dużo lepsze jak nie tylko RTX wsparcie w wielu programach. Jak tylko grasz to jeszcze można rozważyć radeona...

     

    Jeżeli chodzi o profesjonalne i półprofesjonalne zastosowania to sytuacja wygląda tak:


    Profesjonalny soft: zawsze dobrze działa z Radeonami, nvidia ma jednak lepszy boost z akceleracji (CUDA to CUDA, robi cuda)

    Półprofesjonalny soft: nie zawsze wspiera akceleracje Radeonów (dzisiaj już prawie każdy, ale nie zawsze...)

     

    Premiere Pro: np. RX 6800XT ma wydajność 3060 Ti w akceleracji... dość spora przewaga zielonych

    Resolve: 3060 Ti odsadza 6900XT... spora przewaga zielonego groszku...

     

    Ale ta przewaga często odnosi się do może poczekania 5-20 sekund dłużej. Czy to jest jakaś realna różnica? Nie.
    Warto sprawdzić jakiego softu używamy i czy wspiera akceleracje radkami. 


    Na swoim ostatnim Radeonie 580 Nitro+  bez problemu operowałem w każdym sofcie swojego wyboru: pakiet Adobe (praktycznie cały) oraz DaVinci Resolve Studio. 

     

    I jedno ale: power efficiency / performance per watt. Radeony 6700XT, 6800, 6800XT mają dużo lepszy perf per watt niż nvidia - szczególnie 6800 który jest rekordzistą ever. Do tego można zrobić łatwy uV (co jest ciężkie w przypadku nvidii, próbowałem robić i na 2070S i na 3060 mobilnej i to jest totalny syf i parodia). 
    I nagle może się okazać że wolniejszy Radeon będzie niewiele wolniejszy a przy tym będzie żarł mniej prądu, będzie generował mniej ciepła, będzie cichszy... zakładając że soft obsługuje wsparcie dla kart AMD.

     

    I osobiście polecam raczej kartę z gwarancją... warto wspomnieć że ona nie przechodzi zazwyczaj na drugiego kupującego i niektóre sklepy weryfikują czasami dane (jak się trafi złośliwy pracownik, który wstał lewą nogą). 

     

×
×
  • Dodaj nową pozycję...