Skocz do zawartości

Revenant

Użytkownik
  • Liczba zawartości

    2048
  • Rejestracja

  • Ostatnia wizyta

Zawartość dodana przez Revenant

  1. Przy czym Zen3 ciągle jest dużo tańszy (i sporo ostatnio promocji na te procki jest, przynajmniej w DE). Koszt np. mobo dla Zen3 jest ciągle tańszy niż dla 12gen. Według mnie Zen4 przegra ten pojedynek i to solidnie z 13gen. Tracą swoją największą zaletę. Sam pobór ma wpływ na koszt platformy, tj. BOM (bill of materials) płyt głównych. A każdy półprzewodnik praktycznie zdrożał w ciągu ostatnich 2-3 lat (np. VRM, doublery itp). Sam fakt znacznego podniesienia TDP przy 7600X oraz wprowadzenie odpowiednika PL2 Intela to pokazuje. Jeszcze żeby był Cache 3D to by to uzasadni
  2. A to że Intel jest wydajny to nie neguję, jest mocniejszy. Ale problem w tym że większość tych gier nie jest w ogóle CPU intensive i nie korzysta z wielu obciążających instrukcji. Jak chcemy mierzyć prawdziwą wydajność współczesnych procesorów względem poboru prądu to należy to testować na relatywnie nowych tytułach, które korzystają z API wykorzystujących nowe instrukcje CPU. Jaki jest sens testować CPU na grach, które przez developera były robione pod GPU na poziomie designu i optymalizacji? To tak jakby testować Priusa na Nurburgringu. A nie testować to na bardzo starych grach. Do takich
  3. To nie są gry CPU intensive. Byle jaki procesor będzie miał taki pobór prądu. Nadal nie rozumiesz co to sarkazm. https://sjp.pwn.pl/slowniki/SARKAZM.html Bo nic nie pisałem o 50W w buildzie, który składałem. Idle power jest bez znaczenia, każdy modern cpu pobiera wielkie g. Tak samo jak gry, które nie są CPU intensive. Odpal sobie np. TW:WH3 przy 80 unitach w bitwie [2 armie vs 2 armie reinf.] (settings -> unit size -> large unit size oczywiście) to zobaczysz ile cyfr będzie miała wartość poboru prądu 12700K. Od razu mówię że będzie to wysoka wartość 3 cyf
  4. Nie, to ty nie zrozumiałeś sarkazmu. Bo 50W na pewno ten procesor nie osiąga przy poważnym obciążeniu, chyba że podzieliłeś przez minimum 3. Następnym razem pomyśl zanim zabłyśniesz swoimi mądrościami odnośnie power efficiency Intela.
  5. Aha rozumiem. U ciebie full load pod obciążeniem to jest pulpit. Gratuluję. A teraz odpal encoding to zobaczysz ile pobiera. Bez uV zobaczysz praktycznie wartość pełnego PL2 czyli powyżej 200W. Po uV może zejdziesz do 150W jak masz dobrą sztukę. To by było na tyle z twojego biadolenia. Wybierasz sobie wygodny fragment niczym PiSior na billboardach. Intel żre tony prądu i ma żenujący perf per watt - end of topic.
  6. Ja tu przy OC na 4.8 all core martwię się tym że w końcu widzę temperatury rzędu 68-73*c (przy 74W Package Power) a tym czasem Zen4 walczy o stan bez samozapłonu... Chyba pora przestawić Noctuę z 450rpm na 650rpm. <meanwhile Zen4 changes rpm from to 6500rpm, laptop style> Jaki limit vcore i temp był dla Zen3 w kontekście degradacji długoterminowej? Tymczasem Jay tryhardzi z Zen4
  7. Gdzie masz taki pobór 50W na 12700K? Na pulpicie? No tak bo da się "nie tak poskładać". Nie obchodzi mnie pseudo obciążanie CPU w paru procentach. Odpal go sobie np. w Resolve lub Adobe Premiere Pro przy pliku 2160p i znośnym kodowaniu to zobaczysz ile TDP wyniesie, po UV. Bo UV w przypadku 12gen jest ciągle mierne. Na 11800H (8C/16T) też trzeba było robić uV bo Intel ma dwie lewe ręce i wypadał dużo gorzej od mobilnego ryśka ze względu na skalowanie TDP. Poza tym ja porównywałem 5600X do 12400. Nie kreuj sobie wygodnych kawałków... 12700k wypada porównać do R7 5800X. Intel 12gen ma ciągle
  8. Ceny CPU są praktycznie te same. Ale koszt platformy jest dużo większy. Pobór prądu też... zbliżony do Inteli a to dotychczasowo była chyba największa zaleta AMD.
  9. Performance per watt? TDP? Z tego co się orientuje to nie ma procka w przedziale 65W... i sam montowałem m.in. build z 12700k. Debilne zużycie prądu. Osobiście 12400 bym nie kupił... zablokowany. Z 5600X idzie wycisnąć dużo więcej (UV+OC jednocześnie) i jest tańszy. Ba... 12400 nie ma przypadkiem PL2 na 110-120W? Czyli jakieś 184% TDP 5600X? ...
  10. Z Zen4 i Lovelasem nie ma mowy by zmieścić się w limicie 2000kWh <pepelaugh> Złotym środkiem na perf per Watt pozostaje ciągle Zen3 + RDNA2 z okrojonym Navi 21 XL. Jeżeli ktoś buduje platformę pod 1440p na wysokich ustawieniach AAA lub 2160p to napewno Zen3>Zen4. Ciekawe czy z RDNA3 też się tak zbłaźnią. Skoro już sami zapowiedzieli że podniosą TBP kart... bo durr durr nvidia tak zrobiła to i oni muszą owczym pędem... 6800, 6800XT, 6900XT, 6950XT (6700XT ciężko nazwać wybitnym na tle większych braci bo ma wysokie napięcie rdzenia i dużo gorszy per
  11. Temperatura, TDP podniesione o realnie 100% (x2)... Ale ciągle jest SUPER drogi! 360-370€ za 7600X 170-200€ za 5600X AM5 jest dużo droższe od AM4 i w dodatku dużo biedniejsze w ramach tych samych przedziałów cenowych. DDR5 jest ciągle "słabe" (wczesna faza rozwoju) i ma zaporowe ceny. BIOS - tylko czekajmy na te bugi i długie wyczekiwania na nowe AGESA. Tak było za Zen1, Zen+, Zen2, Zen3... i będzie przy Zen4. To akurat normalne (skomplikowany produkt). Imo zwykły śmiertelnik powinien patrzeć priorytetowo na ciągle produkowane Zen3 i ola
  12. "Bad value", mówię to od czasu ujawnienia specyfikacji.
  13. Za te pinionżki wolałbym kupić jakiegoś Golfa i go rozbić na torze aniżeli kupować samo GPU. AMD zgłupiało (Zen4) a Nvidia dostała konkretnego wylewu mózgu. Intel leży obok w rowie zarzygany na kacu. Marnie widzę 2022 & 2023.
  14. https://www.techpowerup.com/review/amd-ryzen-5-7600x/
  15. Podsumuję to tak. Kupiłbym 5600X ponownie. Low TDP i dramatycznie lepszy perf per €... Imo olać. Intele 12gen i Zen3 ciągle mają się dobrze.
  16. Bo jest to możliwe, jeżeli producent ma deficyt np. wersji 5600 to wiadomo że użyje 5600X tylko softem będzie zblokowany. Tak samo kiedyś GPU często podmieniano, które aż się prosiły o flash biosu (też u AMD). Albo odblokowywanie rdzeni w Phenomach. Ale to jest loteria, o dość małych szansach. I teraz pytanie czy to 4,95GHz to single core, na najlepszym rdzeniu (imo jedyna możliwa opcja)... dodatkowo kij wie czy to fakt czy ściema, albo czy cep był w ogóle stabilny pod np. AVX. Non-X miały największy (de-facto najbardziej logiczny wybór) przy Zen i Zen+. Przy Zen2 oraz
  17. 5600 ma dużo gorszy binning. Nie zrobisz na nim solidnego uV a tym bardziej uV+OC. Będzie mniej stabilny przy OC oraz będzie miał większy rozrzut między jakością rdzeni. Dla zwykłego śmiertelnika ok, ale kogoś kto umie wycisnąć dużo więcej z procka to tak niezbyt. Przerabiane wiele razy m.in. na reddicie (brali non-X z myślą o OC lub UV, albo co gorsza OC+UV i wielkie zdziwienie rodem pikachu face...). Ostatecznie różnica może wynosić 300-400MHz + różnica w napięciu. A to sporo (mniejsze napięcie = więcej "soku" z narzuconego limitu TDP).
  18. Yup. Np. na pewno będą musieli produkować ponad połowę wersji rdzeni dla chociażby laptopów. Desktopowe też ciągle tłuką - i to chyba ciągle każdy rdzeń. GA107 - 3050(M), 3050Ti(M) / tylko laptopy GA106 - 3060, 3060(M) GA104 - 3060, 3060Ti, 3070, 3070Ti, 3070(M), 3070Ti(M), 3080(M) GA103 - 3060Ti (tego nie czaje, jakiś super odpad?), 3080Ti(M) GA102 - 3080 i wyżej All rdzenie mają zastosowanie w ciągle produkowanych produktach (dGPU i laptopach) a Szajsung ciągle produkuje i nie przekształcił i nie zamknął fabów, z których wychodzi towar.
  19. True, sam teraz robie silent buildy bo byle co mnie denerwuje. Albo się starzejemy... Btw co do Ampere i Lovelasów sprzedawanych jednocześnie... Samsung nadal klepie i będzie klepać Ampere (RTX 3000) Nvidia przedstawiła tylko 4090, 4080 i niesmaczny żart (4080 12GB) Sprzedaż równoległa (śmierci/EOL Ampere nie widać na horyzoncie) Teoria: czyżby nvidia miała zarezerwowaną na najbliższy rok aż tak małą produkcję u TSMC? Brak 4070, 4060... Nawet wzmianek. Byłoby śmiesznie gdyby na 4080 'JOKE' 12GB lineup się kończył, przynajmniej przez rok. Nie raz nGreed
  20. Ale nadal ma 350W ciepła do rozproszenia -> czyli trzeba mieć adekwatny cooler. Większość konsumentów nie kupuje topowych modeli. Tak samo karta może mieć 250W i się prawie topić (GTX 480, R9 290X).
  21. Perf per Watt może być większy overall. Dużo zależy też od tego na jakiej wersji GPU to testowano, obstawiam że jakiś STRIX lub Nitro+. Przy 6800 może mi się takie rozwiązanie przydać w 4K. Będę testował z całą pewnością, i tak myślałem nad Hydrą dla Ryzena.
  22. Yup, ale były ówczesnymi piecykami. Ja 290X (mój miał bodajże 275W) nie wytrzymałem, to był u mnie bezprecedensowy przypadek szybkiej wymiany GPU. Gdzie te czasy, gdy taki HD 6850 miał 125-140W jakoś... Albo GTX 660... a dziś x2. To PCIe... wtf? Nigdy czegoś takiego nie widziałem. A widziałem różne uszkodzenia. Ciekawe czy rdzeń + VRAM nadają się na przeszczep, czy też oberwały w momencie uszkodzenia (możliwe).
  23. Tbh najbardziej rozsądne wyjście. Co innego możemy zrobić? Nie ma sensu na siłę kupować takich GPU z taką ceną oraz TDP. Kupisz GPU np. za 1500€ a potem Jensen Kurteczka stwierdzi że stock RTX 3000 wyprzedany i tną ceny do 800€-950€ a ty umoczyłeś 500€ wartości w parę miesięcy. Bardzo czekam na testy techpowerup i guru3d tańszych wersji 4080 16gb i 4090... ale to będzie wyło. Aż monitor będzie drżeć od czytania liczb dB na wykresie. Podsumowanie "lovelasów" na ten moment: 4080 12GB to żart na prima aprilis (4070 non-Ti at best) Chore TDP... .. co impliku
  24. Referent też może być bdb opcją. Przy LC wystarcza a po drugie łatwiejszy dostęp do bloków bo są w dniu premiery. Na bloki do AIB można czekać nawet 2-3 miesiące plus są droższe. *referent w sensie default PCB, nie referent rzeźbiony od NV
  25. W przypadku silnika Source raczej na bank jest to wina samego silnika (kodowania) VALVE. Gdyby to leżało po stronie AMD już dawno zrobili by update. Jeżeli nvidia ma niby chociaż trochę lepsze sterowniki, to równie dobrze mogę narzekać że po tylu latach ciągle są problemy z HDCP 2.2 i streamowaniem 4K na PC. Żebym w 2022 musiał restartować co rusz komputer by wróciło "4K" czy to Netflixie, Disney+ czy Prime Video to trochę kpina. Problem występuje nawet obecnie z Turingiem (2070S) i Ampere (3060) i raczej na pewno nie poprawi się teraz. Z CS:GO jest taki problem, że V
×
×
  • Dodaj nową pozycję...