Skocz do zawartości

Revenant

Użytkownik
  • Liczba zawartości

    2048
  • Rejestracja

  • Ostatnia wizyta

Posty dodane przez Revenant

  1. Do momentu gdy rywalizują perf per € z zielonymi logiczne jest że będą podnosić ceny. Dodatkowo inflacja, ba... inflacja producencka która zależnie od sektora sięga nawet 40%... (np. motoryzacyjny w EU). 

     

    15 godzin temu, zbiku90 napisał:

    Zazdraszczam podejścia i niewygórowanych potrzeb :P

     

    Gdy wymieniasz sprzęt tak często, potrzebujesz uniwersalnej maszyny oraz nie jarasz już się grami AAA (imho 75% tych gier teraz to gnioty) to łatwiej jest podejmować racjonalne decyzje. No i człowiek uczy się jednej cechy z czasem... jeżeli później się zastanawiasz czy dobrze zrobiłeś kupując coś to prawdopodobnie tego nie potrzebowałeś (miałem to np. z Clevo P870DM 4K G-Sync, 6700K, 64GB RAM 2400 i 980M SLI w końcowej fazie posiadania po upgrade'ach... ostatni drogi zakup w życiu). 

    SAPPHIRE-Radeon-RX-6750-XT-12GB-NITRO.jpg

     

    <spank me mommy, but I want this so badly> 

    • Lubię to 1
  2. 8 godzin temu, zbiku90 napisał:

    No i wszystko jasne. IMO na 3060 nawet nie ma co patrzeć, w grach AAA będziesz musiał mocno ciąć detale żeby te 60 fps osiągnąć. 3060 ti vs 6700 xt w tej samej cenie? Stricte do grania w 4k brałbym:

     

    Bez przesady, przy 4K operuje od 2016 roku. Skoro starczał mi jeden 980M (jeszcze przed zrobieniem SLI) a nawet obecnie 3060M 85W ("max-Q" amperowy) jako tako daje radę to 3060 desktopowy też da radę jako-tako. 

     

    Jeżeli chodzi o vram to davinci resolve. Przy RTX 3060(M) 6GB to lekko mówiąc bieda rosyjska (vram zaczyna kraść toalety i kabiny prysznicowe). Przy 2070S, 1070M i 980M/980M SLI 8GB mi starczało, chociaż przy 4K czasami chętnie bym przytulił te dodatkowe 2GB VRAM'u (10GB np.). Nie jest to duże kryterium bo to głównie dotyczy hobby (biorę udział w paru fanowskich projektach non profit i czasami też coś składam video dla znajomych, np. ostatnio ślub). W przypadku pracy (biurowej) oraz grania 8GB vs 12GB nawet w 4K nic nie zmieni raczej, nie przy takiej wydajności GPU tak czy siak. 

     

    GPU chciałbym wymienić pewnie za rok.. W ciągu last 6-7 lat jedynie RTX 2070S wytrzymał u mnie dłużej niż równe 12mc. :D pomimo coil whine'a to była świetna karta.


    A że mówimy o 4K to przyda się wyższy powerlimit (GPU i VRAM mocno dostaje po pupie). No i że silent build (Define 7 Compact bez szkła) to i musi być cicha. Stąd głównie patrzę na topowe wersje. Z tańszych wariantów to jedynie w przypadku 3060Ti bym mógł wziąć Gigabyte'a OC PRO (tri-fan). Tbh mam dobre wspomnienia z windforce'ów HD 6000 i HD 7000. Wygląd GPU mnie delikatnie mówiąc "wali" bo brak szkła.

     

    Jeżeli mam wymienić lapka to tylko teraz w II połowie maja lub I połowie czerwca. A potem już raczej zostałbym z lapkiem i czekał do Q1/Q2 2023, ale nie chce mi się czekać roku. :< nie przy 4K a sporo gram ostatnio w TW:WH3 (od premiery) oraz Hell Let Loose plus dodatkowo chcę w końcu ograć Elden Ringa (tutaj z 3060(M) nawet się nie porywam). 

     

    A za rok bym wymienił na np. 7800XT/4080, potencjalna wymówka (uzasadnienie specjalnej operacji pecetowej) to byłaby premiera Stalkera. 

     

      

    8 godzin temu, zbiku90 napisał:

    W jakiej usłudze? Bo zauważyłem wczoraj  że w Prime Video nie mogę jakości HD ustawić :/

     

    Netflix i Amazon. Częste black screeny, zwiechy (HDCP protection trigger) itp. Zarówno dotyka to mojego monitora LG UL (4K) jak i TV... miałem to samo na 2070S. Na Radeonach zero problemu. Jest to mega irytujące i drażniące. 

  3. 11 godzin temu, zbiku90 napisał:

    Porównujesz całkiem inne segmenty więc i cena się znacznie różni.

     

    Yup, jakbym tego nie wiedział. :p 

    6600XT (konkurent 3060) mnie nie interesuje, jest niedostępna całkowicie tam gdzie mam dostęp do GPU w dobrych cenach. :/ Pytałem się o nią (płyta B550 więc gen4 byłby anyway).

    3060Ti (konkurent 6700XT) jest dostępny w 2 "średnich" wersjach (nie ma żadnej z przyzwoitym chłodzeniem i dobrym powerlimitem) w cenie 6700XT, ma mniej VRAM (4K plus nie tylko gram w gry, vram akurat lubię) plus mam monitor FreeSync (przy 4K@60Hz zakres 48-60Hz G-Sync compatible/Free-sync a 40-60Hz Free-SyncExtended to duża różnica)

     

    W skrócie: Rozważam 3060 bo jest tania i dostępna w dobrych wersjach (vel nie tylko paździerze są dostępne) ale mój wzrok skierowany jest na 6700XT (vel poziom 3060Ti)

     

    Z 6700XT jak gadałem przed chwilą przez telefon ziomek mógłby mi załatwić Devila lub Nitro+. Ale w hurtowniach już zanikają serie 6x00 bo pewnie po cichu spływają już refreshe. 
    Gdyby 6750XT  był np. o 100€ droższy (650€ vs 750€) od 6700XT to już chyba wolałbym 3060Ti w wersji Inno3D iChill X3 (plan backupowy) za 620€. 

     

    • RTX 3060 = 490-550€ 
      • duża dostępność różnych modeli
    • RTX 3060 Ti = 620-650€
      • kilka modeli na krzyż, wszystkie "lepsze' mają ceny +200€... zgłupieli całkiem albo ceny ze starych dostaw
    • RX 6700 XT = 640-680€
      • to są ceny za głównie Nitro+ oraz Devila
    • RX 6750 XT = poziom 700€ (spekulacja, i to dość mało ponura...) 
      • mój palantir niestety się zepsuł, mogłem go nie pożyczać Sarumanowi

     

    To dotyczy RTX ale znalazłem coś takiego, imho fajny materiał: 

     

     

  4. 10 minut temu, mirai99 napisał:


    Szukasz testu który cię interesuje, dzielisz na wynik przed TDP/TBP i masz wynik. Wszystko zależy od tego jaki review wybierzesz i jaki test z niego, czy to będzie gra w 720p, w 1080p, 1440p, 4K? I jaka gra. W zależności od tego będziesz miał różne wynik.


    Tu masz test RTX A2000 z 3 maja 2022, który ma tabelkę performance per watt na podstawie Cyberpunka: https://www.techpowerup.com/review/nvidia-rtx-a2000/36.html

     

    Myślałem żeby się w to pobawić (manualne liczenie) ale to ciągle tylko spr. na konkretnym tytule zamiast uśrednione z X tytułów + jakąś konkretną metodologią. 

    Ogółem wszędzie jak patrzę to o dziwo 6700 XT jakimś cudem wypada parę procent lepiej od 3060.

  5. Link nie działa, wszedłem manualnie i pokazuje mi 999€ za 6900 XT, reszta out of stock. Imho za duży wydatek - jeszcze jak oszczędzam gotówkę na EV teraz a nie chcę się pakować w leasing bo to niepewne czasy. 
    Poza tym referenty, widziałem filmiki - ładne ale paździerze bez kompetentnego chłodzenia np. vramu (on mocno dostaje po łbie przy 2160p). Wolałbym Szafira lub Devila. Tym bardziej że silent build w Define 7 Compact bez szkła i z zamkniętym topem (by było cicho). 

     

    Za rok i tak planuje upgrade (bankowo, nie potrafię wytrzymać więcej jak rok na jednym GPU). Więc jak już to prędzej dorzuciłbym do 6800XT/6800 ale i tak wolałbym się trzymać przedziału 500-650€. 

  6. 37 minut temu, Rebelmind napisał:

    Moim zdaniem Revan RTX 4000 będą sprzedawane OBOK RTX 3000, z lekko wyższymi cenami za tę samą wydajność (typu RTX 4070 o wydajność 3080 +5% z ceną 3080 + 15%).

     

    RDNA3 ma już potwierdzone opóźnienie, podobnież mają najpierw pokazać w Q4 Navi 32/33 (następców 6700/6600) a topowe Navi 31 dopiero preniara w Q1 2023. 

     

    Nie czekaj, poluj na okazję i bierz co będzie na stanie. Ja swojego 3070 będę trzymał się tak długo jak NV nie pokaże kart dla ĘTuzjastów mojego pokroju (max TBP ~250W).


    Bardzo możliwe. Ogółem widzę tylko 3 opcje.
    1) RTX 3060 za ok. 500-550€

    2) RX 6700 XT za ok. 650€

    3) czekać na RX 6750 XT, który może kosztować 650€ albo z pupy 750-800€ o ile będzie dostępny... 

     

    Teraz gram sporo w gry bez obsługi DLSS więc olanie RTX'a mnie nie zaboli. Monitor Freesync z trybem extended (przy g-sync compatible extended nie działa). 

    I nienawidzę sterowników nvidii. Znów mam ostatnio cyrki z HDCP... te same co na 2070S...

     

    6700XT bodajże klasuje się na poziomie 3060 Ti, słabiej od 3070. 6750 XT moooże* zbliży się trochę bardziej do 3070 ale na bank nie będzie mocniejszy. 

  7. Ja się przymierzam do zakupu peceta, jednak nie chce mi się czekać roku na RTX 4060/4070 lub 7700XT/7800XT. Plus 1 generacja Zen4 będzie pewnie kisznikiem jak zwykle a ceny DDR5 są zaporowe bez realnych benefitów.

     

    Od 3 dni pyram sklepy w Rzeszy i... ogółem RTX'y 3060 leżą nawet na podłodze, żyrandolach itp. Stock full - po paździerze po Strixy i Gaming X Trio dostępne od ręki. Ceny od 450€ do 560€. 

    A Radeony? Wszędzie out of stock albo ciągle zaporowe ceny... Znalazłem może w dwóch miejscach RX 6700 XT od Szafira (Pulse, Nitro+) oraz PC (Devila) za około 640-680€. 

     

    Jak patrzyłem specke 6750XT to jedynym upgradem realnie jest szybszy rodzaj kości pamięci 18Gbps. I tyle. W 2160p może by mi to coś zmieniło (ze dwa fpsy? realnie...)... ale co z tego skoro pewnie przyjdzie zapłacić bonus 150€ względem 6700XT. Wątpię by różnica w cenie uzasadniała różnicę w wydajności.

     

    A kiedy premiera RDNA? Obstawiam late Q4 2022 lub Q1 2023. Więc jak ktoś nie chce czekać roku to z cenami nie jest już tak źle (przynajmniej u nVidii). 

    Mnie martwi jedno - dostępność RDNA3 oraz RTX 4000. Wszyscy znów będą klepać u TSMC (zieloni porzucają Samsunga... czyli stosunkowo duże moce przerobowe) a tam największą rezerwację na produkcje mają jabłka... plus jeszcze Intel. Czy tylko ja się boje że będzie jeszcze gorzej za rok (powrót chorych skalpowych cen, zerowa dostępność)?


    EDIT: https://videocardz.com/press-release/amd-announces-computex-2022-amd-advancing-the-high-performance-computing-experience-keynote-will-kick-off-may-23

     

    Poza tym, gdyby RDNA3 było za rogiem nie byłoby refreshów prawdopodobnie (nowe koszty certyfikowania, opakowań bla bla). 

     

  8. Obniżka cen:

    • G603 Lightspeed z Kailhami GM 8.0 spada z 179zł na 169zł
    • Router Asusa z 160zł na 150zł (nadal aktualne, jakiś pajac niezarejestrowany kupił i nieopłacił i czekam aż minie te 5 dni na zapłatę...)
    • BQ 150zł

    W przypadku zakupu dwóch rzeczy lub całego setu możliwość dalszego zejścia z ceny.

    Dalsza obniżka cen:

    • G603 spada na 150 cebulek
    • BQ spadają na 140 cebulek (za komplet 4 wentyli)
    • Router oddam za 140 cebulek 

    Całość oddam za 4 stówki + kw.

     

  9.  

    Ceny do rozsądnych negocjacji. 

    Wysyłka INPOSTER'ami. 

    6e5fqh.jpg

    IMG_20220425_215341.jpg

  10. Godzinę temu, Tiamina napisał:

     

     

    Zasilacz dobiera się pod obecną konfigurację i ewent OC a przyszły upgrade - (dotyczy osób które często zmieniają podzespoły na mocniejsze) 

    Więc nie ma prawdy w twoim podsumowaniu,że przeciętny PSU powinien mieć między 600 a 850W.

     

    Raczej nikt nie będzie robił upgrade'u kilku bebechów na taką skalę, by zwiększyć realny pobór prądu z 400W na 900W... 

    Przykładowo wymiana takiego 2070/2070S na 3070. Ile zwiększy się pobór prądu? Karty są w podobnym zakresie (240-300W dla większości vendorów). A 2070/2070S na 3080? Wtedy zasilacz musi zapodać średnio 320-380W (od tanich opcji po 380W w FTW3). Czyli o jakieś 80W więcej. Po co więc robić kosmiczny zapas? Żeby wywalić hajs w błoto przy zakupie PSU? Procesor też nie będzie żarł 400W. 

  11. W dniu 24.04.2022 o 17:25, kakarotosongo napisał:


    Co za różnica czy zasilacz ma 550 czy 1000W


     


    Sprawność energetyczna. Różnice mogą być duże jak używa się kompa np. 8h dziennie (narzędzie pracy itp). Warto wykorzystywać 50-70% max mocy zasilacza. 
    A) Sprawność energetyczna
    B) Obciążenie zasilacza

    - niższe temperatury

    - niższy hałas lub brak (jeżeli mamy tryb półpasywny)
    - żywotność

     

    Unikamy żyłowania zasilacza na poziomie 95-100% non stop ale tak samo bez sensu jest brać zasilacz 1200W do PC który bierze średnio 200W bo będzie "nieefektywnie" ulokowany na krzywej sprawności. 


    Można kupić zasilać mądrze uwzględniając obecny konfig oraz potencjalne modernizacje. Ale skrajności (obie) są po prostu głupie. Imho dzisiaj przeciętny PSU powinien mieć 600-850W. Mówię o konfigach dla zwykłych śmiertelników i zwykłym OC. 

    • Popieram 1
  12. W dniu 12.04.2022 o 14:08, joker5513 napisał:

    Na 511.65 miałem dziwne spadki uzycia GPU w cyberbugu przy korzystaniu z DLSS. Wróce z tyry to trzeba updateować

     

    Miałem to samo na mobilnej 3060 (DLSS na Performance) - w Metro Exodus Enhanced też to występowało - na 512.15 jest już git. 

  13. 6 godzin temu, Rebelmind napisał:

    A ja mam 5900x, 3070 i kusi mnie wymiana na Aldera

     

    Don't. Nie warto, serio. Lepiej poczekać na 13 gen lub Gruzeny 7000. Tyle co się pobawiłem już 3 Alderami to mam takie trochę mieszane uczucia, szczególnie jeżeli chodzi o pobór prądu (w tym temperatury). No i teraz jeszcze ten cyrk z wyginaniem się procesorów... 

    • Lubię to 1
  14. W dniu 3.04.2022 o 11:34, joker5513 napisał:

    Wszystko powyżej 12600K jest debilnie wycenione

     

    12700k stoi podobnie jak np. stał skylake 6700K... ja pamiętam że za swojego płaciłem 1900 z groszami. A minęło... 6 lat. Minus inflacja i słaba złotówa. 

    Montowałem znajomym już dwa Aldery i za każdym razem były to 12700K. Ale głównie były to maszyny do pracy + grania (combo). Do samego grania pewnie wleciałby 12600K + OC. 

    12400f raczej bym zostawił do entry konfigów, bo mają dużo bardziej ograniczoną "odporność na ząb czasu". 

  15. 12 godzin temu, mirai99 napisał:


    Jak brak cła Chiny -> USA ma wpłynąć na ceny w EU?
    A jak wprowadzono to cło, to w tym samym czasie podwyższono MSRP z powodu kosztów produkcji o czym ludzie zapominają. Wszyscy porównują ceny z pierwszym MSRP, a nie z tym najnowszym.

     

    Powszechną praktyką w hurcie jest kwartalna korekcja cen by nie odbiegały ono zbytnio od rynków (wpływ globalizacji przez platformy takie jak Amazon, hurtownicy oraz detaliści się wściekają i tego pilnują - sam jestem jednym z nich i wiem jak to wygląda). Nie będą one tak duże jak w USA, ale na pewno dokonana zostanie pewna korekta (5-10%). Do tego dochodzą takie czynniki jak np. podaż prześcigająca powoli popyt w niektórych krajach, który umarł przez patologiczne ceny i niepewności przy krypto. 

    Do tego doliczmy palety z Rosji (w przypadku konkurencji, bo ASS siedzi w SOVIET UNION dalej), które zostaną gdzieś przekierowane. Może nie będzie to wolumenowo wiele, ale wystarczająco by pokryć zapotrzebowanie jakiegoś małego lub średnio rozwiniętego kraju europejskiego. Czyli ASSus będzie musiał też obniżyć ceny by zrównać się z konkurencją która lekko obniży ceny by wypchnąć sztuki. To jest wiele czynników, które są ze sobą skorelowane mniej lub bardziej. Oprócz rynków trzeba uwzględnić konkurencję i podaż & popyt. Dodatkowo coraz więcej mówi się o Ada Lovelace i RX 7000 co dodatkowo negatywnie wpłynie na popyt (powiedzmy że o jakieś 5-15% bo to dotyczy tylko wąskiego grona konsumentów).

    Ale imho MSRP i tak nie zobaczymy na modelach 3070, 3070 Ti, 3080 (o xx90 nawet nie mówię, bo to nie są GPU dla zwykłych śmiertelników). To nie są paździerze jak 6500 od czerwonych. %-)


    Ale mam też ciche nadzieje że nawet obniżki cen GPU nie ożywią popytu u konsumentów bo wtedy będą musieli obniżać dalej do poziomu MSRP. Ale to są tylko gdybania. Z resztą... MSRP po 2 latach od premiery niech sobie w budy wsadzą bo mówimy tu już o starociach z perspektywy rynku pc-hardware (w mniejszym stopniu dotyczy to laptopy, szczególnie DTR bo te mają zawsze około 2-4 kwartały opóźnienia w cyklu). 

     

    Swoją drogą, w związku z równoległą produkcją AL i Ampere prawdopodobnie cykl opóźnienia dla laptopów (RTX 4000 Mobile) będą srogo opóźnione (rok? półtora? zamiast 2-3 kwartałów). Why? Żeby zutylizować rdzenie Ampere, które trzeba wyprodukować a AL przeznaczyć na rynek PC (wyższe marże i duża większa manipulowania cenami, o pato-górnikach nie wspominam).
    Ofc. należy rozróżnić "zapowiedź" laptopów z GPU next-gen od ich "dostępności", zazwyczaj kwartał a w niektórych krajach nawet 2-3 kwartały. Np. swojego GF66 kupiłem dosłownie 1 czerwca w DE a w PL był dostępny dopiero od grudnia... 

    • Lubię to 1
  16. ASUS slashing GPU prices by up to 25% starting April, but only for the United States (for now)

    https://videocardz.com/newz/asus-announces-price-cuts-of-up-to-25-in-april-for-geforce-rtx-30-gpus

     

     

    Jeżeli ktoś ma ciśnienie na GPU w okolicach maja-czerwca to może będzie się już dało dorwać TUFa/Strixa w DE/FR/SWE/DK/NL [...] w ludzkiej cenie. Wcześniej raczej no-way. Powinno to końcowo wpłynąć trochę na hurtowe ceny ich GPU w EU ale może o 5-10%, zawsze coś. 

    • Popieram 1
  17. 16 godzin temu, mirai99 napisał:

    Ampere koniec produkcji ma być w Maju.

    Nie wiem skąd bierzesz te brednie... Jednoznacznie w 22Q1 zieloni oznajmili że Ada będzie produkowana równolegle z Ampere. Z dwóch powodów: jest popyt (zbyt mała podaż) oraz umowa z samsungiem jeszcze obowiązuje. Produkcja u dwóch podwykonawców pozwala na bezkolizyjne zwiększenie produkcji oraz zwiększenie stopy zwrotu na ampere poprzez wydłużenie cyklu życia produktu. To z kolei pozwoli dowalić premium pricetag na lovelace... Podczas gdy AMD i Intel pozostają bez możliwości zwiększenia wolumenu produkcyjnego (nie ważne co rzucą oraz za ile, będzie tego zbyt mało by miało większe znaczenie). 

     

     

    • Lubię to 2
  18. 6 godzin temu, mirai99 napisał:

    Arc jest na TSMC N6, które do tej pory nie było masowo używane do GPU.


    Proces nie ma znaczenia dużego. Ostatecznie i tak wszystko ogranicza się do produkcji w określonej ilości zakładów produkcyjnych w jednym miejscu.
    Liczba zakładów (budynków) TSMC i linii do wykorzystania (np. przekształcenia) jest mocno ograniczona. 

     

    6 godzin temu, Rebelmind napisał:

     

    Najgorsze jest to że taki scenariusz dla zielonych jest bardzo prawdopodobny. 
    Ampere u Samsunga będą dalej klepane bo popyt jest... A na Lovelace zbiją soczystą marżę na osobach, które zapłacą za best wydajność... a z TSMC zbyt wiele kart zielonych nie wyjedzie. Chyba że to będzie faza przejściowa do momentu aż ktoś się wyłamie... tylko kto? I do kogo?

     

    Intel - własne faby odpadają, nie potrafią ogarnąć własnego podwórka... zostaje TSMC

    AMD - wyprzedało swoje faby pokad dekadę temu i są skazani na podwykonawców... czyli TSMC

    Nvidia - TSMC i raczej nigdzie się nie wybiera, powrót do Samsunga mało prawdopodobny 

     

    Czeka nas parę lat srogiej stagnacji w połączeniu z zawyżonym popytem przez pato-górników, inflacją oraz problemami typu srovid (lockdowny lub po prostu plagi L4). 

     

    Mnie pobór mocy jaki jest zapowiadany aż odrzuca. Musiałbym zgłupieć by kupić GPU z TDP 400-600W... 300W przy 2070S FTW3 to było łapanie się za głowę... 

    Coś czuje że jak będę się rozglądał pod koniec roku za PC to tylko 7800 XT/7700 XT/4070/ARC512 lub... przeczekać kolejny rok na np. lapku z 4060/4070... 

×
×
  • Dodaj nową pozycję...