Skocz do zawartości

serafin1

Użytkownik
  • Liczba zawartości

    562
  • Rejestracja

  • Ostatnia wizyta

Zawartość dodana przez serafin1

  1. Ci co siedzą w temacie wiedzą, że nvidia potrafi skutecznie mydlić oczy. Każdy siedzący w IT wie, że gry się pisze na konsole a te RT nie obsługują, nie wiadomo czy będą nawet w przyszłej generacji obsługiwać RT - bo po co? A bez wsparcia konsol dla RT, będzie to tylko dodatek dla kilku gier podczas premier kart żeby Nvidia mogła robić sobie marketing. W reszcie gier zwyczajnie RT nie zauważymy. Nowe konsole około 2020. W pierwszej połowie 2019 AMD wypusza nowe karty 7nm i to prawdopodobnie będzie zasilać nowe konsole. Nie wiem jak AMD rozwiąże sprawę z RT. RT na razie to ciekawostka, ale ja
  2. RT to o nie jest żadna NOWA TECHNOLOGIA. Ray Tracing ma tyle lat, ile komputery! Na Amigach 500/600/1200 czy na 386 z 20 lat temu "było to znane". Sprzęty były milion razy za wolne. Obecnie są... tylko troszkę za wolne. Tu nie idzie o efekt, ale metodę. To, jakby oceniać pracę po wyniku w matematyce. Patrzysz na wynik... no jest... prawidłowy. I coś Ci to mówi? No... niewiele (oprócz faktu, że jest). Ale jak zobaczysz, że jeden koleś liczy to na kartce tydzień, drugi liczydłem godzinę, a trzeci pyknie to kalkulatorem w sekundę, to zrozumiesz, że osiągnęli to samo... ale
  3. Dla normalnego gracza ten cały RT to jest tylko ficzer. Inaczej RT wygląda świetnie i jest przyszłością nie powinno rodzić wątpliwości. Cały RT dopiero zaczyna raczkować i działa to jak działa, musi sporo wody upłynąć. Szczerze to ilu graczy będzie stać nad woda i oglądać przelatujące ptaszki, samoloty czy inne obiekty ? Każdy po kilku chwilach przestaje na to zwracać uwagę. Dla ludzi na tą chwile najważniejszy jest komfort gry i chcieliby np odpalać gry w 2k / 4k przy 100-120 fps i mieć je na stałe. Niż godzinami stać na brzegu jeziora czy tam kałuży i oglądać odbicia.
  4. Dziwie się, że zamówiłeś kolejny raz ten szrot ten gównia....ny monitor wybij sobie z głowy raz na zawsze. Dlaczego ? Możesz zamówić jeszcze 2-3 szt. i będzie ten sam syf z BLB Jak jesteś zadowolony i nie przeszkadza ci to w graniu, filmy etc. to zostaw go.
  5. Podaj Ci dwie najlepsze propozycje dla inżyniera (modelowanie, projektowanie). poniżej 1k: AOC Q3279VWFD8 (31.5", 2560x1440, IPS, 10Bit, 1,07 mld kolorów) https://www.x-kom.pl/p/436603-monitor-led-29-319-aoc-q3279vwfd8-czarno-srebrny.html poniżej 2k: BenQ PD3200Q (31.5, 2560x1440, VA, 1,07 mld kolorów, 10-bit / 100% sRGB) https://www.x-kom.pl/p/358064-monitor-led-32-i-wiekszy-benq-pd3200q-czarny.html https://www.benq.pl/product/monitor/pd3200q/features/ PHILIPS 328P6AUBREB (31.5", 2560x1440, IPS, 10Bit, 1,07 mld kolorów): W przypadku tego modelu, pokrywa on
  6. ja mam nadzieję, że ostatni od goodrama. Sporo ludzi mialo z nimi problemy. To cruciale mx300/500 na tlc nie mialy tylu wpadek, co goodram.
  7. z i5 tez nie jest tak kolorowo np. na i5 mimo że wydajnościowo w grze w plecy być nie musi, to wystarczy ALT+TAB do chrome i się przytyka bardziej niż 4/8 lub 6/12. Szczególnie jak coś siedziało na pełnych 6 wątkach. Bez HT proc ma większą skłonność to czkawki wydajnościowej. 8 jajek vs 6jaj z HR nie da takiego samego przyrostu mocy jak było przy 4jajach z HT vs 6 gołych.
  8. Nie w każdej grze 8600k jest wydajniejszy od 7700k, mniej więcej sytuacja się remisuje raz jeden wygrywa, a raz drugi. Poza tym duża część i5 8600k kreci sie do 5.0Ghz, wiec zatem odjedża kebabowi. Ja proponuję zakupić dwie rolki papieru toaletowego, jedną załóżmy z biedronki, drugą z lidla i sprawdzić która się szybciej rozwija, ten test będzie miał równie merytoryczną wartość co porównywanie skalowania wydajnośći CPU w Cinebenchu. Dla wszystkich którzy nie wierzą w możliwość wyższej wydajności 8C/8T względem 8C/16T niech wytłumaczą zatem jakim cudem w niektórych przypadkach 8600k 6C/
  9. W tamtych czasach nie miało to żadnego sensu, bo jedynie mogłeś zmienić 4/8 na inne 4/8 nie dające widocznego wzrostu wydajności. Sytuacja się dopiero zmieniła wraz z wejściem Coffe Lake gdzie jest znaczący wzrost wydajności względem wcześniejszej generacji. Reasumując wcześniej tego nie było, wiec nie było sensu zmieniać.
  10. a na jakim gpu siedzisz ?
  11. Może tak być, że 9700k otrzyma + 2 rdzenie ale tylko 8 wątków = 8 / 8 8700k ma 6/12. Ja myślę, że gdybym się decydował za miesiąc kupować PC i po premierze sprawdziło by się, że taki 9700k ma 8/8 to sorry ale wolałbym kupić i7 8700k. 6/12 jest najbardziej optymalne i wytrzyma dłuższy okres. Za 2 lata wejdą nowe konsole i już gry będę mieć chcice na 6-8 rdzeni. A nie daj Boże, jakby się jeszcze okazało, że i7 9700k będzie miała luta. Sam mam dylemat czy iść w 8700k czy 9700k ot zagwozdka. Taki procek i tak będzie śmigał z 1180/2080. Można tylko pospekulować, co bardziej przyszłościowo się
  12. Dokladnie, dla mnie (powtarzam, dla mnie :-) bo dla kogos komfort grania, to 40-60kl.) posiadajac lcd 4k to ciut słabo ciagnac na 1x1080Ti, jezeli chce optymalnie 100kl. Do komfortowego grania w 4k to tylko sli. Mysle, ze 1180 /2080 z nowymi ddr6 bedzie juz na tyle mocniejsza, ze da rade w w 4k(duza przewaga przewaga gtx1080 nad 980Ti) GTX 980Ti -> GTX 1080 - 285 dni GTX 1080Ti - GTX 1180/2080 - 509 dni Nie ma bata, nowy xx80 wykosi staruszka 1080Ti :-) ale i cena bedzie wysoka za 1180. i taka ciekawostka 8800 GTX -> 9800 GTX - 506 Dni 9800 GTX ->
  13. Ktoś chętny? https://allegro.pl/kopalnia-koparka-kryptowalut-2880-mh-s-nvidia-i7458553735.html#thumb/5
  14. 27 przy 4k to za malutko no ale wtedy cena poszla by w góre. Poza tym ja wole 2560x1440@144hz niż się kisić na 60hz.
  15. czyli brac Plextor M8Pe(G) SSD 1TB M.2 2280 nie ma sensu doplacac 900 zł do 970 Pro?
  16. plyta bedzie z370 za jakies 750 zł albo z390 (za rogiem kolejna seria i7 9xxx) na tym 1TB dysku bedzie system + programy do modelowania 3d oraz z 7 gier oraz reszta softu
  17. sprzęt bez znaczenia, pytam o wybór i tak za jakiś czas kupuje PC rakietę.
  18. Czołem Bez żadnych ceregieli. Tylko dyski MLC, żadne śmieciówki TLC mnie nie interesują. Do kosza z nimi. i tylko 1TB. Odpadają 512 a nie wspomnę o 256GB. Raz, że gry już ważą po 60 GB i z każdym kolejnym rokiem będą olbrzymie objętościowo to nie będę musiał się spinać, co usunąć a co zostawić. Zastosowanie: * Gry (60%) * Solidworks / Autocad / Inventor 40% (modelowanie 3D) * ogólnie zastosowanie domowe etc. Nominowani: # Dysk sata3 1. Samsung 860 PRO 1TB SATA3 rerfresh legendarnego dysku 850 Pro. Najlepszy dysk pod sata3 Szybkość odczytu [MB/
  19. http://foxkomputer.pl/pl_PL/p/MSI-GeForce-GTX-1080Ti-GAMING-X-TRIO-11G-DDR5X352bit-HDMIDPDVI-PCI-E-NA-STANIE-wysylka-natychmiastowa/1410
  20. Różnica już była nawet spora między 980 Ti v 1080 ( ok 25 %) a nie wspomnę o 980 Ti v 1080 Ti (45-50%). 980 Ti v 1080 http://gpu.userbenchmark.com/Compare/Nvidia-GTX-980-Ti-vs-Nvidia-GTX-1080/3439vs3603 Zresztą wystarczy wejść na yt i pełno jest materiałów, co robi 1080 Ti z 980 Ti. Dlatego odpuściłem sobie 1080 Ti, bo wiem, czego można się spodziewać po 2080 a lepiej niech nie myślę o 2080 Ti, będzie petarda. @szybki jak spisuję się ten AOC AG271QG ? Chodzi mi o (BLB) Backlight Bleed Możesz wejść na: http://www.lightbleedtest.com Kliknij Click Here or press Enter
  21. @wsde Delida warto zrobić ale nie musisz, nie jest to aż takie konieczne. Chyba, że będziesz kręcił procka 4.9-5.0Ghz, to jak najbardziej. Jeżeli nie będziesz kręcił, zostaniesz na bazowym tj 4.7 GHz w trybie turbo i po upłynięciu 36 miesięcy (3lata) zrób dla świętego spokoju skalpa. Rozmawiałem niedawno ze znajomym PatrykaT z forum pclab, gość także się bawi w skalpowanie procków ale nie robi to na taką skale jak Patryk. To mi tak napisał "Najgorszą rzecz, jaką można zrobić, to oskalpować niesprawdzony procesor. Już miałem dwie osoby, który zrobiły skalp na CPU z uwalonym kontrolerem..
×
×
  • Dodaj nową pozycję...