Skocz do zawartości

Huzar

Użytkownik
  • Liczba zawartości

    369
  • Rejestracja

  • Ostatnia wizyta

Zawartość dodana przez Huzar

  1. Ewentualnie http://www.morele.net/zasilacz-be-quiet-pure-power-bqt-l8-cm-530w-80-plus-bronze-activepfc-2xpci-e-bn181-418344/ Jego plusem jest też posiadanie 2 x PCI-E 8 pin (6+2), co w przyszłości może się przydać.
  2. Jak mawiają spece od monitorów - za te pieniądze to każdy tak samo dobry Trudno doradzić, wybierz ten, który Ci się najbardziej podoba. I przeczytaj zanim zdecydujesz http://forum.benchmark.pl/blog/16/entry-188-wyb%C3%B3r-monitora-poradnik-ips-amva-czy-tn/
  3. Najwydajniejszy w tej cenie Radek HD7850: Asus http://www.ceneo.pl/16289659 lub Gigabyte http://www.ceneo.pl/16289659 Edit: A kolegów wyżej, co do tych sterowników, to nie słuchaj. Wiedzą, że dzwoni ale kompletnie nie mają pojęcia w którym kościele. Problem, jeśli w ogóle istnieje, to i tak nie dotyczy procka pokroju Phenom 965.
  4. Jest i tam ten monitor Iliama http://www.arest.pl/produkt/Monitory-LCD/22,145,,,0,0,0,Rozmiar:22_quot,/30693/IIYAMA-E2280WSD-22-5-ms-5-mln-1-250-cd-m2-DVI-glosniki-czarny/ Wydaje mi się najlepszy z dostępnych w sklepie 22 calowców.
  5. maxforces mnie uprzedził więc dodam tylko byś się rozejrzał za nową rewizją tej płyty czyli 5.0 (lepiej wygląda he he) http://www.gigabyte.pl/products/page/mb/ga-78lmt-usb3rev_50
  6. Nie! Tam jest PCI-E tyle, że 2.0 zamiast 3.0. Wielkiej różnicy to nie robi. Płyta głowna jest OK, bardzo budźetowa konstrukcja ale podstawowe wyposażenie posiada. Do i5 4440 może być. Powercolor hd 4670 podłączysz i będzie w porządku dało się grać w wiele gier, na pewno to lepsze niż integra w procku.
  7. 22 calowe monitory mają zwykle matryce o proporcjach 16:10 i rozdziałce 1680x105 pikseli. Jeśli Ci to pasuje to ten np. jest OK http://www.agito.pl/monitor-iiyama-22-led-prolite-e2280wsd-b1-gwarancja-zero-martwych-pikseli-do-30-dni-od-daty-zakupu-2492-593400.html?attr=963-225470
  8. Huzar

    2x4 GB czy 8GB

    Bierz Kingstony 2 x 4 GB, będą od razu pracować w trybie Dual Channel - parametry (pojemność, częstotliwość i opoźnienia) to disiajszy standard czyli wysoka wydajność we wszystkim co przęciętny użytkownik robi na swoim kompie. Bez sensu brać tę kość Corsair CL10. A marek dobrych pamięci jest dużo, w zasadzie większość jakie można spotkać w sklepach.
  9. Pewnie ze względu na wyższe taktowanie i5 3470. Zgadłem FiveR?
  10. Z tych dwóch wolałbym AsRocka bo ma radiator na sekcji zasilania. Z procków FX-6300 bo samemu go sobie można podkręcić do zegarów 6350 (konieczny zakup niezłego chłodzenia CPU).
  11. To by miało największy sens jeśli Ci się nie śpieszy z graniem
  12. Fenio to w czym problem? Weźmie Radka. Inna sprawa to czy gdzieś poza PCLabem ktoś wysnuł podobne wnioski co do współpracy tych podzespołów. Bo w sumie tylko jedno źródło to... mało wiarygodne źródło. Detyrioux HT nie musi mi się kłaniać, doskonale wiem czym się róźni seria i3 od Pentium G i wolałbym kupić tego ostatniego, a zaoszczędzoną kasę dorzucić do karty graficznej
  13. Jak już mialbym kupować dwurdzeniowca to bym nie przepłacał za i3 i wziął jednego z rewelacyjnych i tanich Pentiumów G np: http://www.agito.pl/procesor-intel-pentium-g3420-3-2ghz-box-81-878441.html?attr=5538-464953,299-649274
  14. Dobrze, że to tylko przenośnia bo byś rękę stracił Sam nie grałem w BF3 na i3 ale stałem za plecami kolegi to robiącego i komfortową grą tego co zapewniał nazwać nie sposób. Dlatego go wymienił na i5 2500K. Co do Skyrim to żaden test w necie nie wspominał tego o czym piszesz... i nie wiem komu wierzyć Nie twierdzę, że coś "koloryzujesz" ale spadki aż do 22 klatek, sprawa dość dziwna.
  15. Chodzi o to, że przykładowo na FX6300 pograsz komfortowo w niemal każdą grę, w Skyrim (ew. innej grze korzystającej jedynie z 2 rdzeni) będziesz miał mniej FPS niż gdybyś korzystał z i3 ale i tak wielkiej róźnicy nie odczujesz, będziesz sobie spokojnie grał. Natomiast na i3 komfortowo w BFy już nie pograsz bo tylko 2 rdzenie będą powodowały regularne spafki FPS, większe i częstsze w zależności od liczby graczy na serwerze i tego co się wokół Ciebie dzieje. Inna sprawa to jest to o czym wspomniałem - jest to ważne jeśli dla Autora BF jest priorytem. No bo wiesz,np. ja w takiego BFa mam już
  16. Wiedziałem, że zaraz pojawią się wyniki tych testów One są robione na pustych mapach by mogły być powtarzalne, po serwerze biega tylko jednej gracz-tester! To ma się nijak do rzeczywistości i absolutnie nic nie mówi nic o wydajności procka w mutliku. Jeśli komfort grania w BFach jest dla Autora tematu priorytetem to każdy jeden dwurdzeniowiec odpada. Albo tani FX-6300 albo trzeba dołożyć do i5.
  17. Do BF3 zdecydowanie FX 6300, a do Skyrim i3. W przypadku Photoshopa dużo zależy od jego wersji, tu powiedzmy, że jest remis bo generalnie aplikacja korzysta ładnie z wielu rdzeni ale wydajność pojedeńczego też się bardzo liczy.
  18. Zależy od programów i gier w jakie planujesz grać.
  19. Konkurencją dla R7 260X jest raczej GTX 650 Ti Boost, czyli karta wydajniejsza od tej co podlinkowałeś. Testy pierwsze z brzegu: http://www.benchmark.pl/testy_i_recenzje/amd-radeon-r7-260-test/strona/21423.html? i http://pclab.pl/art55096.html
  20. Tak. Ale skoro masz już adapter z posta #7 to się jeszcze wstrzymaj, może ktoś się przyjrzy bliżej całości i będzie w stanie coś rzetelnego podpowiedzieć
  21. Oczywiście! Przejrzyj testy, jest ich trochę w necie, także na polskich portalach. A tu na przykładzie BF3 widać, że jak za te pieniądze to wydajność oferuje wręcz rewelacyjną:
  22. Wymienione przez Ciebie sluchawki to jak najbardziej wartościowe konstrukcje i śmiało możesz któreś brać. Przypatrz się jeszcze takim modelom jak Koss UR40, Superlux HD668B czy choćby AKG K514 (wersja podstawowa albo MK2). Jak zdecydujesz się na osobny mikrofon to nieśmiertelny Zalman ZM-Mic1 sprawdzi się bardzo dobrze
  23. Właśnie otrzymałem z takim info maila od cdp, tym razem jako spam go nie potraktowałem - trzeba będzie zrobić rundkę po Biedronkach, dla niereformowalnego pudełkowca szykuje się nie lada okazja
  24. Trzeba by sprawdzić dokładną specyfikację zasilacza i obadać ile watów idzie przez te molexy. W każdym razie wydaje mi się, że pierwsze rozwiązanie (z posta #7) lepsze bo najpewniej tym sposobem (adapter z 2 x 4 pin na 8 pin) pójdzie 150 W do karty, czyli tak jak sobie tego życzy producent (plus oczywiście kolejne 150 W ze złącza 6+2 pin). Edit: Moment, jednak chyba pokręciłem Zaraz sprawdzę dokładnie. Niech mnie ktoś poprawi jak się mylę bo już zgłupialem. Generalnie oba sposoby powinny być wystarczające i karta w obu przypadkach będzie działać poprawnie. Zmieniam jednak zdanie co d
×
×
  • Dodaj nową pozycję...