Skocz do zawartości

serafin1

Użytkownik
  • Liczba zawartości

    562
  • Rejestracja

  • Ostatnia wizyta

Posty dodane przez serafin1

  1. Prawda taka, że do płynnej gry wystarczy 560Ti/6950/470

    Oczywiście, że tak.

     

     

    Wracając do ostudzonych wrażeń zakładając na przykład, ze HD7000 w ogóle nie istnieje i porównując Keplera tylko z Fermim to nie jestem zachwycony tą 680.

     

    Karta o 20-30% wyższym zegarze jest 20-30% wydajniejsza od starszej generacji w grach, przy czym mniej wydajna w GPGPU. Jakby zrobić takiego GTX580 w 28 nm i zegarem 1050-1100 MHz oraz pamięci mu puścić na 6 GHz to pewnie by spokojnie GTX 680 dogonił, a przy tym posiadał o wiele większą wydajność GPGPU.

     

    Gdzie tu postęp architektury?

     

    Założenia wyszli ze lepiej zrobić coś taniej a i minimalnie wydajniej. Kumpel jedenz forum sam się przyznaje, że trochę żałuję że sprzedał swoje gtxy bo jak mawia "kto posiada jeszcze 580 to przejscie na 680 jest bez sensu." I w pełni się z nim zgadzam!

    Nawet teraz warto rozważyć kupno 580 nowej za 300euro.

     

    Uważam, że jeśli ktoś ma GFa GTX570/580 albo Radka HD69xx to z wymianą może spokojnie poczekać do końca roku na GK11x czy HD8000 bo dopiero one dadzą bardziej wyraźny wzrost wydajności....

     

     

    Od kiedy pamiętam to hi-end nv jest od wielu generacji gorący. Nie wiem dlaczego temu się dziwicie. Taki był 79xx, 8800, gtx 26x , fermi.

    Kepler nawet wypada nieźle na tym tle.

     

    Dodatkowo polityka firmy jest taka,że ma być w miarę cicho, więc robi się to nawet kosztem wyższych temperatur pracy.

     

     

    Bądźmy też uczciwi- radek 7970 referencyjny nie jest specjalnie cichy

     

    Na teraz gf jest odrobinę szybszy, ma dużo lepszą teselację wspiera physix przy niższej cenie. Na dzień dzisiejszy o/c jest skomplikowane i raczej niewielkie. Tutaj plus dla radka.

     

    Ruch należy do amd - zetnie cenę o np 100$ i powróci równowaga na rynku;)

    Dodatkowo ma taki zapas na zegarach,że spokojnie mogą dorzucić brakującą fazę na pcb, przebrać chipy i wydać odpowiednik radka 4890

     

    Nie rozumiem też tych fanbojów na różnych forach- 3/4 krzykaczy i tak nie stać na kartę za ponad 2 tysiące złotych i jej nie kupi.

     

    Realnie większość forum kupuje karty z przedziału 400-1200zł i przy obecnych cenach to sobie może pooglądać wykresy. Nie wiem więc, dlaczego te krzyki jakby chodziło o kasę z ich portfela.

     

     

    Radki są w sklepach 3 miesiące, Gf-y też stanieją.

     

    Na razie to był niewielki rzut, byle nie było gadki o papierowej premierze

     

    Konkurencja dobra rzecz, bo jak widzę 7870 po 1550 zł to nie wiem - śmiać się czy płakać..

     

    Przypominam, że w momencie premiery HD7970 kosztował 2400-2500 zł Więc GTX na pewno zejdzie poniżej 2000 zł. Najpewniej cena zatrzyma się na 1800 zł, czyli tyle, ile trzeba było zabulić za GTX 580 przed ostatnią obniżką.

  2. Bzdura... już 8800 GTS / GTX / Ultra (chip G80) były lata świetlne wydajnościowo i technologicznie przed GPU w PS3. Właściwie to do dzisiaj w pewnym sensie pomysły z G80 są rozwijane (zunifikowane jednostki obliczeniowe). Tylko w przypadku konsol wchodzi tak zwana optymalizacja pod konkretny sprzęt, co w przypadku setek / tysięcy różnych konfiguracji PC jest praktycznie niemożliwe do wykonania.

    a tego to nie wiedziałem. Cóż człowiek sie uczy przez całe życie. No to wychodzi na to, że posiadając 7950/7970/gtx680 sprzęt będzie dawał spokojnie rade w grach nawet jak wyjdzie PS4 tylko jestem ciekawe jak się to sprawdzi

  3. Był HD 7970 król, jest GTX 680 król, będzie HD 8970 król i tak w kółko :) .

    taa i nabijanie ludzi w butelke ($) Jak pisałem wcześniej. Mając karty 570/580 czy 6970 nie ma sensu kupować 7970 / 680. Te nowe karty 7970/680 są dobre albo dla tych co kupują kompa i mają troche pieniędzy na zakup mocnego PC albo co mają karty pokroju gtx 460/hd5870 albo starsze. Głupota wymieniać 580 na 680. A znajdą się tacy co tak zrobią.

  4. Dobra za ile sprzedać moją miesięczną EVGA GTX 580? Chcialbym kupić teraz 680 za 2100zl bo widzialem w pewnym sklepie. To ile teraz brać za gtx 580?

    Kolego po co? Nie ma sensu z 580 przechodzić na 680 !

     

    Narazie nic nie zmieniajł, bo nawet jak byś wsadził 680, to za 2-3 lata jak wyjdą nowe konsole to grafa , pójdzie tak do przodu że twój komputer , wymieknie, tak jak było z ps3 dopiero rok bądź 2/3 lata po premierze można było za przystępna cenę złożyć pc , który był lepszy od konsoli , więc ze 2-3 latka prograj na tym 580, bo do premiery nowych konsol spokojnie pograsz, a potem albo nowy komp, albo ps4 albo 780.

  5. Ładnie czasami rozwalał GTX590 więc porządnie.

    Dokładnie. Co do testu na PurePC. Oni jechali na starszych sterach. Nie testowali na tych > http://www.nvidia.pl/object/win7-winvista-64bit-301.10-whql-driver-pl.html

     

    więc poziom klatek w różnych gierkach będzie sporo wyższy jak w teście. A z czasem po kolejnych sterach wszystko się fajnie ustabilizuje.

     

    Test GeForce GTX 680 vs Radeon HD 7970 - Pojedynek tytanów, jest ciekawszy jak ten na benchmarku. I bądź co bądź szału nie ma ale dokopuje 7970 a często podskakuje o dwurdzeniówek. Jest cichsza, wydajna i mniejszy tdp ! I oto chodzi ;) To teraz będę miał dylemat, jaką karte kupić. A miałem już kupować gigabyte 7970 WFx3

  6. ASUS GTX680-2GD5, GeForce GTX 680 juz do kupienia

     

    cena ok 2350zł w zaleznosci od sklepu.

     

    Tak panowie myślicie, kiedy pojawią się niereferencyjne? Warto czekać? Tylko ile 3-4 tyg. ?

     

    Po prostu mam nosa , ale to jednak HD7870 będzie atrakcyjniejsza, albo już jest bo nowsza, dużo niższy pobór energii i wydajniejsza względem GTX570.

     

    tak, jak już brać to 7870 , ma wiecej pamieci 2 GB (570 ma 1,5) a to sie przyda bądz co bądź na przyszłość

     

     

    Ale dziadostwo, dzisiaj obserwowałem ceny 7870, dosłownie przed chwilą z 1322 wzrosło na 1520

     

    Cena 680

     

    http://www.ddr2.pl/PoV_TGT_GeForce_GTX_680_2048_TGT_680_A1_2-766.html

  7. A gdzie testy Deus Ex: Human Revolution, Shogun 2 czy Stalker: Zew Prypeci?

     

     

    http://www.upload.ee/image/2185336/total.png

     

    A gdzie testy Deus Ex: Human Revolution, Shogun 2 czy Stalker: Zew Prypeci? Gdzie testy OC? Ja sądzę, że HD7870 będzie właśnie taką rozchwytywaną kartą .

    PRawda. Albo gtx 570 albo 7870.

     

    http://tpucdn.com/reviews/AMD/HD_7850_HD_7870/images/perfdollar_1920.gif

  8. Jakaś ta recenzja na tweaktown dziwna jest. Wiele sprzeczności się pojawia.

    Uzyte do testu gry to jakis zart

    No moze poza Metro.

     

    Nie dziwie sie Nvidi ,ze olewa Tweaka skoro robi taka popeline. Wystarczy poczytać komentarze pod recenzją na Tweaku aby stwierdzić jak ludzie oceniają jej denny poziom. Na PurePC będzie po 14 recka. Poczekajmy na jedną, drugą i można na spokojnie wysunąć ostudzone wnioski. Jedno jest pewne. Jak ktoś ma karty pokroju: 570/580 czy radki 6950/6970 nie ma senu wymieniać. Chyba, że sprzedać i kupić cos z niższej półki, tańszego hd7890.

     

    Crysis Warhead, Metro 2033, Crysis 2, Stalker COP - Przy 1GZH na kartach 7970 i 680 wygrywa ta pierwsza albo wyprzedzając sporo 680 (Metro, Warhead) albo będąc na równi. Teraz pozostaje pytanie czy 680 będzie tak dobrze się podkręcać jak 7970. Nvidia widocznie poszła na łatwiznę i aby wygrać w segmencie po prostu podniosła zegary do poziomu który gwarantował jej wygraną. Gdyby za miesiąc miała być premiera 7970 okazałoby się że karta ma takty powiedzmy na poziomie 1056mhz i pojawiłby się nowy król wydajności.

     

    Prognozuję że po ukazaniu się recenzji najbardziej opłacalną kartą będzie.... 7950

  9. A nie lepiej kupić SSD 256Gb, niż kombinować z dwoma 120?

    nie, lepiej kupić jeden SSD na Win7 + reszra softu a drugi na gry, ponieważ łądując wszystko na jeden 256 GB będzie makabra i śmietnik, chyba, że ktoś woli mieć wszystko na raz. Druga sprawa majac 128 na system można robić obraz partycji na jakimś HDD niż robić to samo przy 256 razem z grami i innymi pierdółkami. Lepiej kupić 2x SSD 128 niż jechać na jednym 256

     

    Co do jakośći Samsunga to bym tu spierał. Jeden z najlepszych dysków SSD na rynku. Dyskami SSD chyba, że rzucasz o ściane? i tak siedzi w obudowie a, że troche cieńki to nie szkodzi. Ludzie kupują i na jakość nie narzekają. Solidny dysk.

     

    A co do 800D to szału nie ma

     

    Mialem z nią do czynienia. I różnicy w jakości między 500R nie zauważyłem. Głównie chodzi mi o jakość wykonania elementów ), niektóre części są wykonane ze słabej jakości tworzywa. Niektóre rozwiązania nie są też do końca przemyślane ( np. dyski wpadają w wibracje i trzeba się z tym pobawić, żeby poprawić producenta ). Ogólnie jak ktoś lubi się bawic to z obudowy można sporo wycisnąć ale za te pieniądze oczekiwałbym w pełni przemyślanych rozwiązań i najwyższej jakości . Ogólnie czy obudowa za 450 czy za 700 stów to jeden pies. Im wyższa cena tym więcej pierdół i gadżetów a materiał/jakosć porównywalna.

  10. Mobo : ASUS P8Z68 DELUXE / Asrock z68 ext3 gen3

    ta, Asus Deluxe to koszt ok 950 zł a ASrock ok 450 zł...niezłe skoki cenowe. Wybierzcie konkretną płyte w tej samej kategorii cenowej

     

    ja proponuje MSI Z68A-G45 G3 / MSI Z68MA-ED55. Niedoceniane płyty. W ogóle Asus jest tak przereklamowany...słabe wsparcie techniczne. To już lepiej ASrock

     

    SSD : Intel 520 / Crucial M4 - 128GB

    albo Samsung 128 GB

     

     

    , SilentumPC Regnum, CM HAF / 692II / Corsair 600D/800D /

    Po co taką drogą obudowe 800D ? wystarczy kupić bude za ok 450 i ma się tak samo niskie temp. Nie warto przepłacać. Chyba, że ktos sie bawi SLI/CF. Taka Corsair 400/500 R idealnie i zaoszczędzisz.

     

    DetOX

     

    Zobacz czy taki zestaw ci podejdzie.

     

    http://www.esc.pl/build.php?edit=1&products_id=46763 z 16 GB ram pamieci = 7048 pl

     

     

    Czasem się zastanawiam czy warto(co do dysków) kupić coś takiego:

     

    1xSSD(128GB) na Win7 + programy, 1xSSD(128) na gry 1xHDD (1TB) tani, uniwersalny Samsung, Seagate. Myślicie czy to ma sens? Czy po prostu lepiej 1x SSD(128GB) na Win7 + 1TB HDD ?

  11. tzw 120Hz matryca dodaje fps, pokrótce pomiędzy klatki z sygnału wpychane są te dodatkowe generowane przez algorytm monitora, ta sama sztuczka jest stosowana w TV, np 200Hz sonyki dorabiają aż 3 klatki do każdej z sygnału co do twoich dylematów: żaden się na dobrą sprawę nie nadaje, potrzebujesz minimum Della U2410 lub HP ZR24W

    Dzięki

     

    co do HP ZR24w to jest niezła wypalarka dla oczu.

     

    Przy jasność 30/100 ma 176 cd/m2 masakra :)

     

    Dell2410, którego z tego co się orientuje- posiadsz ma już o wiele lepiej 30/100 ; 150 cd/m2 ale i tak daje po oczach :) no 2412m wychodzi przy 30/100 o wiele mniej, bo ma 130cd/m2 no i ma przy tych 30/100 najmniejszy Black Point i to plus ale prawie nie zauważalny więc jeden pies.

     

    HP http://www.tftcentral.co.uk/reviews/hp_zr24w.htm

     

    24010 http://www.tftcentral.co.uk/reviews/dell_u2410.htm

     

    2412m http://www.tftcentral.co.uk/reviews/dell_u2412m.htm

     

    Co do input lagu. Oba dają rade w grach. Ale HP razem z 2410 przez tą jasność można oślepnąć.

     

    http://www.tftcentral.co.uk/images/dell_u2412m/input_lag.jpg

     

     

    W tym wątku są ciekawe dwie opinie użytkownikó 2410

     

    http://forum.pclab.pl/topic/519366-Dell-U2410/

     

    Martwi mnie tylko ta opinia z powyższej recki:

     

    "

    Na początku musimy zaznaczyć że jest to monitor szerokogamutowy co niestety nie wszystkim może się podobać. Oznacza to tyle że w programach które nie obsługują zarządzania kolorem, obraz będzie zbyt jaskrawy. Z drugiej strony – docenią to osoby zajmujące się grafiką i fotografią.

     

    Na pocieszenie, Dell zaimplementował funkcję symulacji wąskiego gamutu sRGB, i po włączeniu tego profilu w monitorze można uznać że paleta wąskogamutowa jest w zadowalający sposób symulowana i użytkownicy którzy nie korzystają z dobrodziejstw szerokiego gamutu, mogą „pozbyć” się tej właściwości. Funkcja ta w zadowalający sposób spełnia swoje zadanie". PRAWDA ?

     

     

    Napisałeś, że Dell 2412m się do obróbki amatorskiej nie nadaje? Może zapomniałem napisać, ze do amatorska obróbka foto :) Wiesz domowa reprodukcja:) Nie jestem PRO. Taka ciekawostka. Mam znajomego(zaznaczam, że jest fotografem ślubnym, posiadający sprzęt za naście tysięcy), który użytkuje jakiegoś LG 235IPS coś na matrycy IPS, kupił za ok 780 zł i jest bardzo zadowolony. W LR 3.0 obrabia bez najmniejszych problemów i wywołuje i to co wychodzi i to co widzą klienci...wszyscy są wniebowzięci. Poza tym cena miedzy 2412m a 2410 to ok 700 zł a zaoszczędzoną kase można sobie spożytkować na dysk SSD 256 GB. Więc spokojnie 2412m nada się, nie widzę powodu, żebym miał kupować 2410, do tego HP to te 350 zł to jeszcze jeszcze można dołożyć ale ta jasność to szkoda gadać. Chce mieć zdrowe oczy.

  12. @ drachenfeles

     

    Nie chce zakładać nowego wątku, żeby zbytnio nie zaśmiecać. Więc tu spytam

     

    Benq XL2420T v Dell 2412m

     

    Szukam monitora do obróbki zdjęć (Photoshop, Lightroom) i gier. Czyli mniej więcej (50)40 % gry, (50)40 % grafika, 20(10) % reszta. 16:10 lepiej się sprawdza w 95 % jak rozpłaszczone 16:9 :) Więc 16:10 jako priorytet.

     

    Opinie co do Della 2412m zebrałem , nie z sieci ale on użytkowników, którzy użytkują tego Della i spokojnie grają w różne gry fpsy a kończąc na rpg czy filmy i zero smużenia, to samo , jak napisałeś w poście powyżej (DELL U2312HM ) kumpel ostatnio kupił i normalnie naparza w B3 i super płynność jest. Więc najlepiej dowiadywać sie od użytkowników noż czytać niektóre denne testy na różnych portalach. Wracając do mojego pytania.

     

    Czy kolory będą lepsze w tym 2412m jak w XL2420T ?

     

    Opinia dot. lcd z 120 Hz

     

     

    Rozważałem zakup LG LED IPS E2370V /DELL U2312HM.

    Monitor miał służyć m innymi do gier, więc zależało mi na braku odczuwalnego smużenia. Sądzę, że który model bym nie kupił byłbym zadowolony bo są one porównywalne.

     

    DELL U2312HM odpuściłem bo sprzedawca powiedział, że to monitor bardziej projektowany pod biuro i matryca trochę wolniejsza. Niektórzy kupowali do gier i byli zadowoleni.

     

    Już miałem brać LG LED IPS E2370V ale odpuściłem, bo oprócz to był taki LG IPS236V z dodatkowymi funkcjami a LG IPS225V jest następcą LG ISP226V. Wolałem kupić model "nowszy". Poza tym na forum pisali o kłopotach w 2370 tzn black bleeding, więc sobie darowałem

     

    Ostatecznie zamówiłem IPS235V!!!

     

    Mam go od 4 dni: pierwsze wrażenie super pozytywne - full hd, kolory, głębia, szczegóły, wielkość, komfort - super, nie ma porównania do mojego starego LCD LG W1952TQ, z którego i tak byłem mega zadowolony. Gry zyskały nowego wymiaru. W grach też nie widzę większego smużenia niż w poprzedniku i tak jak w poprzedniku w zasadzie nawet jeśli jest to mi nie przeszkadza wcale.

     

    Jest mały black bleeding w dolnym prawym rogu ale w poprzednim tak na prawdę było ich znacznie więcej - po prostu do póki nie naczytałem się na forum o tym, wydawało mi się że tak ma być.

     

    Jeśli ktoś zastanawiałby się czy warto zmieniać 19 cali na 23 cali to powiem, że warto - komfort pracy wzrasta. W grach dostępna jest rozdzielczość full HD która wygląda super. Wcześniej miałem 1440x900 i naprawdę kolosalna różnica.

    Należy jednak pamiętać, że większa rozdzielczość wymaga większej mocy GPU/CPU. U mnie na PHENOM 955 X5 podkręconym do 3600 i GTX 460 również podkęconej wszystko hula jak należy.

    Jest na prawdę ładnie i płynnie. Gry chodzą w full hd w wysokich detalach. Smużenie nie zauważam - jest równie płynnie jak na poprzednik monitorze.

     

    Nie mogę jakoś przyzwyczaić się tylko do tej jasności monitora (LED) i intensywności kolorów - strasznie daje po oczach - a skręciłem jasność poniżej 20. Ale to chyba kwestia przyzwyczajenia się do nowej matrycy. gdy raz się zagra na 120 hz to później ciężko wrócić na 60 czy tez 75. Więc sam mam już monitor(Benq) i jest mega 120 Hz+FHD+24"+100fps wymiata

    rzeczywiście posiadając tego Benq ma sie pewne 100 fpsów ?? bez jaj ;/ To posiadając karte jakąś np. HD 6970 za 800 ma się pewne 100fpsów?! lub za 1700 ( hd7950) to ma się lekko ponad 120-130 fpsów? Nech mi ktoś to wytłumaczy o co tu chodzi :) ?

  13. DC II ma nieco silniejszą sekcję, ale jak ktoś chce "hardkoru" w kwestii OC to lepiej czekać na Lightning'a...

     

    http://www.purepc.pl/files/Image/news/2012/03/MSI-R7970-Lightning-1.jpg

     

     

     

    o nim mowa ?

     

    raz to MSI R7970 Lightning z komponentami Military Class III, rozbudowaną sekcją zasilania i kolejną edycją znanego i cenionego układu chłodzenia TwinFrozr.

     

    Przede wszystkim to nadal najwydajniejsze GPU z 2048 shaderami okraszone 384-bitową szyną oraz 3GB pamięci GDDR5, ale wygląda na to, że MSI chce wycisnąć ostatnie soki z Tahiti, które przypominamy kręci się bardzo dobrze nawet na referencyjnej płytce i chłodzeniu. W modelu Lightning chip ten osadzono na ponadwymiarowym PCB, które mieści między innymi dwa 8-pinowe złącza zasilania i sekcję w układzie fazowym 14+2, co pozwolić ma na ekstremalne OC. Chłodzeniem całości zajmuje się potężny układ zwany TwinFrozr IV wyposażony w dwa sporych rozmiarów wentylatory z funkcją usuwania kurzu oraz chłodzące elementy PCB płytki zamontowane pod coolerem i na plecach karty. Można przyczepić się jedynie do estetyki backplate i paska na obudowie chłodzenia w dziwnie niepasującym kolorze żółtym. Czekamy na więcej informacji dotyczących między innymi taktowań, ceny i daty rozpoczęcia sprzedaży, a na razie możemy dodać, że kartę wyposażono w dwa wyjścia DVI i cztery miniDP oraz coś zwane GPU Reactor...

     

     

  14. Asusy DirectCu II TOP mają lepsze chłodzenie i więcej z nich można wycisnąć podczas OC.

     

    wszystkie konstrukcje HD 7950/ 7970 (nawet te z autorskimi systemami chłodzenia) mają referencyjny laminat jak narazie. Nawet Gigabyte WFx3 ma jak zwykle dobre chłodzenie na rdzeń i kiszke na sekcji. DCII ma inny laminat niż pozostałe HD 79xx. Mimio, że zabiera aż 3 sloty :/ ....daję więcej czadu! Bierz asusa

  15. Nie da rady chociażby w BF3 na ultra w multi komfortowo pograć, poza tym ten rok pokaże na pewno więcej tytułów na silniku Frostbite a mogą się pojawić i nowsze, bardziej wymagające.

    nie no tu sie zgodze. Chciało by się powiedzieć, nic tylko brać podkręcone fabrycznie i doskonałe do OC 7950/7970 WFx3 lub coś od MSI TF IV ale nie każdego stać na te modele i będą celować 78xx. Jedynym ratunkiem jest dla takich osób coś od nVidi. Ale wątpie, żeby gtx680 wyszedł taniej jak seria 78xx. Może będzie kosztować coś w okolicach jak 7970. Ati powinno z ceny popuścić.

  16. Ale panowie o jakim wy metro 2034 mówicie. Metro 2033 ma źle zoptymalizowany kod z tego co wiem. Więc on kosi wszystkie grafy. Takiej gry nie brałbym pod uwagę. Moim zdaniem radeon 7970 starczy na 1,5 roku. 7950 w cf dobre rozwiązanie ale same karty pod obciążeniem będą brały z 550W + procek + reszta. To sporo, a gdzie jeszcze podkręcanie. Słuchaj dobrych rad co poniektórych kolegów Kup radeona 7970 najlepsiejszego jakiego się da najlepiej już z fabrycznym OC. Zajebistą obudowę, ssd 120GB, hdd 2TB, monitori 24' na IPSIE, płytę główną z bajerami, pad Xboxa 360 z adapterem co by w fife 2012 pograć:) i będziesz zadowolony. Zmieścisz się w 6k.

    dokładnie

     

     

    Ne ma co się jarać SLI/CF. Chyba, że ktoś gra na 30'-40'. i.A prawda taka,ze gry teraz wyglądają jak lat dwa temu,coraz gorzej zoptymalizowane,coraz cześciej są nedznymi portami z konsol(włąściwie to chyba już wszystkie...).AMD i NVIDIA do spółki z mikromałym nabijają kase za to samo.

    Bez przełomu w jakości.Jedna wielka ściema.Mój nedzny 4890 na jescze nedzniejszym x4 daje rade w fullhd.A,że nie wszedzie odpale wszystko na maxa to co to zmienia...I swego zcasu kupiony top amd za 600pln.Podczas gdy teraz top amd jest za 2000pln.I kurs waluty tego nie usprawiedliwia.Zmiana sprzetu bedzie moze sensowna gdy wyjdą nowe konsole,gdy wreszcie programiści zaczną pisac gry na odpowiednim poziomie.I-co nierealne-gdy cała branża ograniczy swą pazernosć. A to minie ze 2-3 lata

    • Popieram 1
  17. .... wiesz co to jest jak przechowywanie w chmurze? origin to udostępnia ale skoro już po herbacie to spróbuj wkleić i odpal

     

     

    o co tu chodzi ? i skąd to pobrać ;/ ? Dzięki za wyjaśnienie

     

    ale ponoć Instalka z plyty + kopiowanie folderu dziala.

     

    Na jednym forum gośc się wypowiadał "Po reinstalacji systemu wrzuciłem katalog gry do katalogu, gdzie origin instaluje gry, i po kliknięciu w origin na BF3 pasek postępu odpowiedzialny za informacje o ściąganiu przeleciał momentalnie do 100%."

  18. Dzięki za porównanie (*.jpg)

     

    @up

     

    a jaką gpu posiadasz?

×
×
  • Dodaj nową pozycję...