Skocz do zawartości

MiK

Użytkownik+
  • Liczba zawartości

    8180
  • Rejestracja

  • Ostatnia wizyta

Wpisy na Blogu dodane przez MiK

  1. MiK
    Istnieje wiele sposobów na określenie maksymalnego poboru mocy przez dany sprzęt. Wymagająca gra, specjalny program do obciążania czy popularny 3d mark. Wiele serwisów stosuje się do tych metod. Przykładowo odpalając Crysis'a 3, OCCT lub Unigine Heaven. Ale czy do końca mają rację?
     
    W tym wpisie postaram się porównać te metody osiągając jak najwyższe zużycie energii elektrycznej przez mój zestaw komputerowy. Wykorzystam do tego popularne programy testujące i odczyty wskazania watomierza. Dodatkowo jako bonus opiszę mały trik stosowany przeze mnie.
     
    Sprzęt testowy:
     
    - i5 3570K 4.5GHz
    - AMD R390 750/1500 MHz -50mV
    - Enermax NAXN 850W
     
    Karta ma zaniżone taktowania i napięcie. W takim przypadku niwelujemy throttling, który może zakłócić test.
     
    Programy:
     
    - OCCT
    - 3dmark
    - LinX
    - Furmark
    - Crysis 3
     
    Test polega na uruchamianiu poszczególnych programów i odczytaniu najwyższego wyniku wskazanego przez watomierz.
     
    Zaczynamy! Na pierwszy ogień idzie popularny Crysis 3. Uruchomiony oczywiście na najwyższych detalach w FHD. Lokacja - bagna.
     

     
    Wynik:
     
    ~260W
     
    3Dmark Fire Strike
     

     
    Wynik:
     
    ~250W
     
    OCCT - TEST PSU:
     

     
    Wynik:
     
    ~314W
     
    Logicznym jest aby używać LinX + Furmark razem. Odpowiednio dla CPU i GPU.
     

     
    Wynik:
     
    ~170W
     
    Wynik co najmniej dziwny. Zdawało by się, że to połączenie wygeneruje największe zużycie energii. A więc co poszło nie tak?
    LinX okazał się być bardzo zasobożerny. Prawdopodobnie nie starcza mocy dla Furmarka. A gdyby tak jeden rdzeń CPU przeznaczyć tylko dla niego? Skorzystajmy z opcji Koligacji procesów. Czyli jakie rdzenie mają przypadać dla jakiego procesu.
    Pozbawiamy tym samym dostępu dla ostatniego rdzenia LinX'owi a przekazujemy Furmarkowi.
     

     
    Wynik:
     
    ~340W
     
    W tym przypadku nieblokowany już Furmark mógł pokazać na co go stać. A LinX maksymalnie obciążał pozostałe 3 rdzenia.
     
    Dla porównania graficzne zestawienie wyników.

     
    Ostatnia metoda okazała się najbardziej obciążać sprzęt i generowała największe zapotrzebowanie na moc. Równomierne rozłożenie zasobów poprzez koligację przyniosło znakomite efekty. W takim przypadku nie tylko określamy maksymalną energię potrzebną zestawowi ale także testujemy pod względem stabilności cpu, gpu i najważniejsze psu.
  2. MiK
    Gracze konsolowi od zawsze cieszyli się dużo większą przystępnością i łatwością obsługi sprzętu. Jedyne o co do niedawna musieli się martwić to czy na memorce jest jeszcze jeden wolny slot. Nie dotyczyły ich problemy nękające pecetowców. Nie jest to oczywiście żaden argument przeciwko jakiejkolwiek grupie. Jednak mimo wszystko, sytuacja po wprowadzeniu 8 generacji (PS4 i XO) zaczęła się zmieniać na niekorzyść posiadaczy konsoli.
     

     
    Nie mam nic przeciwko instalacji całej gry lub tylko jej części na dysku twardym. Ściąganie najnowszych uaktualnień też nie jest złym pomysłem. Niejednokrotnie już podczas dnia premiery dostajemy stosowny patch "day one" wprowadzających wiele ulepszeń, zauważonych poprzez osoby mające wcześniejszy dostęp do kopii gry. Sytuacja robi się nieciekawa gdy dana aktualizacja wskazuje na poważne niedopatrzenia np. wprowadza tryb 1080p. Oczywiście dobrze, że to robi. Ale czy na prawdę potrzebujemy do tego łatki, aby uaktywnić wyższy tryb wyświetlania obrazu. Nie można tego zaimplementować wcześniej w procesie produkcji? Przecież nie jest to mało ważny aspekt rozgrywki. Gdy pozwolimy na takie rozbestwienie się ludzi odpowiedzialnych za produkcję i wydawanie gier, będziemy dostawać więcej produkcji typu BF4, gdzie gra wyraźnie niedokończona ląduje na półce a gracz czeka na kolejne łatki. Skoro na początku raczą nasz takimi utrudnieniami to niepewnie patrzę w przyszłość. A patrzeć długo nie trzeba. Ponoć aktualizacja Xbox'a One ma wprowadzić wydajniejsze sterowniki graficzne! Co?! Więc jeszcze nie są gotowe!? To zamknięta architektura, aż tak wiele trzeba by przez tyle lat to ogarnąć? Czekanie na sterowniki lub ważne aktualizacje, nie przypomina wam to czegoś? Wypisz, wymaluj zmora pc boy'a (również moja) :-) I właśnie tego typu problemów tak dobrze znanym graczom komputerowym chciałbym uniknąć kupując next gena. A do tej pory wszystko było względnie proste, przynajmniej dla konsolowców.
  3. MiK
    Zazwyczaj podczas oglądania jakiegoś filmy s-f zadaję sobie pytanie: jak to działa lub jak to jest możliwe? Jako człowiek ciekawy nowych rozwiązań technologicznych, niejednokrotnie nieświadomie ignoruję fabułę podziwiając kunszt ludzi odpowiedzialnych za efekty. Czasami zdarza mi się negować to co widzę na ekranie, bo mimo wszystko linia pomiędzy fantazją a zdrowym rozsądkiem musi być zachowana. Zastanawiająca jest też liczba rzeczy, które musiałyby być pominięte, aby nie wprowadzać dodatkowego zamieszania i pchnąć fabułę do przodu.
     
    Na pierwszy ogień idzie Iron Man i kilka technologicznych sprzeczności które udało mi się zauważyć. Po pierwsze, na czym on lata? Jak możemy w filmie zauważyć, pokonuje on dosyć znaczne odległości a nigdzie nie widzę aby zbiornik paliwa zdobił jego zbroję. Może tankuje między lądowaniami albo w powietrzu? Oczywiście istnieje dosyć śmiała teoria według której, Tony przed lotem spożywa nadmierne ilości kapusty, grochówki i soku ze śliwki. Takie dwa w jednym: paliwo (gazowe) i śmiertelna broń biologiczna.
     
    Do pełna proszę!



     
    Ale jak to jest, że Ironman jest zdolny do takich akrobacji? Nie tyle od strony technologicznej co fizjologicznej. Jak powszechnie wiadomo, piloci i kosmonauci narażeni są na niesamowite przeciążenia. Dlatego trenują w specjalnych "wirówkach", gdzie są nastawieni na siłę kilka razy większą od grawitacji. Normalny człowiek poddany takim ekstremalnym przeciążeniom mdleje w kilka sekund, w najlepszym wypadku. W takim razie dlaczego Stark pozostaje niewzruszony tym faktem?
     
    Yeah, I Can Flllyyyyyy.



    źródło:deviantart.net
     
    Bardzo podobnym prawą podlega Flash, bohater uniwersum DC. Lecz w tym przypadku chodzi o przyspieszenie i hamownie. Flash jako obdarzony nadludzką szybkością człowiek (ciekawe co na to jego dziewczyna), potrafił w jednej sekundzie rozpędzić się do niesamowitej prędkości i zaraz potem bezpiecznie ją wytracić. Przemieszczenie krwi i narządów, wylew do mózgu, zaburzenia widzenia i oddechu - to tylko niektóre skutki uboczne szybkiego przyspieszenia lub nagłego hamowania. A tak nawiązując do Tony'ego, to ciekawe po czym Flash tak szybko biega.
     
    Co się głupio czepiasz?




    źródło: wifflegif.com
     
    Naturalnie zdaje sobie sprawę z tego, że to czepianie się "na siłę". I tak na dobrą sprawę nie przeszkadza nam to w odbieraniu przedstawionej treści. Jednak czasami dobrze jest się zastanowić nad głupotami a nie tylko zamartwiać poważnymi problemami.
  4. MiK
    Śledząc historię urządzeń służących do akceleracji grafiki, nie tylko komputerowej, można spotkać kilka ciekawych i osobliwych przypadków. Na przestrzeni tych dwóch dekad wydarzyło się naprawdę wiele w tej dziedzinie. Niektóre rozwiązania przetrwały stając się z czasem pionierskie i odkrywcze a inne pomimo ciekawych założeń upadały pogrzebane na wirtualnym cmentarzu. Zamiast przytaczając całą tę historię wybiorę kilka mniej lub bardziej znanych ciekawostek zastosowanych na polu grafiki 3D.
    Zapewne niewielu wie, że jedne z pierwszych układów wspomagających proces tworzenia grafiki stosowało Nintendo. Osobny układ scalony zintegrowany z płytką drukowaną kartridża umożliwiał dopalenie DOOM'a czy Star Fox'a na konsoli Super Nintendo. W internecie można znaleźć nawet wzmianki o podkręcaniu tego układu Podobne, ale bardziej radykalne metody zastosowała Sega w konsoli Genesis. Specjalny moduł instalowany w miejsce kartridża generował 32 bitową grafikę 3D standardowo niedostępną dla tej konsoli. Niestety rychłe pojawienie się następcy w postaci Saturna szybko skróciło życie tej przystawki.
     
    Chip dla konsoli SNES:




     
    źródło: wikipedia
     
    32 bitowy "dodatek":
     




     
    źródło: wikipedia
     
    2 układy graficzne na jednej płytce to nowość?! Otóż nie, ATI/AMD zastosowało ten trik już 13 lat temu. ATI Rage Fury MAXX (co za nazwa) z dwoma układami RAGE 128 Pro miał konkurować z pierwszymi GeForce'ami. Niestety nie posiadał jednostek T&L odpowiedzialnych za odciążenie procesora podczas generowania obrazu 3D. Ten niedostatek to główna bolączka karty, gdzie dopiero seria Radeon naprawiła ten błąd.
     
     




     
    A gdyby tak zamiast 2 układów umieścić 4? Dla 3dfx nie było rzeczy niemożliwych, przynajmniej do czasu wykupienia ich przez nvidie. Karta dysponowała 4 jednostkami VSA-100 i 128 MB pamięci RAM. Niestety upadłość firmy odpowiedzialnej za tego potwora uniemożliwiła wypuszczenie karty na rynek na początku dwudziestego pierwszego wieku.
     
     




    źródło: overclock.net
     
    Jeśli już o 3dfx mowa, to nie wypada nie wspomnieć o wprowadzonym przez nich standardzie SLI polegającym na łączeniu 2 kart VooDoo 2. A było to w 1998 roku. Dopiero jakiś czas później nvidia opierając się dorobku wykupionej firmy, zastosowało to w swoich konstrukcjach. Tandem takich kart był na tyle wydajny, aby po pewnych modyfikacjach odpalić DOOM'a 3! Fakt nie było to zbyt efektowne wizualnie, ale liczy się sam fakt.
     
    DOOM 3 w prawie całej okazałości.
     




    źródło: hwsetup.it
     
    VooDoo 2 połączone w SLI:
     




    źródło: wikipedia
     
    Istnieje jeszcze wiele ciekawych przypadków w dziedzinie generowania grafiki komputerowej. Nie sposób przytoczyć wszystkiego, dlatego w zależności od zainteresowania tematem postaram się coś jeszcze wrzucić. "Początek" ery 3D dopiero nadgryziony, to co jeszcze zostało jest nie mniej ciekawe.
  5. MiK
    Jak ja nie lubię fanboy'ów. I nie dlatego, że obsesyjnie uwielbiają daną markę, broniąc jej zazwyczaj do otrzymania bana. To jeszcze jestem w stanie zrozumieć. Dużo bardziej razi mnie bezpodstawna krytyka konkurencyjnych obozów, bez względu na to czy chodzi o konsole, procesory, układy graficzne czy cokolwiek innego. A przytaczane im racjonalne argumenty odbijają się niczym groch od ściany.
     
    To co niszczy wszelakie powody dla logicznego istnienia tego zjawiska to znienawidzona przez nich konkurencja. Jest to najlepsza rzecz jaka może przytrafić się użytkownikowi czy kupującemu. Przykładowy fanboy AMD pewnie nawet nie wie, że to dzięki nvidii te układy są tak wydajne i vice versa. Statystyczny producent aby nie upaść musi ciągle udoskonalać produkty i oferować je w przystępnej cenie, przede wszystkim przez wzgląd na konkurencje. W takiej sytuacji trochę głupio wylewać może hejtu w stronę antagonisty.
     



     
    Popatrzmy na obóz intela oraz „porażkę” AMD z serią bulldozer/piledriver w porównaniu do ivy/sandy bridge. Co negatywnie odbija się na nas czyli konsumentach, w tym także na fanboy'ach. Dlatego mamy takie ceny i marny wzrost wydajności następnych odsłonach procesorów od intela. Intel jak w latach dziewięćdziesiątych ubiegłego tysiąclecia dyktuje warunki gry. Na nieszczęście dla nich pojawiły się wtedy takie produkty jak Athlon i Duron, skutecznie przycinając monopolistyczne skrzydła temu pierwszemu. Oby taka sytuacja się jak najszybciej powtórzyła, bo widzę ciężkie i "drogie" czasy nie tylko dla fanboy'ów intela.
     
    To samo dotyczy się wojny pomiędzy użytkowaniami konsol i pc. Przecież większość gier nie zostałaby wydana na komputer gdyby nie posiadała wersji konsolowej. Współczesny rynek i koszty produkcji rzadko kiedy przewidują deweloping tylko na jeden system. Gracze komputerowi bez konsol nie mieliby w co grać. Zostałoby MMO i FtP. Oba fronty składają się na koszty tego samego tytułu a różni ich tylko platforma. Konsolowcy natomiast zapominają, że od ponad dekady dostają układy znane z komputerów. Tak więc sieć wzajemnych powiązań zostaje zachowana. Pomijam tutaj nie tyle hejt, co żal do nadchodzącej generacji i sprawy 1080p/60. Na to jeszcze przyjdzie czas.
     
    Popatrzmy na rynek dysków, pamięci, tabletów, itp. itd. gdzie konkurencja jest duża. Bez trudu można zaobserwować pozytywny tego wpływ w postaci spadających cen i rosnącej wydajności. Więc zamiast na siłę szukać różnic, znajdźmy to co nasz łączy. A każdy fanboy niech kupi produkt konkurencji, bo wyjdzie mu to na dobre.
  6. MiK
    Czasami lubię pograć w starsze tytuły które ukazały się na na pierwszej konsoli Sony (PSX dla przypomnienia ). Nie ma w tym nic dziwnego, zważywszy na bogatą bibliotekę świetnych tytułów. Tym bardziej, że dostęp do nich jest wyjątkowo uproszczony poprzez internetowy sklep PSN. Nawet przeglądając serwisy aukcyjne nie mamy problemu z odnalezieniem interesującej nas gry. Lecz w momencie otrzymania i zaaplikowania płytki w napęd zaczynają się graficzne schody.
     
    Problem jest niszowy, ale na tyle ciekawy aby poświęcić mu parę zdań. Pierwszy dylemat przy szarpaniu w gry z „szaraka” to wybór platformy, który zazwyczaj zamyka się w wybraniu odpowiedniej konsoli i odbiorniku TV. O ile problem nie dotyczy użytkowników urządzeń kineskopowych to przede wszystkim odnosi się do popularnego HDTV. Oczywiście w duecie z telewizorem „high definition” najczęściej znajdziemy PS3, gdzie problem z odpaleniem starszego tytułu jest wyjątkowo uwidoczniony poprzez różnice w oferowanej rozdzielczości. Nie ma co ukrywać, dopasowanie maksymalnego 640x480 oferowanego przez gry z pierwszego Playstation do formatu 1920x1080 wygląda dosyć biednie:
     



     
    Czyżby potężny Cell we współpracy z RSX nie był w stanie poradzić sobie z standardem z pierwszej generacji Sony? Patrząc przez pryzmat tego co możemy osiągnąć poprzez emulatory na 10 letnim komputerze klasy PC a nawet na tablecie czy smatrfonie, obarczam winą osoby odpowiedzialne za emulację na PS3. A przecież samo podniesienie rozdzielczości, wygładzenie tekstur i krawędzi nada tytułom z PSX'a nowej jakości. Poniżej przykłady otrzymany poprzez emulację na komputerze:
     



     



     
    Ciekawostką jest możliwość uzyskiwania efektów za pomocą "shaderów". Dla przykładu Tomb Raider z grafiką a'la cell shading:
     



     
    Skoro wiekowy pecet jest w stanie zapewnić grafikę na bardzo znośnym poziomie, to dlaczego na dużo mocniejszej konsoli PS3 otrzymujemy zlepek kwadratowych pikseli? Wprowadzenie takich udogodnień powinno być jak najbardziej opłacalne. Takie "drugie życie" dla grafiki będzie dużo bardziej atrakcyjne dla przyszłego klienta przeglądającego ofertę PSN i fana chcącego powrócić do starych czasów.
  7. MiK
    Testując w poprzednim wpisie programy do „wygrzewania” wpadłem na pomysł, aby sprawdzić pewne zależności temperatury od taktowania i napięcia na procesorze. Założenie jest zasadniczo bardzo proste: jak pod wpływem zwiększania napięcia i taktowania wzrośnie temperatura układu.
     
    Specyfikacja:
    - i5 3570K
    - chłodzenie Zalman Performa
    - pasta MX-4
    - ASrock P67 pro3
     
    Warunki testu:
    - temp. zewnętrzna 26 C
    - wstępne wygrzanie programem Prime95
    - testowanie przez 5 min
    - wszystkie zbędne procesy pozamykane
    - stała prędkość obrotowa chłodzenia
    - zmiana wartości offset'u dla napięcia
     
    Wykorzystane programy:
    - HWMonitor
    - LinX – AVX (intel burn test, OCCT linpack)
    - Prime95
     

     
    Jak nietrudno było się domyślić, wraz ze wzrostem taktowania temperatura poszybowała w górę. Należy dodać, że wartość napięcia była stała. Procesor pracował zawsze na takim samym napięciu.
     

     
    W przypadku zwiększania napięcia o kolejne 0,015V w stosunku do napięcia bazowego zauważyć można lekki wzrost temperatury.

     
    W odniesieniu do procentowego wzrostu taktowania i temperatury obserwujemy rozbieżność. Temperatura i taktowanie nie rosną wprost proporcjonalnie.
     
    Wnioski nasuwają się same. I zapewne były łatwe do przewidzenia. Jedyną niespodzianką okazuje się być relatywnie niski wzrost temperatury pomimo dosyć dużego "dowoltowania" układu. Zwiększenie napięcia o 0,045V podniósł temperaturę tylko o 3 stopnie Celsjusza. Ciekawym wydaje się też brak proporcjonalności w układzie taktowanie - temperatura.
  8. MiK
    Przeglądając różne fora o tematyce komputerowej nie raz natrafimy na pojęcie temperatury procesora pod tzw. „obciążeniem”. Najczęściej spotykamy się z tym terminem w tematach poświęconych podkręcaniu czy chłodzeniu centralnej jednostki obliczeniowej. Niestety jest to szerokie pojęcie, niejednokrotnie błędnie interpretowane. Niektórzy mogą niewłaściwie zakładać, że maksymalne wykorzystanie procesora może występować w grze, będąc nieświadomymi istnienia specjalnych programów do tego przeznaczonych.
     
    Aby wyjaśnić niektóre nieścisłości, postanowiłem przekornie przetestować programy testujące. Eksperyment oparłem na maksymalnych wartościach uzyskanej temperatury na procesorze/rdzeniu, co dla uproszczenia można traktować jako maksymalne wykorzystanie.
     
    Specyfikacja:
    - i5 3570K @ 4.5GHz ~ 1.2V
    - chłodzenie Zalman Performa
    - pasta MX-4
     
    Założenia testu:
    - wyższa temperatura odpowiada większemu obciążeniu
    - temp. zewnętrzna 26 C
    - wstępne wygrzanie programem Prime95
    - testowanie przez 10 min
    - wszystkie zbędne procesy pozamykane
     
    Wykorzystane programy:
    - HWMonitor
    - LinX – AVX (intel burn test, OCCT linpack)
    - Prime95
    - 3DMark 11 (test fizyki)
    - Metro Last Light - benchmark
     



     
    Wykres przedstawia maksymalne temperatury procesora (package), które są w przybliżeniu równe temperaturze najcieplejszego rdzenia. Jak łatwo można zauważyć LinX wygenerował największą temperaturę wybijając się daleko poza P95. Podobną i najniższą temperaturę uzyskały 3DMark i Metro.
     



     
    Wykres przedstawia maksymalne temperatury na poszczególnych rdzeniach procesora. Tutaj sytuacja ma się analogicznie jak przypadek odnotowany wyżej.
     
    Opierając się na założeniu, że LinX generuje 100% obciążenia według odnotowanej temperatury (temp.~obciążenie), porównałem go z innymi programami użytymi w teście. Tabelka przedstawia procentowy udział obciążenia dla poszczególnych rdzeni.
     



     
    Oczywiście wygrzewanie programem P95 w zupełności wystarczy przeciętnemu użytkownikowi. Programy oparte na linpack'u (LinX, IBT, OCCT) są zarezerwowane dla testerów i maniaków stabilności. Jak wynika z tabelki gra i 3DMark generują mniejsze obciążenie niż programy. Dodatkowo te pierwsze najwięcej obciążając jedynie pierwszy rdzeń. Oczywiście istnieją różne typy gier o odmiennym wykorzystaniu dostępnych rdzeni. Ale to temat na inny wpis
  9. MiK
    Często jestem niezrozumiany. Najczęściej w sferze werbalnej. Palne jakieś słowo i każdy zastanawia się – "co on miał ma myśli". Nie jest to związane (przeważnie) z lekką wadą wymowy czy zawartością alkoholu we krwi. Pochodzę z takiego a nie innego rejonu Polski który przez ostatnie kilkaset lat wykształcił osobliwy sposób komunikacji zwany gwarą. Dawniej odległości stanowiły większy problem, więc gwara była raczej zjawiskiem lokalnym i charakterystycznym dla danego regionu. Dzisiaj potrzeba kilku godzin aby "ale urwał" czy "jestem hadrcor'em" weszło do mowy potocznej, przynajmniej na jakiś czas. Oczywiście istnieją jeszcze takie zjawiska jak akcent, dialekt itp. które dla uproszczenia możemy traktować takimi samymi kryteriami.
     
    Co gwara ma wspólnego z grami? Czasami zdarza mi się zagrać w dwie wersje językowe danego tytułu. Ostatnim takim tytułem przy którym traciłem czas, był rodzimy Wiedźmin 2 i chyba jest to najlepszy przykład na potrzeby tego tekstu. W wersji anglojęzycznej dało się usłyszeć cale spektrum językowe. Przykładowo: Zoltan mówiący z wyraźną naleciałością akcentu szkockiego. Nie wspominając o innych postaciach i odpowiednio stylizowanej mowie. A gdyby tak wspomniany Zoltan mówił w wersji polskojęzycznej gwarą śląską? A podrzędny chłopina zlecający nam ubicie stwora charakteryzował się za przeproszeniem małopolskim żargonem. Ile gra zyskałaby na klimacie gdyby wdrożyć takie usprawnienia językowe i względem wersji angielskojęzycznej wprowadzić nie tylko akcent a wspomniana gwarę? To jest tylko jeden tytuł z wielu gdzie taki zabieg mógłby znaleźć zastosowanie. Taki Uncharted 3 przykładowo (chyba jestem pierwszą osoba która podaje tą grę nie w kontekście grafiki) z postaciami Chloe i Charlie'go i odpowiednio dobranym akcentem w wersji UK w odniesieniu do PL. Ta pierwsza bohaterka z lekkim stylizowaniem na Lucy z „Rancza” mogłaby być dużo ciekawszą postacią w odniesieniu do aspektu dialogowego oczywiście. A czy Charli z głosem warszawskiego cwaniaka nie wzbudził by większej immersji? A tak przeważnie otrzymujemy neutralny voice acting z nielicznymi wyjątkami.
     

    Nie wiem co Chloe mówiła, ani z jakim akcentem i nie obchodzi mnie to
     
    Podczas procesu polonizacji aktorzy najczęściej dysponują tekstem i jedynie ścieżką audio, będąc niejednokrotnie pozbawionymi pomocnym obrazem video. Oczywiście, że trudno w takiej sytuacji wymagać jakiegoś ambitniejszego podejścia gdy aktorowi za „wczuwkę” pomaga suchy tekst, dialog w słuchawkach i porady realizatora. Ale wystarczy tylko dobre rozeznanie w temacie tego ostatniego i odpowiedni dobór aktora by choć trochę urozmaicić .
  10. MiK
    Jestem niecierpliwy. Nikt nie lubi tracić czasu bezsensownie na coś czekając. Niestety, jest jeszcze gorzej, gdy na coś musimy poświęcić choć odrobinę wysiłku i ruszyć się z wygodnej kanapy. Pół biedy gdy uda nam się załatwić naglące sprawy w drodze po szkole lub pracy odwlekając tym samym moment upragnionego obiadu czy drzemki. Jednak spora część szeroko pojętej internetowo-komputerowej społeczności poświęca swój cenny wolny czas nie potrzebom egzystencjalnym a wirtualnej rozrywce i nie wiedzieć czemu kotom na youtube.
     
    Pomijając (przynajmniej tymczasowo) sferę wojenek pc vs. konsole prowadzonych na przeróżnych forach, vlog-ach itp. zwrócę swoją uwagę w tym zlepku słów na marketingową przemowę pana odpowiedzialnego za popełnienie PS4. Mark Cerny bo tak się nazywa człowiek mający na uwadze nasz brak czasu i wrodzoną energooszczędność (czyt. lenistwo) postanowił połączyć użyteczne z dochodowym. Gdy cały internet był zajęty hejtowaniem MS i jego polityki względem XO mało kto raczył zauważyć o pewnej, bardzo ważnej kwestii poruszonej przez pana Cerny'go brzmiącej z angielska: immediate. Gdy MS starał się zablokować gry używane i na siłę połączyć nas z internetem, Sony wpadło na wydaje mi się lepszy sposób zniechęcenia nas do fizycznych nośników.
     




     
    Specjalny układ wbudowany w PS4 będzie odpowiedzialny za ściąganie danych w tle i podczas uśpienia konsoli. Załóżmy na potrzeby tekstu (wybiegając hipotetycznie w przyszłość), że wracając z pracy i odpaleniu konsoli jakimś dziwnym trafem na naszym dysku znalazło się demko najnowszego Killzone'a. Ten dziwny traf to specjalny algorytm opierający się na naszych preferencjach z poprzednich sesji lub nawet poprzedniej konsoli. Urządzenie przeanalizuje w co graliśmy wcześniej i zaproponuje przystawkę w formie wersji demo która ściągał się w czasie naszego snu lub nieobecności w domu. Zaintrygowany tym faktem postanawiam sprawdzić tytuł który okazał się tym czego szukałem i po pierwszych 10 minutach jestem skłonny odwiedzić najbliższy market z grami. Już mam wybiegać z mieszkania gdy nagle na ekranie telewizora pojawia się komunikat o możliwości natychmiastowej kontynuacji rozgrywki oferowanej przez demo. Okazało się, że kupując tytuł cyfrowo mam dostęp do pełnej gry od zaraz. Najprawdopodobniej jest już ona w całości na dysku lub ściągnie się w locie dzięki ww. układowi gdy ja będę zajęty graniem. Nie muszę czekać na download a tym bardziej iść do sklepu. Zasada jest prosta i prawdopodobnie skuteczna. Kończę demo, trafia to w mój gust, klikam zapłać i gram dalej bez zbędnego czekania. A za taką przedstawioną nam wizję odpowiedzialny jest pan Cerny. W takim wypadku mając na uwadze fizyczny nośnik (i pewne utrudnienia jakie on niesie) a natychmiastowy dostęp do interesującej mnie treści zastanowię się dwa razy nad wyborem. A wybór cyfrowy to więcej upragnionej kasy dla Sony i oszczędność czasu dla nas. Nie musimy ruszać się sprzed konsoli a jedyny wysiłek to wyrzuty sumienia będące efektem większego zadłużenia karty kredytowej.
     



     
    Idea zakupów przez internet nie jest przecież nowością! Fakt - nie jest. Jednak prowadzenie tak skutecznej promocji produktu może okazać się tym czego rynek potrzebuje. A wszystko opiera się na natychmiastowym dostępie do zawartości, która na dodatek została nam podana mimochodem. Postawa skrajnie różna od odgórnie narzuconej polityki promowanej do niedawna przez MS. Niech klient sam zdecyduje co jest dla niego najlepsze a może nie będzie chciał wrócić do starych nawyków. A w marketingu chodzi przede wszystkim o zmianę naszych dotychczasowych przyzwyczajeń na bardziej opłacalne dla danej firmy.
×
×
  • Dodaj nową pozycję...