Popularne posty drachenfeles 5499 Napisano 28 Marca 2011 Popularne posty Udostępnij Napisano 28 Marca 2011 ostatnia aktualizacja: maj 2015 uwagi ogólne dane producenta na wstępie chciałbym zaznaczyć, że dane podawane przez producentów monitorów mimo iż nie są całkowicie wyssane z palca, także nie mówią niczego konkretnego o danym modelu oraz o tym, jak będzie się on zachowywał w rzeczywistości, chcąc poznać faktyczne osiągi monitora należy odnaleźć recenzję zawierającą testy z określoną metodologią, a z dostępnością takowych jest różnie mówiąc wprost czas reakcji tyle i tyle czy kontrast pierdzylion do jednego to wszystko pic na wodę i fotomontaż recenzje „ekspertów” sugeruję, by unikać, albo przynajmniej traktować „z przymrużeniem oka” wszelkie opinie typu „expert review” czy inne „opinie kupujących”, nie umniejszając nikomu zazwyczaj jedyne co zawierają owe wypowiedzi to kwintesencję związanej z nowym zakupem emocji nabywcy, będącego w dodatku (najczęściej) laikiem na co czasami warto zwrócić uwagę (nadal z pewną dozą nieufności) to opinie negatywne, w nich znacznie częściej spotykamy treściwe uwagi, które wypada brać po uwagę sprawa ma się podobnie z wszelkimi serwisami cytującymi dane techniczne producenta i dodającymi do nich parę słów nic nie wnoszącego bełkotu, czasami popartego rzekomymi testami prawdopodobnie polegającymi na podłączaniu monitora i sprawdzeniu jak się sprawuje na pulpicie windows oraz podczas oglądania serialu Dr. House. technikalia na początek podstawy - co to jest LCD? LCD czyli Liquid Crystal Display, a po naszemu wyświetlacz ciekłokrystaliczny, mówiąc kolokwialnie płaski monitor działający na zasadzie przedstawionej na poniższym (uproszczonym) schemacie http://media.bestofmicro.com/LED-display-CCFL-monitor-power-comparison,Y-I-290250-13.jpg światło rozprowadzane jest przez dyfuzor i szereg warstw polaryzujących trafia na panel ciekłokrystaliczny, który reguluje jego natężeniem na każdym subpikselu... każdy taki monitor to LCD, nieważnie czy czy reklamują go jako LED czy IPS czy jak tam marketing go będzie promował, o co dokładniej chodzi, co z czym i dlaczego dowiecie się czytając ciąg dalszy tego poradnika piksele i subpiksele piksel (lub inaczej plamka) pochodzi od angielskiego złożenia "picture+element" razem pixel, jest to najmniejszy jednolity element obrazu wyświetlany na ekranie monitora. każdy taki piksel świeci jakimś odcieniem koloru, a łącznie tworzą one obraz, jaki widzimy. na każdy piksel przypada pewna liczba tzw subpikseli czyli jeszcze mniejszych plamek, z których każda odpowiada za barwę składową, najczęściej RGB czyli Red Green Blue (czerwony zielony niebieski), niemniej wraz z pojawieniem się w wyświetlaczach innych niż TV paneli od Sharp powoli przechodzimy na model WRBG, gdzie W oznacza White czyli czwarty subpiksel świecący światłem białym. panel RGB wygląda w ten sposób: http://upload.wikimedia.org/wikipedia/commons/e/ef/Piksel.jpg podświetlenie wyświetlacz ciekłokrystaliczny wymaga źródła światła, które po przejściu przez panel wygeneruje obraz, ogólnie podświetlenie można podzielić na dwa zasadnicze typy: CCFL, w którym źródłem światła są zimne katody (Cold Cathode Fluorescent Lamp), niestety kilka lat temu zrezygnowano z produkcji monitorów z CCFL1 LED, w którym źródłem światła są diody emitujące światło (Light Emitting Diode) oba typy posiadają szereg wad i zalet oraz dzielą się na kilka podtypów, o których nie będę się już szczególnie rozwodził, najważniejsze z tych cech to: temperatura, czyli ile ciepła podświetlenie wydziela podczas pracy, tu na szczęście nie trzeba się rozpisywać, CCFL wbrew swojej nazwie w cale nie były zimne i produkowały spore ilości ciepła, które gdzieś, jakoś trzeba było nie tylko odprowadzić, ale i rozprowadzić równomiernie po powierzchni panelu, by uniknąć nierównomiernego zużycia, jak łatwo się domyślić, tylko w droższych konstrukcjach w ogóle przejmowano się tym problemem, tanie monitory CCFL nie miały żadnych dyfuzorów termicznych ani nie były na tyle grube (bo przecież cieńszy = lepszy, nie?) by mogły ciepło skutecznie odprowadzić, resztę łatwo sobie dopowiedzieć, LED nie generuje ciepła i w sumie tyle w temacie pobór prądu, kolejne niewymagające pojęcie, CCFL zużywały więcej prądu, co więcej im lepszy i większy miał być monitor, tym więcej świetlówek musiał mieć i tak powstały spore różnice w poborze prądu, w rozwiązaniach CCFL mógł on być nawet czterokrotnie wyższy niż w przypadku LED, które średnio biorą po 20-30W żywotność, czyli jak długo podświetlenie będzie pracowało zanim zacznie zatracać parametry, tu sporo zależy od tego jak wyświetlacz zaprojektowano, jakiej jakości komponentów użyto oraz (w przypadku CCFL) czy zastosowano dyfuzor termiczny, wysokiej jakości lampy w dobrych warunkach mogły pracować i dziesięć lat bez wpływu na parametry wyświetlanego obrazu, tanie rozwiązania ze sklepu nie dla idiotów rozjeżdżały się kompletnie po dwóch-trzech, w przypadku LED sprawa jest bardziej wyrównana, generalnie to dość żywotne bestie i teoretycznie nie ma znaczących różnic, niemniej za krótko mamy LEDy na rynku, by stwierdzić to z całą pewnością, tzn zaryzykuję i stwierdzę, że W-LEDy będą żywotne, podczas gdy GB-LED z powodu zastosowania w nich luminoforu fosforowego będą się wypalały szybciej, ale mogę się mylić widmo optyczne (spektrum), które odpowiada za to jak wiele fal składowych tworzy owo światło, im szersze widmo tym szerszy gamut (ilość kolorów), tym lepiej dla oczu i w ogóle lepiej, generalnie CCFL mają dość szerokie spektrum, przy czym możliwie pełne dają tylko tzw WCG-CCFL (Wide Color Gamut CCFL) stosowane w monitorach graficznych i dobrych telewizorach, podczas, gdy diody W-LED emitują widmo wąskie w dodatku w dość niekorzystnym zakresie, na szczęście spotykane w droższych wyświetlaczach diody GB-LED oferują znacznie szersze spektrum, w skrócie wygląda to następująco: WCG-CCFL > GB-LED > CCFL > W-LED, poniżej kilka diagramów dla porównania Światło Dzienne http://www.instantdaylite.com/images/produkte/1470/spekt_sonne_gr.jpg Standardowa CCFL http://pcmonitors.info/wp-content/uploads/2013/01/CCFL-spectrum.png GB-LED http://pcmonitors.info/wp-content/uploads/2013/01/GB-LED-spectrum.png W-LED http://pcmonitors.info/wp-content/uploads/2013/01/WLED-spectrum.png regulacja jasności, czyli to jak można wpłynąć na jasność podświetlenia, CCFL dawały się regulować w zakresie ok 20% czyli dla przykładu przy maksymalnej jasności 300cd/m2 można było go przyciemnić do ok 240cd/m2, czyli nie zbyt mocno i zdecydowanie za mało na potrzeby użytkowania takiego wyświetlacza, niższe jasności uzyskiwało się przy pomocy układu PWM (Pulse With Modulation), który podaje napięcie impulsowo przez co umożliwia zmniejszenie jasności poprzez migotanie lampą. W przypadku LED sprawa ma się nieco inaczej, po przyłożeniu nominalnego napięcia LED świeci z pełną jasnością, przy zmniejszeniu nie świeci w cale, także w celu regulacji ponownie zastosowano PWM, który migotał diodami i pozwalał na wizualne zmniejszenie jasności, wszystko to brzmi fajnie, ale jest jedno ale, poniżej znajdują się wykresy przedstawiające migotanie CCFL oraz migotanie LED Podświetlenie LED regulowane za pomocą PWM http://images65.fotosik.pl/1084/5a93851413798be2gen.png Podświetlenie CCFL regulowane za pomocą PWM http://images65.fotosik.pl/1084/79723ba3115bb028gen.png jak widać w przypadku CCFL przejście od stanu pełnego wygaszenia do pełnego rozświetlenia zajmuje trochę czasu, przez co migotanie CCFL bardziej przypomina falowanie, LED natomiast zapalają się i wygaszają momentalnie generując światło stroboskopowe, jak łatwo się domyślić oba warianty nie są najzdrowsze, lecz to drugie (stroboskopowe) jest nawet całkiem niezdrowe i może powodować liczne dolegliwości, jak pieczenie oczu, bóle głowy itp rozwiązaniem problemu migotania jest zastąpienie układu PWM droższym i jeszcze bardziej skomplikowanym układem sterowania prądem stałym tzw przetwornicą DC, rozwiązanie to znane jest szerzej pod ostatnimi czasy modnym określeniem Flicker-Free, poniżej przykładowy wykres efektów jego działania przy zastosowanych diodach W-LED Z lewej PWM, z prawej DC 100% jasności http://images61.fotosik.pl/1082/c12ea22851bdcf5agen.png http://images61.fotosik.pl/1082/c12ea22851bdcf5agen.png 50% jasności http://images63.fotosik.pl/1081/92d72b9e4b54ba1egen.png http://images64.fotosik.pl/1083/44aeac23fa456957gen.png 0% jasności http://images65.fotosik.pl/1084/3dd89cdcb8608836gen.png http://images64.fotosik.pl/1083/362aac4261be2629gen.png i jak myślicie, problem z głowy? pewnie, że nie gdyż zakres w jakim możemy regulować jasność za pomocą przetwornicy DC jest znacznie węższy niż w przypadku PWM i po prostu nie da się "zejść" z jasnością poniżej pewnego poziomu (i dalej wyświetlać obraz w poprawny sposób), należy zaznaczyć, że jest to jasność, która w jasnych biurach sprawdzi się świetnie, lecz jest generalnie za wysoka do domowego użytkowania monitora, gdzie standardowo (zależnie od warunków) powinna ona wynosić 100-120cd/m2, a w ciemniejszych pomieszczeniach i 80cd/m2, wartości te są nieosiągalne dla zwykłego Flicker-Free rozwiązania są dwa, oba stanowią hybrydę obu układów, tzn stosuje się zarówno PWM oraz DC, w pierwszym DC kontroluje podświetlenie do pewnej wartości minimalnej, a poniżej jego rolę przejmuje PWM, czyli mamy monitor, który nie migocze pod warunkiem, że jest jasny drugi wariant nazywamy Hi Frequency PWM, czyli migotanie o wysokiej częstotliwości, wypadałoby wspomnieć, że standardowo PWM podawał napięcie z częstotliwością 180-240Hz (zależnie od modelu) stąd migotanie było tak dokuczliwe, układy Hi Freqency pracują z częstotliwościami rzędu kilkunastu kHz, co więcej amplituda impulsów jest znacznie niższa niż w standardowym PWM. Niestety z racji, że to nowość nie mamy jeszcze danych na temat tego jak to rozwiązanie sprawdza się w praktyce, niemniej wszystko wskazuje na to, że takie migotanie będzie przez człowieka całkiem dobrze tolerowane jasność i kontrast to parametry wykorzystywane przez maszynkę marketingową do mieszania w głowach, jak napisałem we wstępie nie mają nic wspólnego z rzeczywistością czy jakością jasność maksymalna wyświetlacza zmierzona w cd/m2 (kandela na metr kwadratowy) jest pierwszym z nich, pokrótce - optymalna jasność do pracy w domu to 100-120cd/m2, niektórzy stosują niższe wartości np 80cd/m2, więcej zwyczajnie "wypala oczy", wyjątek stanowią wyświetlacze ustawione przy jasnym oknie lub gdy pracujemy w bardzo jasno oświetlonym pomieszczeniu, wówczas można pójść z jasnością wyżej, w niektórych przypadkach nawet do 200cd/m2, a teraz odpowiedzcie sobie na proste pytanie, po co komu wyświetlacz o jasności 400cd/m2? z kontrastem jest jeszcze gorzej, po pierwsze metodologia pomiarów to jakiś żart, po drugie istnieje coś takiego jak kontrast dynamiczny, ale od początku kontrast to parametr obrazu określający różnicę pomiędzy punktem o minimalnej i maksymalnej jasności jakie mogą być jednocześnie wyświetlone na ekranie, teraz tak większość paneli osiąga rzeczywisty kontrast w granicach 500-700:1, niektóre trochę więcej, szczególnie te z rodziny VA, które mogą przekraczać nawet 1000:1 (a tysiąc to dużo) tyle, nie da się więcej bez sztuczek i szachrajstwa w pomiarach, teraz popatrzcie na deklarowane przez producentów wartości, jasne? kontrast dynamiczny zasługuje na osoby akapit, jest to coś wszetecznie złego jeśli mówimy o jakości obrazu oraz naszym zdrowiu, najchętniej zakończyłbym stwierdzeniem - jeżeli to macie w monitorze to wyłączcie i zapomnijcie, ale wyjaśnię jak to działa, mianowicie w momencie, gdy monitor wyświetla jakiś tam obraz moduł DCR (Dynamic Contrast Ratio) będzie na bieżąco zmieniał ustawienie jasności wyświetlacza (niezależnie od naszych ustawień, ale zależnie od wyświetlanego obrazu) po to by, uzyskać maksymalnie wysoką różnicę pomiędzy punktem ciemnym, a punktem jasnym, czyli zwiększyć cyferkę przy słowie kontrast, bo dla oka efekt jaki w ten sposób się uzyskuje jest opłakany, poniżej przykłady na symulowanych obrazach, które mają na celu pokazanie zjawiska gdy obraz jest w większości ciemny jasność podświetlenia jest zmniejszana i operuje w niskich wartościach tym samym zmniejszając punkt czerni, ale jednocześnie zmniejszając czytelność obrazu i zaciemnia jasne elementy http://cnet4.cbsistatic.com/hub/i/2011/05/25/cd033e32-fdb6-11e2-8c7c-d4ae52e62bcc/bbbd27fe27ae798f4bbe2b7e5c81648d/Dynamic_dark.jpg gdy z kolei mamy do czynienia z jasnym obrazem jasność wyświetlacza jest podkręcana, by było jeszcze jaśniej http://cnet3.cbsistatic.com/hub/i/2011/05/25/cd053ba4-fdb6-11e2-8c7c-d4ae52e62bcc/5f7b358cdf30d4569e875ef76151334a/Dynamic_light.jpg a co gdy obraz jest prawie pół na pół bardzo jasny i bardzo ciemny z natury? wówczas zaczynają się schody, albo dostaniemy efekt czarnej czerni, której korekcja gamma kompletnie nie ogarnia i przejścia są całkiem zlane ze sobą za to elementy jasne będą dobrze widoczne, albo odwrotnie jasne będą przepalone i zlane, a ciemne czytelne podczas gdy w obrazach statycznych funkcja ta sprawdza się w niektórych przypadkach, osoby zajmujące się fotografią wiedzą jak działa DCR i HDR, generalnie nieźle, ale czasami wychodzi kaszana, kłopot w tym, że jak oglądamy obraz ruchomy kaszana wychodzi w zasadzie zawsze, bo podświetlenie często nie jest w stanie nadążać za każdą klatką i tak zasuwa od jasnego do ciemnego z reguły asynchronicznie do tego co aktualnie oglądamy, jak ktoś nie wierzy zachęcam do wizyty w markecie i zabawę jakimś fantastycznym monitorem z Mega DCR i tym podobnymi, wystarczy Alt-TAB pomiędzy dwoma oknami jednym ciemnym i jasnym proszę zwrócić uwagę na fakt, że każdy dobry monitor jest pozbawiony tej funkcji, a swoją korekcją gamma równo obejmuje cały zakres kontrastu statycznego, nie tylko jego wycinek, ja kto ma miejsce w modelach ze sklepu nie dla idiotów jest jeszcze jedna istotna rzecz dotycząca kontrastu, magia cyferek karze nam wierzyć, że im wyższy tym lepiej, natomiast nie zawsze jest to prawda, wysoki kontrast sprawdza się w multimediach, czyli grach i filmach, gdzie obraz wypada z reguły znacznie korzystniej, gdy wyświetlany jest w możliwie szerokim zakresie jasności, sytuacja ma się odwrotnie w przypadku pracy zarówno do prac związanych z grafiką czy ślęczeniem nad tekstem/rysunkiem technicznym, wysoki kontrast wpływa dość negatywnie na nasze zmęczenie, znużenie i ogólne nadwyrężenie wzroku, objawy są szczególnie uciążliwe przy czytaniu, gdzie z reguły mamy do czynienia z białym tłem i czarnymi fontami, w takim wypadku łagodniejszy i zdrowszy dla naszych patrzałek jest stosunkowo niski kontrast, taki, który normalnie wydawałby się nie do przyjęcia, nie bez powodu dobre monitory wyposażone w tryb tekst (lub coś podobnego) w ogóle nie wyświetlają białej bieli, tylko jakiś kremowo-żółtawy odcień, to po to by nie niszczyć nam oczu format obrazu i rozdzielczość w tym przypadku najłatwiej zacząć od słowniczka pojęć: format obrazu to wymiary wyświetlanego obrazu wyrażone ilorazem jego długości do wysokości obecnie na rynku najczęściej spotykamy formaty 16:9 oraz 16:10 rozdzielczość to parametr określający liczbę pikseli obrazu wyświetlanych na ekranie w bieżącym trybie pracy monitora, która wyraża się w postaci liczby pikseli w poziomie i w pionie. ma wpływ na: przestrzeń roboczą rozmiar plamki wydajność w grach jak łatwo się domyślić oba te czynniki idą ze sobą w parze, monitory o konkretnej rozdzielczości generują konkretne proporcje obrazu, na rynku spotykamy wiele rodzajów wyświetlaczy: XGA – czyli obraz o formacie 4:3 i rozdzielczości 1024x768 HD 720p – czyli obraz o formacie 16:9 i rozdzielczości 1280x720 HD – czyli obraz o formacie 16:9 i rozdzielczości 1366x768 SXGA – czyli obraz o formacie 5:4 i rozdzielczości 1280x1024 WXGA – czyli obraz o formacie 16:10 i rozdzielczości 1280x800 HD+ – czyli obraz o formacie 16:9 i rozdzielczości 1600x900 UXGA – czyli obraz o formacie 4:3 i rozdzielczości 1600x1200 WSXGA+ – czyli obraz o formacie 16:10 i rozdzielczości 1680x1050 FullHD – czyli obraz o formacie 16:9 i rozdzielczości 1920x1080 WUXGA – czyli obraz o formacie 16:10 i rozdzielczości 1920x1200 QHD – czyli obraz o formacie 16:9 i rozdzielczości 2560x1440 WQXGA – czyli obraz o formacie 16:10 i rozdzielczości 2560x1600 UHD 4K – czyli obraz o formacie 16:9 i rozdzielczości 3840x2160 WQUXGA – czyli obraz o formacie 16:10 i rozdzielczości 3840x2400 UHD 5K - czyli obraz o formacie 16:9 i rozdzielczości 5120x2880 WHXGA – czyli obraz o formacie 16:10 i rozdzielczości 5120x3200 UHD 8K – czyli obraz o formacie 16:9 i rozdzielczości 7680x4320 WHUXGA – czyli obraz o formacie 16:10 i rozdzielczości 7680x4800 ogólnie rzecz ujmując, „im większa rozdzielczość tym więcej miejsca na monitorze” na często zadawane pytanie „co jest lepsze 16:9 czy 16:10” odpowiedź jest dość jednoznaczna: 16:10, gdyż zapewnia większą przestrzeń roboczą, filmy i tak mają teraz proporcje kinowe, czyli 21:9 także pasy będziemy oglądać i tu i tu. Jeśli chodzi o gry wyższa rozdzielczości oznacza, że nasza karta graficzna będzie miała więcej pracy, gdyż będzie musiała generować odpowiednio większy obraz, nie oznacza to, że wysokie rozdzielczości są złe, gdyż im większa rozdzielczość tym wygodniej się gra,a sama gra wygląda lepiej, niemniej należy brać pod uwagę moc obliczeniową oraz pamięć swojej karty graficznej, generalnie karty o pamięci 512MB i mniejszej mogą mieć wyraźne trudności z rozdzielczościami przekraczającymi UXGA czy WSXGA+, podczas gdy te wyposażone w 1GB RAM nie muszą się bać FullHD czy WUXGA, większa liczba pamięci przydaje się dopiero w dużo wyższych rozdzielczościach, jak WQXGA czyli 2560×1600 (16:10) lub podczas wyświetlania obrazu na kilku monitorach jednocześnie, gdzie np. 3xFullHD wymaga od karty graficznej wyświetlenia obrazu o łącznej rozdzielczości 5760x1080 Update: w 2013 w końcu pojawiają się gry korzystające z tekstur o wyższej (niż niska) rozdzielczości, na karku premiery nowych konsol, co oznacza, że wymagania dotyczące pamięci wzrosną i 2GB będzie jak najbardziej na miejscu do grania w FullHD. W przypadku Eyefinity oraz wyższych rozdziałek odpowiednio więcej. Update: mamy początek 2015 roku, nowe konsole przyniosły spore zmiany dotyczące dostępnego budżetu pamięci co pociągnęło za sobą powoli idące zmiany, drastycznie rosnąca ilość (i jakość) efektów bufora ramki oraz rozdzielczość tekstur sprawiły, że 2GB VRAM stało się minimum, a do komfortowego grania w FooHD potrzeba będzie 3-4GB. rozmiar plamki rozmiar plamki to innymi słowy wymiary pojedynczego piksela wyświetlanego przez monitor i zależy od dwóch parametrów: rozdzielczości oraz przekątnej ma wpływ na: komfort pracy z tekstem/internetem wizualną ostrość obrazu w grach/filmach ogólnie rzecz ujmując plamka powinna być duża jeżeli chcemy pracować z tekstem, zbyt mała plamka powoduje, że czcionki męczą oczy, rzecz ma się odwrotnie w przypadku filmów i gier, gdzie mniejsza plamka powoduje, że obraz staje się wizualnie ostrzejszy, a wszelkie załamania gładsze jak poznać, że plamka jest duża lub mała? z reguły taką informację można wyczytać z danych producenta, plamka dla tekstu nie powinna być mniejsza niż 0.27mm gdy producent nie podaje danych na temat rozmiaru plamki wystarczy porównać rozdzielczość oraz przekątną monitora, 0.277mm plamka spotykana jest w 24” monitorach o rozdzielczości FullHD, ta sama rozdzielczość wyświetlona na mniejszej przekątnej zwróci nam odpowiednio mniejszą plamkę, 21.5” monitor FullHD to 0.248mm plamka tymczasem, 27” monitor FullHD będzie miał plamkę o rozmiarze 0.311mm należy zaznaczyć, że duża plamka nie jest czynnikiem dyskwalifikującym monitor, jako dla gracza optymalnym rozmiarem monitora do pracy z tekstem/internetem jest 22” WSXGA+ o plamce 0,282mm pokrycie panelu powierzchnia monitora (a konkretnie panelu) może być pokryta jedną z dwóch rodzajów warstw - odblaskowa (gloss) oraz matową (non-glare) różnice pomiędzy nimi są dość oczywiste: pierwsza (gloss) nasila refleksy świetlne poprzez nadanie panelowi właściwości lusterka dzięki czemu panel posiada atrakcyjniejszy wygląd oraz możliwie jest tuszowanie wielu jego wad, przy czym należy zaznaczyć, że w sprzyjających warunkach obraz na takim wyświetlaczu wygląda ostrzej i czyściej. w niesprzyjających możemy się w nim przejrzeć albo zostać oślepionym gradem refleksówdrugi typ (anti-glare lub AG) czyli pokrycie matowe neguje refleksy świetlne (za co podziękują nam nasze oczy), ale z drugiej strony - zwłaszcza, gdy warstwa jest gruba - sprawia wrażenie, że ostrość wyświetlanego obrazu wydaje się mniejsza lub obraz nie jest "krystaliczny"od jakiegoś czasu producenci paneli poszli na swoisty kompromis i w lwiej części wyświetlaczy stosuje się tzw "Light-AG" czyli matową warstwę o mniejszej grubości, czego efektem jest wariant pośredni czyli panel, który w sprzyjających warunkach wygląda "ostrzej" niż zwykłe AG, natomiast w niesprzyjających nie powoduje tak agresywnych refleksów i odbić jak robi to glossz oczywistych względów pokrycie matowe jest wysoce wskazane, niemniej są osoby, które preferują monitory, w których mogą się przejrzeć podczas pracy, cóż wybór należy do użytkownika typ panelu monitory LCD mogą posiadać jeden z czterech typów matrycy: TN, VA, IPS lub PLS, każda z nich ma swoje wady i zalety, pokrótce wyglądają one następująco: update: powoli pojawiają się na rynku panele IGZO od Sharp, jest to szalenie fajna opcja, ale na dzień dzisiejszy droga, niemniej jak ktoś szuka monitora zdolnego do wykręcania bardzo wysokich rozdzielczości na stosunkowo małej powierzchni IGZO jest produktem dla niego - dla ścisłości IGZO nie jest nowym typem panelu, jak wyżej wymienione, tylko półprzewodnikiem - Tlenek Indu Galu i Cynku - In Ga Zi Ox - który umożliwił miniaturyzację TFT - tranzystorów cienkowarstowych odpowiedzialnych za sterowanie ciekłym kryształem TN (twisted nematic) –najbardziej rozpowszechniony typ matrycy charakteryzuje się stosunkowo dużą „responsywnością” oraz niskimi kosztami produkcji wadami TN'ek są przede wszystkim tzw. „wąskie kąty widzenia”, określenie to oznacza, że matryca zniekształca obraz tym bardziej im bardziej odchylamy się od optymalnego spojrzenia na wprost monitora, przeciętny kontrast oraz stosunkowo wysoki punkt czerni (co oznacza, ze czerń nie jest czarna) z innych wad należy wymienić niezdolność do reprodukcji standardowego gamutu, panele TN ograniczenie są do 6 bit na kolor, niemniej współcześnie każdy panel TN wyposażony jest w jakąś formę technologii pozwalającej mu wyświetlać standardowy gamut (8 bit na kolor). Zaletą TN jest, wspomniana wcześniej responsywność, dzięki której udało się zastosować w nich obsługę 120Hz sygnału wideo, która pozwala na bardziej płynne wyświetlanie ruchomego obrazu. dobry do: biura gier (szczególnie modele 120Hz) VA (vertical aligment) – charakteryzują się szerszymi niż TN kątami oraz wysokim kontrastem przy niskim punkcie czerni, dzielą się na kilka podtypów, do najważniejszych należy (już nieprodukowany) PVA (Patterned VA), MVA (Multi-domain VA) oraz ASV (Advanced Super View) produkowany przez Sharp 10 bitowy wariant MVA. zasadniczą wadą matryc VA jest niska „responsywność”, która spowodowała, że były one montowane praktycznie wyłącznie w drogich monitorach profesjonalnych, w których problem ghostingu ma niewielkie znaczenie, pomimo stosowania układów typu „overdrive” PVA i MVA były generalnie zbyt mało responsywne, by nadawały się na monitory multimedialne lub ich produkcja byłaby zbyt droga. Zdatność do multimediów zyskały po zastosowaniu technik symulacji impulse-type, co zmniejszyło widoczny ghosting. dobry do: Zastosowań profesjonalnych (PVA, MVA, ASV) Multimediów (A-MVA, ASV) IPS (in-plane switching) – matryce IPS określa się czasem mianem uniwersalnych, gdyż teoretycznie łączą one w sobie zalety matrycy TN oraz VA pozostając wolnym od ich wad, cóż... teoretycznie praktycznie IPS'ki mają szersze kąty oraz wyższą resposnywność (wszystko to w porównaniu do VA), niestety mają też zazwyczaj dość przeciętny kontrast przy wysokim punkcie czerni (porównywalny z TN), panele IPS są też podatne na tzw. „srebrzenie” czyli transparentną, jasną poświatę pojawiającą się wokół ciemnych elementów obrazu, widoczną zazwyczaj, gdy w pomieszczeniu z monitorem jest ciemno, efekt ten występuje w różnym stopniu w różnych modelach, najczęściej dotyka tych, które osiągają wysoką jasność maksymalną (więcej niż 250cd/m2). Panele IPS (podobnie jak VA) dzielą się na wiele podtypów, najważniejsze to H-IPS (Horizintal IPS), e-IPS (economical IPS) oraz AH-IPS (tu LG nie zdradził, co mają znaczyć literki AH, Advanced Horizontal IPS?) podczas, gdy H-IPS służy do rozwiązań profesjonalnych, istnieją nawet warianty tego panelu z obsługą 10bit na kolor (szeroki gamut), które nie wymagają żadnych dodatkowych układów, tak panele e-IPS są przede wszystkim tanie, jako warianty multimedialne mają zawężone kąty oraz gamut, dzięki czemu zyskują na responsywności i nadają się nawet do wymagających gier. Wygląda na to, że AH-IPS jest uniwersalne i/lub LG produkuje różne jego warianty, mamy zarówno tanie budżetowe konstrukcje na tej matrycy, jak i bardziej poważne, w obu przypadkach panel sprawuje się całkiem dobrze. dobry do: Zastosowań profesjonalnych (H-IPS, AH-IPS) Multimediów i Gier (e-IPS, AH-IPS) PLS (plane to line switching) nowy rodzaj panelu, wprowadzony przez szajsunga w 2012 sięgający korzeniami do paneli IPS, w porównaniu do IPS ma bardzo szerokie kąty, wyższy kontrast oraz niższy punkt czerni (nadal słabszy od VA), teoretycznie ma same zalety w stosunku do nawet najlepszych IPS’ek. Budżetowy wariant czyli AD-PLS (nie mam pojęcia co znaczy AD) wykazuje mniej więcej tyle samo wad i zalet (nie licząc mniejszego srebrzenia), co konkurencyjny AH-IPS, plus wygląda na to, że mniej wyświetlaczy z tym panelem cierpi na nieakceptowalny backlit bleeding, niemniej może to wynikać z tego, że na razie nie przeżył jeszcze renesansu i nie montują go w "co drugiej" konstrukcji, czas pokaże. Update: Panel o podobnych właściwościach produkuje też AU Optronics, pojawił się on na rynku w grudniu 2013, nazwano go AHVA (Advanced Hyper-Viewing Angle). dobry do: Multimediów i Gier - jak na razie panele te nie zagościły w profesjonalnym sprzęciewięcej o panelach http://www.tftcentral.co.uk/articles/panel_technologies.htm słowniczek pojęć: gamut - zakres barw możliwy do odwzorowania przez dane urządzenie, tu wyrażony w bitach na kolor i dla ułatwienia nazwany: wąskim (6bit), standardowym (8bit) oraz szerokim (10bit) "kąty" - czyli to jak duże straty na kontraście (a w praktyce zniekształcenia obrazu) powoduje spoglądanie na panel pod kątem, dobre (szerokie) kąty = mniejsze zniekształcenia kontrast - parametr elektrooptyczny obrazu, który określa stosunek luminancji maksymalnej do luminancji minimalnej, im wyższy kontrast tym (do pewnego stopnia) lepszy obraz punkt czerni - to parametr oznaczający ile światła generuje monitor, gdy wyświetla czerń, im niższy punkt czerni tym czarniejsza czerń luminancja - wielkość fotometryczna będąca miarą natężenia oświetlenia padającego w danym kierunku, inaczej mówiąc jasność wyświetlacza podsumowując: nie ma idealnego monitora LCD, wybierając konkretny model należy ze szczególną uwagą wybrać typ matrycy tak, by jak najbardziej odpowiadała ona naszym potrzebom oraz zasobom portfela dla ułatwienia i porównania poniżej zestawienie najważniejszych z punktu widzenia domowego użytkownika cech paneli [table] [td][/td] [td]TN[/td] [td]VA[/td] [td]IPS i AD-PLS/AHVA[/td] [td]S-PLS/AHVA[/td] [td]Kąty[/td] [td]Słabe[/td] [td]Przeciętne[/td] [td]Dobre[/td] [td]Bardzo Dobre[/td] [td]Kontrast i Czerń[/td] [td]Słabe lub Przeciętne[/td] [td]Dobre[/td] [td]Słabe lub Przeciętne[/td] [td]Przeciętne[/td] [td]Responsywność[/td] [td]Bardzo Dobra[/td] [td]Słaba lub Przeciętna[/td] [td]Dobra[/td] [td]Dobra[/td] [td]Backlit Bleeding[/td] [td]Widoczny lub Wyraźnie Widoczny[/td] [td]Mniej Widoczny[/td] [td]Wyraźnie Widoczny[/td] [td]Widoczny[/td] [/table] defekty paneli piksele mają brzydki zwyczaj "umierania", tzw badpixele lub martwe piksele, które są przedmiotem wielu pytań, najważniejsze odpowiedzi to: nie, nie da się tego uniknąć nie, nie zależy to od producenta monitora/jakości itd po prostu jest szansa jedna na ileśtam miliardów, że jeden lub kilka subpikseli w panelu ulegnie awarii i "umrze" tak to jest w tej technologii gwarancja na badpiksele zależy od dwóch rzeczy - klasy panelu jaki zakłada producent (najczęściej klasa 2) oraz typu defektu więcej na ten temat można przeczytać tutaj: http://www.eizo.pl/serwis-i-gwarancja/defekty-pikseli/ cyfrowa reprezentacja kolorów marketing każe nam wierzyć w wiele rzeczy, niektóre mamy wierzą w nutellę, a niektórzy, że jak kupią monitor na IPS to kolory będą fantastyczne, nie jest to do końca nie prawda, ale jest prostolinijną manipulacją jak "w mordę strzelił" dlaczego tak się dzieje? nie, nie będę pisał o korporacjach i ich praktykach, ale skupię się na tym jak kolor jest realizowany w urządzeniu zwanym wyświetlaczem ciekłokrystalicznym z powyższego słowniczka znamy już słówko gamut, pisałem tam o bitach, natomiast nie napisałem o co właściwie chodzi, działa to tak: w sygnale cyfrowym każda barwa składowa czyli RGB (red green blue) posiada pewną liczbę odcieni wyrażoną w bitach i tak 6bit (czyli 26)daje nam 64 różne odcienie każdego koloru, 8bit (28) to już 256 odcieni na kolor podczas, gdy 10bit (210) daje nam okrągłe 1024 odcienie każdej barwy składowej, żeby wyliczyć z tego łączną liczbę barw jakie mamy do dyspozycji wychodzi nam, że przy 6bitach jest ich 64x64x64 (czyli 643) co daje 262144 różnych barw, idąc dalej 2563 = 16,7 miliona, a 10243 aż 1,07 miliarda - jak łatwo zauważyć różnice są drastyczne jak to wygląda w zestawieniu z ludzką percepcją, bo pewnie zaraz ktoś zapyta po co mi tyle skoro nie zobaczę? zobaczysz, obraz 6 bitowy wygląda np tak: http://www.helpweaver.com/bittech/6bit.jpg obraz 8 bitowy jest tym do czego jesteśmy przyzwyczajeni na co dzień, a 10 bit to coś faktycznie graniczącego z możliwościami postrzegania przez człowieka teraz tak, panele TN potrafią sprzętowo obsłużyć jedynie 6 bitów na kolor * panele VA 6 lub 8, ASV 10 bit panele IPS 6, 8 lub 10 bit a panele PLS (afaik) 6 lub 8 bit więc jak to się dzieje, że na tych TN'ach nie ma takiego bohomazu jak wyżej tylko widzimy z grubsza tak samo? dzieje się tak dzięki metodom rozszerzania gamutu poprzez symulację barw, których panel nie potrafi wyświetlić, są na to dwie metody, starszy dithering i nowszy FRC * - update: w 2015 roku pojawił się pierwszy 8 bitowy panel TN produkowany przez AUO, który zastosowano w modelu Asus ROG Swift PG278Q, podobne pogłoski dotyczą paneli serii XLxx30Z od BenQ (też wyposażone w panele tego samego producenta, choć z innej serii). dithering działa następująco: http://www.oocities.org/icecow88/img/970p-dithering/magyarazat-en.gif poniżej dwa przykłady implementacji ditheringu w LCD http://babryce.com/x200/dithering.jpg http://www.toastyx.net/lp2480zx/dithering-before.png na szczęście czasy, gdy ta barbarzyńska technologia królowała w LCD (czyli mniej więcej przed 2009) już minęły, współcześnie stosuje są moduł FRC czyli Frame Rate Control (lub AFRC, gdzie A znaczy Advanced plus kilka innych odmian, niemniej zasada działania pozostaje praktycznie taka sama) działa ona z jednej strony podobnie do ditheringu z drugiej trochę inaczej, mianowicie gdy monitory wyposażony w FRC otrzyma zadanie wyświetlenia piksela lub grupy pikseli o barwie, której panel nie potrafi ogarnąć programuje sobie dwie najbliższe barwy, jedną ciemniejszą, drugą jaśniejszą od tej, którą ma uzyskać, lecz w przeciwieństwie do ditheringu nie pokazuje nam ich obok siebie tylko na przemian na tym samym pikselu (bądź grupie pikseli) w kolejnych klatkach obrazu, mówić wprost migocze bardzo szybko przechodząc od jednej barwy do drugiej co sprawia wrażenie tej właściwiej i jednolitej barwy jak to wygląda w praktyce? każdy 6 bitowy panel jest wyposażony w FRC (co zapisuje się czasami jako 6+2) bo w sumie dzięki mechanizmowi panel wyświetla pełen 8 bitowy gamut lecz podstawowa liczba barw to 6 bit na kanał panele 8 bitowe z reguły po prostu są 8 bitowe, natomiast nawet w profesjonalnych monitorach spotykamy wiele konstrukcji 8+2 bit, które wyświetlają szeroki gamut dzięki FRC prawdziwe panele 10 bitowe są po pierwsze bardzo drogie, po drugie pierwsze sztuki (oznaczone jako P-IPS) wyprodukowano dopiero na przełomie 2011/2012 roku i pojawiły się w serii PA oraz SpectraView/Reference od NEC, później w niektórych modelach serii CG od Eizo, obecnie produkowane przez Sharp panele ASV też mogą być 10 bitowe żeby nie było wątpliwości, na rynku budżetowych monitorów (poniżej 1,5k) prawie wszystkie mają panele 6+2, niezależnie czy to TN, IPS czy VA, prawie bo A-MVA produkowana przez AUO jest prawdziwie 8 bitowym panelem i na tym byśmy skończyli natomiast w kwestii koloru w LCD to dopiero początek, sam panel daje nam tylko "pole do popisu" i wyznacza pewne możliwości, pewne granice, natomiast prawie w żaden sposób nie na wpływa na to jakie te kolory będą za tą kwestię odpowiadają dwa kolejne elementy, te które czynią monitor kolokwialnym "szitem" lub nie, są to tablica LUT (Look Up Table) oraz "przetwornik", nie będę wchodził bardziej w szczegóły w skrócie działa to tak: karta graficzna podaje 8 bitowy sygnał cyfrowy, tak tylko ośmiobitowy, żeby sygnał miał 10bit należy zaopatrzyć się w FirePro lub Quadro (ewentualnie Matrox'a jak nam na 3d i akceleracji nie zależy) tak na marginesie jeżeli mamy stację roboczą do pracy z grafiką i chcemy do niej szerokogamutowy monitor 10 bitowy sygnał to must have sygnał trafia do monitora, który konsultuje go ze swoją tablicą LUT, która pełni rolę palety z której można wybierać, im więcej bit ma LUT tym większy wybór i bardziej precyzyjna selekcja zestawu do wyświetlenia, należy dodać, że monitory do pracy z kolorem posiadają tzw programowalne LUT, czyli możliwość modyfikowania zawartych w niej wpisów, by możliwa była sprzętowa kalibracja monitora, monitory bez programowalnego LUT nie nadają sie do sprzętowej kalibracji następnie procesor w monitorze dokonuje korekcji (przetworzenia) tych informacji w taki sposób, by subpiksele zapaliły się we właściwy sposób, ten etap też jest ważny i też liczony w bitach, im więcej bit na raz jest w stanie "ogarniać" ten układ tym precyzyjniej będzie sterował panelem droższe monitory przetwarzają każdy kanał RGB z osobna, osobno liczą szarości, niektóre nawet osobno czystą czerń i czystą biel, podczas gdy tanie konstrukcje wszystko hurtem, co jak łatwo się domyślić ma zasadniczy wpływ na dokładność i występowanie błędów w typowym, budżetowym monitorze mamy następujący scenariusz: 8 bitowy sygnał -> 8 bitowy LUT -> 8 bitowy "przetwornik" -> panel 6+2 lub 8 bitowy tymczasem w lepszych konstrukcjach może to odbywać się następująco: 8 bitowy sygnał -> 12 bitowy LUT -> 10 bitowy "przetwornik" -> panel 6+2 lub 8 bitowy czasem 8+2 bitowy poniżej poglądowe zdjęcie porównujące "szit" z dobrym monitorem: http://monitory.mastiff.pl/images/eizo-lg.jpg podsumowując, monitor nie będzie miał "lepszych" kolorów ponieważ zastosowano w nim IPS czy co by tam nie wymyślono, monitor należy zrobić porządnie, a panel wyświetli to w mniej lub bardziej pełny sposób, ale sam nie ma za wiele do gadania w kwestii jakości (dokładności) owych kolorów ”responsywność” określenie „responsywność” nazywane jest często „szybkością matrycy” i równie często jest mylone z tzw. „czasem reakcji” ma wpływ na: ghosting jakość obrazu w grach i filmach mówiąc wprost to jest jeden z parametrów całkiem do olania, dzieje się tak z powodu faktu, że te cyferki niczego konkretnego nie gwarantują, jest to pomiar dokonany w nieznanych warunkach w nieznanej metodologii nie regulowanej żadnymi przepisami, normami czy standardami, mówiąc wprost wolna amerykanka, świetnie to wychodzi na przykładzie różnych producentów montujących w swoich urządzeniach takie same panele, jeden poda 8ms inny 5ms, a jeszcze inny zrobi pomiary tak, by wszyła całkiem inna liczba, a panel ten sam, wiadomo mogą wyjść pewne różnice na overdrive, ale zbyt silny impuls bardziej skracający czas wznoszenia się piksela skutkuje przy okazji overshotem, co wygląda nieźle na papierze (krótki czas reakcji) ale wizualnie generuje overdrive tailing nie raz bardziej dokuczliwy od "normalnego" smużenia co więcej pomiar podany przez producenta obrazuje nam jedynie zdolność zastosowanej matrycy do reagowania na wąskie spektrum odcieni szarości i często ma się nijak do tego, jak dana matryca radzi sobie z wielobarwnym obrazem, bądź bardziej złożonymi przejściami, nie bez powodu każdy producent dokonuje tych pomiarów inaczej, (prawie) każdy stara się zrobić je tak, by wynik był jak najniższy, stąd marketingowo atrakcyjne pomiary rzędu 1-2ms. informacji na temat rzeczywistego zachowania się planelu w danym wyświetlaczu należy szukać w recenzjach, gdzie obok zdjęć z programu PixPerAn znajdziemy bardziej zaawansowane pomiary uwidoczniające na wykresach faktyczne zachowanie się piksela, a nie szemraną średnią w milisekundach więcej na temat czasu wznoszenia i opadania piksela oraz overdrive można przeczytać w tym artykule: http://www.tftcentral.co.uk/articles/response_time.htm a tutaj kilka słów o innych technikach zmniejszania ghostingu http://www.tftcentral.co.uk/articles/motion_blur.htm słowniczek pojęć: responsywność - określa podatność monitora na ghosting, gdy ten wyświetlany jest w szybkim tempie, np. podczas gier lub filmów akcji czy meczy sportowych, gdy kamera podąża za „szybką piłką” generalnie im większa „responsywność” tym mniejszy ghosting ghosting – czyli zniekształcenie obrazu występujące w formie rozmycia lub efektu poświaty/ducha czas reakcji – według normy ISO 13406-2 określa odcinek czasu zmierzony w ms, w którym dany monitor potrafi dokonać pełnego przejścia z plamki wygaszonej (czarnej) do plamki w pełni jasnej (białej) i z powrotem do plamki czarnej, niemniej w praktyce producenci monitorów stosują prawie wyłącznie tzw. pomiarem „gtg” (grey-to-grey), czyli np od plamki szarej (świecącej niepełnym światłem, ciemnym) do szarej (świecącej pełniejszym światłem, jasnym), metodologia pomiarów jest różna dla każdego producenta overdrive – technologia pozwalająca na skrócenie czasu wznoszenia się piksela overdrive tailing – w zasadzie też ghosting, ale powstały w wyniku niewłaściwe bądź zbyt agresywnie zastosowanego overdrive display lag (input lag) input lag lub po naszemu opóźnienie wejścia lub poprawniej display lag czyli opóźnienie wyświetlacza (gdyż input lag to tylko składowa całego opóźnienia) to zjawisko występujące w monitorach LCD, polegające na opóźnieniu wyświetlanego obrazu w stosunku do czasu sygnału sterującego obrazem, czyli tego z myszy i klawiatury ma wpływ na: komfort oraz precyzję w grach, szczególnie fps i „zręcznościówkach” czy symulatorachten parametr jest dość oczywisty, liczy się on praktycznie wyłącznie wśród graczy, dla których nawet drobne opóźnienie wpływa na efekt rozgrywki opóźnienie wejścia liczy się w ms i (jak łatwo obliczyć) dla obrazu wyświetlanego ze stałą szybkością 60 klatek na sekundę, jednak klatka trwa dokładnie 16.666 ms, a co za tym idzie obraz wyświetlany z opóźnieniem bliskim 16ms będzie opóźniony względem sygnału wejścia o jedną klatkę, analogicznie przy opóźnieniu ~33ms sygnał wejścia zostanie opóźniony o dwie klatki, dysproporcja ta rośnie lub maleje w zależności od liczby wyświetlanych klatek, np. taki sam 16ms input lag, przy 100 klatkach na sekundę osiągnie opóźnienie wejścia przekraczające półtorej klatki co z tego wynika? tyle, że monitor dla gracza powinien być wolny od display lag'u (a takie nie istnieją) lub ten nie powinien przekraczać kilku (góra kilkunastu) ms, podczas gdy dla pozostałych użytkowników (lub mniej wymagających graczy) ma on dość marginalne znaczenie dlaczego? jeżeli macie monitor z opóźnieniem wejścia i zastanawialiście się jak to się dzieje, że czasem macie gościa na celowniku, a zamiast headshota wbijacie pudło to prawdopodobnie z powodu tego, że to, co widzicie na monitorze jest lekko przesunięte w czasie względem ruchu myszą więcej na temat opóźnienia wejścia i jego pomiarów: http://www.tftcentral.co.uk/articles/input_lag.htm 120Hz monitorów 120Hz nie należy (niestety) mylić z 100/200Hz TV, to są różne technologie i choć wiele wskazywało na to, że w monitorach (przynajmniej niektórych) stosuje się podobne rozwiązanie co w telewizorach (czyli dodawanie/dublowanie klatek z sygnału, czego efektem jest np 100FPS z nadawanych 25FPS co osiągają 200Hz TV) w monitorach dla graczy tak nie jest. 120Hz monitor dla gracza potrafi akceptować sygnał o wyższej częstotliwości i płynnie wyświetlać więcej niż 60FPS, czyli jeżeli mamy sprzęt, który osiąga 100+ FPS w Crysis 3 (czy tam w co najczęściej gramy) możemy śmiało inwestować w 120Hz monitor, wszędzie, gdzie płynność ma priorytet taki monitor ją nam da, ponownie, pod warunkiem, że nasz rig da radę swobodnie tyle wygenerować. update: w listopadzie 2013 pojawił się pierwszy monitor 120Hz nie będący TN'ką w dodatku naszpikowany kontrolującą płynność obrazu elektroniką (nie jest tak szybki jak TN'ki ale ma jedną zasadniczą zaletę - nie jest TN'ką), co więcej eizo było tak miłe, ze krok po kroku opisali jak to działa, zapraszam do lektury: http://www.eizo.pl/uploads/2013/10/EIZO-FORIS-FG2421-PL-funkcja-Turbo-240-2013-10www.pdf VSync, G-Sync, Adaptive Sync, po co to komu te synchronizacje? wyświetlacze LCD są przystosowane do pracy ze stałą częstotliwością sygnału, jest to standardowo 60Hz, a w przypadku monitorów dla graczy 120/144Hz i cóż to znaczy? znaczy to tyle, że poprawnie i płynnie wyświetlają obraz tylko, gdy sygnał ma tą jedną ustaloną częstotliwość, czyli niech będzie 60Hz, co tłumaczy się na 60 klatek na sekundę generowanych przez kartę graficzną, kłopot w tym, że sygnał karty graficznej bardzo rzadko jest równy i stały, różne sceny podczas gier w różnym stopniu obciążają GPU, co skutkuje zmienną liczbą klatek, dla przykładu minimalnie 27, maksymalnie 72, średnio 59, ma to zasadniczy wpływ na to, co dzieje się z obrazem - gdy klatek jest za dużo monitor "upycha" nadprogramowe klatki co skutkuje błędem obrazu znanym jako "tearing", gdy z kolei klatek jest za mało pojawia się zjawisko nazwane "shuttering" lub "stuttering" tearing może wyglądać następująco http://www.geforce.com/Active/en_US/shared/images/articles/introducing-the-geforce-gtx-680-gpu/Tearing2-650.png shuttering oznacza nierówną animację, taką, która losowo przyśpiesza i zwalnia, jest to zjawisko, które może się wiązać także z brakiem wydajności (szczególnie przy za małej ilości pamięci VRAM), ale nasz konkretny przypadek wynika tylko z pracy wyświetlacza, a konkretnie z braku synchronizacji, w poniżej mały test http://www.testufo.com/#test=stutter synchronizacja pionowa (w skrócie VSync od Vertical Synchronization) jest to bardzo stare rozwiązanie, które opracowano jeszcze na potrzeby wyświetlaczy kineskopowych (CRT), gdzie działało dobrze i pozwalało na płynną pracę wyświetlacza ze zmiennym sygnałem wideo, w przypadku wyświetlaczy ciekłokrystalicznych (LCD) działa, ale nie do końca, gdyż zasada działania LCD nijak ma się do CRT, pod które VSync opracowano mianowicie w przypadku LCD VSync redukuje nadwyżkę klatek, czyli eliminuje tearing, nie pozwalając sygnałowi przekroczyć możliwości wyświetlacza, za co płacimy zwiększeniem opóźnienia wejścia oraz bardziej widocznym shutteringiem w przypadku, gdy klatki spadną poniżej częstotliwości pracy wyświetlacza rozwiązaniem tego problemu ma być (bo na dzień dzisiejszy to głównie zapowiedzi) odpowiednio Adaptive VSync (nVidia) Adaptive Sync (VESA) G-Sync (nVida) w praktyce są to różne nazwy dla mniej więcej tego samego rozwiązania tego samego problemu, innymi słowy zamieniają one pasywną synchronizację pionową na aktywną, czyli taką, która "sprawdza" ile klatek w danej chwili podaje karta graficzna i odpowiednio gasi/uruchamia VSync (Adaptive VSync) lub reguluje i dostosowuje go dynamicznie (G-Sync oraz Adaptive Sync), podczas gdy pierwsze rozwiązanie daje się rozwiązać programowo z poziomu sterownika obrazu pozostałe dwa już nie, wymagają one instalacji w monitorze co-procesora, który przyjmie na siebie to zadanie i będzie w czasie (prawie) rzeczywistym dostosowywał synchronizację do sygnału. pierwsze wyświetlacze z wbudowanym G-Sync mają pojawić się jeszcze w tym roku (2014), podobnie jak te wyposażone alternatywny Adaptive Sync, który będzie działał na wszystkich kartach graficznych, ale tylko za pośrednictwem złącza DisplayPort w wersji 1.2a interface każdy monitor musi posiadać gniazda wejścia obrazu, obecnie na rynku istnieją cztery rodzaje takich wejść: VGA (Video Graphics Array) DVI (Digital Visual Interface) HDMI (High Definition Media Interface) Display Port (DP) cechy owych złącz są dokładniej omówione tutaj: http://forum.benchmark.pl/topic/145759-jakim-kablem-pod%C5%82%C4%85czy%C4%87-monitor/ z czym to się je? ogólnie rzecz ujmując należy unikać złącz analogowych, gdyż wpływają one negatywnie na jakość obrazu, zwłaszcza kolorów dzieje się tak z powodu drogi jaką musi przejść cyfrowy sygnał wysyłany przez kartę graficzną, mianowicie „na dzień dobry” jest on przepuszczany przez RAMDAC i konwertowany na analogowy, by spełnił wymogi złącza, czynność sama w sobie jest ok, następnie w tej formie „przechodzi” przez kabel do gniazda w monitorze, gdzie ponownie jest on konwertowany na cyfrowy, który może być wyświetlony przez monitor i tutaj - jak łatwo się domyślić - pojawia się problem, bo w monitorze nie ma żadnego RAMDAC'a tylko najprostszy przetwornik ADC, który podczas pracy poza konwersją sygnału z powrotem na cyfrowy powoduje straty w rzeczonym sygnale złącza cyfrowe nie posiadają wyżej opisanej wady i jeśli chodzi o jakość obrazu nie mają na niego praktycznie żadnego (negatywnego) wpływu, co więcej cyfrowe sygnały wideo dvi oraz hdmi są tożsame, można nawet dostać kable posiadające z jednej strony wtyczkę dvi-d, a z drugiej hdmi, przewaga hdmi pojawia się dopiero wówczas, gdy podłączamy urządzenie wyposażone w głośniki, gdyż hdmi potrafi przenosić (obok sygnału wideo) nieskompresowany sygnał audio różnice pomiędzy interface'ami cyfrowymi pojawiają się dopiero w bardzo wysokich rozdzielczościach oraz w urządzeniach profesjonalnych, szczególnie monitorach graficznych, dla ułatwienia poniższe równanie wskazuje na to które lepsze: DispalyPort 1.3 > DisplayPort 1.2 > HDMI 2.0 > DVI > HDMI 1.4 ergonomia kupując nowy monitor warto zwrócić uwagę nie tylko na parametry obrazu ale także na obudowę oraz możliwości regulacji panelu, w tanich monitorach najczęściej spotykamy jedynie ograniczone opcje regulacji pochylenia w tył-przód oraz chybotliwą, niestabilną podstawkę, podczas gdy droższe modele, szczególnie te przeznaczone dla grafików i inżynierów posiadają szeroki wachlarz takich opcji, od regulacji pochylenia w pionie w pełnym zakresie począwszy, przez możliwość regulacji wysokości panelu, na opcji pivot (czyli możliwości przekręcenia panelu o 90 stopni w prawo) skończywszy, a monitor stoi stabilnie, nawet jak przydarzy nam się potrząsnąć stołem i to by było na tyle, mam nadzieję, że o niczym istotnym nie zapomniałem, a tekst okaże się przydatny dla osób rozważających wybór nowego wyświetlacza konstruktywna krytyka mile widziana ad 1) z takiego samego powodu, dla którego wymuszono RoHS i kilka innych bezmyślnych i niczemu nie służących ustaw - ekoterroryzm czyli narzędzie UE do napychania sobie portfeli kosztem obywateli, jak łatwo się domyślić ma on marginalny wpływ na ochronę przyrody, za to bardzo znaczący na jakość i żywotność produktów IT, a raczej ich brak 1 205 Cytuj Link to post Share on other sites
voxcordi 294 Napisano 28 Marca 2011 Udostępnij Napisano 28 Marca 2011 Świetny post. Proszę o przeniesienie do poradników. Brawo @drachenfeles. Cytuj Link to post Share on other sites
zrazik 2 Napisano 3 Kwietnia 2011 Udostępnij Napisano 3 Kwietnia 2011 Ja bym jeszcze dodał conieco: Odnośnie podświetlenia LED to nie wiem czy są energooszczędne - sprawność świetlówki liniowej jest niemal identyczna jak Diód led (nie wiem jak CCFL ale penie podobnie) Zaś główna oszczędność to 1 cm mniej za monitorem Standardowy monitor - jasność 300cd/m2 - pobiera np 40W podświetlany LED - jasność 250cd/m2 - 20W oszczędny podświetlany standardowo - 250cd/m2 - 20W A mnie w monitorach główne wnerwia nierówne podświetlenie i na to zwracam uwagę głownie przy filmach i zdjęciach to widać. A art interesujący 2 Cytuj Link to post Share on other sites
Ant1dote 0 Napisano 14 Kwietnia 2011 Udostępnij Napisano 14 Kwietnia 2011 Bardzo pomocny artykul napewno sie przydal dla amatorow takich jak ja Cytuj Link to post Share on other sites
Player1 1183 Napisano 14 Kwietnia 2011 Udostępnij Napisano 14 Kwietnia 2011 Kawał dobrej roboty. Duży plus dla ciebie menciu. Cytuj Link to post Share on other sites
Fankman 49 Napisano 6 Marca 2012 Udostępnij Napisano 6 Marca 2012 Super napisane . Cytuj Link to post Share on other sites
Popularne posty .Kozi. 37 Napisano 24 Marca 2012 Popularne posty Udostępnij Napisano 24 Marca 2012 Zastanawiam się nad kupnem nowego monitora i zrobiłem sobie prostą poglądową grafikę, przedstawiającą porównanie najpopularniejszych rozmiarów monitorów przy różnych proporcjach. Może komuś się przyda http://i41.tinypic.com/21amrdt.png 36 Cytuj Link to post Share on other sites
Szczyrczek 11 78 Napisano 10 Czerwca 2012 Udostępnij Napisano 10 Czerwca 2012 bardzo pomocny poradnik + Cytuj Link to post Share on other sites
wronek15 0 Napisano 9 Lipca 2012 Udostępnij Napisano 9 Lipca 2012 bardzo dobry i pomocny poradnik,polecam Cytuj Link to post Share on other sites
drachenfeles 5499 Napisano 14 Sierpnia 2012 Autor Udostępnij Napisano 14 Sierpnia 2012 postanowiłem dorzucić ten news tutaj http://www.flatpanelshd.com/news.php?subaction=showfull&id=1344853042&newsletter&utm_source=MadMimi&utm_medium=email&utm_content=BenQ+XL2420T+review+-+OUYA+to+challenge+PS3+and+Xbox+360+-+Buyer+exposes+LG%27s+marketing+trick+-+Welcome+back+-+OLED+rear+view+mirror&utm_campaign=20120813_m113271120_Aug+13%2C+2013&utm_term=newsletter_sub1_jpg uroczy przykład tego, co widzimy w materiałach promocyjnych, a co dostajemy w rzeczywistości, dlatego - czytajcie recenzje 5 Cytuj Link to post Share on other sites
kabak 1991 63 Napisano 2 Lutego 2013 Udostępnij Napisano 2 Lutego 2013 Brawo mod. Nareszcie ktoś nakreślił wszystko jak trzeba. 1 Cytuj Link to post Share on other sites
seebeek17 9 Napisano 8 Czerwca 2013 Udostępnij Napisano 8 Czerwca 2013 swietne Cytuj Link to post Share on other sites
Gość usunięty Napisano 30 Listopada 2013 Udostępnij Napisano 30 Listopada 2013 Do autora poradnika - celowo pominąłeś matrycę typu OLED? Sprzęt zbudowany w oparciu o tego typu matryce jest produkowany przez firmy LG oraz Sony (co do Samsunga to nie znalazłem informacji)... Cytuj Link to post Share on other sites
drachenfeles 5499 Napisano 30 Listopada 2013 Autor Udostępnij Napisano 30 Listopada 2013 OLED to nie LCD, a tego drugiego dotyczy poradnik Cytuj Link to post Share on other sites
Gość usunięty Napisano 30 Listopada 2013 Udostępnij Napisano 30 Listopada 2013 (edytowane) Może. Ale zwyczajny użyszkodnik nie odróżnia tego. Ba - zwyczajny użyszkodnik uważa, że LCD to rodzaj matrycy (choć to drugie powoli się już zmienia w świadomości) Może dlatego warto o tym wspomnieć, aby rozwiać wszelkie wątpliwości? Edytowane 30 Listopada 2013 przez Igorrodz Cytuj Link to post Share on other sites
drachenfeles 5499 Napisano 30 Listopada 2013 Autor Udostępnij Napisano 30 Listopada 2013 powiedz mi jak miałby mieszać LCD z OLED, którego nawet (jeszcze) nie ma na rynku? a nawet jak pomiesza to już jego problem i od tego są tematy, żeby takie rzeczy tłumaczyć Cytuj Link to post Share on other sites
Gość usunięty Napisano 30 Listopada 2013 Udostępnij Napisano 30 Listopada 2013 (edytowane) którego nawet (jeszcze) nie ma na rynku Są. Od LG na ten przykład (choćby LG 55EA9800 a nawet LG 84LA9800 - wyobraź sobie granie w BF4 na takich ). Na razie tylko telewizory ale jak wiesz każdy taki telewizor można używać z pecetem jakby to był monitor. A mniejsze typowe monitory też na pewno się pojawią niebawem. Trzeba wyprzedzać czas i pisać o nowych technologiach, choćby tylko informacyjnie. O! od tego są tematy, żeby takie rzeczy tłumaczyć No to tłumaczmy, choćby tutaj Edytowane 30 Listopada 2013 przez Igorrodz Cytuj Link to post Share on other sites
drachenfeles 5499 Napisano 30 Listopada 2013 Autor Udostępnij Napisano 30 Listopada 2013 Na razie tylko telewizory otóż to, dlatego należą do działu HDTV jak się pojawią monitory to będę o nich pisał, nie martw się Cytuj Link to post Share on other sites
extremist 1 Napisano 18 Grudnia 2013 Udostępnij Napisano 18 Grudnia 2013 Tlenek Indygo Galu i Cynku - In Ga Zi Ox Proszę poprawcie to indygo bo psuje profesjonalizm reszty artykułu. In - to ind. Ot co. // poprawione, dziękuję, tak wygląda lekcja "nie przepisuj za dziennikarzami" // drachenfeles 1 Cytuj Link to post Share on other sites
elvismt 757 Napisano 5 Listopada 2014 Udostępnij Napisano 5 Listopada 2014 do czego to doszło abym na benchmark wchodził z wykop.pl Gratulacje za bardzo dobry artykuł Cytuj Link to post Share on other sites
ksalM 1 Napisano 13 Lutego 2015 Udostępnij Napisano 13 Lutego 2015 Ogrom wiedzy o monitorach. Należy podziękować Autorowi że pracę co niniejszym czynie. Czytając coraz więcej o lcd'kach mam wrażenie że to bardziej wyrób monitoropodobny - mam wrażenie że jeszcze nie dogonił CRT - bo np.: albo kąty, albo czerń... Cytuj Link to post Share on other sites
poandy 1 Napisano 18 Lutego 2015 Udostępnij Napisano 18 Lutego 2015 Czy juz pojawiły się monitory 24cale,60Hz (nie TN) z technologią Adaptive sync lub g-sync? Cytuj Link to post Share on other sites
drachenfeles 5499 Napisano 18 Lutego 2015 Autor Udostępnij Napisano 18 Lutego 2015 afaik nie Cytuj Link to post Share on other sites
poandy 1 Napisano 18 Lutego 2015 Udostępnij Napisano 18 Lutego 2015 Dziękuję Cytuj Link to post Share on other sites
CoMeszzz 0 Napisano 20 Lutego 2015 Udostępnij Napisano 20 Lutego 2015 (edytowane) Naprawdę super poradnik! Edytowane 20 Lutego 2015 przez CoMeszzz Cytuj Link to post Share on other sites
Recommended Posts
Dołącz do dyskusji
Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.