BenQ Blog

10-bit vs 8-bit: hoe belangrijk is de bit-kleurdiepte van een monitor?

BenQ
2020/03/09

Een van de meer technische en onduidelijkere specificaties die je tegenkomt als je op zoek bent naar een tv of monitor, is kleurdiepte. Het laagste tegenwoordig is 8-bit, 10-bit wordt steeds populairder en 12-bit zit aan de bovenkant van de markt.

Kleurdiepte is altijd al belangrijk geweest, maar sinds de opkomst van ultra HD 4K en HDR is de mogelijkheid om kleurgradaties en -nuances preciezer weer te geven nog belangrijker geworden. Natuurlijk gold voor 1080p ook al dat een grotere kleurdiepte beter was. Maar het verschil wordt belangrijker bij dichter gevuld beelden die meer metadata bevatten. Dat komt doordat kleurdiepte uiteindelijk betekent hoeveel informatie een paneel (of scherm) accuraat kan weergeven. We noemden de metadata net – dat gaat meestal om toegevoegde informatie bovenop het basismateriaal van het beeld, bijvoorbeeld de resolutie en beeldfrequentie. HDR (high dynamic range) valt onder metadata. Hoe meer informatie een scherm weergeeft, des te preciezer en beter wordt het beeld.

Bitdiepte en het effect daarvan op de weergave van kleur is vooral aantrekkelijk voor fanatiekere gebruikers. Gamers, film- en seriefans, foto- en videografen hechten allemaal enorme waarde aan kleurechtheid. Zij weten dat elke bit telt. 

De wiskunde achter de bits

Het uitleggen van kleurdiepte wordt al heel snel erg wiskundig, maar we zullen proberen om je de saaie berekeningen te besparen. Omdat moderne schermen gebruikmaken van door digitale processoren aangestuurde pixels, vertegenwoordigt elke pixel een bepaald aantal bits aan gegevens. Elke bit heeft een waarde van nul of één voor elke primaire kleur: rood, groen en blauw, bekend als RGB. Een 8-bit paneel heeft dus 2 tot de achtste macht verschillende waarden per kleur: dat zijn 256 gradaties of versies van rood, blauw en groen. Rekenen we nu 256 x 256 x 256, dan komen we op 16,7 miljoen mogelijke kleuren.

Bij 10-bit panelen kan elke pixel tot 1024 versies van elke primaire kleur laten zien, met andere woorden: 1024 tot de derde macht - oftewel 1,07 MILJARD mogelijke kleuren. Een 10-bit scherm heeft dus de mogelijkheid om afbeeldingen met een exponentieel grotere precisie dan een 8-bit scherm weer te geven. Een 12-bit scherm gaat nog verder met 4096 mogelijke versies van elke primaire kleur per pixel. Dat zijn dus 4096 x 4096 x 4096 kleuren = 68,7 miljard kleuren. 

8-bit vs 10-bit: Wat is het grote verschil?

Het blijkt dat het verschil aanzienlijk is. Hoewel 8-bit schermen prima realistische beelden kunnen weergeven, zijn ze de absolute ondergrens voor gebruik met moderne invoerbronnen. De overgrote meerderheid van alle ultra HD 4K content (en binnenkort 8K) wordt met 10-bit of nog grotere kleurdieptes gemaakt. Dat betekent dus dat een 8-bit scherm de content niet zo kan weergeven als de makers dat bedoeld hebben. Een 8-bit scherm dat 10-bit of nog hogere content ontvangt moet de details en gradaties vereenvoudigen om ze te laten passen.

Voor een oppervlakkige kijker oogt het verschil misschien acceptabel. Maar als je iets geeft om de content die je gebruikt - werk of privé - dan is dit waarschijnlijk een te slecht compromis. Een 8-bit scherm heeft een veel kleiner bereik dan een 10-bit scherm en kan niet dezelfde rijke variatie aan verschillende kleuren laten zien. Het resultaat is een saaier, bleker beeld dat wat gewoontjes overkomt. Het gebrek aan variatie is meestal het duidelijkste zichtbaar in donkere en lichte vlakken. Op een 8-bit scherm kan de zon er bijvoorbeeld uitzien als een heldere bal waaruit duidelijke lichtbanden uitstralen. Op een 10-bit scherm ziet dezelfde zon er als een gradueel helder voorwerp uit, zonder duidelijke banden.

Een korte blik in de geschiedenis kan hierbij behulpzaam zijn. De 8-bit kleurdiepte is decennia geleden ontworpen voor VGA-beeldschermen - en beperkt zich tot het RGB-kleurenspectrum. Daardoor kunnen 8-bit beeldschermen niet omgaan met grotere kleurruimtes als Adobe RGB of DCI-P3. Ze kunnen ook HDR content niet goed weergeven – daarvoor is 10-bit het minimum.

 

Heb ik een 10-bit monitor nodig voor gaming?

Ja, en eerlijk gezegd: je zou er sowieso voor moeten kiezen. Zoals net gezegd: 8-bit hoort bij de jaren 80. In dit tijdperk met 4K HDR wil je een 10-bit scherm gebruiken om van alle voordelen van moderne graphics en content te profiteren.

Games voor moderne pc's en consoles zijn allemaal voor ten minste 10-bit gemaakt, en HDR wordt inmiddels universeel. Natuurlijk - het werkt allemaal wel met een goedkoop 8-bit scherm, maar je mist wel veel. Zelfs de duurdere 8-bit monitoren en tv's met ondersteuning voor HDR hebben beperkingen. Op een Xbox One X kan een 8-bit display met dithering (een zo goed mogelijke simulatie van 10-bit) alleen werken met basis-HDR10. Echte 10-bit schermen bieden alle mogelijkheden voor Dolby Vision en HDR10+.

In dat opzicht verschilt gamen dus niet van films kijken, streamen, fotografie of videobewerking. In alle gevallen blijven de kwaliteit en details van het bronmateriaal steeds verder toenemen. Natuurlijk moet het scherm dat je gebruikt, kunnen omgaan met de content en niet vastzitten in het verleden. En dat houdt dus in: 10-bit of meer. 8-bit is weliswaar betrouwbaar en veelvuldig bewezen in het verleden, maar het toont niet het hele plaatje.

Met 10-bit krijg je een gedetailleerder beeld en bij hogere resoluties zijn er meer details om weer te geven. Dwing een game op een 8-bit scherm te draaien, en je krijgt minder complexe donkere tinten, verbleekte lichte tinten of randvorming en texturen die bij benadering worden weergegeven. Ook al is dat niet echt schokkend, het verschil wordt steeds belangrijker. 


Kies voor grotere kleurdiepte

Gelukkig wordt de keuze steeds gemakkelijker voor aanstaande kopers van monitoren of tv's. 8-bit schermen beginnen te verdwijnen, 10-bit wordt de nieuwe norm en 12-bit komt op. Begrijp ons niet verkeerd: er zijn heel wat uitstekende 8-bit monitoren verkrijgbaar. Maar ze kunnen de topkwaliteit moderne content eenvoudigweg niet perfect tot zijn recht laten komen. Er is gewoon geen reden om niet voor 10-bit te kiezen. Als je kunt, raden wij aan dat je dat ook doet. 

TOP