Auflösung – welche ist die richtige?

Grundlagenartikel zum Thema Auflösung zeigt, wie man den Monitor mit der optimalen Pixeldichte (ppi) findet

3
16550

Einleitung

Zum Thema Auflösung kursieren so manche Missverständnisse. Ferner sind höhere Auflösungen zwar immer wünschenswert, haben aber auch ihren Preis und bringen in der Praxis manchmal Probleme mit sich, mit denen man vor dem Kauf gar nicht gerechnet hat. Letztlich ist Auflösung kein Selbstzweck. Die Kosten-Nutzen-Relation muss stimmen.

Mit unserem Grundlagenartikel wollen wir daher erklären, was Auflösung eigentlich ist, Licht in den Dschungel der Marketing-Begriffe bringen und zeigen, wie man für sich ganz gut bereits vor dem Kauf das Kosten-Nutzen-Verhältnis abschätzen kann.

Im zweiten Teil geben wir im Sinne einer Kaufberatung unsere subjektive Einschätzung zu gängigen Kombinationen aus Display-Größe, Display-Format und Auflösung hinsichtlich Schärfe und Eignung ab.

Auflösung – was ist das eigentlich?

Den Begriff Auflösung gibt es schon deutlich länger als Computer. Dennoch verbinden die meisten heute damit eine Megapixel-Zahl. Damit ist die Gesamtzahl der Bildpunkte in einer Rastergrafik gemeint. Eine Rastergrafik wiederum beschreibt ein Bild in digitaler und damit computerlesbarer Form. Dazu wird das Bild in einzelne Bildpunkte (Pixel) zerlegt, die rasterförmig in Reihen und Spalten angeordnet sind und denen jeweils eine Farbe zugeordnet wird.

Die Megapixel-Zahl sagt für sich allein genau genommen also noch nicht allzu viel aus. Kommt eine Format-Angabe wie 16:9 hinzu, wissen wir zumindest, wie das Raster aussieht, und können die Auflösung auch als 2560 x 1440 (QHD) oder 3840 x 2160 (UHD, 4K) beschreiben. Wie fein oder grob die Darstellung (Auflösung) tatsächlich ist, wissen wir aber immer noch nicht. Erst wenn auch noch eine Angabe zur realen Größe der dargestellten Fläche dazukommt, wird klar, wie groß die einzelnen Pixel tatsächlich sind und wie grob oder fein sie die Realität beschreiben.

Denn in der analogen Realität gibt es keine Pixel und keine Begrenzung der Auflösung. Wenn wir einen Gegenstand im Mikroskop immer weiter vergrößern, kommen also nicht irgendwann Pixel zum Vorschein. Abhängig von der Leistungsfähigkeit des Mikroskops nimmt die Vergrößerung, aber auch das Hinzukommen bzw. Sichtbarwerden von neuen, immer feiner werdenden Details zu.

Bei digitalen Bildern ist es dagegen nur eine Frage der Vergrößerung, bis das Pixelraster sichtbar wird. Die Auflösung ist also ein Maß für die Genauigkeit der Abbildung der Realität. Insofern kann die digitale Auflösung eigentlich gar nicht hoch genug sein, um sich der Realität anzunähern.

Porträt-Foto im Original
Porträt im Original
Bildausschnitt uas dem Porträt-Foto, bei dem mosaikartig das Pixelraster sichtbar wird
Bildausschnitt, bei dem mosaikartig das Pixelraster sichtbar wird

Digitale Bilddateien werden von digitalen Anzeigegeräten in der Regel als quadratische Pixel dargestellt, die ebenfalls in Reihen und Spalten angeordnet sind. Bei Projektoren werden teilweise auch rautenförmige Pixel verwendet, das soll hier aber keine Rolle spielen. Die Anzahl der Pixel, die ein Display gleichzeitig darstellen kann (native Auflösung), ist dabei unabhängig von der Datenmenge in der angezeigten Bilddatei – es kommt also auf beides an.

Aktuelle Spiegelreflexkameras mit Vollformat-Sensor liefern bereits Bilder mit 45 Megapixel oder mehr. Selbst Smartphones sind schon seit Längerem mit 12-Megapixel-Sensoren ausgestattet. Beispielsweise liefert bereits ein iPhone 6s (4032 x 3024 Pixel im 4:3-Format) also deutlich mehr Pixel, als man selbst auf einem UHD-4K-Display (3840 x 2160 Pixel) gleichzeitig darstellen kann.

Es sind daher bislang eher die Anzeigegeräte, die einen Flaschenhals darstellen. Problematisch wird das Thema Auflösung spätestens dann, wenn die Rasterung des Anzeigegerätes im Verhältnis zur Display-Größe zu gering ist, sodass das Raster mit freiem Auge sichtbar wird.

Aber schon vorher macht sich das Digitalraster negativ bemerkbar. Bei exakt horizontal oder vertikal verlaufenden Linien spielt die Auflösung zwar noch keine so große Rolle, deutlich sichtbar wird das Problem aber bei schräg verlaufenden Linien. Aufgrund der quadratischen Pixel können diese nicht richtig dargestellt werden und es entstehen treppenförmige Digital-Artefakte.

Die Abbildung unten zeigt, wie diese Artefakte mit zunehmender Auflösung – von links nach rechts – verschwinden.

Grafik von links nach rechts: Verbesserung der Kantenschärfe durch höhere Auflösungen
Von links nach rechts: Verbesserung der Kantenschärfe durch höhere Auflösungen (Grafik: Website EIZO)

Teilweise gibt es in Betriebssystemen und Anwendungen Smoothing-Algorithmen wie ClearType, die versuchen, diese Treppen-Effekte durch Einfügen zusätzlicher grauer Pixel zu glätten. Diese Glättung funktioniert zwar ganz gut, verursacht aber auch eine gewisse Unschärfe durch Ungenauigkeit bzw. Doppelkonturen. Beim „K“ ganz links kann man das gut erkennen.

Dabei verbessern höhere Auflösungen nicht nur Detailreichtum und Schärfe im Bild, sondern auch die Farbdarstellung. Das wird vor allem in Farbverläufen deutlich und lässt sich leicht nachvollziehen. Wo bei einem Full-HD-Bildschirm ein bestimmter Bereich durch genau 1 Pixel mit einem (letztlich gemittelten) Farbwert repräsentiert wird, stehen auf einem 4K-Display 4 Pixel zur Verfügung, die auch unterschiedliche Farbwerte haben können.

Je höher die Auflösung, desto schärfer und brillanter wirkt also das Bild, da die Ungenauigkeit durch die quadratischen Pixel nicht mehr sichtbar ist.

HD, Full HD, QHD, UHD-4K und Retina

Begriffswirrwarr im Marketing-Dschungel

Der Begriff HD kommt eher aus dem TV-Bereich, meint die Auflösung 1280 x 720 (auch als 720p bezeichnet) und war eigentlich nur eine Übergangslösung zum „Schärfer-als-die-Realität-Full-HD“ mit 1920 x 1080 Pixeln (auch als 1080p bezeichnet). Da man heute keinen Kunden mehr mit „Schärfer als die Realität“ in den Ich-bin-doch-nicht-blöd-Markt locken kann, musste UHD-4K (3840 x 2160 Pixel) her.

Bei den Monitoren ist da noch die QHD-Auflösung (2560 x 1440 Pixel) anzutreffen. Das steht für Quad-HD – also die vierfache HD-Auflösung, die bei Monitoren eh nie eine Rolle gespielt hat. Ehrlicher wäre stattdessen der Vergleich zu Full HD: QHD bietet im Vergleich dazu einen Auflösungsgewinn von 33 Prozent.

Das führt uns auch direkt zum nächsten, vom Marketing der Hersteller gern befeuerten und daher weit verbreiteten Missverständnis. Die 4K-Auflösung ist nicht viermal so hoch wie die Full-HD-Auflösung. Lediglich die Pixelmenge ist viermal so hoch. Das Bild besteht aber aus Höhe mal Breite, und die Auflösung wird dementsprechend in horizontalen und vertikalen Linienpaaren gemessen. Sie hat sich im Vergleich zu Full HD also nur verdoppelt (1080p x 2 = 2160p).

Hier werden die Käufer vor allem auch bei den Kamerasensoren in die Irre geführt. Der Sprung von einer 8 auf eine 12 Megapixel starke Smartphone-Kamera bei der nächsten Generation hört sich auf den ersten Blick recht beeindruckend an – immerhin das 1,5-fache. Der tatsächliche Auflösungsgewinn beträgt aber nur die Hälfte, also 25 %. Das liegt gerade so über der Wahrnehmungsschwelle. Aber auch nur dann, wenn die zusätzlichen Pixel tatsächlich auch zusätzliche Informationen aufzeichnen können. Und das ist bei den winzigen Smartphone-Sensoren in der Regel nicht mehr in vollem Umfang der Fall. Der reale Auflösungsgewinn ist also noch viel kleiner.

Das Foto links zeigt das Foto eines iPhone 6s unter optimalen Lichtbedingungen mit ISO 25 im Vollbild. Auf den ersten Blick wirkt die Aufnahme ganz passabel und detailreich. Beim Hineinzoomen in die 100%-Ansicht wird aber deutlich, dass das Pixelraster des Kamerasensors gar nicht mehr in der Lage ist, die vorhandenen Details adäquat zu erfassen. Statt einzelner Grashalme bzw. Pflanzenblätter sieht man zusammengematschte grüne Klumpen. Auch die Äste – rechts im Bild – wirken sehr glattgebügelt.

Würde man die Größe der Sensorpixel noch weiter verkleinern, um ihre Anzahl auf 24 Megapixel zu verdoppeln, könnte man – bei sonst gleicher Sensortechnologie – zwar die Äste noch weiter vergrößern, mehr Details kämen dadurch aber nicht zum Vorschein.

Foto iPhone 6s unter optimalen Lichtbedingungen mit ISO 25, Vollbild
Foto iPhone 6s unter optimalen Lichtbedingungen mit ISO 25, Vollbild
Ausschnitt Foto iPhone 6s in der 100%-Ansicht mit verlorenen Details
Ausschnitt Foto iPhone 6s in der 100%-Ansicht mit verlorenen Details

Die rein quantitative Pixel-Anzahl beim Eingangsmaterial sagt also noch nichts über die Qualität der Pixel aus. Um die Vorteile hochauflösender Displays voll nutzen zu können, müssen sowohl die Auflösung als auch die Qualität des Eingangsmaterials entsprechend mitwachsen. Solange die Auflösung des Eingangsmaterials zumindest mit der Auflösung des Ausgabe-Displays mithalten kann, kann man allerdings zumindest sagen, dass auch ein Foto mit suboptimaler Bildqualität auf einem 4K-Display nicht schlechter aussieht als auf einem Full-HD-Display.

Doch der nächste Auflösungssprung bei den Displays steht mit 8K (UHD-2) bereits in den Startlöchern. Hier wird die Auflösung im Vergleich zu 4K in Höhe und Breite wieder verdoppelt (7680 x 4320). Die Pixelzahl ist viermal so groß.

Die Fotos einer 36-Megapixel-DSLR wie der Nikon D810 (7360 x 4912) reichen hierfür ohne Bildbeschnitt gerade noch so aus (entscheidend ist die Höhe, nicht die Breite). Der Marketing-Begriff „Retina“ führt uns im nächsten Kapitel zur Frage nach dem Sinn dieser Aufwärtsspirale bei den Auflösungen.

3 KOMMENTARE

  1. Die Diskussion bzw. den Beitrag sollte man auch einmal aufs Gaming und auch 4K-UHD erweitern. Ich finde es immer unterhaltsam, wenn Trolle von 4k-Gaming quatschen und teilweise ebenso Spiele- und Pseudo-Hardware-Magazine/-seiten (zugegeben, bei den HighEnd-Grafikkarten weisen die ach so schicken Vergleichsgrafiken bei FullHD mit Ultra-Einstellungen keinen nennenswerten Unterschiede mehr auf … also zaubert man welche herbei, damit man was zu unterscheiden und zu bereichten hat).
    Gerade schnelle Spiele wie Shooter (und auch RTS, die auch mehr Klickorgien gleichkommen) sind dafür geradezu prädestiniert. Ein Battlefield 4 in FullHD mit vollem AA oder muss es doch eher unbedingt 4k-Auflösung sein? Was unbestreitbar ist, ist das letzteres wesetnlich mehr Geld kostet: der Monitor (120 oder 144 Hz in 4K wird schon „schwierig“) und die Grafikkarte, die plötzlich ein Vielfaches der bisherigen Pixelzahl berechnen muss. Und übermäßig auffallen wird der Unterschied bei gleich großen Monitoren nicht wirklich, sondern erst, wenn man sich einmal die Zeit nimmt und sich einzelne Bildbereiche genau ansieht … nur ist man dann auch schon virtuell tot oder in der Zeit hat der Gegner fleißig so viele Einheiten gebaut, dass die eigene Armeen überrannt wird. (Interessant auch die Steam-Statistiken, die weiterhin unter 1 % der Teilnehmer mit einem 4k-Monitor ausweisen, ergo „gefühlt“ reden alle darrüber aber tatsächlich hats kaum einer.)
    Ähnliches betrifft auch 4K bei Blu-rays, sog. UHD-Disk. Es ist überaus sinnvoll sich Hollywoods schnellen, achtionlastigen Einheitsbrei unbedingt in 4K ansehen zu wollen. Selbst wenn man die über 80″ betrachtet, braucht es schon mehr als typische 42 ms pro Frame, um sich die Bilddetails anzusehen. (Nicht umsonst werden im Saturn und Media Markt i. d. R. meist (nahezu) Still-Szenen (mit übersättigten Farben) zur Demonstration verwendet). Das menschliche Auge in Verbindung mit dem Gehirn nimmt im pheripheren Bereich keine Details mehr wahr; wenn uns dort etwas zu interessieren scheint, müssen wir erst unseren Fokus darauf richten um es genau zu erkennen. … aber naja, 8k sind ja bereits im kommen :-/

    Für den Büro- oder bspw. Content-Development-Bereich ist eine größere Bildfläche dagegen für den Multi-App-Betrieb immer hilfreich, entweder als Multi-Monitor-Setup (sinnvollerweise mit vergleichbarer ppi und mit schmalen Monitorrändern) oder bspw. als 21:9-Curved-Breitbildmonitor mit min. 1440 Pixeln vertikal. Sinnvoll ist aber auf jeden Fall der Hinweis bzgl. der Berücksichtigung der eigenen Sehfähigkeiten (Büro-/Computerarbeit == vielfach Brille, zum. auf Dauer). Zumindest im Büro lässt sich hier sparen, denn extreme ppi-Zahlen darstellen zu können, nützt meist wenig, wenn man dann das UI auf eine 400 %-Skalierung stellt.

    Und (später) für VR werden hochauflösende Displays ein muss sein, denn so nah, wie dieses an der Netzhaut ist, treten hier bisher immer noch einzelne Pixel sehr deutlich zu Tage, jedoch muss die Technik und vor allem auch die Entertainment-Industrie noch kräftig nachlegen um echten Bedarf zu schaffen (abseits einiger jetzt schon sehr sinnvoller, industrieller Anwendungen).

    VG

  2. Der Autor scheint doch eine gewisse Ahnung vom Technischen zu haben. Dann aber das Schrifttestbild als JPG (natürlich mit Subsampling) abzuspeichern und dadurch Kompressionsartefakte einzubauen, da zuckt mir stark die Face-Palm-Hand.

    Wahrscheinlich wäre ein PNG sogar kleiner gewesen.

    • Dass man sich das Testbild selbst erstellen muss und wie es geht ist im Text beschrieben.
      Die Abbildung dazu dient lediglich zur Verdeutlichung. Ein Downsambling hat nicht stattgefunden. Im Vergleich zu einem png mögen zwar ab der 400%-Ansicht in weißen Bereichen Kompressions-Artefakte sichtbar sein. Um zu verstehen, worum es geht, dürfte dennoch nur Ausnahmeerscheinungen schwer fallen.

Diskussion: Neuen Beitrag verfassen