Auflösung – welche ist die richtige?
2/3

Grundlagenartikel zum Thema Auflösung zeigt, wie man den Monitor mit der optimalen Pixeldichte (ppi) findet

7
41969

Wozu immer noch höhere Auflösungen?

Also alles nur Marketing-Quatsch oder doch irgendwie sinnvoll? Das kommt darauf an …

Zunächst auf die Display-Größe, denn wir haben gerade ja wieder nur über Auflösungen geredet und die wichtige Relation zur realen Größe des Displays außer Acht gelassen. Zusammengefasst wird diese Information üblicherweise in der Angabe ppi – sprich pixels per inch. Sie beschreibt, wie viele Pixel in der Display-Diagonalen aneinandergereiht auf 1 Zoll (2,54 cm) passen.

Durch den Trend zu immer größeren TVs und Monitoren muss daher auch die Auflösung erhöht werden, um das wieder auszugleichen. Auf dem Schreibtisch sind 24-Zoll-Monitore mit Full-HD-Auflösung nach wir vor am weitesten verbreitet. Das sind gerade mal 93 ppi. Eine moderne Tageszeitung schafft heute 150 lpi, bei der Foto-Ausbelichtung verwendet man üblicherweise 300 ppi, und beim Fine-Art-Print werden ebenfalls 300 dpi oder mehr verwendet.

An einem 24-Zoll-Bildschirm bräuchte man für 300 ppi eine Auflösung von 6275 x 3530 Pixeln. UHD-4K reicht hier also auch noch nicht. Sofern es keine Zwischenstufen gibt, muss schon 8K her (7680 x 4320 Pixel) – wohlgemerkt auf einem kleinen 24-Zoll-Monitor. Soll der Bildschirm größer – oder gar zum TV – werden, reicht auch 8K nicht mehr aus. Mit Blick auf den Geldbeutel mag jetzt manch technikbegeistertem Leser, der vielleicht gerade über die Anschaffung eines teuren 4K-Beamers nachdenkt, flau im Magen werden. Für eine Leinwand mit 90-Zoll-Diagonale (2 Meter Breite) bräuchten wir schon 23 523 x 13 237 Pixel für eine 300-ppi-Auflösung.

Wenn es also „Schäfer als die Realität“ gar nicht gibt und wir uns der Realität digital bestenfalls annähern können, müssen wir dann warten, bis die ppi-Angaben bei den Geräten gegen unendlich laufen, bevor wir einen neuen Monitor/TV/Projektor kaufen sollten?

Wohl kaum. Auch bei (analogen) optischen Instrumenten gibt es im Zusammenhang mit dem Auflösungsvermögen sehr wohl die Begriffe der „nützlichen“ Auflösung und der „toten“ Auflösung. Nützlich ist eine Auflösung nur dann, wenn sie auf das Auflösungsvermögen des menschlichen Auges angepasst ist. Alles was darüber hinausgeht, stiftet auch keinen zusätzlichen Nutzen mehr.

Zur technischen Beschreibung der Auflösung ist die Relation von Display-Größe zur Auflösung ausreichend. Zur Beantwortung der Frage nach der Sinnhaftigkeit ist aber noch der Betrachtungsabstand in Verbindung mit dem Auflösungsvermögen des menschlichen Auges entscheidend.

Bei einem Abstand von 25 cm können die meisten Erwachsenen einen Gegenstand dauerhaft scharf sehen. Manche Menschen können bei dieser Entfernung noch Strukturen im Abstand von 0,15 mm unterscheiden. Das ist tatsächlich aber individuell sehr unterschiedlich.
Daraus abgeleitet hat Apple bei den Smartphone-Displays eigentlich bereits vor knapp acht Jahren mit dem Begriff „Retina-Display“ beim iPhone 4 (960 x 640 Pixel, 326 ppi) die Aufwärtsspirale für beendet erklärt. Als Retina-Display bezeichnet Apple Bildschirme der eigenen Produkte, die eine so hohe Punktdichte haben, dass das menschliche Auge nicht in der Lage sein soll, aus einem typischen Betrachtungsabstand einzelne Bildpunkte zu erkennen.

Der „typische Betrachtungsabstand“ erklärt zwar, wieso ein 27-Zoll-iMac mit 5K-Display (5120 x 2880 Pixel) und „nur“ 217 ppi auch Retina heißen darf, aber nicht, wieso das iPhone X jetzt plötzlich 458 ppi braucht. Letztlich handelt es sich um einen reinen Marketing-Begriff. Genauso wie der typische Betrachtungsabstand für jeden etwas anderes ist, ist vor allem auch das menschliche Sehvermögen selbst bei gesunden, jungen Menschen doch sehr unterschiedlich ausgeprägt. Eine genaue ppi-Grenze für „Gut ist gut genug“ gibt es also nicht und müsste auch je nach Betrachtungsabstand unterschiedlich definiert werden.

Übersicht mit gängigen Auflösungen bei Monitoren im Vergleich

Bezeichnung Bildschirmauflösung in Pixeln Punktdichte in ppi
HD 1280 x 720 24 Zoll: 61
27 Zoll: 54
32 Zoll: 46
Full-HD 1920 x 1080 24 Zoll: 92
27 Zoll: 82
32 Zoll: 69
QHD, WQHD 2560 x 1440 24 Zoll: 122
27 Zoll: 109
32 Zoll: 92
4K (UHD 1) 3840 x 2160 24 Zoll: 184
27 Zoll: 163
32 Zoll: 138
8K (UHD 2) 7680 x 4320 24 Zoll: 367
27 Zoll: 326
32 Zoll: 275
iMac mit Retina-5K-Display (27″) 5120 × 2880 27 Zoll: 217
UWQHD-1440p, Ultra Wide QHD (QHD) 3440 x 1440 34 Zoll: 110
QHD+ 1600p UW4k, Quad High Definition Plus (Ultra Wide 4K) 3840 x 1600 38 Zoll: 111

Wie kann man trotzdem subjektiv für sich abschätzen, welche Auflösung man beim nächsten Monitor/TV/Projektor braucht?

Eine allgemeingültige Angabe zur Relation von ppi zum Betrachtungsabstand kann es zwar nicht geben, man kann aber trotzdem recht einfach für sich herausfinden, wann gut „gut genug“ ist.

Die Strukturbreite von 0,15 mm, aus der die meisten Erwachsenen aus 25 cm Abstand die Struktur noch erkennen können sollen, entspricht ziemlich genau der Pixelgröße bei einem 27-Zoll-Display mit 4K-Auflösung.

Aus diesem Abstand kann der Autor im subjektiven Selbsttest zwar nicht mehr das komplette Pixelraster sehen, Treppen-Effekte bei bestimmten Buchstaben aber schon. Allerdings ist der Abstand von 25 cm vom Auge zum Display weniger, als man meinen möchte – die Nase sitzt da schon fast auf. Aus 50 cm Abstand kann der Autor am normalen Desktop auch die Treppen-Effekte nicht mehr erkennen. Der übliche Arbeitsabstand am Schreibtisch dürfte bei den meisten bei 60 bis 70 cm liegen.

Für die gleiche Bildqualität dürfte also ein 4K-TV aus 2 Metern Abstand bereits 108 Zoll groß sein, ein Full-HD-TV zumindest 54 Zoll. Allerdings sind am normalen Desktop in der Regel noch ClearType-Verbesserungen aktiv, die die Treppen-Effekte (auf Kosten der Schärfe) mindern.

Für den Selbsttest empfehlen wir daher, eine Textdatei mit verschiedenen Schriftgrößen zu erstellen (am besten Arial als Schriftart), die Datei als PDF auszugeben und dann in einem PDF-Reader bei 100%-Skalierung anzuschauen. Zuvor sollte man in den Einstellungen des PDF-Readers auch noch alle Render-Verbesserungen wie „Text glätten“, „Dünne Linien deutlicher darstellen“ etc. deaktivieren. Insbesondere beim Buchstaben „A“ und der Zahl „4“ kann man dann aus nächster Nähe die Treppeneffekte sehr schön erkennen.

Dann einfach den Abstand sukzessive erhöhen. Wenn man keinerlei Treppeneffekte mehr erkennen kann, vorsichtig den Abstand von Auge zum Display messen und dann umrechnen.

Beispiel: Der Leser hat sehr gute Augen und einen Standard-24-Zoll-Monitor mit Full-HD-Auflösung. Aus 1,20 m sind die Treppen-Effekte auch beim besten Willen nicht mehr zu sehen. Dann wäre für ihn beim halben Abstand (60 cm) ein Gerät mit der doppelten Auflösung (4K) perfekt. Für die geplante Anschaffung eines neuen 40-Zoll-TVs reicht dagegen bereits aus 2 m Abstand die Full-HD-Auflösung völlig aus. Ein 4K-Gerät dürfte – abgesehen vom Der-muss-ja-besser-sein-Effekt – kaum einen Schärfevorteil bringen.

7 KOMMENTARE

  1. Danke für diesen schon recht guten Bericht, der die Sache versucht genauer zu beleuchten, um nicht Marketing-Tricks auf den Leim zu gehen!

    Ich habe einen älteren Acer 23″-Schirm mit Full-HD, also 96 ppi Pixeldichte und bin sehr zufrieden damit. Skalieren ist für Windows, egal welche Version, nach wie vor ein Problem, und für Leute mit mehreren Monitoren sowieso. Wer hochskaliert, läuft immer Gefahr, dass Informationen in Fenstern nicht mehr vollständig angezeigt werden (manchmal ohne dass man es erkennen kann). Für mich also keine echte Option da was umzustellen. Kann mir auch vorstellen, dass so ein Upscaling im OS auch noch einiges an GPU/CPU Leistung kostet.

    Für einen Neukauf stellt sich daher jetzt die große Frage: Nochmals bewährte 23″ Full-HD mit völlig ausreichenden 96 ppi, oder 24″ mit Full-HD = nur 92 ppi und vielleicht dann schon pixelig erscheinend, oder 27″ mit Q/WQ-HD (2560×1440) mit 109 ppi, also alles noch etwas fuzzeliger, als es eh schon ist.

    Bei den nächsten Monitoren (jenseits Full-HD) bekommt man vermutlich eine Lupe und ein Brillenabo dazu. Microsoft hat (neben allen Smartphone-Herstellern) übrigens zahlreiche Aktienanteile bei den weltweit größten Brillenherstellern (und wenn das nicht stimmt, habe ich es gerade plausibel und nachvollziehbar erfunden).

    Jedenfalls ist die Entscheidung nicht leicht, da man Hardware nicht einfach testen kann. Dafür gibt´s Testberichte/Vergleiche, die ich jetzt leider woanders aufstöbern muss um das große Puzzle zusammenzusetzen.

    Weitere, klitzekleine Fragen werden dann auch noch zu klären sein: Reichen plötzlich die 60 Hz? Früher waren die 75 Hz-CRTs deutlich besser (sichtbar flimmerfreier)! IPS oder moderneres E-IPS/Samsung-PLS? Blaulichtfilter (sehe ich dann überhaupt noch blau??)? Matte oder glänzende Oberfläche? Diplayport und/oder Thunderbolt? Schmaler Rahmen für 2. Monitor? Und das Wichtigste: Zahlt mir die Industrie diesen Recherche-Aufwand?

  2. Und wo sind nun die Empfehlungen hinsichtlich der passenden Kombinationen? Ich kann sie beim besten Willen nicht finden und wäre so daran interessiert… Oder muss ich selbst rechnen?

  3. Die Diskussion bzw. den Beitrag sollte man auch einmal aufs Gaming und auch 4K-UHD erweitern. Ich finde es immer unterhaltsam, wenn Trolle von 4k-Gaming quatschen und teilweise ebenso Spiele- und Pseudo-Hardware-Magazine/-seiten (zugegeben, bei den HighEnd-Grafikkarten weisen die ach so schicken Vergleichsgrafiken bei FullHD mit Ultra-Einstellungen keinen nennenswerten Unterschiede mehr auf … also zaubert man welche herbei, damit man was zu unterscheiden und zu bereichten hat).
    Gerade schnelle Spiele wie Shooter (und auch RTS, die auch mehr Klickorgien gleichkommen) sind dafür geradezu prädestiniert. Ein Battlefield 4 in FullHD mit vollem AA oder muss es doch eher unbedingt 4k-Auflösung sein? Was unbestreitbar ist, ist das letzteres wesetnlich mehr Geld kostet: der Monitor (120 oder 144 Hz in 4K wird schon „schwierig“) und die Grafikkarte, die plötzlich ein Vielfaches der bisherigen Pixelzahl berechnen muss. Und übermäßig auffallen wird der Unterschied bei gleich großen Monitoren nicht wirklich, sondern erst, wenn man sich einmal die Zeit nimmt und sich einzelne Bildbereiche genau ansieht … nur ist man dann auch schon virtuell tot oder in der Zeit hat der Gegner fleißig so viele Einheiten gebaut, dass die eigene Armeen überrannt wird. (Interessant auch die Steam-Statistiken, die weiterhin unter 1 % der Teilnehmer mit einem 4k-Monitor ausweisen, ergo „gefühlt“ reden alle darrüber aber tatsächlich hats kaum einer.)
    Ähnliches betrifft auch 4K bei Blu-rays, sog. UHD-Disk. Es ist überaus sinnvoll sich Hollywoods schnellen, achtionlastigen Einheitsbrei unbedingt in 4K ansehen zu wollen. Selbst wenn man die über 80″ betrachtet, braucht es schon mehr als typische 42 ms pro Frame, um sich die Bilddetails anzusehen. (Nicht umsonst werden im Saturn und Media Markt i. d. R. meist (nahezu) Still-Szenen (mit übersättigten Farben) zur Demonstration verwendet). Das menschliche Auge in Verbindung mit dem Gehirn nimmt im pheripheren Bereich keine Details mehr wahr; wenn uns dort etwas zu interessieren scheint, müssen wir erst unseren Fokus darauf richten um es genau zu erkennen. … aber naja, 8k sind ja bereits im kommen :-/

    Für den Büro- oder bspw. Content-Development-Bereich ist eine größere Bildfläche dagegen für den Multi-App-Betrieb immer hilfreich, entweder als Multi-Monitor-Setup (sinnvollerweise mit vergleichbarer ppi und mit schmalen Monitorrändern) oder bspw. als 21:9-Curved-Breitbildmonitor mit min. 1440 Pixeln vertikal. Sinnvoll ist aber auf jeden Fall der Hinweis bzgl. der Berücksichtigung der eigenen Sehfähigkeiten (Büro-/Computerarbeit == vielfach Brille, zum. auf Dauer). Zumindest im Büro lässt sich hier sparen, denn extreme ppi-Zahlen darstellen zu können, nützt meist wenig, wenn man dann das UI auf eine 400 %-Skalierung stellt.

    Und (später) für VR werden hochauflösende Displays ein muss sein, denn so nah, wie dieses an der Netzhaut ist, treten hier bisher immer noch einzelne Pixel sehr deutlich zu Tage, jedoch muss die Technik und vor allem auch die Entertainment-Industrie noch kräftig nachlegen um echten Bedarf zu schaffen (abseits einiger jetzt schon sehr sinnvoller, industrieller Anwendungen).

    VG

  4. Der Autor scheint doch eine gewisse Ahnung vom Technischen zu haben. Dann aber das Schrifttestbild als JPG (natürlich mit Subsampling) abzuspeichern und dadurch Kompressionsartefakte einzubauen, da zuckt mir stark die Face-Palm-Hand.

    Wahrscheinlich wäre ein PNG sogar kleiner gewesen.

    • Dass man sich das Testbild selbst erstellen muss und wie es geht ist im Text beschrieben.
      Die Abbildung dazu dient lediglich zur Verdeutlichung. Ein Downsambling hat nicht stattgefunden. Im Vergleich zu einem png mögen zwar ab der 400%-Ansicht in weißen Bereichen Kompressions-Artefakte sichtbar sein. Um zu verstehen, worum es geht, dürfte dennoch nur Ausnahmeerscheinungen schwer fallen.

Diskussion: Neuen Beitrag verfassen