Auflösung – welche ist die richtige?
2/3

Grundlagenartikel zum Thema Auflösung zeigt, wie man den Monitor mit der optimalen Pixeldichte (ppi) findet

10
73669

Wozu immer noch höhere Auflösungen?

Also alles nur Marketing-Quatsch oder doch irgendwie sinnvoll? Das kommt darauf an …

Zunächst auf die Display-Größe, denn wir haben gerade ja wieder nur über Auflösungen geredet und die wichtige Relation zur realen Größe des Displays außer Acht gelassen. Zusammengefasst wird diese Information üblicherweise in der Angabe ppi – sprich pixels per inch. Sie beschreibt, wie viele Pixel in der Display-Diagonalen aneinandergereiht auf 1 Zoll (2,54 cm) passen.

Durch den Trend zu immer größeren TVs und Monitoren muss daher auch die Auflösung erhöht werden, um das wieder auszugleichen. Auf dem Schreibtisch sind 24-Zoll-Monitore mit Full-HD-Auflösung nach wir vor am weitesten verbreitet. Das sind gerade mal 93 ppi. Eine moderne Tageszeitung schafft heute 150 lpi, bei der Foto-Ausbelichtung verwendet man üblicherweise 300 ppi, und beim Fine-Art-Print werden ebenfalls 300 dpi oder mehr verwendet.

An einem 24-Zoll-Bildschirm bräuchte man für 300 ppi eine Auflösung von 6275 x 3530 Pixeln. UHD-4K reicht hier also auch noch nicht. Sofern es keine Zwischenstufen gibt, muss schon 8K her (7680 x 4320 Pixel) – wohlgemerkt auf einem kleinen 24-Zoll-Monitor. Soll der Bildschirm größer – oder gar zum TV – werden, reicht auch 8K nicht mehr aus. Mit Blick auf den Geldbeutel mag jetzt manch technikbegeistertem Leser, der vielleicht gerade über die Anschaffung eines teuren 4K-Beamers nachdenkt, flau im Magen werden. Für eine Leinwand mit 90-Zoll-Diagonale (2 Meter Breite) bräuchten wir schon 23 523 x 13 237 Pixel für eine 300-ppi-Auflösung.

Wenn es also „Schäfer als die Realität“ gar nicht gibt und wir uns der Realität digital bestenfalls annähern können, müssen wir dann warten, bis die ppi-Angaben bei den Geräten gegen unendlich laufen, bevor wir einen neuen Monitor/TV/Projektor kaufen sollten?

Wohl kaum. Auch bei (analogen) optischen Instrumenten gibt es im Zusammenhang mit dem Auflösungsvermögen sehr wohl die Begriffe der „nützlichen“ Auflösung und der „toten“ Auflösung. Nützlich ist eine Auflösung nur dann, wenn sie auf das Auflösungsvermögen des menschlichen Auges angepasst ist. Alles was darüber hinausgeht, stiftet auch keinen zusätzlichen Nutzen mehr.

Zur technischen Beschreibung der Auflösung ist die Relation von Display-Größe zur Auflösung ausreichend. Zur Beantwortung der Frage nach der Sinnhaftigkeit ist aber noch der Betrachtungsabstand in Verbindung mit dem Auflösungsvermögen des menschlichen Auges entscheidend.

Bei einem Abstand von 25 cm können die meisten Erwachsenen einen Gegenstand dauerhaft scharf sehen. Manche Menschen können bei dieser Entfernung noch Strukturen im Abstand von 0,15 mm unterscheiden. Das ist tatsächlich aber individuell sehr unterschiedlich.
Daraus abgeleitet hat Apple bei den Smartphone-Displays eigentlich bereits vor knapp acht Jahren mit dem Begriff „Retina-Display“ beim iPhone 4 (960 x 640 Pixel, 326 ppi) die Aufwärtsspirale für beendet erklärt. Als Retina-Display bezeichnet Apple Bildschirme der eigenen Produkte, die eine so hohe Punktdichte haben, dass das menschliche Auge nicht in der Lage sein soll, aus einem typischen Betrachtungsabstand einzelne Bildpunkte zu erkennen.

Der „typische Betrachtungsabstand“ erklärt zwar, wieso ein 27-Zoll-iMac mit 5K-Display (5120 x 2880 Pixel) und „nur“ 217 ppi auch Retina heißen darf, aber nicht, wieso das iPhone X jetzt plötzlich 458 ppi braucht. Letztlich handelt es sich um einen reinen Marketing-Begriff. Genauso wie der typische Betrachtungsabstand für jeden etwas anderes ist, ist vor allem auch das menschliche Sehvermögen selbst bei gesunden, jungen Menschen doch sehr unterschiedlich ausgeprägt. Eine genaue ppi-Grenze für „Gut ist gut genug“ gibt es also nicht und müsste auch je nach Betrachtungsabstand unterschiedlich definiert werden.

Übersicht mit gängigen Auflösungen bei Monitoren im Vergleich

Bezeichnung Bildschirmauflösung in Pixeln Punktdichte in ppi
HD 1280 x 720 24 Zoll: 61
27 Zoll: 54
32 Zoll: 46
Full-HD 1920 x 1080 24 Zoll: 92
27 Zoll: 82
32 Zoll: 69
QHD, WQHD 2560 x 1440 24 Zoll: 122
27 Zoll: 109
32 Zoll: 92
4K (UHD 1) 3840 x 2160 24 Zoll: 184
27 Zoll: 163
32 Zoll: 138
8K (UHD 2) 7680 x 4320 24 Zoll: 367
27 Zoll: 326
32 Zoll: 275
iMac mit Retina-5K-Display (27″) 5120 × 2880 27 Zoll: 217
UWQHD-1440p, Ultra Wide QHD (QHD) 3440 x 1440 34 Zoll: 110
QHD+ 1600p UW4k, Quad High Definition Plus (Ultra Wide 4K) 3840 x 1600 38 Zoll: 111

Wie kann man trotzdem subjektiv für sich abschätzen, welche Auflösung man beim nächsten Monitor/TV/Projektor braucht?

Eine allgemeingültige Angabe zur Relation von ppi zum Betrachtungsabstand kann es zwar nicht geben, man kann aber trotzdem recht einfach für sich herausfinden, wann gut „gut genug“ ist.

Die Strukturbreite von 0,15 mm, aus der die meisten Erwachsenen aus 25 cm Abstand die Struktur noch erkennen können sollen, entspricht ziemlich genau der Pixelgröße bei einem 27-Zoll-Display mit 4K-Auflösung.

Aus diesem Abstand kann der Autor im subjektiven Selbsttest zwar nicht mehr das komplette Pixelraster sehen, Treppen-Effekte bei bestimmten Buchstaben aber schon. Allerdings ist der Abstand von 25 cm vom Auge zum Display weniger, als man meinen möchte – die Nase sitzt da schon fast auf. Aus 50 cm Abstand kann der Autor am normalen Desktop auch die Treppen-Effekte nicht mehr erkennen. Der übliche Arbeitsabstand am Schreibtisch dürfte bei den meisten bei 60 bis 70 cm liegen.

Für die gleiche Bildqualität dürfte also ein 4K-TV aus 2 Metern Abstand bereits 108 Zoll groß sein, ein Full-HD-TV zumindest 54 Zoll. Allerdings sind am normalen Desktop in der Regel noch ClearType-Verbesserungen aktiv, die die Treppen-Effekte (auf Kosten der Schärfe) mindern.

Für den Selbsttest empfehlen wir daher, eine Textdatei mit verschiedenen Schriftgrößen zu erstellen (am besten Arial als Schriftart), die Datei als PDF auszugeben und dann in einem PDF-Reader bei 100%-Skalierung anzuschauen. Zuvor sollte man in den Einstellungen des PDF-Readers auch noch alle Render-Verbesserungen wie „Text glätten“, „Dünne Linien deutlicher darstellen“ etc. deaktivieren. Insbesondere beim Buchstaben „A“ und der Zahl „4“ kann man dann aus nächster Nähe die Treppeneffekte sehr schön erkennen.

Dann einfach den Abstand sukzessive erhöhen. Wenn man keinerlei Treppeneffekte mehr erkennen kann, vorsichtig den Abstand von Auge zum Display messen und dann umrechnen.

Beispiel: Der Leser hat sehr gute Augen und einen Standard-24-Zoll-Monitor mit Full-HD-Auflösung. Aus 1,20 m sind die Treppen-Effekte auch beim besten Willen nicht mehr zu sehen. Dann wäre für ihn beim halben Abstand (60 cm) ein Gerät mit der doppelten Auflösung (4K) perfekt. Für die geplante Anschaffung eines neuen 40-Zoll-TVs reicht dagegen bereits aus 2 m Abstand die Full-HD-Auflösung völlig aus. Ein 4K-Gerät dürfte – abgesehen vom Der-muss-ja-besser-sein-Effekt – kaum einen Schärfevorteil bringen.

10 KOMMENTARE

  1. QHD bietet im Vergleich (zu FHD) einen Auflösungsgewinn von 33 Prozent.

    Hä? FHD sind 2,1 Mio Pixel und QHD 3,7. Wie kommt man bitte auf 33 Prozent?

    • Einfach mal den Text lesen, da ist es doch erklärt:
      Die Betrachtung der Pixelmenge, um eine Aussage über den Zugewinn an Auflösung zu treffen, ist schlicht falsch. Auch wenn das vom Hersteller-Marketing irreführenderweise immer gerne so dargestellt wird.

      Die Auflösung wird in Linienpaaren gemessen. Demzufolge gibt es eine horizontale und eine vertikale Auflösung. Um die Auflösung zu verdoppeln, braucht man die vierfache Anzahl an Pixeln. 1440 (QHD) – 1080 (FHD) = 360 Pixel mehr in der Höhe = 33% oder 2560 (QHD) – 1920 (FHD) = 640 Pixel mehr in der Breite = 33%. Die Pixelanzahl nimmt in Höhe wie Breite um den Faktor 1,33 zu. Der Auflösungsgewinn beträgt horizontal wie vertikal 33%.

  2. Hallo,

    Ich habe einen Samsung S9 Smartphone (567ppi)(60Hz) und ein Lenovo 920 Laptop mit 14 Zoll 4k Display (316ppi)(60Hz)
    Und ein Full HD 21,5 Zoll Monitor (105ppi)(60Hz), auch ein Fernseher 42 Zoll in 4k (105ppi)(60Hz).
    Für mich sind die 316ppi optimal für Laptop und Monitor allerdings bei 120Hz vor allem wenn man Gameing will. Beim Handy sollten es schon 567ppi sein denn da bist du ja mit der Nase im Bildschirm drin. Wenn das Handy noch in einer VR Brille genutzt wird sind es noch Welten bis zum Equivalent 360ppi glaube mindestens 16K bei 3,5 Zoll müssten es sein wie zb. diesen Varjo XR-1 Augmented Reality Headset der hat ja 3000ppi. Und das bei 90 Hz. Allerdings muss man da eine Höllenmaschiene mitschleppen und einen dicken 2M Kabel zum Kopf was dann Latenzen verursacht☹ Hier werden noch 20, 30 Jahre vergehen bis so ein Gerät kompakt wie eine normale Brille ist, aber bin gespannt was dann alles möglich wird.

    Ich hab mal mein Laptop auf Full HD eingestellt und diesen Text eine Weile geschrieben, konnte massenweise Treppchen erkennen weil man ja an dem anderen gewohnt war, also klarer Komfortverlust. Sogar sehe ich unter einem Abstand von 30 cm auch in voller 4K Auflösung noch Unschärfe und Treppchen trotz der hohen ppi. Nur auf mein Handy bei voller Auflösung 560ppi sehe ich auch vor die Nase nichts mehr. Verringere ich auf dem Samsung die Auflösung auf FHD+ was ja immer noch 426ppi wären kann ich wieder eine gewisse Unschärfe verzeichnen bei näheren betrachten. Wie schon zuvor auch beim Laptop ab eine Entfernung von weniger als 30cm und 360ppi kommt Unschärfe. Bei Amazon in den Rezensionen sagen auch die meisten das sie bei einem Monitor WQHD zu 4K zb. deutliche Unterschiede war nehmen. Meiner Meinung sollte ein Monitor einen PPI Wert von 360 haben ganz unabhängig von der Diagonale bei einer Betrachtungsentfernung von nicht weniger als 30cm. Wenn der Monitor nicht ausschließlich im Office Bereich eingesetzt wird dann sollen es auch unbedingt 120 Hz und KEIN TN Panel sondern IPS oder QLED, damit auch die Farben nicht blass sind. Wir sehen es sind noch keine solche Bildschirme auf den Markt aber denke im Jahr 2025 könnte es soweit werden. Der iMac Retina kommt da zumindest von der Auflösung her nahe dran. Bevor ich aber tief in die Tasche greife für ein suboptimales Gerät werde ich mein FHD Bildschirm weiter nutzen. Das Leute jetzt so viel Geld ausgeben für 49 Zoll UWQHD Monitore wie den Samsung C49RG94SSU auch wenn 5k hat der immer noch wie mein alter FHD nur 108ppi. Kann ich nicht nachvollziehen warum man 1000€ dafür ausgibt außer sind für einem Taschengeld. Klar für mein Laptop habe ich um die 2000€ ausgegeben aber es hat den Perfekten Bildschirm, da kann man nicht mehr viel sinnvoll verbessern! Ein Thunderbolt 3 Anschluss hat es auch also kann ich da eine 3080 TI dort anschließen und in Zukunft vlt. Auch eine 5080TI es sei denn die Schnittstelle wird nicht geändert, was ja die Herstellegurus gerne machen. Davor hatte ich ein Gamer Laptop ebenfalls teures Teil, das Ding hatte mir auf Grund von dem Full HD Bildschirm einfach kein Spaß gemacht und dann noch das nicht vorhandene Thunderbolt 3 Anschluss so das noch eine externe Grafik angeschlossen werden kann wenn die eingebaute zu alt wird. Den bin ich dann schnell los geworden!

    Mein Fazit:
    Vorerst große Bildschirme nur für Fernseher kaufen und mindestens in 4k denn auch das Full HD Material zb. Vom Fernsehen wird hochskaliert und kosten auch nicht mehr die Welt.
    Monitor nur mit 360ppi also 14 Zoll 4k oder 28 Zoll 8k wenn demnächst ein bezahlbarer kommt und der wird dann ziemlich sicher 60Hz sein.
    Für Gamer bietet sich vorerst nur ein 28 Zoll 4k an was immerhin 163ppi sind und da muss man 2 HDMI Kabel verwenden. Allerdings muss da auch ein Enthusiasten Computer her mit der besten auf dem Markt befindliche Grafik und Over Clock/Wasserkühlung um diesen Bildschirm einigermaßen zu befeuern.
    LG

  3. Danke für diesen schon recht guten Bericht, der die Sache versucht genauer zu beleuchten, um nicht Marketing-Tricks auf den Leim zu gehen!

    Ich habe einen älteren Acer 23″-Schirm mit Full-HD, also 96 ppi Pixeldichte und bin sehr zufrieden damit. Skalieren ist für Windows, egal welche Version, nach wie vor ein Problem, und für Leute mit mehreren Monitoren sowieso. Wer hochskaliert, läuft immer Gefahr, dass Informationen in Fenstern nicht mehr vollständig angezeigt werden (manchmal ohne dass man es erkennen kann). Für mich also keine echte Option da was umzustellen. Kann mir auch vorstellen, dass so ein Upscaling im OS auch noch einiges an GPU/CPU Leistung kostet.

    Für einen Neukauf stellt sich daher jetzt die große Frage: Nochmals bewährte 23″ Full-HD mit völlig ausreichenden 96 ppi, oder 24″ mit Full-HD = nur 92 ppi und vielleicht dann schon pixelig erscheinend, oder 27″ mit Q/WQ-HD (2560×1440) mit 109 ppi, also alles noch etwas fuzzeliger, als es eh schon ist.

    Bei den nächsten Monitoren (jenseits Full-HD) bekommt man vermutlich eine Lupe und ein Brillenabo dazu. Microsoft hat (neben allen Smartphone-Herstellern) übrigens zahlreiche Aktienanteile bei den weltweit größten Brillenherstellern (und wenn das nicht stimmt, habe ich es gerade plausibel und nachvollziehbar erfunden).

    Jedenfalls ist die Entscheidung nicht leicht, da man Hardware nicht einfach testen kann. Dafür gibt´s Testberichte/Vergleiche, die ich jetzt leider woanders aufstöbern muss um das große Puzzle zusammenzusetzen.

    Weitere, klitzekleine Fragen werden dann auch noch zu klären sein: Reichen plötzlich die 60 Hz? Früher waren die 75 Hz-CRTs deutlich besser (sichtbar flimmerfreier)! IPS oder moderneres E-IPS/Samsung-PLS? Blaulichtfilter (sehe ich dann überhaupt noch blau??)? Matte oder glänzende Oberfläche? Diplayport und/oder Thunderbolt? Schmaler Rahmen für 2. Monitor? Und das Wichtigste: Zahlt mir die Industrie diesen Recherche-Aufwand?

  4. Und wo sind nun die Empfehlungen hinsichtlich der passenden Kombinationen? Ich kann sie beim besten Willen nicht finden und wäre so daran interessiert… Oder muss ich selbst rechnen?

  5. Die Diskussion bzw. den Beitrag sollte man auch einmal aufs Gaming und auch 4K-UHD erweitern. Ich finde es immer unterhaltsam, wenn Trolle von 4k-Gaming quatschen und teilweise ebenso Spiele- und Pseudo-Hardware-Magazine/-seiten (zugegeben, bei den HighEnd-Grafikkarten weisen die ach so schicken Vergleichsgrafiken bei FullHD mit Ultra-Einstellungen keinen nennenswerten Unterschiede mehr auf … also zaubert man welche herbei, damit man was zu unterscheiden und zu bereichten hat).
    Gerade schnelle Spiele wie Shooter (und auch RTS, die auch mehr Klickorgien gleichkommen) sind dafür geradezu prädestiniert. Ein Battlefield 4 in FullHD mit vollem AA oder muss es doch eher unbedingt 4k-Auflösung sein? Was unbestreitbar ist, ist das letzteres wesetnlich mehr Geld kostet: der Monitor (120 oder 144 Hz in 4K wird schon „schwierig“) und die Grafikkarte, die plötzlich ein Vielfaches der bisherigen Pixelzahl berechnen muss. Und übermäßig auffallen wird der Unterschied bei gleich großen Monitoren nicht wirklich, sondern erst, wenn man sich einmal die Zeit nimmt und sich einzelne Bildbereiche genau ansieht … nur ist man dann auch schon virtuell tot oder in der Zeit hat der Gegner fleißig so viele Einheiten gebaut, dass die eigene Armeen überrannt wird. (Interessant auch die Steam-Statistiken, die weiterhin unter 1 % der Teilnehmer mit einem 4k-Monitor ausweisen, ergo „gefühlt“ reden alle darrüber aber tatsächlich hats kaum einer.)
    Ähnliches betrifft auch 4K bei Blu-rays, sog. UHD-Disk. Es ist überaus sinnvoll sich Hollywoods schnellen, achtionlastigen Einheitsbrei unbedingt in 4K ansehen zu wollen. Selbst wenn man die über 80″ betrachtet, braucht es schon mehr als typische 42 ms pro Frame, um sich die Bilddetails anzusehen. (Nicht umsonst werden im Saturn und Media Markt i. d. R. meist (nahezu) Still-Szenen (mit übersättigten Farben) zur Demonstration verwendet). Das menschliche Auge in Verbindung mit dem Gehirn nimmt im pheripheren Bereich keine Details mehr wahr; wenn uns dort etwas zu interessieren scheint, müssen wir erst unseren Fokus darauf richten um es genau zu erkennen. … aber naja, 8k sind ja bereits im kommen :-/

    Für den Büro- oder bspw. Content-Development-Bereich ist eine größere Bildfläche dagegen für den Multi-App-Betrieb immer hilfreich, entweder als Multi-Monitor-Setup (sinnvollerweise mit vergleichbarer ppi und mit schmalen Monitorrändern) oder bspw. als 21:9-Curved-Breitbildmonitor mit min. 1440 Pixeln vertikal. Sinnvoll ist aber auf jeden Fall der Hinweis bzgl. der Berücksichtigung der eigenen Sehfähigkeiten (Büro-/Computerarbeit == vielfach Brille, zum. auf Dauer). Zumindest im Büro lässt sich hier sparen, denn extreme ppi-Zahlen darstellen zu können, nützt meist wenig, wenn man dann das UI auf eine 400 %-Skalierung stellt.

    Und (später) für VR werden hochauflösende Displays ein muss sein, denn so nah, wie dieses an der Netzhaut ist, treten hier bisher immer noch einzelne Pixel sehr deutlich zu Tage, jedoch muss die Technik und vor allem auch die Entertainment-Industrie noch kräftig nachlegen um echten Bedarf zu schaffen (abseits einiger jetzt schon sehr sinnvoller, industrieller Anwendungen).

    VG

  6. Der Autor scheint doch eine gewisse Ahnung vom Technischen zu haben. Dann aber das Schrifttestbild als JPG (natürlich mit Subsampling) abzuspeichern und dadurch Kompressionsartefakte einzubauen, da zuckt mir stark die Face-Palm-Hand.

    Wahrscheinlich wäre ein PNG sogar kleiner gewesen.

    • Dass man sich das Testbild selbst erstellen muss und wie es geht ist im Text beschrieben.
      Die Abbildung dazu dient lediglich zur Verdeutlichung. Ein Downsambling hat nicht stattgefunden. Im Vergleich zu einem png mögen zwar ab der 400%-Ansicht in weißen Bereichen Kompressions-Artefakte sichtbar sein. Um zu verstehen, worum es geht, dürfte dennoch nur Ausnahmeerscheinungen schwer fallen.

Diskussion: Neuen Beitrag verfassen

* Sie müssen das Kästchen aktivieren, ansonsten können Sie keinen Kommentar erstellen. Sollten Sie dennoch versuchen Ihren Kommentar zu posten, ohne akzeptiert zu haben, wird eine neue Seite geöffnet und Sie erhalten einen Hinweis. Alle eingetragenen Daten, inklusive des Kommentars, gehen dabei verloren!