4k Monitor in Full-HD betreiben - Qualitätsverlust?

  • Hallo Zusammen,


    ich wollte mir einen 27er mit 4K kaufen. Allerdings nur weil es den Monitor in der Ausstattung in Full-HD nicht gibt.


    Da ich ca. 60cm vom Bildschirm sitze würde ich rein Rechnerrisch nichts von 4K haben, da man irgendwelche Unterschiede

    in den Pixeln eh nicht erkennen würde. Dazu reicht das menschliche Auge nicht aus.


    Die Schrift wäre bei 4K eh zu klein so das ich den Monitor wohl nur in Full-HD betreiben würde.



    Müsste ich in der Auflösung mit einer schlechteren Bildqualität gegenüber einen nativen Full-HD Monitor rechnen?

    Bildverhältnis ist ja das selbe.



    Danke

  • ich wollte mir einen 27er mit 4K kaufen. Allerdings nur weil es den Monitor in der Ausstattung in Full-HD nicht gibt.

    Welches Gerät hattest du dir herausgesucht? Vielleicht gibt es ja doch Alternativen, die dir hier jemand empfehlen könnte.


    Da ich ca. 60cm vom Bildschirm sitze würde ich rein Rechnerrisch nichts von 4K haben, da man irgendwelche Unterschiede

    in den Pixeln eh nicht erkennen würde. Dazu reicht das menschliche Auge nicht aus.


    Das ist nicht korrekt. Ein normales menschliches Auge kann, je nach dargestelltem Bild, durchaus deutliche Unterschiede erkennen. Am deutlichsten sichtbar ist das bei starken Kontrastübergängen. Je nach Anwendungsfall lässt sich dieser Effekt jedoch durch eine Erhöhung der Qualität des Eingangmaterials vermindern. (z.B. bei 3D Anwendungen durch Nutzung von Anti-Aliasing)



    Die Schrift wäre bei 4K eh zu klein so das ich den Monitor wohl nur in Full-HD betreiben würde.

    Die Schrift von modernen Betriebssystemen und den meisten Anwendungen lässt sich automatisch anpassen.

    Windows 10 etwa hat eine Schrift-Skalierungsfunktion. Rechte Maustaste auf den Desktop -> Display-Settings (vermutlich Bildschirm-Einstellungen auf Deutsch) -> unter Skalierung und Layout.


    Müsste ich in der Auflösung mit einer schlechteren Bildqualität gegenüber einen nativen Full-HD Monitor rechnen?

    Bildverhältnis ist ja das selbe.


    Nein, das sollte nicht der Fall sein. Ein normaler 3840x2160 Bildschirm sollte ein 1920x1080 Bild auch klar darstellen können. (Sofern der Hersteller keinen Mist gebaut hat. Aber Achtung, das kann vorkommen!...) Das liegt allerdings nicht nur daran, dass diese Auflösungen das selbe Seitenverhältnis haben. Sondern insbesondere daran, dass bei 3840x2160 genau 4 Pixel (2x2) auf jeden Pixel eines 1920x1080 Eingangssignals kommen. So kann dann der Monitor einen Pixel des Eingangssignals nehmen, und damit 4 Pixel auf dem Gerät ansteuern.

    Das gilt auch für 1280x720. Das wären dann 9 (3x3) Pixel. Es gilt aber nicht etwa für 1366x768, 1600x900, 2560x1440 und noch ein paar andere. Bei diesen Auflösungen verlierst du zwangsweise an Bildqualität, wenn du sie auf einem 3840x2160er auf die volle Bildfläche gezogen darstellen möchtest.


    Mit anderen Worten: So oft es geht verwende 3840x2160. Solltest du eine alte Anwendung nutzen, die ihre Schrift nicht automatisch anpasst, oder sollte eine 3D Anwendung (insb. Spiele) aufgrund der hohen Auflösung zu langsam laufen, dann wechsle am besten auf 1920x1080, oder im schlimmsten Fall auf 1280x720.


    Last but not least: Wenn du einen richtigen PC verwendest, keinen Laptop, dann kannst du deinen alten Bildschirm noch nebenbei als Zweitmonitor betreiben. Windows erlaubt dir dann auch eine Textgröße für jedes Gerät einzeln festzulegen.

  • Man sollte immer die native Auflösung vom Monitor nutzen. Interpolation ist meist eine Crux und wird kaum zufriedenstellend funktionieren.


    Habe es bisher nur einmal wirklich zu 100% gesehen das ein 4k Modell die FHD sauber darstellen kann und dies war beim PA322UHD-2. - sogar mit 120Hz.


    Dann lieber mit der internen Skalierung von Windows 10 arbeiten. Alles andere ist Käse.

  • Man sollte immer die native Auflösung vom Monitor nutzen. Interpolation ist meist eine Crux und wird kaum zufriedenstellend funktionieren.


    Na gut, du hast da sicher mehr Erfahrung bei aktuellen Monitoren als ich. Daher kann ich mich diesem Ratschlag nur anschließen.



    Aber gibt es eigentlich einen nachvollziehbaren Grund dafür, weshalb Monitor-Hersteller dieses scheinbar triviale Pixel-Mapping so sehr verbocken?

  • Den Grund kann ich dir mit 100% Sicherheit nicht nennen aber warum sollte man einen demensprechende Auflösung zu 100% abdecken wenn die native Auflösung eine ganz andere ist!?


    Die Hersteller machen das was gefordert wird und das in der nativen Auflösung - Interpolation geht zwar aber meist ziemlich mies und ist ein Hängen und Würgen - ein ziemlich schlechter Kompromiss; es sei denn der NEC PA322UHD-2 kommt ins Spiel - der zimmert jede Auflösung (dem Format entsprechend) demensprechend auf den Bildschirm das es ein Genuss ist - FHD sogar mit 120Hz und absolut gigantisch was auch seinen Preis hat.


    Hersteller kümmern sich also nur um das geforderte und Zugaben (Spezifische Anwendungsbereiche) sind auch demensprechend zu bezahlen...

  • Hersteller kümmern sich also nur um das geforderte

    Naja, anscheinend wohl eher nicht. Ich hab mich auch gerade gewundert, warum der ASUS PB27UQ bei 1280×720 interpoliert, siehe Test. Anscheinend macht der Monitor das auch bei FullHD, der Text des Testartikels ist an der Stelle nicht ganz eindeutig. Ich finde das total dämlich. Ich bräuchte langsam einen neuen Monitor und hätte gerne einen mit einer hohen Pixeldichte (wofür 27" fast schon wieder zu groß ist). Im Moment kann ich aber 4K nicht betreiben, dafür brauche ich auch noch einen neuen PC. Der läßt aber noch eine Weile auf sich warten (aus verschiedenen Gründen). In der Zwischenzeit könnte ich den 4K-Monitor auf FullHD laufen lassen. Und da hätte ich gerne eine nichtinterpolierte Darstellung. Kann ja nicht so schwer sein. Diese kleinere 4K-Auflösung ist ja nicht zufällig ein ganzzahliges Vielfaches (kgV, genau genommen) von HD und FullHD.


    Aus meiner Sicht ist das nichts anderes als Sturheit/Borniertheit/Blödheit/wasauchimmer seitens der Hersteller.

  • Zitat

    Aus meiner Sicht ist das nichts anderes als Sturheit/Borniertheit/Blödheit/wasauchimmer seitens der Hersteller.


    Und wer bitte soll dieses Feature bezahlen? Der Hersteller? Sicher nicht - der Kunde muss das bezahlen und dies ist eben kostspielig und nichts für den Massenmarkt!

  • Wer (außer dir) sagt denn, daß das nichts für den Massenmarkt ist? Und selbst wenn dem so ist: Das ist doch kein teures Feature! Die Auflösungen, um die es geht, kann man mit den Monitoren sowieso fahren, es geht nur darum, wie interpoliert wird. Bei diesen beiden Auflösungen könnte man einfach auf die Interpolation verzichten. Das zu implementieren ist wirklich kein Aufwand. Das ist wieder so eine BWLer-Sichtweise …

  • Mit mir hat das nichts zu tun. Die Interpolation bedarf einem demensprechend Panel und Technik dahinter. Bisher habe ich dieses Feature nur beim NEC PA322UHD gesehen und der kostet stolze 2500 EUR.


    Auch wenn der PA322UHD auf meinem Tisch steht so benötige ich ein solches Feature nicht (auch wenn er es kann; habs nur 1 mal kurz getestet) und so ergeht es 99,9% der Anwender ergo nichts für die Masse da die Quantität nicht erreicht wird um solche Geräte "günstig" zu produzieren.


    Warum soll dies für lau implementiert werden wenn die native Auflösung eine andere ist!? Wäre ja Perle vor die Säue geworfen; ist ungefähr so wenn man sich eine UHD hinstellt aber FHD anzeigen lässt. Dafür ist der Monitor eben nicht gedacht ;)

  • 99,9%? Das ist eine reine Behauptung deinerseits (und das hat nur mit dir etwas zu tun). Ich bin mir sicher, daß es viel mehr Leute gibt, die HD oder FullHD gerne ohne Interpolation hätten. Ich bin ja offensichtlich schonmal nicht der einzige hier.


    Dem Panel sollte es vollkommen egal sein, was für ein Bild es darstellen soll. Die Interpolation ist eine Frage der Signalverarbeitung. Übrigens geht es hier darum, nicht zu interpolieren, wenn es nicht nötig ist. Das Argument Perlen vor die Säue, weil die native Auflösung eine andere ist, ist vollkommen an den Haaren herbeigezogen. Es kann doch ohne weiteres Anwendungen geben, bei denen man den Monitor mit einer niedrigeren Auflösung betreiben muß, auch wenn man ihn sonst die meiste Zeit bei nativer Auflösung betreibt. Und wenn der Monitor vom Hersteller für etwas nicht gedacht ist, was technisch ganz einfach möglich wäre, dann hat der Hersteller eben nicht weit genug gedacht, siehe oben.


    Wenn das so ein Problem ist, dann erklär doch mal (technisch fundiert), warum. Was ist so aufwendig daran, ein FullHD-Bild schlicht bilinear zu verdoppeln (und ein HD-Bild bilinear zu verdreifachen) anstatt es zu interpolieren?


    PS: Der Samsung U24E590D scheint das zu können.

  • Um ehrlich zu sein stecke ich nicht in der Materie drin so das ich hierbei kein fundiertes (technisches) Hintergrund Wissen anbieten könnte. Technisch bin ich raus aber dennoch hab ich in nun 15 Jahren so gut wie keinen Kunden gehabt der sich einen größeren Monitor kauft um den dann auf FHD zu betreiben - wobei es gab mal jemanden der wegen einem Sehleiden sich einen WHQ kaufte hat und dann auf FHD betrieb.


    Betrachte ich mir aber seit 15 Jahren die Entwicklung der Geräte (es standen viele Geräte auf meinem Schreibtisch und wurden von mir getestet) und auch was passiert wenn man nicht in der nativen Auflösung fährt so habe ich bisher nur den PA322UHD gesehen der ein wirklich bombastisches Bild bei FHD und auch mit120Hz abgeliefert hat. Egel welcher anderer Hersteller es war - Interpolation war immer schlechter.


    Persönlich schaue ich auf meinem Gerät auch TV oder ähnlich und die Qualität leider wenn man Interpoliert.


    Zitat

    Einen sehr anschaulichen Vergleich zur interpolierten Auflösung entdeckte ich in einem Artikel von Ilja Höpping (Westfälische Rundschau, 11. Dezember 2004): "Dieses Vorgehen ist etwa so, als würde man eine halbe Flasche Wein mit Wasser auffüllen. Das Ergebnis wäre quasi interpolierter Wein.“


    Der Vergleich kommt hin ;)


    Wiki spuckt folgendes aus: https://de.wikipedia.org/wiki/Interpolation_(Fotografie)

  • Was willst Du mir denn damit nun sagen? Gerade weil Interpolation die Qualität reduziert und weil sie bei HD und FullHD nicht nötig ist, will ich sie bei diesen Auflösungen abschalten können. Warum ich diese Auflösungen mit einem 4K-Monitor nutzen will, ist meine Sache, es gibt gute Gründe, sicher auch gute und mir nicht bekannte Gründe für andere Leute.


    Ich denke, daß das Panel eines Monitors immer mit »nativer« Auflösung betrieben wird, egal mit welcher Auflösung man den Monitor betreibt. Die Firmware des Monitors rechnet das Bild vom Rechner auf die Auflösung des Panels um, wenn die kleiner ist als die Auflösung des Panels. Dieses Umrechnen nennt sich Interpolation, was meiner Meinung nach nicht ganz richtig ist, weil da (meistens) nicht zwischen zwei Werten neue Werte eingefügt sondern aus den alten neue Werte berechnet und die alten verworfen werden. Das nennt man eigentlich Resampling. Weil aber FullHD mit 1920×1080 je Richtung genau die Hälfte von 4K bzw. 3840×2160 ist, hat man die Möglichkeit tatsächlich zwischen jeweils zwei Werten einen weiteren reinzurechnen, das wäre Interpolation und wird wohl von den meisten Monitoren gemacht, oder eben einfach jeden Wert je Richtung zweimal zu verwenden. Das wäre dann Pixelwiederholung. Bilinear, wie ich es weiter oben genannt habe, ist falsch, das bezieht sich auf lineare Interpolation in zwei Richtungen. Bei HD mit 1280×720 könnte man zwischen zwei Werten zwei neue reinrechnen (jeweils vertikal und horizontal, also bilinear/bikubisch/bi-sonstwie) oder jeden Wert einfach dreimal verwenden, um auf 4K zu kommen. Wenn man neue Werte reinrechnet, dann wirkt das wie Weichzeichnung, wenn man die bestehenden Werte zwei- bzw. dreimal verwendet (einfach wiederholt), dann wird das Bild einfach nur gröber, aber dafür ändert sich am Inhalt nichts. Die Qualität bleibt unverändert, es wird einfach nur größer. Es wird einfach auf 200% bzw. 300% gezoomt. Da muß aber wie gesagt nichts gerechnet werden. Das einzubauen kann also nicht so ein Aufwand sein, daß es sich für einen Hersteller nicht rentiert. Für mich sieht das nach einer Mentalität nach dem Motto »Paßt schon so, mehr braucht niemand.« aus. Vielleicht gibt es wirklich einen guten Grund, der dagegen spricht, aber ich habe den Kram studiert, und ich kann mir keinen Grund vorstellen. Da würde ein Entwicklungsingenieur vielleicht eine Stunde länger an der Programmierung der Firmware und der GUI sitzen (vermute ich).


    Wenn wir gerade von GUI sprechen: Wenn man hier unter einem Beitrag auf Bearbeiten klickt, dann erscheint eine Liste mit zwei Einträgen, Bearbeiten und Löschen. Das ist eine schlechte GUI, da könnte man gleich beide Einträge nebeneinandersetzen und sich die Liste sparen. Wenn da fünf Einträge in der Liste wären, wäre das vielleicht etwas anderes, aber bei zweien lohnt sich das wirklich nicht, man muß nur unnötig oft klicken. Sowas sollte jemand, der GUIs entwickelt, lernen, finde ich. Nur so als Beispiel.

  • Wenn da überhaupt ein Qualitätsverlust entsteht, dann sehr gering. Statt auf einem Pixel bei 4K, wird das Pixel bei Full HD auf 4 Pixeln dargestellt. Interpolation dem Monitor überlassen. Wenn in der Elektronik alles gut umgesetzt wurde, dann wird es passen. Das sehen wir ja bei den Testberichten. Deshalb wird 4K nicht mit 1080p verglichen, sondern mit 720p. 1080p sieht so gut wie immer gut aus.