Posts by Freis

    Ich habe ehrlich gesagt keine Lust mit diesem vorwurfsvollen Subtext in deinen Texten meine Freizeit zu nutzen um die Argumente zu entkräften. Wenn du Skalierung gut für dich klappt, ist es doch gut. Für andere klappt es eben nicht immer.


    Es gibt eigentlich nur zwei Fakten die man wissen muss.


    1) Jede Skalierung auf Pixelebene um nicht ganzzahlige Faktoren ist immer verlustbehaftet. Je nach Stärke kann es ein Problem sein oder auch nicht (Auflösungsgrenze des Auges , persönliches Empfinden etc.). Skalierungen mit ganzzahligen Faktoren können verlustfrei sein.


    2) Je nach Framework wird auf a. Pixelebene skaliert, b. es sind für unterschiedliche Faktoren jeweils optimierte Pixeldarstellung vorhanden, c. es wird auf vektorartige Beschreibungen zurückgegriffen und erst bei der Anzeige auf ein Pixelraster gerendert.


    Bei a. kommen dann die Fragen nach dem Faktor ins Spiel. In welcher Form dich das betrifft, kommt auf die Software an die du nutzt.


    Hier ein Industriestandard den ich spontan im Kopf habe, welcher nicht mit krummen Faktoren skalieren kann https://helpcenter.steinberg.d…%C3%BCtzung-in-Windows-10


    Ich arbeite übrigens als Softwareingenieur in der Grafikprogrammierung.


    Ich habe zwar etwas umgangssprachlich aber klar zwischen den Fällen unterschieden und gesagt wann und wo Skalierung ein Problem ist. Es ist immer das Zusammenspiele zwischen Software und Hardware. 4k ist nicht ansich schlecht, aber es erzeugt bei 27" oder 32" einfach legacy Probleme die mit 5k hätten leicht umgangen werden können. Je nach Fall, kann 4k@27" besser oder schlechter als Wqhd für den Nutzer sein. Bei 5k gäbe es diese Frage nicht, es wäre in der Praxis immer besser, da als Fallback bei legacy Programmen einfach verlustfrei mit Faktor 2x gearbeitet werden könnte.


    Daher habe ich geschrieben, siehe mein letztes Post, man sollte seine Anwendungsfälle darauf hin prüfen. Und ja, Apple macht die Abstimmung aus Hardware und Software besser.


    Ich finde unter Windows wqhd auf 32" von der große her völlig ok, daher sehe ich auch kein Problem mit 5k@32". Aber ja, Apple hat genau deswegen 6k Verwendet.

    ich seh zwischen 125% auf nem 4k Monitor keinen Schärfeunterschied zu einem 27" 5k apple. Von daher diskutieren wir über Messwerte, die mit bloßem sichtbaren Auge keine Relevanz besitzen.

    Das kommt wie gesagt eben sehr auf die genutzten Programm an. Ich möchte mich selbst Zitieren:

    Quote

    Außerdem hat ein Fotograf mit 4k evtl. gar keine Probleme unter Windows wenn er ein modernes RAW Programm nutzt was vernünftig skaliert.


    Ein Beispiel wo Windows bei 125% matschig wird wäre notepad++. Es gibt aber hunderte Anwendungsprogramme, auch sehr teue CAD und 3D Programme welche das Problem haben.


    as Apple zb besser skaliert liegt manchmal auch weniger im Faktor, sondern das Apple auch gerne Programme auf noch höhere Auflösungen als 5k hochrechnet und dann herunter skaliert. Das frisst nur wieder Systemleistung, die dann das rendern/Bildverarbeitung verlangsamen.

    Ja völlig korrekt. Das verbessert Skalierung mit nicht ganzzahligen Faktoren. Manchmal geht es eben nicht anders, gerade wenn man auf dem MBPr mehr Arbeitsfläche sehen möchte. als 'Optimal' wird aber mit Faktor 2x gearbeitet (2880 x 1800 physikalisch wird als effektive Auflösung von 1440x900 dargestellt).

    Ist völlig in Ok, Cabaar. Ist auch ein nerviges Thema.


    Aber es ging nicht um Windows gegen Mac, sondern einfach um hochauflösende Monitore und wie sie sich in der Praxis verhalten. Ich finde es schon wichtig darüber zu reden, dass sie in der aktuellen Form, durch die ungünstige 4k Auflösung bei großen Bildschirmen, je nach Anwendung ein Vorteil, aber leider auch ein Nachteil sein können.


    Das sollte man vor dem Kauf eben einmal auf die eigene Anwendungen hin abklopfen.

    @Cabaar:


    Ich muss dir leider in fast allen Punkten widersprechen. Ich probiere kurz ein paar Dinge zu beantworten.


    Moderne Programme skalieren intern. Die sind weniger das Problem. Aber alles was älter ist, wird einfach auf Pixelebene skaliert. Das heißt Bildvergrößerung wie in Photoshop. Auf einem hochauflösendem Monitor ist es auf 100% meist zu klein. Jetzt kann man auf 150% skalieren. Was heißt das? du musst irgendwie ein Pixel Ausgangsmaterial auf 1.5 Monitor Pixel darstellen. Das geht aber nicht, daher muss man tricksen und es wird etwas unscharf (Stichwort aliasing).


    Bei 200% kann man einfach zwei ganze Pixel nebeneinander benutzen. Es bleibt also alles genauso scharf, es wird nur größer. Da die Monitor Pixel aber kleiner sind, passt es nun wieder von der Größe.


    Daher kann Windows auch nicht wirklich etwas verbessern von der Skalierung, solange es krumme Faktoren sind und Bilder hochgerechnet werden müssen. Das ist Mathematik. Man kann höchstens das Bild in einem vielfachen Berechnen und dann herunterskalieren. Dabei gibt es etwas weniger Verluste. Aber auch da gibt es Verluste.


    Daher sind 5k auf 27" absolut kein Marketing bei Apple sondern einfach technisch konsequent. Wobei Apple eben kaum noch alte Anwendungen hat, daher weniger als Windows das Problem hat.

    Es gibt auch keine 27" iMacs mit 4k. Der 4k Monitor bei Apple ist ein 21" iMac. Der nutzt effektiv fullHD. und fullHD*2 sind eben 4k. Das macht wieder Sinn.


    4k haben wir nur wegen der Filmindustrie. Man kann fullHD eben schön auf 4k upscalen, da es genau Faktor 2 ist. Es werden statt einem Pixel eben 2 Pixel benutzt.


    Da wir aber heute ungern nur mit fullHD am PC arbeiten, sind 4k eben bei nicht nativ skalierenden Programmen ein Problem, welches sich mit 5k auf 27" oder 32" leicht lösen lassen würden. Dort hätte man dann effektiv Wqhd - was meiner Meinung nach optimal ist für die Größe - aber eben deutlich schärfer.


    Eizo kann auch nur Herstellen was es an Panels kaufen kann. Die stellen ja keine selber her. Und da gibt es eben überwiegend nur 4k. Daher passt dein Beispiel nicht. Außerdem hat ein Fotograf mit 4k evtl. gar keine Probleme unter Windows wenn er ein modernes RAW Programm nutzt was vernünftig skaliert.


    Ein Beispiel wo Windows bei 125% matschig wird wäre notepad++. Es gibt aber hunderte Anwendungsprogramme, auch sehr teue CAD und 3D Programme welche das Problem haben.

    Das kann ich tatsächlich nicht beurteilen, wie weit man mit dem kommt was Print angeht.


    Der Apple Monitor hat einen erweiterten Farbraum, das muss man entsprechend einstellen, sonst gibt es Knallfarben. Ich bin da nicht so tief drin, aber könnte ein Grund sein. Die Apple Monitore die ich bisher gesehen habe waren alle recht ok kalibriert out of the box. Vielleicht nicht so gut wie ein Eizo, klar.


    Für alle Anwendungen außer Photo würde ich den 5k vorziehen. Kommt aber auf deine Gewichtung an, was dir wichtig ist. Wenn du hauptsächlich Photos bearbeitest ist es was anderes, als wenn du hauptsächlich Surfst und nur hin und wieder mal Photos bearbeitest. Am besten wäre wohl beide mal zu vergleichen. Leider kann man das nur noch per Onlinehandel machen, da es kaum Fachgeschäfte gibt wo das möglich ist.

    Das mit dem Mac habe ich irgendwie überlesen. Sorry. Da würde ich im Zweifel einfach mal riskieren.


    Denke da wird man mit 4k trotz minimaler Unschärfe glücklicher als mit Wqhd, da Apple langsam wirklich alles auf hohe dpi optimiert. Für reine Bildbearbeitung vielleicht nicht so wichtig, aber bei allen anderen Dingen in der Benutzeroberfläche sieht es schon besser aus. Mein Macbook hat nochmal eine deutlich höhere Pixeldichte als die Monitore, daher vielleicht nicht direkt vergleichbar, aber ich betreibe es die meiste Zeit skaliert um noch mehr Fläche zu haben und kann damit gut leben.


    Da du nicht dein Geld damit verdienst und nicht jeder Fehler teuer ist. Wenn du schon den CS2740 im Auge hast, warum kein Apple 5k Display? Der Eizo mag noch besser sein was Farben angeht, kann ich nicht sagen, aber das Apple 5k Display ist auch recht vernünftig und man hat alle weiteren Vorteile im täglichen gebrauch. Auch bei Punkten wie Helligkeitsregelung über die Tastatur.

    Man kann unterschiedlich skalieren. Moderne Anwendungen kommen mit krummen Verhältnissen klar. Also wenn man 150% in Windows benutzt. Viele ältere Anwendungen aber nicht. Diese sehen nur dann scharf aus, wenn ganzzahlig skaliert wird, also 100%, 200%, 300%.


    Wenn man 4k mit 200% betreibt, hat man effektiv nur fullHD. Wenn man 5k mit 200% betreibt, hat man effektiv Wqhd. Daher kann man beim 4k entweder nur fullHD nutzen, was ich zu wenig finde, oder muss eben krumme Faktoren wie 150% mit allen Nachteilen benutzen.


    Auf macOS ist es weniger problematisch, da fast alle Anwendungen gut mit Skalierung umgehen können. Daher klappen meiner Erfahrung nach krumme Faktoren beim Mac besser, aber auch da ist es minimal unschärfer. Vermute es wird die meisten aber nicht stören. Per default betreibt Apple daher auf 200%. Daher hat der iMac 27" eben auch 5k und nicht 4k.


    Ps: Am besten einfach mal selber testen und Windows auf 125% oder 150% stellen. Vielleicht benutzt du nur Programme die modern sind und das Problem nicht haben. Und auch mal ein paar Webseiten ansurfen. Da werden Bilder, je nach programmierung, oft auch minimal unscharf, was aber meistens nicht so schlimm ist. Dann wäre 4k für dich kein Problem.

    Ich habe 4k auf großen Monitoren unter Windows verzweifelt und mit großem Ärger über die Industrie aufgegeben. Es hat sich leider mal wieder das falsche Format durchgesetzt, denn 4k sind bei immer scharfer, zweifacher Vergrößerung nur fullHD. Das ständige Mischmasche aus sehr scharf und unschärfer als früher, bei alten Programmen, macht keinen Spaß wenn man Windows mit 125% oder 150% skalieren lässt. Apple macht es mit 5k im Gegensatz dazu richtig, da es keine Probleme gibt. 5k = 2x WQHD.


    Ich habe den Apple Windows Vergleich jeden Tag. Das gute daran, die hohe Auflösung sieht zwar schöner aus, beim täglichen Arbeiten stört mich die 'schlechtere' Auflösung von meinem Windows PC mit 27" Wqhd aber nicht. Ich finde es auch nicht anstrengender zu lesen. Außer bei einigen Webseiten, die Schriften verwenden, die für hohe Auflösung optimiert sind. Besonders oft fällt mir das in Chrome auf, der hat aber auch eine schlechtere Schriftdarstellung als Firefox. Der Fuchs ist bei mir eindeutig besser zu lesen.


    Leider kann man den 5k Apple Monitor nicht am PC sinnvoll nutzen. Sonst würde ich den Preis glatt zahlen. Ich hoffe das bald 8k anläuft, da könnte man dann wenigstens mit einem Vergrößerungsfaktor 3x arbeiten um die gleiche Fläche wie bei Wqhd zu bekommen.

    Sorry aber 24 Zoll und 4K ist Unsinn, selbst bei 27 Zoll ist nach meiner Meinung die bessere Lösung.

    Das halte ich zumindest ohne weiteren Kontext für nicht ganz richtig. Der 24 Zoll läuft doch perfekt bei 2x facher OS Skalierung und man umgeht damit sogar alle legacy Probleme von Skalierung. Bei 27" halte ich 5k für einem 4k Monitor für deutlich überlegen, da FullHD (4k :durch 2) auf 27" eben zu wenig Fläche sind.


    Oder was ist der Grund für diese Aussage?

    Ich würde mir auch vorher mal ansehen ob die 4k überhaupt einen Vorteil bringen. Unter Windows bleibe ich dabei, dass alles außer 200% Skalierung (bis auf Ausnahmen welche stufenlose Skalierung wirklich können) nicht richtig gut funktioniert. Und das sind bei 4K eben nur Full HD, also unbrauchbar. Mir fallen bei anderen Skalierungsfaktoren nämlich sehr oft unvorteilhafte Darstellungen auf, ob im Browser oder bei Applikationen, selbst in Windows ist es nicht überall rund.


    Ich warte mit hiDPI daher notgedrungen auf evtl. 6k (wie bei Apples neuem Display) oder 8k. 5k ist beim PC ja leider tot, das wäre bei 27" sonst perfekt, was hat Mediafrost an 5k denn auszusetzen? Der iMAC hat's und da ist es perfekt auf 27".


    Aber die Menschen sind unterschiedlich. Ich kenne auch Personen denen die Skalierungs-Probleme gar nicht auffallen. Daher vorher unbedingt mal testen.

    Ja, bei 24" ist 4k super. Wäre auch meine Wahl. Leider reicht mir 24" nicht von der Fläche.


    Den 5k Apple-Monitor kann man am PC leider nicht vernünftig betreiben, sonst wäre das meine aktuelle Wahl.


    Ich möchte meine Aussage zur Schrift bei 125% und 150% nochmal präzisieren. Es geht um die Schrift im Datei Explorer und älteren Bestandteilen, oft Menüleisten etc., die sieht für mich zu dünn aus.


    Dann gibt es noch die Teile die keine Skalierung unterstützen (oft nicht MS Software und Treiber), die werden dann einfach auf Pixelebene vergrößert, was richtig unscharf aussieht.


    Cleartype sollte bei hiDPI eigentlich nicht mehr genutzt werden, da es nur ein guter Trick ist die Schrift bei niedriger Auflösung auf kosten der" typographischen Richtigkeit" der Schrift schärfer zu rendern.


    Die ganz modernen Teile, wie das Startmenü sehen gut aus.

    Meiner Meinung nach ist alles außer 200% Skalierung mist. Es klappt bei 50% der Anwendungen gut, der Rest sieht dafür schlechter aus. Ich bin auch der Meinung, dass die Schrift unter Windows selbst nicht gut skaliert. Es ist alles scharf, die Schrift wird aber minimal dünner bei 150% oder 125%, was ich schlechter lesbar finde. Bei 200% hat man nirgendwo Probleme, da Pixel im Zweifel verdoppelt werden und keins der beschriebenen Probleme zu beobachten ist.


    Sprich, wenn 4k auf 200% skaliert wird, dann hat man effektiv full hd, was wir zu wenig Fläche ist.


    Für 200% reichen die Auflösungen leider nicht nicht bei 27"+. Es ist sehr sehr schade, dass sich 5k (2 X wqhd) nur bei Apple durchgesetzt hat.

    Non-Integer Scaling (also alles außer 100%, 200%, 300%) kommt unter Windows 10 für mich nicht in Frage (gibt einfach immer noch viele Probleme mit denen ich nicht meine Zeit verschwenden möchte).


    Ich habe aktuell noch einen 27" mit WQHD, mit dem MBPr als Quelle ist alles super. OSX ist eben auf ~110DPI screens optimiert und Windows eigentlich auf ~96. OSX fällt daher einfach einen kleinen Tick größer aus optisch und das passt für mich auf 27" WQHD super. Unter Windows 10 ist die Größe der Darstellung zwar gerade noch ok, aber eigentlich schon immer einen kleinen Tick zu klein für mich.


    Am liebsten wäre mit ein 31" 5k (200% scaling = effektiv WQHD), den gibt es aber nicht. Ich überlege gerade ob ein 31" mit WQHD trotz der niedrigen DPI Sinn macht. Gibt es hier Leute die so einen Monitor unter Windows 10 betreiben und gute oder schlechte Erfahrungen damit haben?

    Ja 8k sehe ich für PCs zum Arbeiten auch eher als unnötig bzw. quatsch. Wie gesagt, 5k oder 6k wären allerdings toll da man bei den üblichen Beischirmgrößen (27"/32") 200% nutzen könnte und so legacy Probleme nicht auftreten und 100% abwärtskompatibel bestehen würde.


    Ich finde es sehr unerfreulich das es so aussieht, dass wir die nächsten 5 Jahre mit nicht integer Skalierung arbeiten müssen. (125% oder 150%) oder eben bei 'nonHDPI' Screens bleiben müssen.


    Auf dem 5k iMac kann man es schön vergleichen, 4k sieht durch die Skalierung (auch macOS kann skalieren) leicht matschig im Vergleich aus, die Kantenschärfe (...wie scharf ist der Rand z.B. bei einem 'i' ) ist bei nicht integer Skalierungen nicht so hoch wie manche es wahrhaben wollen und z.t. schlechter als bei nonHDPI.


    Ich habe das alles ausgiebig A/B getestet.

    Hallo Mediafrost, wie bereits oben beschrieben: 27" 5k = 2x wqhd - man kann also alles vom OS um 200% skalieren und es hat die gleiche Größe wie auf 27" wgqh, nur eben schärfer und man hat absolut keine Probleme durch die gebrochene Skalierung. Das ist der Sinn.


    1) Alte Programme (ja es gibt auch im professionellen Bereich noch viele davon) sehen durch 2 statt 1 Pixel genauso aus wie vorher, keine Unschärfe wie bei 125% oder 150%! Die 200% Skalierung unter Windows klappt hingegen perfekt. Ich bin daher wieder zu wqhd zurück, es sieht mit 4k manchmal einfach schlechter aus. Besonders nervig ist es, wenn die Schrift bei 4k super scharf ist, andere Inhalte aber schlechter als vorher.


    2) Keine Skalierung von Bildern im Browser: Ich sehe bei 125% oder 150% das viele Assets auf Webseiten die keine spezielle hiDPI Version haben ebenfalls durch eine Skalierung unscharf aussehen. Mich stört das schon.


    Sehr schade um die 5k, aber danke für die Info! Es ist halt ein Problem wenn alles nur auf Medienkonsum ausgerichtet ist und Arbeitsgeräte darunter leiden. Es ist die gleiche Art von Fehlentscheidung damals der Verlust um 120px in der Höhe durch fullHD gegenüber 1920x1200 (bevor das Argument kommt...man hätte auch 16:9 mit 1200px Höhe umsetzen können)

    Ich hatte ja nach appels 5k iMac gehofft das wir bald gute 5k Monitore zu vernünftigen Preisen kaufen können. Jetzt scheint es aber kaum noch anbieter zu geben (ich zähle 2 außer Apple) und neue Modelle kommen auch nicht. Ist das Format tot und wir müssen in der PC Welt mit dem üblen 4k Kompromiss leben?


    Warum 4k Kompromiss sind, ich empfinde bei 27" die Arbeitsfläche wie sie WQHD bietet als minimum. 5k kann man super mal 2 per OS skalieren, dann passt das super und man kein Matsch bei alten Benutzeroberflächen und auch nicht bei Bildern die nicht für hiDPI extra größer hinterlegt sind im Browser. 4k / 2 sind eben nur full HD, und das ist mir zum Arbeiten einfach zu wenig auf 27".


    125% oder 150% empfinde ich nach wie vor als eher nervig unter Windows 10. Viel klappt, vieles aber auch nicht.

    Interessant, ich habe durch Zufall entdeckt, dass das Verhalten um Faktoren stärker im profilierten Zustand auftritt bzw. wenn mit den RGB gains der Weißpunkt auf 6500k geregelt wird. Sobald von den nativen Settings (bei 7200k im standard/srgb setting des Displays) abgewichten wird, sind je nach Setting deutliche farbliche Schatten bei einigen Graustufen + bewegung zu sehen.


    Es ist nicht verschnwunden im nativen Zustand, aber es ist kein Vergleich zu den angepassten Settings.


    Das kann doch nicht sein, oder doch?