Ich habe ehrlich gesagt keine Lust mit diesem vorwurfsvollen Subtext in deinen Texten meine Freizeit zu nutzen um die Argumente zu entkräften. Wenn du Skalierung gut für dich klappt, ist es doch gut. Für andere klappt es eben nicht immer.
Es gibt eigentlich nur zwei Fakten die man wissen muss.
1) Jede Skalierung auf Pixelebene um nicht ganzzahlige Faktoren ist immer verlustbehaftet. Je nach Stärke kann es ein Problem sein oder auch nicht (Auflösungsgrenze des Auges , persönliches Empfinden etc.). Skalierungen mit ganzzahligen Faktoren können verlustfrei sein.
2) Je nach Framework wird auf a. Pixelebene skaliert, b. es sind für unterschiedliche Faktoren jeweils optimierte Pixeldarstellung vorhanden, c. es wird auf vektorartige Beschreibungen zurückgegriffen und erst bei der Anzeige auf ein Pixelraster gerendert.
Bei a. kommen dann die Fragen nach dem Faktor ins Spiel. In welcher Form dich das betrifft, kommt auf die Software an die du nutzt.
Hier ein Industriestandard den ich spontan im Kopf habe, welcher nicht mit krummen Faktoren skalieren kann https://helpcenter.steinberg.d…%C3%BCtzung-in-Windows-10
Ich arbeite übrigens als Softwareingenieur in der Grafikprogrammierung.
Ich habe zwar etwas umgangssprachlich aber klar zwischen den Fällen unterschieden und gesagt wann und wo Skalierung ein Problem ist. Es ist immer das Zusammenspiele zwischen Software und Hardware. 4k ist nicht ansich schlecht, aber es erzeugt bei 27" oder 32" einfach legacy Probleme die mit 5k hätten leicht umgangen werden können. Je nach Fall, kann 4k@27" besser oder schlechter als Wqhd für den Nutzer sein. Bei 5k gäbe es diese Frage nicht, es wäre in der Praxis immer besser, da als Fallback bei legacy Programmen einfach verlustfrei mit Faktor 2x gearbeitet werden könnte.
Daher habe ich geschrieben, siehe mein letztes Post, man sollte seine Anwendungsfälle darauf hin prüfen. Und ja, Apple macht die Abstimmung aus Hardware und Software besser.
Ich finde unter Windows wqhd auf 32" von der große her völlig ok, daher sehe ich auch kein Problem mit 5k@32". Aber ja, Apple hat genau deswegen 6k Verwendet.
ich seh zwischen 125% auf nem 4k Monitor keinen Schärfeunterschied zu einem 27" 5k apple. Von daher diskutieren wir über Messwerte, die mit bloßem sichtbaren Auge keine Relevanz besitzen.
Das kommt wie gesagt eben sehr auf die genutzten Programm an. Ich möchte mich selbst Zitieren:
Zitat
Außerdem hat ein Fotograf mit 4k evtl. gar keine Probleme unter Windows wenn er ein modernes RAW Programm nutzt was vernünftig skaliert.
Ein Beispiel wo Windows bei 125% matschig wird wäre notepad++. Es gibt aber hunderte Anwendungsprogramme, auch sehr teue CAD und 3D Programme welche das Problem haben.
as Apple zb besser skaliert liegt manchmal auch weniger im Faktor, sondern das Apple auch gerne Programme auf noch höhere Auflösungen als 5k hochrechnet und dann herunter skaliert. Das frisst nur wieder Systemleistung, die dann das rendern/Bildverarbeitung verlangsamen.
Ja völlig korrekt. Das verbessert Skalierung mit nicht ganzzahligen Faktoren. Manchmal geht es eben nicht anders, gerade wenn man auf dem MBPr mehr Arbeitsfläche sehen möchte. als 'Optimal' wird aber mit Faktor 2x gearbeitet (2880 x 1800 physikalisch wird als effektive Auflösung von 1440x900 dargestellt).