Beiträge von Lebedev

    Verstehe ich das richtig?


    In den Windows Bildschirm-Einstellungen ist 1920x1080 für den Bildschirm eingestellt aber beim Bildschirm kommt trotzdem ein echtes 3840x2160 Signal an, weil die Grafikkarte bzw. der Treiber das "heimlich" skaliert/interpoliert?


    Mir war nicht bekannt dass es ein solches Feature gibt.


    Allerdings ist das nicht, worum es mir bei diesem Thema geht. Mir geht es darum, dass beispielsweise ein 4k Bildschirm ein 1080p Signal bekommt. Das muss auch gar nicht von einem Computer kommen, sondern könnte beispielsweise auch von einem BluRay Player kommen. Die 1080p Auflösung müsste eigentlich perfekt auf das 4k LCD Panel "gemappt" werden können weil, wie zuvor erklärt, 1080p ein gerader Teiler von 4k ist. Wenn man ein 1080p Bild auf ein 4k Bildpanel legt und sozusagen "großzieht", führt das dazu, dass ein Pixel des 1080p Bildes genau 4 Pixel des 4k LCD Panels ausfüllt.


    Ich wüsste gerne, warum Bildschirme das dennoch nicht ordentlich hinbekommen.

    Und falls möglich würde ich mich freuen, wenn Andere das auch testen und bestätigen können.

    Das verstehe ich nicht ganz. Wie sollte die Grafikkarte die Skalierung übernehmen? Wenn der Bildschirm vom Computer (bzw. von der Brafikkarte) mit einer niedrigeren Auflösung angesteuert wird, muss doch der Bildschirm interpolieren. Anders geht es doch gar nicht...? Mir ist nicht klar, wie die Grafikkarte etwas skalieren könnte.

    Bei dem von mir beschriebenen Szenario ist keine Skalierung durch Windows oder ähnlich im Spiel. Ich kenne zwar die Windowsfunktion mit der man User Interface Elemente künstlich auf 200% etc. skalieren kann. MacOS kann das ebenfalls. Aber das ist nicht wovon ich hier spreche.


    Mir geht es um Folgendes:

    Ein Bildschirm teilt dem Computer per DDC und EDID mit, welche Auflösungen er unterstützt. Neben der nativen Auflösung (beispielsweise 4K) werden eine Reihe weiterer, niedrigerer Auflösungen angeboten, die aber immer schlecht aussehen, weil die reduzierte Pixelzahl zu einem "krummen Teiler" oder sogar falschen (verzerrten) Seitenverhältnis führt.


    Mathematisch müsste es aber so sein:

    Einige von diesen kleineren Auflösungen müssten optisch perfekt angezeigt werden können. Wird nämlich eine kleinere Auflösung ausgewählt, welche genau die Hälfte, ein Viertel, Achtel oder Sechszentel von der nativen Auflösung ist, müssten das "Pixelmapping" stimmen. Also ein passender Teiler.


    Wird also beispielsweise 1080p anstelle der nativen 4K Auflösung am Computer ausgewählt, bekommt der Bildschirm ein 1080p Signal von der Grafikkarte und muss dieses auf seinem 4K Bildpanel anzeigen. Mathematisch passt das perfekt. Vom 4K Bildpanel können nämlich vier Pixel die im Quadrat liegen, gemeinsam einen "1080p Pixel" wiedergeben. Andi dein Profilbild zeigt im Prinzip genau was ich meine.


    War das verständlich?


    Nach meinen Tests klappt das aber nicht. Aus irgendeinem Grund ist das Bild in diesen Fällen nicht gestochen scharf, so wie bei der nativen Auflösung. Schriftzeichen haben schwammige Kanten.

    Hallo Zusammen,


    ich möchte euch um etwas bitten: einen kleinen Test, den jeder machen kann.


    Doch zunächst eine Erklärung:

    Mir geht es um das Benutzen von nicht-nativen Auflösungen bei LCD Bildschirmen. Jeder Monitor hat eine native Auflösung. Wenn man stattdessen eine andere benutzt, sieht es immer kacke aus. Allerdings kam mir in den Sinn, dass es durchaus kleinere Auflösungen geben müsste, bei denen das Bild trotzdem gestochen scharf aussieht. Nämlich dann, wenn die niedrigere Auflösung genau die Hälfte, ein Viertel, Achtel, Sechszentel, usw. ist.


    Warum ist das so?

    Wenn man die native Auflösung beispielsweise durch zwei teilt, also die horizontale und vertikale Auflösung jeweils halbiert, müsste das dazu führen, dass vier Pixel ein Quadrat bilden und gemeinsam das anzeigen, was sonst ein einzelner Pixel bei der nativen Auflösung anzeigen würde.


    Beispiel:


    4K UHD lässt sich zu Full-HD halbieren:

    3840 : 2 = 1920

    2160 : 2 = 1080


    Bei WQHD geht das ebenso, da kommt dann HD-Ready raus:

    2560 : 2 = 1280

    1440 : 2 = 720


    Obwohl ich erwarten würde dass ein gestochen scharfes Bild rauskommt, war es dennoch matschig und unscharf. Ich habs mit Windows und Linux getestet. Meine Bitte an euch wäre: könnt ihr das mal bei euch testen? Ich verstehe nicht, warum das Bild nicht scharf ist.


    Danke & Gruß!