Posts by FelixH

    Wirklich... Das ist schwer zu beantworten? An sich glaube ich die Antwort selbst zu wissen, ich wollte es lediglich bestätigt haben. Aber jeder hat eine Attitüde hier, scheint es. Oder viel eher mag man es nicht, wenn man die Off-Topic "Klugscheißer"-Optionen (die die meisten Threads im Internet vom Ziel abweichen lassen) im Vorhinein weggenommen kriegt... Ja, das ist es wohl.


    Übrigens hing "Banding" bei einem 10-Bit Monitor anscheinend damit zusammen, dass aus Versehen das RGB-Spektrum nicht "Voll" sondern "Begrenzt" eingestellt war.

    Ein 10 Bit LUT hat bekanntlich über eine Milliarde Farben und ein 8 Bit Panel 16,7 Millionen Farben. Ich weiß, dass nicht jedes Panel überhaupt die Voraussetzungen über einen vollständigen Farbraum erfüllt und dass man nicht wirklich jede Stufe unterschieden kann. Der Punkt ist einfach, dass es einen objektiven Unterschied geben soll.


    Herkömmlich wird, um den Unterschied zu messen, anscheinend stets auf die Graustufen-Übergänge verwiesen, ob diese fließend und ohne "Banding" sind. Darf man das so verstehen, dass diese einzelnen Graustufen sich in jeweils einzelne Farbabstufungen übersetzen? Oder wie soll man das Zustandekommen der unterschiedlichen Farben verstehen? Sind Graustufen und die Zahlangabe der Farben unabhängige Eigenschaften?


    Und es gibt 10-Bit Panel mit Banding und 8-Bit Panel ohne Banding. Heißt dass, 10-Bit ist bei ersterem fehlgeschlagen, und das 8-Bit Panel ist vielleicht unterschiedslos zu einem guten 10-Bit Panel? Oder gibt es trotz der unterschiedlichen Graustufen-Qualität noch weitere Unterschiede?


    Wenn es sonst keinen objektiven Unterschied geben soll, würde es ja genügen allein zu fragen oder zu schauen, ob der Monitor "Banding" hat.


    Das sind unterschiedliche Arten, über denselben prinzipiellen Unterschied zwischen 8 Bit und 10 Bit oder zwischen Graustufen und diesen 1 Milliarden Farben zu fragen. Bitte nicht auf rhetorische Weise mit "seht man nicht" oder "braucht man nicht" ausweichen, denn darüber kommt man zu häufig. Deswegen frage ich über den objektiven Unterschied.

    Früher gab es standardmäßig häufig noch eine Untersuchung oder Angabe des AdobeRGB-Farbraums zusätzlich zur Angabe des sRGB-Farbraums. Mittlerweile scheint das absichtlich herausgelassen, es sei denn der Hersteller wünscht es sozusagen selbst. Dadurch entsteht eindeutig, im wörtlichen Sinne, ein Mangel im Aussagewert der Tests.


    Der sRGB-Farbraum ist selbst eine ziemlich zufällige Grenze, und dabei in einigen Bereichen auch stark begrenzt. Nicht nur ist es nicht mehr etwas Besonderes, wenn gerade IPS-Panel mit einer 99% oder 100%-Abdeckung werben, es ist auch eine abgesehen vom Office--Bereich kaum tolerierbare Schwäche wenn hier eine eindeutige Unterabdeckung vorliegt. D.h. eine Abdeckung von über 90% kann für eine ehrliche Empfehlung vorausgesetzt und erwartet werden, andererseits ist gerade eine Abdeckung darüber hinaus, wie 110% oder 120%, ein besonderes Empfehlungsmerkmal gegenüber vielen anderen Angeboten, die ansonsten "gleich" scheinen.


    So eine einfache Information absichtlich wegzulassen, oder standardmäßig neuerdings für alle Tests zu "entfernen", hat etwas geradezu (Passiv-)Aggressives, von Prinzipien-Reitere, oder als solle damit etwas klargestellt werden gegen solche, die etwas erwarten, was sie eigentlich gar nicht "dürften". Dass das eine unsinnige Entscheidung und wie gesagt ein echter Mangel ist, sollte aber aus genannten Gründen klar sein.

    Nein, tut mir leid, ich finde sRGB grundsätzlich zu gering, weitere zufällige Abbrüche kann ich nicht gebrauchen. Ich weiß noch nicht einmal, ob mir 8Bit reichen werden, denn ich habe vorher auch extra ein 10Bit-Panel gewählt. Aber lassen wir das mal außen vor.


    Meine Panel-Angabe zu iiyama stimmt übrigens definitiv, das hab ich von iiyama selbst. Bei den BenQs bin ich mir nicht sicher, es schien mir nur in einem der Datenblätter auf geizhals.de, dass dies die Panel-Namen seien.

    Okay, ich habe eine neue konkrete Auswahl. Einmal diese BenQs hier mit den Panels, die direkt neben den Namen stehen:

    https://geizhals.de/?cat=monlcd19wide&asuch=BenQ+GW&v=e&hloc=at&hloc=de&filter=aktualisieren&sort=p&xf=11938_BenQ%7E11955_VA%7E11959_8bit+(16.7+Mio.+Farben)%7E12023_2016%7E12077_flicker-free


    Und einmal den iiyama ProLite X2283HS-B3 mit einer neueren Revision des AUO T215HVN01.x Panels (anscheinend die dritte, deshalb B3):

    https://geizhals.de/iiyama-pro…4651.html?hloc=at&hloc=de


    Die ältere Revision AUO T215HVN01.1 hat in einem Test eines Monitors nur einen sRGB-Farbraum von 90%, ich halte über 90% schon für notwendig. Ich frage mich, ob soetwas bei einer neueren Revision verbessert worden sein könnte, oder ob da nur Details verbessert werden.


    Die meisten BenQs haben scheinbar ein AMVA+ Panel, der iiyama "nur" ein VA-Panel, ich weiß nicht, ob das wichtig ist.


    Der oben mitverlinkte BenQ GW2270HM mit dem 9H.LE6LB.FBE-Panel hat einem Test einen sRGB Farbraum mit vollen 100%, allerdings schlechteren Kontrast und andere schwache Werte. (Hier ist der Test: http://xsreviews.co.uk/reviews/benq-gw2270hm-review/ )

    Eher interessiert mich indessen der BenQ GW2470HE mit dem 9H.LDMLB.3BE-Panel.


    Also, was meint ihr könnte besser sein, einer der oben verlinkten BenQs oder der iiyama ProLite X2283HS-B3 - bzw. ein AUO T215HVN01.x in einer neuen Revision gegen einen der BenQ-Panels (9H.LDMLB.3BE), mit dem Hintergrund, dass eine neue Revision des AUO T215HVN01.x einen verbesserten Farbraum haben könnte, oder auch nicht?

    Der Asus fällt eigentlich raus, wegen TN-Panel (eigentlich interessiert mich nur VA-Panel in diesem Fall), das war nur ei e Schnellanpassung da nach Suche von reiner 8-Bit LUT AOC und Viewsonic rausgefallen sind.


    Die 27-Zöller von Iiyama aus der ProLite Serie schneiden hier übrigens ziemlich gut ab. D.h. das ist wohl die beste Wahl, und er könnte trotz des Preises, der auch mit der Größe zusammenhängt, konkurrenzfähig mit dem Eizo sein. Obwohl ich das auch mal bei beliebten, gebrauchtem LG und Dells gedacht habe, die aber deutlich schwächer waren (ich glaube hauptsächlich wegen dem LUT).

    Hallo,


    ich interessiere mich für einen Monitor mit konstanter Hintergrundbeleuchtung, der außerdem einen Kontrast über 1000 und eine Bildwiederholfrequenz von mind. 75 HZ (evtl mit Übertaktung) für ca. 100€ hat, den ich vielleicht gebraucht auch für weniger kriegen kann.


    Der Grund ist, erstens, dass ich keinen "vollwertigen", neuen Monitor kaufen möchte, mich aber gerade bei meinem Eizo Foris FS2333 immer wieder die flickernde PWM-Hintergrundbeleuchtung stört und für unnötigen Stress sorgt. Außerdem fand ich dessen Kontrast eigentlich immer schon "praktisch nicht vorhanden" (im Vergleich zu einem älteren BenQ) und 60Hz zu wenig.


    Wenn ich bei geizhals die genannten Kriterien aktiviere, wird mir der iiyama ProLite X2283HS vorgeschlagen (mit VA-Panel). Mit leicht falschen Kriterien (vertikale Frequenz statt Bildwiederholrate) wurden mir außerdem BenQ GW2270H, ASUS VP228HE und AOC I2276VWM vorgeschlagen, die sich womöglich übertakten lassen.


    Hier ist die Suche (eigentlich nur iiyama):
    https://geizhals.de/?cat=monlc…963_75~12077_flicker-free



    mit leicht "falschen Kriterien" (vertikale Frequenz statt Bildwiederholrate):
    https://geizhals.de/?cat=monlc…984_75~12077_flicker-free



    Am ehesten interessieren mich der iiyama und BenQ. Nun wollte ich gerne wissen, welcher von denen das bessere Panel haben könnte, damit meine ich hauptsächlich Farbraumabdeckung und evtl. Genauigkeit.

    Ich persönlich finde ein gewöhnliches Computerbild eben erkennbar unrealistisch und limitiert, z.B. gegen einen hochqualitativen TV. Ungleichmäßige Verläufe finde ich auffällig, künstlich und beeinträchtigen für mich das Erlebnis. Das merkt man ja auf jeden Fall schon in den Unterschieden gewöhnlicher Monitore. Ich weiß jetzt keine Zahlen, aber gerade 8 Bit zu 10 Bit soll ein entscheidender Sprung darstellen.
    Aber ich finde Grundsatzdiskussionen der Art "warum und überhaupt" immer müßig. In einem Video oder Spiel glaube ich schon, dass man es merken würde.

    Ist in den Tests der Unterschied zwischen 8 und 10 Bit auch nur in Spezialanwendungen zu sehen, oder werden u.a. speziell dafür professionelle Grafikkarten verwendet? D.h. geht es im Prinzip für den normalen Anwender nur darum zu wissen, ob 8 Bit voll erreicht werden? Das geschieht über die Graustufen-Tests, oder?



    Ansonsten ist die Information zu AMD schon nützlich, wenn auch enttäuschend. OpenGL wird damit bei Nvidia effektiv zur niedriger-qualitativen Schnittstelle. Auch in Windows wäre es begrüßenswert bzw. Videos. Ich habe im Moment nur Intel Integrated Graphics und merke einen deutlichen Unterschied zu einer AMD RX 480, die ich jüngst ausprobiert hatte. In Farben und Kontrast ist das Bild mit Integrated Graphics einfach schwächer zu AMD. Ob es allein an diesem Bitwert liegt, weiß ich nicht.

    Es wurde schon lange die Bit-Zahl in der Bewertung von Monitoren besprochen und ich selbst habe für die beste Darstellung u.a. darauf geachtet (z.B. im Vergleich mit dem Detailgrad von hochwertigen TVs, selbst CRTs).
    Allerdings scheint sie erst seit kurzem explizit in der Diskussion von Grafikkarten aufzutauchen, besonders mit dem Aufkommen von HDR (das ich bis dahin auch noch nie gehört oder wirklich angenommen hatte).


    Und so scheint es auch ganz explizit von den Grafikkarten, oder zuallermindest vom Treiber-Support, abzuhängen, ob man überhaupt 10 Bit oder 8 Bit im normalen Windows-Betrieb oder OpenGL (also nicht nur DirectX) nutzen kann.


    Oder hat das doch nichts mit der LUT zu tun? Und weiß jemand zufällig, ob Nvidias Pascal-Grafikkarten AMDs Polaris (und in 2017 Vega) in 10 Bit Farbdarstellung in nichts nachstehen? Nvidia scheint in solchen Dingen immer ein weniger restriktiver zu sein, auch wenn sie sich als die High-End-Front geben wollen.

    "Interpolation" gibt es nicht, bzw. nur die "Size"-Taste mit den Einstellungen Normal, Vergrößert und Vollbild, die aber nichts verändern.


    Windows zeigt indes nur eine Anzeige an, obwohl der Desktop gleichzeitig auf dem Laptopbildschirm in Vollbild und dem Monitor mit schwarzen Balken angezeigt wird. Verändern oder "erkennen" lässt sich der Monitor auch nicht.

    Treiber sind nicht aktuell, da ich die eigentliche Grafikkarte (Ati Mobility Radeon 5870) nicht mehr nutzen kann. Ich benutze aktuell den HDMI-Ausgang, aber es macht keinen Unterschied, wenn ich den DVI-Ausgang benutze, oder gar keinen. Mit Standard-VGA meine ich nicht den Anschluss, sondern sozusagen eine eingeschränkte Notfall-VGA-Funktion mit 8MB VRAM, entweder von der Grafikkarte oder vom Mainboard. Ich erinnere mich, dass es einmal als "Ati-Atombios" angegeben wurde (im Moment wird aber keine Bezeichnung angegeben), also vermutlich handelt es sich um eine Minimalfunktion der Grafikkarte, die nicht auf die übrigen Funktionen zugreift.


    Ob es selbst für diese Funktion noch theoretisch bessere Treiber gibt, kann ich nicht sagen.


    Die native/maximale Auflösung des Notebooks war immer 1920x1080. Die Grafikkarte hätte vermutlich theoretisch noch mehr gekonnt, abhängig vom externen Monitor. Momentan geht aber höchstens 1400x1050.

    Hallo,
    die separate Grafikkarte meines Laptops ist kaputtgegangen (ständige Blackscreens) und wenn ich die Standard-VGA-Funktion verwende, kann ich kein Vollbild einstellen, egal ob ich in den Monitoreinstellungen Bildgröße "Normal", "Vollbild" oder "Vergrößert" auswähle. Es ist zwar nicht native Auflösung von 1920 X 1080 möglich, sondern nur maximal 1400 X 1050, aber vom Videoausgang eines anderen PCs wird selbst eine geringere Auflösung im Vollbild angezeigt, und der Laptop-Bildschirm stellt die 1400 X 1050 auch im Vollbild dar.


    Windows 7 bietet keine weiteren Einstellungsmöglichkeiten.


    Ideen?

    Lassen sich die im Test gezeigten Graphen als näherungsweise Orientierung zur Kalibrierung der Farbeinstellungen nutzen? Wenn die Farben einen DeltaE Wert von 0 erreichen sollen, und folgendes die kalibrierten Ergebnisse im Test sind, kann man anhand dessen die entsprechenden Farbwerte nicht noch verringern, oder führt das zu anderen Verfälschungen (Gamma?)? Hier sind die Graphen aus dem Test:
    Anscheinend sind grün und rot noch zu hoch, und eine kleine zusätzliche Verringerung scheint mir ganz gute Resultate zu bringen. Aber ich muss langsam zugeben, dass ich mich meine Eindrücke zu diesem Monitor schon oft falsch waren.

    Mit den Einstellungen im Test kann ich mich abfinden (mit etwas höherer Helligkeit), allerdings gibt der Monitor für mich keinen Grund zur Begeisterung. Es ist doch nur ein "etwas besserer" Monitor, aber wenn es auf wirklich realistische Szenen ankommt (was nicht nur wie immer behauptet Grafiker interessieren dürfte), merkt man schon recht deutlich die Einschränkungen im Vergleich zu einem guten Plasma oder einer Röhre. Allein schon in der Notwendigkeit zu einem dunklen Bild für die besten Werte.