Hat sich von Seiten des Redakteurs – in diesem Fall ich selbst – leider um eine Woche verzögert. Kann ihn aber für nächste Woche fest versprechen.
Beiträge von Denis
-
-
Zitat
Bisher habe ich die Funktion der Umgebungslichtmessung/ Anpassung im i1Profiler nicht benutzt.
Sollte ich dies vielleicht besser nutzen?
Bringt schon aufgrund inhärenter Beschränkungen der Messtechnik (bzw. der messtechnischen Auswertung des Farbreizes) wenig. Entscheidend ist ein für dich visuell neutrales Weiß unter den konkreten Umgebungs-/ Abmusterungsbedingungen. Das Auge adaptiert hier sehr flexibel – kritisch wird es insbesondere bei paralleler Ansicht von Papiervorlagen. In diesem Fall wären definiertes (Norm-)Licht und ein entsprechend abgestimmer Bildschirmweißpunkt wichtig, wobei wiederum die Maßgabe visueller Neutralität gilt (aus einer Beleuchtung mit D50-Normlicht ergibt sich so beispielsweise kein D50-Weißpunktziel für den Bildschirm).ZitatKann ich davon ausgehen, dass der Dienstleister (wenn ich mein ICC Profil in den Bilddateien hinterlege)
daraus etwas produziert was dem visuellen Eindruck an meinem Monitor zu Hause möglichst nahe kommt?
Wie mein Kollege schon sagte: Das Bildschirmprofil hat in diesem Ablauf nichts verloren. Als Ersteindruck wäre korrektes Softproofing für dich wichtig, d.h. die Simulation des Druckergebnisses am Bildschirm (in Photoshop bitte dann noch "Papierfarbe simulieren" oder zumindest "Schwarze Druckfarbe simulieren" während der Einrichtung wählen). Dafür benötigst du ein konkretes Ausgabeprofil. Ob die Anlieferung dann medienneutral (im RGB-Arbeitsfarbraum mit Profil) oder bereits konvertiert erfolgen muss, hängt vom Anbieter und deinen Kenntnissen ab (spätestens für CMYK-Workflows ist letzteres eindeutig zu bevorzugen).ZitatDas ist normal.
Gleichmäßige Ausleuchtung geht auf Kosten des Kontrastes. Is bei meinen NECs genauso.
Wäre in diesem Fall schon eine recht heftige Verringerung des Weißpegels. Das sah bei unserem Testgerät anders aus:Gleichzeitig ist die Funktion beim 2713H im Vergleich zu den U2413 und U3014 zwar am wenigsten beschnitten, aber nicht besonders präzise implementiert. Ich rate also zum Ausprobieren. Falls die Homogenität nicht sichtbar besser wird, würde ich die Funktion hier nicht nutzen.
-
Zitat
1) Wenn ich den Weißpunkt beim Kalibrieren manuell (also die RGB gains am TFT) mit der i1Profiler Software einstelle, zeigt die Echtzeitmessung leicht schwankende Werte, ich würde sagen im Berreich von -+60K.
Völlig unkritisch und absolut normal.ZitatBei Messungen mit dem i1Profiler habe ich (ich nehme an daran leigt es) dadurch leicht unterschiedliche DeltaE Messungen (absolute Abweichung von DeltaE im Bereich von 0.05-0.2 und bei ganz wenigen Werten bis max ca. 0.8 )
Ich gehe davon aus, dass du die Profilvalidierung meinst: Auch das ist im tiefgrünen Bereich.Zitatch habe mich etwas mit Argyll beschäftigt. Wie sind eure Erfahrungen damit? Ist das vielleicht sogar besser als der i1Profiler?
Ist in jedem Fall deutlich mächtiger, wobei für dich i1 Profiler ausreichen wird.Zitata) Ich hätte gedacht, dass man so starke Abweichungen von 4,7 mit der Profilierung weg bekommt. Sind solche Fehler bei qualitativ eher mäßigen TFTs trotz Kalibrierung/Profilierung typisch?
Möglich wäre ein kleiner Linearitätsfehler – bedenke aber bitte, dass das ColorChecker-Target aus absoluten Farbwerten besteht, die dann über das Bildschirmprofil nach RGB transformiert werden (vgl. ugra/ fogra Medienkeil beim UDACT oder unsere Messungen unter Berücksichtigung des Monitorprofils nach Kalibration). Unterabdeckungen können natürlich nicht weggezaubert werden. Ein CMM verschiebt entsprechende Farbwerte bestmöglich auf Farbraumgrenze. Bei einer einfachen Profilvalidierung ist dagegen das Bildschirmprofil selbst die Referenz und die Tonwerte werden ohne Transformationen angezeigt.ZitatGibt es empfehlenswerte Literatur zum Thema Farbmanagement die wirklich alle wichtigen Grundlagen vermittelt?
Ich empfehle einen Einstieg über die Farbmetrik – hier wäre Prof. Schläpfers Buch "Farbmetrik in der grafischen Industrie" sehr empfehlenswert.Ein Standardwerk (in Englisch) ist "Real World Color Management: Industrial-Strength Production Techniques" von B. Fraser, C. Murphy und F. Bunting
-
Zitat
also Du bist dann wohl der Meinung, dass ein 8 bit Panel so anzusteuern, dass es eine 10 bit Anzeige suggeriert, kein Hinzudichten ist.
Es handelt sich nicht um ein Aufblasen mit erfundenen Tonwerten, sondern eine visuell verlustfreie Farbtiefenkonvertierung für den Paneltreiber. Wird auch im Highest-End-Segment verwendet und hat wirklich gar nichts mit einer unpräzisen Darstellung zu tun. Einen echten Ausfall habe ich bislang nur einmal gesehen – ironischerweise war das der HP 2480zx mit dem auch im LG und Quato verbauten 10bit-Panel. Er zeigte bei 8bit-Signalzuführung deutliche spatiale Dithering-Muster, während das FRC in den beiden anderen Geräten einwandfrei arbeitete. -
Zitat
Dann kannst Du mir sicher erklären, warum ich an meinem W2420 sehen kann, wenn nur 8 bit durchs Kabel passen...
Klar – du spielst ja dann nur in 8bit pro Kanal zu. Es geht nicht darum, künstlich Tonwerte hinzuzudichten.ZitatMit was dann? Du kannst nicht mit dem Sehapparat eines Anderen sehen, oder?
Wie gesagt, der Tonwertumfang des 10bit Eingangssignals kann auch in der von mir geschriebenen Kombination reproduziert werden.ZitatSolange man nicht weiß woher es kommt, kann man meiner bescheidenen Meinung nach nicht wissen, dass es nicht von der Signalverarbeitung her kommt...
Die Signalverarbeitung stellt hier in jedem Fall kein inhärentes Problem dar. Zudem ist der bemängelte Linieneffekt von den betroffenen Benutzern als sehr unregelmäßig (d.h. nur in Teilbereichen des Panels, nicht scharf abgegrenzt) beschrieben worden. -
Zitat
- "Brightness Uniformity" weicht lt. Report bei 25 Feldern um max. 1% ab, lt. Kalibriervorschrift sind 97%-102% zulässig. Das wäre ja deutlich besser als in euren Tests und kommt mir "zu gut" vor.
- "Color Uniformity Delta E" liegt größtenteils < 1, Maximum 1,1, auch das erscheint mir "zu gut".
-> Habt ihr dafür eine Erklärung? Wo ist mein Denkfehler?
Die Reports haben generischen Charakter, lagen unseren Gerät so jeweils auch bei. Optimierungsziel ist zudem die reine Weißdarstellung, während unsere Messungen noch verschiedene Mitteltöne einbeziehen.ZitatIch habe das so verstanden, dass die Dell SW eine HW Kalibrierung erlaubt (in der LUT des Monitors) und die x-rite SW eine SW Kalibrierung (in der LUT des PCs).
-> sehe ich das richtig? Sollte deshalb grundsätzlich nur die Dell SW verwendet werden?
Das ist richtig. Nur die DELL Software erlaubt eine Hardwarekalibration.Zitat- Kalibrierung in der Dell-SW mit Ziel AdobeRGB / 140 lm/m²
Normalerweise kalibriert man für das Arbeiten in farbmanagementfähiger Software mit nativem Farbraum. Leider erlaubt dieses Preset derzeit kaum Einstellungen (nur Leuchtdichte). Du könntest dich da über die Custom-Einstellung herantasten. Da Abhilfe in Sicht ist, kannst du auch erstmal mit der AdobeRGB-Einstellung leben.Zitat- Kontrolle in der x-rite SW (Die Abweichungen sind z.T. größer als erwartet - Delta E im Mittel zwischen 2 und 3)
Hast du die RGB-LED-Charakterisierung ausgewählt (die wird von der DELL Software genutzt und passt hinreichend)? Führst du eine echte Profilvalidierung durch (die X-Rite Software erlaubt noch etwas mehr)? Interessant wären erstmal die farbmetrischen Daten des Weißpunktes, denn unser U3014 hat ja (siehe Bericht) einen recht hohen Weißpunkt-Drift im Bereich unterhalb von 200 cd/m²Zitat- Adobe Lightroom 4: arbeitet standartmäßig in AdobeRGB, den Unterschied zu sRGB kann man im Softproof sehen, d.h. das funktioniert
Lightroom arbeitet intern in ProPhoto/ Melissa RGB. Das muss dich jetzt aber an dieser Stelle und im Hinblick auf den RAW-Export in einen anderen Arbeitsfarbraum nicht interessieren. Daher nur zur Info.Zitat> Aber was machen andere Anwendungen, die sRGB brauchen (z.B. Videoverarbeitung Pinnacle Studio, Windows Media Player, Internet Explorer usw.): verwenden die jetzt korrekte Farben, oder werden hier die sRGB Inhalte auf AdobeRGB "gedehnt" und die Farben damit "zu bunt" angezeigt?
Nicht farbmanagementfähige Anwendungen reichen die RGB-Werte einfach durch. Abgebildet wird auf die aktuelle Monitorcharakteristik. sRGB also in deinem Fall sehr bunt und mit der Tendenz zu zulaufenden Tiefen (Gamma 2.2 => sRGB Tonwertkurve). Als Browser empfehle ich Firefox. Er ist farbmanagementfähig und kann sRGB für nicht getaggte Elemente unterstellen (about:config in Adresszeile => gfx.color_management.mode = 1). Zum Pinnacle Studio kann ich wenig sagen – vermutlich wird aber nur durchgereicht. Hier wäre also eine Kalibration mit sRGB Emulation angebracht. Im reinen Player-Bereich wäre der MPC-HC farbmanagementfähig (erstellt eine 3D-CLUT aus Quell- und Zielcharakteristik). -
Zitat
...mit 10 bit kannst Du zwar die höhere Genauigkeit auf die 8 bit anwenden, aber trotzdem nicht mehr als 8 bit davon gleichzeitig darstellen.
*Ächz*, langsam steigt die Ähnlichkeit zwischen mir und meinem Avatar an ;-). Wie auch immer: Doch, visuell ist das völlig gleichzeitig, das Auge integriert. Die Rampen sind "smooth". Bitte veranschauliche dir die Funktion des (A)FRC-Dithering (temporale + spatiale Komponente). Übrig bleibt ein minimales Rauschen in dunklen Tonwerten, das du nur siehst, wenn du mit der Nase das Panel berührst (oder fast – hängt von der Nase ab). Mein Angebot zum Test steht.ZitatWas man sehen kann - oder nicht - ist halt individuell verschieden und lässt sich nicht wirklich diskutieren.
Nein, das hat mit individueller Wahrnehmung nichts zu tun.ZitatDas banding Problem einiger U3014 steht auch nicht auf dem Datenblatt,
kommt aber vielleicht davon, dass er eventuell kein echtes 10 bit Panel hat, oder sonst wo her...
Diese Artefakte, die unser Testgerät nicht aufwies, rühren nicht von der Präzision des Paneltreibers oder von Tonwertverlusten im Rahmen Signalverarbeitung. -
Zitat
Den prinzipiellen Unterschied zwischen 8 bit (256 Stufen) und 10 bit (1024 Stufen) Jedem zu zeigen ist leider nicht trivial,
aber ich möchte trotzdem hier einen Versuch machen:
Wir reden wirklich völlig aneinander vorbei. Ich versuche es aber noch eimal: Auch bei dem System aus 8bit Panel + 10bit LVDS werden die 10bit des Eingangssignals visuell vollständig reproduziert. Die 10bit/8bit Konvertierung ist über eine FRC-Schaltung realisiert. Somit werden die lsb nicht einfach abgeschnitten – das wäre selbst bei Zuspielung eines 8bit Signals fatal, weil die Transformationen ja aus guten Gründen mit hoher Präzision durchgeführt wurden.ZitatHätte man in der selben Situation 10 bit zur Verfügung, hätte man alle 2 Pixel sanftere Helligkeitsstufen, die man wahrscheinlich nicht mehr so einfach erkennen könnte.
Zweifellos. Das hast du aber auch unter o.g. Umständen. Ausnahme wären Implementierungen, in denen das 10bit Signal eingangsseitig zunächst beschnitten wird. Für die Monitore von denen wir hier reden gilt das nicht.ZitatIch hoffe ich konnte hiermit die Problematik (für die meisten Leser und Betrachter) etwas verdeutlichen.
Nein, weil Fragestellung und Antwort ja schon völlig trivial sind: Natürlich ist eine Zuspielung in 10bit besser. Das ist hier zu wirklich keinem Zeitpunkt bestritten worden. Weitere Diskussionen machen aber erst Sinn, wenn du dir das mal live angesehen hast.Vorschlag:
Du kaufst dir eines der wenigen Geräte mit echtem 10bit Panel (Vorsicht: In der Nomenklatur der Hersteller ist 10bit LVDS + 10bit Panel = 10bit LVDS + 8bit Panel + FRC; Aufschluss geben hier nur die Paneldatenblätter), zum Beispiel eben den U3014, und bringst ihn mit. Ich stelle das Vergleichsgerät mit "pseudo 10bit Panel" und 10bit DisplayPort Unterstützung (weit verbreitet, selbst im High-End-Bereich). Beiden Bildschirmen wird mit 10bit pro Farbkanal in geeigneter Anwendung und mit geeignetem Testmaterial zugespielt. Du wirst dann sehen, dass der hohe Tonwertumfang jeweils reproduziert werden kann.
Alternativ kann man das aber auch im Rahmen eines 8bit Workflows testen: Der zweite Bildschirm wäre hier dann ein hochwertiges Entry-Level Gerät mit nativem 6bit Panel, z.B. der FS2331 von Eizo (10bit LUT). Er gibt visuell den vollen Tonwertumfang des 8bit Eingangssignals wieder.
-
Zitat
Das passt solange man nicht skaliert - Teil 2 des Gedankenspiels:
Moment - bis vorhin ging es um einen relativ vs. absolut farbmetrischen Rendering-Intent! Und genau auf diesen Intent-Unterschied (nämlich der Angleichung bzw. nicht Angleichung in Bezug auf den Medienweißpunkt) bezog ich mich. Wir haben doch überhaupt nicht über die Quantisierung gesprochen.ZitatHier bräuchte man für die gleiche Abstufungsqualität mehr Werte, so man sich nicht auf den kleineren Bereich von sRGB beschränken möchte.
Wie gesagt, das CMM arbeitet natürlich mit entsprechender Präzision (float, double). Für 8bit Ausgangsmaterial sollte ein (allerdings rein spatiales) Dithering zur Farbtiefenkonvertierung in gammakorrigiertes RGB angeboten werden, siehe z.B. eben wieder mein Standardbeispiel: Adobes ACE (für die Wandlung in Bildschirm-RGB zur Anzeige immer aktiv; bei benutzerseitig ausgelösten Farbraumkonvertierungen optional).Zitat...also lieber 10 Bit, als 8 Bit!
Ja, absolut. Ich habe nichts gegen einen 10bit Workflow zur Anzeige noch bestreite ich die fundamentalen Vorteile – ganz im Gegenteil.Zitat"merklich" darfst Du gleichsetzen mit einer erkennbaren Farbstufe, oder Farbabriss, Linienbildung, oder "erforderlichem" Flimmern / Rauschen.
Wie gesagt, schaue es dir in Natura an. Solange die "Verarbeitungspipeline" vernünftig implementiert wurde, ist das Ergebnis visuell gleichwertig. Du profitierst umfänglich von der erhöhten Farbtiefe des Eingangssignals. Ich bin da nur verhalten, weil das System der 10bit Zuspielung selbst derzeit leider noch sehr wakelig ist. -
Zitat
Stell dir einfach mal das notwendige Mapping von sRGB auf AdobeRGB im roten Bereich im Vergleich zum grünen Bereich vor...
Ich stelle es mir vor – und sehe eine ideale Abbildung, da der Zielfarbaum den Quellfarbraum einschließt.Zitat...genauso, wie das von AdobeRGB auf sRGB
Hier sehe ich eine Abbildung auf die durch den GBD definierte Farbraumgrenze für out-of-gamut Tonwerte und eine ideale Transformation für in-gamut Tonwerte.Habe ja auch selbst schon CMMs umgesetzt, u.a. für unsere Validierungslösung. Relativ und absolut farbmetrischer Intent unterscheiden sich nur bezüglich des Media-Whitepoint-Handlings (der absolut farbmetrische Intent kommt fast ausschließlich Rahmen des Proofings zur Simulation des Auflagenpapiers zum Einsatz) – abgesehen von einer möglichen (und wichtigen) Tiefenkompensation, wie sie z.B. Adobes ACE anbietet. Bildschirmprofile unterstellen aber ohnehin vollständige Adaption auf den konkreten Weißpunkt und wurden auch entsprechend erzeugt (d.h. die farbmetrischen Daten sind chromatisch nach D50 adaptiert).
Zitatje nach Intent.
Einfache Matrixprofile geben nur einen farbmetrischen Intent her.Zitatdeswegen habe ich bisher auch darauf verzichtet auf den m.E. visuell deutlich wahrnehmbaren Messfehler von i1 Pro Messgeräten, von mehr als 2 dE-2000 abzuheben
Ich verweise in diesem Zusammenhang u.a. auf Effekte der Beobachtermetamerie, die besonders für Selbstleuchter um Größenordnungen mehr Einfluß haben – aber das bringt uns nicht weiter (bei Interesse: Hier hatte ich das einmal ausgeführt). Für die maximale absolute Genauigkeit im Rahmen spektralradiometrischer Messungen müsstest du schon auf Kaliber wie das CS-2000 oder zumindest die SpectraScans zurückgreifen. Am ehesten wären dabei noch letztere bei zentralen Labormessungen (mit der 5 nm Option und damit ISO 3664 konform) sinnvoll. Schon aufgrund der dezentralen Struktur ist die Kombination aus i1 Pro/ i1 Pro 2 und i1 Display Pro aber die bestmögliche und gleichzeitig absolut hinreichende Lösung für uns.ZitatSignifikanz ist bei wahrnehmungsbezogenen Dingen ziemlich subjektiv
Probiere es bitte selbst mit zwei geeigneten Geräten aus, dann wirst du es sehen – bzw. nicht sehen ;-). -
Zitat
..allerdings sollte man auch hier daran denken, dass es bezüglich der Farbabrisse einen Unterschied macht, ob ein absolut-, oder ein relativ- farbmetrischer Intent vorliegt
Das grundsätzliche Mapping auf den beschreibenden GBD ändert sich ja nicht (abgesehen von der Weißanpassung) – größeren Einfluß im Zusammenhang mit der Separation in einem CMYK-Profil hat da eine mögliche Tiefenkompensation bei relativ farbmetrischen Intent, auf die du wahrscheinlich abzielst. Sollte man, sofern angeboten, natürlich nutzen, um unnötige Farbabrisse gerade bei RGB-Quelldateien in den Tiefen zu vermeiden.ZitatSchön, dass wir uns zumindest diesbezüglich einig sind...
Ich will dich ja gar nicht ärgern, aber tatsächlich gibt es da keinen siginifikanten Unterschied. Schau dir die 10bit Zuspielung einfach mal im Zusammenhang mit zwei entsprechenden Schirmen an. Die FRC-Schaltungen sind heute durchweg sehr sauber implementiert. -
Zitat
...ansonsten wären ja auch 14 Bit Rechengenauigkeit für eine 12 Bit Lut und erst recht 16 Bit Genauigkeit uninteressant, oder?
Nein. Wobei im Prosumer- und High-End-Segment heute durchaus auch 14bit und 16bit Tabellen verwendet werden.ZitatDoch "Ja", da der kleine aber feine Unterschied das erwähnte gleichzeitig ist...
Liegen visuell bei einem 10bit Eingangssignal in beiden Fällen tatsächlich vor. In einem Blindtest wirst du das nicht auseinanderhalten (ggf. nur mit der Nase vor dem Panel hinsichtlich des FRC-Rauschens). Schon aus diesem Grund ist es statthaft, dass die Bezeichnungen da bei den Herstellern verschwimmen und sich die 10bit Panel-Angabe meist nur auf den LVDS-Link bezieht.ZitatWenn dem nicht so wäre, könnte man auch gleich 6 Bit Panels und Softwarekalibrierung anstatt 10 Bit Panels und Hardwarekalibrierung verwenden...
Nein. Allerdings wird die Kopplung aus 6bit Panel (8bit LVDS) und 10bit LUT durchaus implementiert (vgl. einige Eizo-Modelle im Entry-Level Bereich) – und birgt visuell in einem 8bit Workflow keine signifikanten Nachteile (weiterhin präzise und neutrale Reproduktionscharakteristik, ohne "vcgt Profil" keine Tonwertverluste gegenüber dem Ausgangssignal).Zitatund auch z.B. der Farbraumkonvertierung
Ein CMM arbeitet intern natürlich ebenfalls mit hoher Präzision. Spatiales Dithering kommt hier dann zumindest optional bei Ausgangsmaterial mit geringer Farbtiefe zum Einsatz, um sichtbare Tonwertverluste zu vermeiden (gegen die mit farbmetrischem Intent auftretenden Farbabrisse in Verläufen mit out of gamut Tonwerten hilft das freilich nicht). -
Zitat
Ja, solange man letztlich nur 256 Stufen gleichzeitig anzeigen kann und will.
Kann und will man 1024 Stufen (für sanftere Übergänge) gleichzeitig anzeigen, braucht man halt echte 10 Bit und kann diese nicht durch präziser (mit 10, 12, 14, 16 bit) berechnete 8 bit Stufen ersetzen.
Nein. Hinter dem LVDS-Link sitzt natürlich eine FRC-Stufe für die Farbtiefenkonvertierung. Das ist übrigens selbst beim präzise transformierten 8bit Eingangssignal wichtig, da man ja nicht einfach die lsb abschneiden will. Für dich ergibt sich aber tatsächlich auch in einem 10bit Workflow kein signifikanter Unterschied (zwischen 10bit Panel + 10bit LVDS und 8bit Panel + 10bit LVDS). Das ist jetzt kein theoretischer Exkurs: Auch wenn für den U3014 nicht explizit getestet, habe ich entsprechende Kombination alle schon im Einsatz (auch mit 10bit Zuspielung) gesehen.Zitatwas gerade den bisherigen Schwachpunkt dieses Gerätedesigns (dunkler Bereich unter 0,5 cd) etwas entschärft und möglicher Weise auch für die verbesserte Mess- Genauigkeit (zusammen mit der wohl geringeren Temperaturdriftempfindlichkeit) gegenüber dem i1 Pro verantwortlich ist.
Wie gesagt, die Vorteile im Bereich emissiver Messungen sind überschaubar und brächten für unsere Testberichte keinen entscheidenden Vorteil. Deswegen gibt es für die betroffenen Redakteure auch keine generelle Umstiegsempfehlung (übliche Messgerätekombination bei uns: i1 Pro und i1 Display Pro). An dieser Stelle muss man fairerweise anmerken, dass für X-Rite weitere Verbesserungen auf diesem Gebiet extrem aufwändig und im Ergebnis preislich für den Consumer-Bereich völlig uninteressant wären. Ein ISO 3664 konformes Gerät (optischer Bandpass <= 5nm) wird es hier auf absehbare Zeit nicht geben. Ich selbst werde demnächst auf das i1 Pro 2 umsteigen, aber das hat in erster Linie mit der Druckerprofilierung zu tun.Geht es nur um Bildschirmkalibration und -profilierung rate ich zum i1 Display Pro oder BasICColor Discus. Beides sehr ideale Colorimeter, die gegenüber früheren Lösungen erhebliche Zugewinne erzielen. Für den DELL kommt in Verbindung mit DCCS ja eh nur ersteres in Frage.
-
Zitat
...ich wäre halt froh, wenn man sich endlich von den lausigen, antiquierten, 256 Stufen verabschieden würde.
Meine FireGL V7700 hat netter Weise 10 Bit Unterstützung - zugegebener Maßen aber nicht jede Software...
Wie gesagt, das ist u.a. auch in der heute weit verbreiteten Kombination aus 8bit Panel mit internem 10bit LVDS-Link grundsätzlich erstmal kein Problem und letztlich ohne visuelle Abstriche möglich.ZitatHabt ihr den Testmonitor auch mit 10 Bit (GraKa und DisplayPort) getestet?
Nein.ZitatDas i1 Display Pro scheint laut Drycreekphoto genauer als das (alte) i1 Pro zu sein...
Wir müssen hier Inter-Instrument-Agreement und absolute Genauigkeit trennen. Wobei letztere beim i1 Display Pro mit der passenden spektralen Charakterisierung ebenfalls völlig hinreichend ist (siehe Bericht). Gleichzeitig haben natürlich auch i1 Pro und i1 Pro 2 Einschränkungen (vgl. u.a. ISO 3664 oder Signal-Rausch-Abstand), sind aber für uns die bestmögliche Lösung.Zitat...Drycreekphoto hat anscheinend Abweichungen von bis zu 3,5 DeltaE zwischen den 10 von ihnen getesteten i1 Pro Geräten gemessen:
i1 Pro und i1 Pro 2 sind im (gehobenen) Consumer-Bereich angesiedelt und in erster Linie für spektralfotometrische (= reflektive) Messungen von Körperfarben entwickelt worden. Die Verbesserungen des i1 Pro 2 sind denn auch in erster Linie hier zu finden (zeigen sich z.B. bei der Vermessung von Papieren mit optischen Aufhellern), wobei der deutlich höhere Leuchtdichten-Messbereich durchaus interessant sein kann. -
Ich kann ihn im ausgeloggten Zustand einsehen.
-
Die PAs sind bereits ab Werk sehr neutral und verfügen auch über umfangreiche Bordmittel. Hier verschwimmen die Grenzen zwischen Hard- und Softwarekalibration. Schon rein vom Ablauf her wäre die Hardwarekalibration aber komfortabler. Falls du in der Richtung noch investieren willst, würde ich nur die Software und zusätzlich die Retail-Variante des i1 Display Pro kaufen. Sonst hast du noch eine Sonde, die an ein spezielles Programm (abgesehen von Open Source Lösungen wie Argyll) geknüpft ist.
-
Zitat
Der Dell U3014 scheint geeignet, aber hat er auch (wirklich) ein 10 Bit Panel (passend zu meiner 10 Bit fähigen GraKa)
Wie im Testbericht vermerkt: Ob da ein echtes 10bit Panel oder natives 8bit Panel mit 10bit LVDS-Link verbaut wird, ist für dich als Benutzer unerheblich. Wichtig ist im Gesamtzusammenhang vor allem die Präzision der LUT. Den DELL kannst du mit 10bit pro Farbkanal ansteuern, sofern geeignete Grafikkarte (FirePro, Quadro) und Software vorliegen.Zitat
Das Streifenproblem trat bei unserem Modell nicht auf, man hört hier aber inzwischen einige Klagen.Zitat...und welche Revision(en) habt ihr getestet?
Ich vermute die A00.Zitat
(Bitte auch die Kommentare lesen, da trat beim U3014 im Zusammenhang mit der Hardwarekalibration ein recht spezielles Phänomen zu Tage)Zitatund eventuell auch mit "i1 photo Pro 2" Ergebnissen verglichen?
In unserer eigenen Validierungssoftware verwenden wir das i1 Pro. Macht hinsichtlich spektralradiometrischer Messungen keinen siginifkanten Unterschied. -
Zitat
- die Retail-Version enthält die X-rite i1 Profiler Software. Ausserdem lassen sich die Software-Lösung von Quato, NEC, Eizo und neuerdings auch Dell nutzen. Dadurch können deren Monitore damit auch Halrdwarekalibriert werden.ZitatDemnach müsste ich die Retail-Version besitzen, wenn auf meiner Verpackung "EODIS3" stehen würde und die X-rite i1 Profiler Software bei mir dabei war, sehe ich das richtig?
Zweimal Ja. -
Zitat
Dell U3014?
Wir jetzt kurzfristig online gehen.Zitat- LG 27EA83
Hier hat es ein paar Verzögerungen gegeben, rechne in der nächsten Woche mit dem Bericht und den Details.